Skip to main content

Home/ QN2019/ Group items tagged gestion

Rss Feed Group items tagged

Aurialie Jublin

Retour sur MyData2018 : quelle(s) approche(s) collective(s) des données perso... - 0 views

  • L’entrée en vigueur du RGPD a clairement été l’événement marquant de 2018 et beaucoup d’intervenants s’y sont référés. Le principe d’équité y est affirmé. Or il s’agit d’un principe qui recouvre une dimension collective : l’équité suppose un groupe, contrairement aux autres principes (transparence, légalité, limitation de but, rétention, intégrité et confidentialité, minimisation des données, précision). Toutefois le texte ne donne pas de définition de l’équité dans le contexte de la gestion des données personnelles a fait remarquer Jussi Leppälä, Privacy Officer (Global) chez Valmet. Finalement, les intervenants s’accordaient à dire que le RGPD est un texte axé sur les besoins individuels plutôt que collectifs. Il protège l’individu, mais ne porte pas de vision véritablement collective des données personnelles.
  • Sur cette question de l’équité, l’exemple d’openSCHUFA donné par Walter Palmetshofer (Open Knowledge Allemagne) est inspirant : une campagne de collecte de données a été faite auprès de milliers d’individus pour comprendre l’algorithme de credit-scoring (pointage de crédit) de SCHUFA, bureau de crédit privé allemand. Cela a permis à des individus de pouvoir demander, preuves à l’appui, à corriger des décisions prises par l’algorithme. De manière générale, le biais algorithmique est un enjeu sociétal important, surtout pour les groupes les plus fragiles dont les données personnelles sont plus exposées et davantage victimes de biais algorithmiques (à ce sujet, lire Internet Actu).
  • D’autres intervenants ont insisté sur la nécessité d’accompagner les entreprises vers plus de prises en compte de leur responsabilité sociale. Le modèle de gouvernance qui domine actuellement étant l’hégémonie d’acteurs économiques (GAFA, BATX) raconte Bruno Carballa Smichowski, de Chronos, le rééquilibrage des pouvoirs doit venir des Etats. Ces derniers disposent de données personnelles, mais peuvent également demander des comptes et pousser les acteurs qui utilisent les données à être plus ouverts et actifs : littératie, infrastructure, open innovation, construire la confiance et faire reculer la peur, ou encore impliquer les personnes concernées (Hetan Shah et Jeni Tennison), sont autant d’actions que les pouvoirs publics peuvent mettre en place.
  • ...9 more annotations...
  • Depuis le lancement de MyData, la nécessité de développer les enjeux collectifs des données personnelles apparaît chaque année plus forte. En parallèle, les communs numériques apparaissent de plus en plus comme un modèle alternatif désirable face aux comportements abusifs des acteurs dominants. Les communs autorisent par nature une gestion transparente et au service de la communauté, car gérés par leurs membres.
  • Si sa remarque a donné naissance au track “OurData” en 2017 et en 2018,, le terme de “commun” était pourtant quasiment absent des discussions du track OurData, essentiellement tourné vers l’acteur public et la régulation. L’exemple d’OpenSCHUFA se rattache néanmoins au courant des communs en donnant un exemple concret.
  • L’idée derrière la coopérative de données qui s’intègrerait au modèle MyData/Self Data viserait plutôt à créer un commun : une association d’individus développant des outils et services (chat, moteur de recherche,…) leur permettant de gérer leurs données de A à Z. Il existe plusieurs coopératives de données de ce type : diglife.coop, schluss, open.coop,…
  • Laura James (doteveryone) a suggéré  cette session afin d’échanger avec les participants sur la faisabilité de créer une ou des coopératives “de masse”, appartenant à leurs membres et gérées par eux. L’objectif serait d’offrir aux gens de meilleurs services que les géants de la technologie et les entreprises de type Silicon Valley. Laura James constate que si le problème avec les géants numériques est leur modèle d’entreprise (capitalisme de surveillance) et le modèle de propriété (extraction de richesse au profit de quelques-uns), la “data coop” doit permettre d’offrir une technologie en laquelle nous pouvons avoir confiance – c’est-à-dire préservant notre vie privée, accessible, fiable, équitable, basée sur les sources ouvertes existantes, avec un meilleur support et une véritable durabilité.
  • Est-ce que le peu de succès de Digital Life Collective est dû à un manque d’intérêt de la part des consommateurs pour les questions liées aux données personnelles ? Ou bien est-ce que les enjeux ne sont pas encore bien compris par les gens ? Les porteurs de coopératives présents à la session échangent sur plusieurs éléments de réponse. D’abord, il n’y a pas une absence d’intérêt pour les questions de privacy mais une perception et un traitement différent selon les personnes (par les « millenials » par exemple). Ensuite, les consommateurs veulent-ils avoir à supporter la responsabilité qui va avec la reprise du contrôle sur leurs données ? Rien n’est moins sûr : comme les services gratuits d’aujourd’hui, cela doit être simple. Mais le contrôle implique nécessairement des responsabilités… Les consommateurs ont aussi besoin de services pratiques. Il faut travailler l’expérience utilisateur. Enfin, il faut une littératie des données pour créer un véritable intérêt et dissiper la peur et les malentendus autour de ce sujet.
  • Comment avoir une véritable gouvernance partagée tout en ayant une organisation suffisamment grande ? A peine 10 personnes sont vraiment actives au sein de Digital Life Collective. Schluss recherche une manière de faire participer davantage les membres. C’est un problème récurrent pour les coopératives, et toute organisation dont la gestion s’appuie sur l’ensemble de ses membres. Toutefois, l’un des participants soulignait que même si seul 1% s’implique dans la prise de décisions, tous reçoivent les bénéfices de la coopérative ! Ca n’est pas la gestion parfaitement partagée et idéale, mais cela fonctionne quand même. Avant de renoncer au modèle participatif, quelques modèles de gouvernance pourraient être expérimentés pour faciliter les prises de décision participatives au sein de la coopérative : les jurys citoyens, sociocracy 3.0 (utilisé par certaines entreprises télécom en Finlande), …
  • Dans les sessions de la thématique “OurData”, nous avons eu le plaisir d’entendre à chaque fois (ou presque) que la propriété appliquée aux données personnelles n’a aucun sens. Bien que ce track, plus qu’aucun autre, soit prédisposé à un tel constat,depuis quelques années, la position de la communauté MyData s’est éclaircie à ce sujet et on voit de moins en moins de personnes prôner ce modèle de propriété et de revente individuelle de ses données..
  • En découle un modèle collectif basé non pas sur des titres de propriété individuels mais sur des droits d’usage. Le RGPD en crée quelques-uns mais d’autres questions restent en suspens, comme le droit à la mémoire collective, notamment pour les catégories les plus défavorisées, ou encore l’équité, qui s’oppose à une régulation par les lois du marché.
  • La plupart des intervenants postulent que c’est l’acteur public qui doit agir : en créant de nouveaux droits associés aux données personnelles, en accompagnant les acteurs privés à fournir des solutions plus éthiques et transparentes, en s’engageant pour une culture et une littératie de la donnée pour tous, en actant juridiquement que les données personnelles sont le résultat d’un processus collectif qui appartient à la société qui l’a co-généré et qu’il ne peut y avoir de propriété associée (en France la CNIL est très claire sur ce dernier point, nous avons besoin d’une voie aussi claire au niveau européen !), en promouvant leur valeur sociale, et non commerciale, et enfin qu’il fasse que le fruit de ce travail doit servir à répondre à des problématiques collectives telles que la santé, l’éducation, la culture, la protection de l’environnement, …
  •  
    "LE CONSTAT : LA GESTION ACTUELLE DES DONNÉES PERSONNELLES S'INTÉRESSE PEU AU COLLECTIF MyData s'intéresse à toutes les dimensions que recouvre le contrôle des données personnelles : si la privacy occupe souvent le devant de la scène, MyData explore également la transparence des organisations et des technologies, l'équité et la dimension collective des données personnelles."
Aurialie Jublin

Des impacts énergétiques et sociaux de ces data-centers qu'on ne voit pas - M... - 0 views

  • Côté consommation pour commencer, les études les plus pessimistes avancent que ceux-ci pourraient représenter jusqu’à 13% de l’électricité mondiale en 2030 (avec un secteur informatique qui consommerait jusqu’à 51% du total de la consommation électrique mondiale). Des chiffres qui ne font pas l’unanimité, The Shift Project prévoyant plutôt 25% pour le secteur informatique et 5% pour les data centers en 2025 (ces 5% équivaudraient tout de même à toute la consommation électrique actuelle du secteur numérique).
  • Même si l’on constate de nombreux efforts faits pour améliorer l’efficacité énergétique des infrastructures, par exemple du côté des « big tech », l’ADEME rapporte que les géants du numérique ne portent pas un véritable discours sur la « sobriété énergétique et numérique nécessaire pour rester sous la perspective d’une augmentation des températures planétaires de 1,5°.»
  • Le rapport insiste ensuite sur les déséquilibres qui résultent de certaines implantations dans les territoires. Première constatation : ces impacts sociaux sont très peu documentés. Bien souvent, les data centers arrivent sans dire leur nom, en périphérie des villes, aux Etats-Unis ou en France, à Saclay par exemple ou encore Plaine Commune. Cette furtivité des bâtiments rend d’autant plus difficile les contestations ou demandes de participation de la part des populations locales.
  • ...14 more annotations...
  • Ils sont considérés comme de simples entrepôts par les pouvoirs publics alors même que leur consommation électrique a des répercussions à l’échelle d’un territoire tout entier.
  • Autre phénomène important : les data centers attirent les data centers, pour des questions de mutualisation d’énergie et de réseaux de télécommunication. Bien souvent, les hiérarchies urbaines en place sont renforcées par ces mécanismes. Les élus eux, peinent à lutter contre des acteurs puissants qui imposent leurs conditions « dans une négociation asymétrique qui pousse certains territoires à sur-calibrer des infrastructures énergétiques, hydrauliques et viaires pour pouvoir accueillir quelques dizaines, ou centaines d’emploi si l’on inclut les phases de construction. »
  • Aujourd’hui, c’est plutôt pour installer des hangars logistiques et des fermes de serveurs qu’on artificialise les sols. Autre effet non négligeable qui mériterait sans doute une discussion plus ample avec les populations locales : l’étalement urbain.
  • Le rapport souligne ensuite les possibles synergies entre les infrastructures numériques et le territoire. La réutilisation de la chaleur générée par les data centers  est à ce titre un cas d’usage bien connu. A Bailly-Romainvilliers, par exemple, le data center de BNP Parisbas chauffe le centre nautique voisin. Celui de Céleste à Noisy-Champs, chauffe ses propres bureaux. D’autres systèmes très chauffants comme les chaudières numériques de Stimergy chauffent une partie de l’eau de la piscine de la Butte-aux-Cailles, dans le treizième arrondissement de Paris.
  • Cependant, ces exemples restent anecdotiques. Dans l’immense majorité des cas, la chaleur n’est pas récupérée. D’abord pour des questions de coût et de rentabilité économique : les promoteurs des data-centers attendent des rendements sur des périodes courtes incompatibles avec la contractualisation pour les réseaux de chaleur (des engagements qui coulent sur 25 à 30 ans
  • Il existe aussi un frein technique : il est préférable de prévoir ces éventuels contrats dès la construction du data center car le modifier a posteriori peut représenter des risques que les promoteurs ne sont pas prêts à prendre.
  • La cinquième partie du rapport, qui m’a particulièrement plu, fait la part belle aux initiatives citoyennes, associatives et publiques des « infrastructures numériques alternatives ». Du côté des fournisseurs d’accès, de nombreux acteurs associatifs comme franciliens.net ou Aquilenet dans le Sud-Ouest sont regroupés au sein de la Fédération FFDN. Ils viennent compléter l’offre des fournisseurs principaux (Bouygues, Free, Orange et SFR). Le grand atout de ces solutions est de miser sur le social, l’éducation et la démocratie : « Ils participent d’une gouvernance partagée du commun qu’est Internet en portant des valeurs de transparence, d’inclusion, de lien social, d’apprentissage technique, et d’incitation à la participation à la vie citoyenne. »
  • La socioanthropologue des techniques Laure Dobigny affirme que quand cette gestion inclut et implique, alors les consommateurs vont vers plus de sobriété : « la mise en place de systèmes techniques de plus petite échelle ont permis, en modifiant les usages, une réduction des consommations. » La question est ensuite de savoir comment passer d’une gestion commune de réseaux à une gestion commune de data-centers.
  • Le rapport présente un certain nombre de solutions, comme le cloud de pair-à-pair : « l’idée centrale sous-tendant ces dispositifs est que les fichiers et les contenus téléchargés par les utilisateurs dans le système sont stockés, totalement ou en partie, sur un nuage de stockage composé d’une partie des disques durs de chaque utilisateur, reliés entre eux en architecture P2P. » L’idée est plutôt simple : re-décentraliser internet, réduire le besoin de grands data-centers et atténuer l’impact spatial de ces infrastructures. Les limites de ces solutions sont nombreuses bien sûr : pertes de données, erreur, taille critique non atteinte… Il existe également des data centers « de proximité » comme les chatons (« Collectif d’Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires ») ou encore SCANI dans l’Yonne et Tetaneutral à Toulouse.
  • Pour terminer, le rapport dessine trois « mondes numériques possibles ». Le premier scénario parie sur l’extrême croissance et l’ultracentralisation numérique. Pour faire simple, c’est aujourd’hui mais en pire : tout est numérisé, plateformisé, big-daté et concentré dans les mains des GAFAMS ou d’autres acteurs similaires. La ville se conforme aux modèles numériques de la smart-city, la consommation de data explose. C’est la fuite en avant, la croyance qu’un monde infini existe. Côté C02, c’est la catastrophe, la température globale monte de 2,5° en 2050. Pics de chaleur dans les villes, problèmes sociaux, etc.
  • Le deuxième scénario est en demie teinte. On stabilise le système technique numérique en permettant la coexistence de deux mondes : celui des big tech et celui, plus centralisé, des infrastructures à plus petite échelle. L’Union Européenne taxe les « Net Goinfres », ce qui modifie les comportements : on échange moins de photos de chats et on tend à les stocker sur nos terminaux personnels plutôt que dans le cloud, idem pour la musique. Côté consommation, on parvient à réduire les émissions de CO2 du secteur de 5% par an entre 2025 et 2050, ce qui nous ramène au niveau de 2013.
  • Le dernier scénario propose une forme de décentralisation ultime du numérique qui signe plus ou moins la fin des data-centers tels que nous les connaissons. Internet devient plus local et dépendant des énergies renouvelables, ce qui ne permet plus d’assurer sa continuité. Le projet Greenstar au Canada suit ces principes et accepte les intermittences du réseau (follow the wind/follow the sun), de même, le blog du Low Tech Magazine s’arrête de fonctionner quand le vent ne souffle plus (le scénario nucléaire n’est pas vraiment envisagé car l’exercice prospectif est global). Ce scénario « effondrement » se base sur des infrastructures totalement low-tech (c’est-à-dire peu coûteuses en énergie) et permet assez ironiquement un « retour aux principes fondateurs d’internet (horizontal et distribué) ». Côté service, on se contente du local et l’international devient l’exception
  • L’ADEME invite également à soutenir les FAI indépendants et à créer un « service public du numérique et des data centers publics », notamment pour améliorer l’intégration spatiale des infrastructures. Les questions énergétiques font également l’objet de propositions : sobriété, récupération de chaleur, décentralisation.
  • Le chercheur Clément Marquet cité plus haut dans l’article me rappelle que ces différents rapports (Shift, ADEME) arrivent dans un moment particulier puisque le gouvernement a voté en octobre 2018 une loi visant à réduire la fiscalité énergétique pour attirer les gros data centers. Je le cite : « il y a une tension entre le projet de souveraineté numérique par les infrastructures (et des bénéfices économiques qui iraient avec bien sûr) et celui de réduction de la consommation énergétique. »
  •  
    "L'ADEME, via le projet Enernum, vient de publier une étude approfondie sur les impacts à la fois énergétiques et sociétaux de l'installation et du déploiement des data centers, en France et ailleurs. Ce travail vient confirmer les conclusions du Think tank The Shift Project qui alertait déjà des coûts carbone importants de ces infrastructures qui soutiennent tous nos usages numériques. Par delà les chiffres, l'ADEME replace les data-centers dans leur contexte humain et géographique et interroge la gestion de ce type d'infrastructure sur le territoire."
Aurialie Jublin

Comment les blockchains peuvent sauver la culture - 0 views

  • Le premier est de former des registres immuables et distribués, enrichis au fil de l’eau et de façon sécurisée, tout en restant facilement consultables par tous à tout moment. En matière de gestion des droits d’auteur, ou de simple référencement des oeuvres, c’est un fort atout, en rupture avec la logique de fichier centralisé qui prévaut aujourd’hui.
  • Le second est de permettre la création de « contrats intelligents », c’est-à-dire des transactions programmables, conditionnées à des événements futurs. Ce sont ces contrats qui sont à l’origine de toutes les ICO (« Initial Coin Offering »), permettant à quiconque d’acquérir un token avant qu’il ne soit créé. Transposé au domaine culturel, le principe d’associer flux financiers et conditions pré-programmées automatisables peut s’avérer puissant. Il devient par exemple facile de faire évoluer le prix d’un album musical en fonction de son succès, ou d’offrir aux 100 premiers acheteurs de cet album une remise sur un concert à venir.
  • Le troisième atout tient aux paiements proprement dits : toute blockchain publique (ou tout token) est aussi une crypto-monnaie, convertible en d’autres monnaies, et autorisant de façon efficace des transactions de montants très faibles (inférieurs au centime d’euro), ce que nulle autre solution ne permettait jusqu’alors.
  • ...10 more annotations...
  • Voise, développé en OpenSource sur la plate-forme Ethereum, dispose ainsi de sa propre monnaie (VOISE) pour créer « une plate-forme libre et équitable permettant aux artistes de monétiser leur contenu sans intermédiaire ». Ciblant les artistes indépendants et déjà disponible en version alpha, la plate-forme offrira comme d’autres du streaming payant, mais sans abonnement et avec une différence de taille : les artistes fixent eux-mêmes le prix de leur musique et conservent 100% des revenus
  • De son côté, Ujo est encore plus ambitieux, en tirant parti de plusieurs blockchains et outils décentralisés pour créer « une plate-forme où la musique reste en permanence sous le contrôle de l’artiste » : stockage décentralisé via IPFS et Swarm, licensing et paiements via Ethereum, gestion des identités sans mot de passe via uPort, lui-même un projet blockchain innovant... Chaque artiste est responsable de ses données et de son contenu, fixant les prix et les licenses, et pourra vendre par ce biais non seulement sa musique mais tous les produits dérivés (goodies, places de concert, etc.)
  • Autres exemples, Opus, disponible en version beta, et « s’opposant aux modèles monopolistiques et centralisés actuels » ou Muse qui, bien que tardant à se concrétiser (en développement depuis plus de deux ans), entend également créer « un réseau P2P globalement distribué appartenant aux musiciens eux-mêmes, où les royalties de tous les ayant-droits sont payées directement et instantanément, sans intermédiaires qui prélèvent des commissions ».
  • Sur le Web, la monétisation des textes a toujours été un problème. Un auteur de blog ou un petit éditeur de presse n’ont que peu de choix : couvrir leurs pages de bannières (dont l’immense majorité est gérée par une seule entreprise, Google) et espérer s’adjuger une (maigre) part du gâteau publicitaire. Là encore, les blockchains peuvent changer la donne.
  • On peut faire autrement, et deux plates-formes de contenu éditorial, Steemit et Yours, le prouvent. Toutes deux, inspirées de Reddit et opérationnelles (en version beta), permettent à quiconque d’ouvrir un blog, en dégageant des revenus directement liés à la popularité de ce qu’il/elle publie. L’idée est bien de s’opposer aux modèles en vigueur. « La plupart des médias sociaux extraient de la valeur de leurs utilisateurs pour le seul bénéficie de leurs actionnaires. Steemit est différent, formant un nouveau genre d’économie de l’attention. Etant connecté à une blockchain décentralisée et contrôlée par les gens, ce sont les utilisateurs eux-mêmes qui perçoivent tous les bénéfices et toutes les récompenses pour leur attention », explique Steemit, dont la monnaie (STEEM) pèse près de 300 millions de dollars en capitalisation.
  • « Les paiements en pair à pair sont la pièce manquante aux médias sociaux. Cette absence de paiement explique pourquoi Internet est rempli de clickbait, de spam et de fausses actus. Les gens devraient être capables de gagner de l’argent directement depuis celles et ceux qui les soutiennent, et tout ne devrait pas été financé par la publicité », ajoute Yours, dont la principale différence avec Steemit est d’imposer un coût initial pour la publication de nouveaux contenus.
  • Alors qu’on peut tout dupliquer en deux clics, comment prouver l’antériorité d’un texte, s’assurer qu’une photo émane bien de la personne qui prétend en être l’auteur, ou reproduire facilement un contenu en toute légitimité, en créditant ou payant les auteurs initiaux ? Plusieurs (ambitieux) projets s’attaquent au problème.
  • Po.et, après la création de son token POE ayant levé 10 millions de dollars en ICO, veut créer « un registre universel partagé pour tracer l’existence et la propriété de tous les actifs culturels mondiaux ». Initialement, le dispositif se contente d’établir une « preuve d’existence » de tout document numérique en lui adjoignant des méta-données rattachées à la blockchain Bitcoin. Tout article publié sur un site Web peut ainsi être horodaté de façon irréfutable, tout en étant plus facilement indexable (titre, mots-clés, auteur, lieu de publication, etc.).
  • A terme (d’ici à 2019), l’idée va bien au-delà, avec la création d’un dispositif de gestion automatisée des licenses, permettant de former un marché mondial du contenu numérique, quel que soit son format. Tout ebook, tout article de presse ou de blog, toute image ou tout enregistrement numérique seront dûment identifiés, et les licenses acquittées, via un réseau décentralisé et des crypto-monnaies, sans intermédiaires entres éditeurs et producteurs de contenus. Au passage, « non seulement un enregistrement Po.et stockera plus de méta-données qu’un ISBN, mais ce sera un service gratuit »
  • Des dizaines de projets à base de cryptos et tokens montrent la voie. Automatisation du traitement des droits d’auteur, indexation intelligente et pérenne des oeuvres, plus grande transparence, mise en rapport direct des artistes/auteurs et de leurs fans, suppression partielle ou totale des intermédiaires financiers et leurs commissions, réduction du modèle publicitaire... On comprend que les blockchains ont de sérieux atouts pour disrupter l’industrie culturelle.
  •  
    "Les blockchains et les crypto-monnaies intriguent, excitent ou effraient, c'est selon, mais tout porte à croire qu'elles sont en train de donner naissance à une nouvelle économie, déjà baptisée « Token economy », reposant sur une myriade de monnaies et/ou jetons électroniques qui réinventent les usages, décentralisent la valeur et bousculent les systèmes en place. Pour démarrer cette série de « Mes tokens et moi », penchons-nous sur la diffusion d'oeuvres culturelles grâce aux blockchains. Episode 1 : Décentraliser la culture. "
Aurialie Jublin

Uberland : l'avenir du travail à l'heure des algorithmes | InternetActu.net - 0 views

  • Pour Alex Rosenblat, Uber a provoqué « un changement culturel fondamental sur ce que signifie avoir un emploi ». Uber a tiré un maximum de valeur des conducteurs en surfant sur les limites et ambiguïtés des normes culturelles et juridiques. Pour Adrian Chen, la gestion algorithmique d’Uber est moins une révolution qu’un affinage, à l’image des chauffeurs de taxi eux-mêmes, qui ont longtemps été dans une situation entre autonomie et dépendance, notamment avec nombre d’intermédiaires influant sur leurs possibilités de travail. Uber a simplement rendu cette sous-traitance plus efficace.
  • Adrian Chen pour Intelligencer explique que cette gestion algorithmique de la force de travail suppose une surveillance totale (jusqu’aux tremblements du téléphone pour s’assurer que le conducteur conduit en toute sécurité ! ce qui montre à nouveau, s’il en était besoin, que Uber n’est pas seulement un intermédiaire pour réaliser une transaction). Pourtant, de nombreux chauffeurs semblent satisfaits du travail qu’ils réalisent : ils apprécient la flexibilité et le complément de salaire que leur travail apporte. Même si les récits que Rosenblat a recueillis témoignent principalement d’une résignation épuisée. «Pour certains chauffeurs, ce travail est un véritable boulet, et pour d’autres, c’est un gilet de sauvetage».
  • Dans une interview pour CityLab, la chercheuse rappelle que malgré les efforts d’Uber, le taux de désengagement des chauffeurs est assez fort : 68 % d’entre eux quittent la plateforme dans les 6 mois. Elle pointe néanmoins que les outils d’Uber proposent des services que les collectivités ne savaient pas fournir, notamment en offrant des modalités de transports là où elles n’existaient pas (voir « Plateformes et métropoles » et « Vers une ville numérique ingouvernable »). Uber, derrière sa neutralité de façade, a surtout profité d’un Far West réglementaire pour s’imposer. Partout où elle s’est imposée, la firme a profondément déstabilisé la société (autour de la question du statut des chauffeurs), tout en offrant des avantages populaires (ouvrant de nouvelles dessertes et des prix bas notamment). Toute la question reste de trouver la balance entre les avantages et les inconvénients
  • ...10 more annotations...
  • Dans une tribune pour le New York Times, la chercheuse rappelait la difficulté de cette gestion algorithmique de la relation de travail (voir également « Qui des algorithmes ou des clients seront nos nouveaux patrons »). Une relation profondément asymétrique et qui se crispe notamment dès qu’il y a un problème. Elle souligne combien les informations que délivre Uber à ses chauffeurs comme à leurs passagers sont asymétriques. Un chauffeur de New York évoquait par exemple un échange avec un client qui montrait que celui-ci était facturé 40$ alors que pour le chauffeur, la course n’en coûtait que 28 !
  • Dans les années 70, le sociologue du travail britannique Michael Burawoy, dans son livre Produire le consentement (1979, traduit en français en 2015) constatait que si les travailleurs consentaient à leur propre exploitation, c’était en fait surtout par jeu. Burawoy expliquait que lorsque le travail prenait la forme d’un jeu, la principale source de tension n’était plus dans la relation des travailleurs avec les dirigeants, mais s’étendait aux autres travailleurs, aux machines et contre eux-mêmes. En proposant un sentiment d’autonomie et de contrôle relatifs, la ludification propose aux travailleurs de souscrire aux objectifs de l’entreprise. Lyft propose ainsi des défis à ses conducteurs en échange d’une prime supplémentaire : des défis assez difficiles à décrocher qui reposent sur le nombre de courses à réaliser à certains créneaux horaires.
  • 50 % des conducteurs de Uber cessent d’utiliser l’application au bout de deux mois. 4 % des conducteurs le sont encore après une année. Des rapports récents estiment que le revenu des chauffeurs à l’heure est souvent inférieur au salaire minimum.
  • Sur les forums de chauffeurs ou dans leurs discussions, ceux-ci spéculent sans cesse sur les algorithmes et les moyens de les déjouer, mais sans réellement ne jamais y parvenir. Ils tentent fréquemment de faire des déconnexions en masse de l’application pour faire monter les prix des courses, sans que l’effet n’ait jamais vraiment été assuré. Ces formes de déconnexion volontaires et organisées ressemblent à des microgrèves, à des microprotestations, sans jamais avoir permis de réelles émancipations.
  • Burawoy est à nouveau utile pour comprendre pourquoi. Le fait de « jouer » permet aux travailleurs d’exercer un contrôle limité sur le processus de travail. Mais les victoires qu’ils remportent renforcent leur engagement et leur consentement aux règles du jeu. À l’inverse, leurs échecs dirigent leur insatisfaction contre les obstacles du jeu, et non contre ceux qui en fixent les règles. Apprendre à utiliser intelligemment les paramètres du jeu, de l’algorithme, devient pour eux la seule option imaginable.
  • Après des semaines d’une conduite maniaque pour améliorer sa note… elle a constaté que cette amélioration était sans incidence directe (tant qu’elle restait au-dessus de 4,6/5) : cela ne générait ni réel bonus ni amélioration du niveau de rémunération. « En fait, je perdais de l’argent en essayant de flatter les clients avec des bonbons et de garder ma voiture scrupuleusement propre », simplement parce qu’elle souhaitait rester un pilote bien côté. « Ce qui est à la fois si brillant et affreux dans la ludification de Lyft et Uber, c’est qu’elle repose sur notre seul désir d’être utile, aimé et bon. Les semaines où je suis très bien noté, je suis plus motivé à conduire. Les semaines où je suis mal noté, je suis également plus motivé à conduire. » Une fois qu’on est pris dans la zone du jeu, il n’y a plus d’échappatoire !
  • Heureusement, la réaction à l’ubérisation s’est aussi peu à peu musclée. Pour Les Inrocks, Benoît Fabien revient sur le lancement de la Fédération transnationale des coursiers (FTC), qui a rassemblé fin octobre à Bruxelles des livreurs à domicile de toute l’Europe, à l’initiative du Groupe de recherche pour une stratégie économique alternative, de l’Alter Summit et du réseau ReAct, qui encourage les mobilisations transnationales face aux grandes entreprises. Un moyen de contrer la division et l’individualisation des plateformes de livraison pour rééquilibrer les relations de travail imposées par celles-ci. Les revendications sont nombreuses, mais s’organisent : salaire minimum, transparence des algorithmes, la liberté de se réunir en collectif…
  • les chauffeurs d’Uber s’informent des nouvelles fonctionnalités de la plateforme via ces outils, notamment quand Uber teste sur certains d’entre eux de nouvelles fonctionnalités. Le géographe Mark Graham a montré que plus de 50 % de travailleurs freelances qui utilisent des plateformes comme le Mechanical Turk d’Amazon ou Freelancer, sont en contact avec d’autres travailleurs de plateformes et échangent sur les tarifs, sur les tâches proposées et la qualité de ceux qui proposent du travail. Ces groupes servent souvent à des formes de coordination, comme l’a montré la grève des enseignants de Virginie-Occidentale, où 70 % des 35 000 enseignants de l’État étaient présents et ont permis d’articuler les revendications et d’organiser les protestations. Les groupes permettent également de fabriquer des hashtags, des gifs, des vidéos et des mêmes pour publiciser leurs actions. Si ces outils ne sont pas conçus pour soutenir le militantisme, le relai est assuré par des sites dédiés comme Coworker.org, permettant par exemple aux employés de Starbucks de faire pression sur la direction pour limiter le « clopening », le fait qu’un même employé soit chargé de la fermeture et de l’ouverture d’un magasin.
  • Reste que ces services ne sont pas toujours suffisamment en lien avec les syndicats existants : ils manquent d’assistance juridique, comme le proposent les syndicats, ou de fonds pour être maintenus. Les « startups du travail » ont assurément besoin de la force des syndicats pour se transformer. En Allemagne, IG Metal, l’un des plus importants syndicats, permet aux autoentrepreneurs de le rejoindre. Il a également lancé un site pour comparer les conditions de travail sur les plateformes baptisé Fair Crowd Work.
  • Pour Fredrik Soderqvist de Unionen, un syndicat suédois, les syndicats doivent apprendre également à mieux utiliser les données afin de permettre de créer des services adaptés aux transformations du monde… À l’exemple de Mystro, une application pour conducteurs, qui leur permet de basculer d’un service à l’autre, d’évaluer les demandes, de rejeter celles qui ne sont pas rentables, afin d’aider les conducteurs à prendre de meilleures décisions pour eux-mêmes. Assurément, s’emparer activement de la technologie pour les syndicats et les travailleurs peut leur permettre de contrer l’ubérisation… Ça ne remplace ni la lutte sociale ni la lutte légale, mais la lutte technologique peut permettre de faire des contre-propositions concrètes, de fournir des outils d’aide à la décision des travailleurs algorithmisés pour les aider à en comprendre le fonctionnement et à resymétriser la relation.
  •  
    "Dans Uberland : comment les algorithmes réécrivent les règles du travail (2018, Presse universitaire de Californie, non traduit), la chercheuse Alex Rosenblat (@mawnikr) a synthétisé quatre années de recherche ethnographique avec les conducteurs d'Uber. Un livre où transparaît une vision dystopique du travail où des millions de conducteurs sont gérés par un système technique qui combine à la fois l'autoritarisme du management scientifique à la Frederick Taylor et le leadership cynique d'un Michael Scott (le personnage incarné par Steve Carell dans la série The Office), rapporte Intelligencer."
Aurialie Jublin

Libra : « Jamais aucune société n'a eu autant de pouvoir que Facebook » | Les... - 0 views

  • Cette  monnaie numérique est le dernier étage de la fusée pour l'entreprise américaine. Facebook est déjà un géant médiatique et social d'une puissance inédite, avec plus de 2,4 milliards d'utilisateurs sur sa plateforme. Le fait de créer sa propre monnaie la positionne comme une puissante étatique.A l'échelle de l'humanité, aucune banque ni même un Etat n'a, une fois, été en mesure de proposer une monnaie à plus de 2 milliards d'individus. Le sentiment est, lui, mitigé, car il existe un risque évident en termes d'ingérence envers les activités originellement dévolues à l'Etat et de nombreuses questions relatives à la vie privée. Même si Facebook  promet comme d'habitude de forts standards de confidentialité .
  • Facebook a toujours dit que son prochain milliard d'utilisateurs se trouvait sur les marchés émergents, c'est-à-dire en Amérique du Sud, en Afrique, mais aussi en Inde (la Chine et la Russie n'étant pas accessibles, politiquement parlant). Avec cette monnaie numérique, Facebook vise avant tout à fournir des accès bancaires en ligne aux habitants des pays en développement et leur permettre d'effectuer des opérations monétaires élémentaires.
  • Aucune entreprise n'a jamais possédé un tel pouvoir, étant en mesure de toucher autant de gens quotidiennement et en possédant autant de données individualisées sur eux. Le faire en 15 ans, c'est totalement inédit.Les enjeux de la création d'une monnaie sont énormes, tant en matière de confidentialité, que de commerce et de libre concurrence. Or, Facebook, on l'a vu avec la gestion des discours de haine et de la  désinformation sur sa plateforme , s'est montré incapable de faire sa propre régulation. Celle-ci doit être prise en charge notamment par l'Etat.
  • ...5 more annotations...
  • Aux Etats-Unis comme en Europe, de nombreuses voix réclament le démantèlement de l'entreprise. Quelle est votre opinion ?Le lancement de cette monnaie ne fait que me conforter dans cette idée. C'était un discours très marginal il y a cinq ans. Je milite pour une gestion commune de Facebook, qui s'apparente à une forme de démantèlement. On pourrait s'orienter sur une forme de « commonisation » où on imposerait une gestion plus collaborative, sur le modèle de Wikipédia par exemple.
  • Tout le monde est conscient, aujourd'hui, de la valeur collective et individuelle que peut apporter l'infrastructure qu'a créée Facebook. On rêverait que cette entreprise soit éloignée de toutes ces polémiques. Mais il faut pour cela rompre avec la logique économique, ce qui ne viendra jamais de la firme elle-même.
  • On parle de scinder Facebook en plusieurs entités, chacune avec un objet différent, ou imposer à la société de nouvelles règles faute de quoi elle n'aura plus accès à certains marchés. Mais il faudrait pour cela faire évoluer la doctrine antitrust, qui n'est pas adaptée à l'économie numérique. Il faut en revanche prendre des mesures dans un avenir très proche, sinon il sera trop tard pour le faire. Car une fois que la monnaie sera installée, il sera très difficile que le régulateur la défasse.
  • D'un autre côté, certains analystes avancent que Facebook est en train de se planter un couteau dans le ventre. Le fait de lancer sa propre monnaie risque de déplaire à nombre de régulateurs et de convaincre les indécis qui jugeaient jusqu'ici que Facebook n'était qu'une entreprise commerciale privée comme les autres.
  • Le philosophe Bernard Stiegler expliquait il y a peu que la disruption était une stratégie de tétanisation de l'adversaire, où on le prend en permanence de vitesse, de sorte qu'il n'ait pas le temps de réfléchir à des modes de régulations. C'est un peu ce qui se passe avec Facebook.
  •  
    "Olivier Ertzscheid est maître de conférences et chercheur en sciences de l'information à l'Université de Nantes. Le lancement par Facebook de sa propre monnaie numérique positionne, selon lui, l'entreprise comme une puissance étatique. Un pouvoir qui pose la question de son démantèlement."
Aurialie Jublin

Ce nuage que je ne saurais voir. Promouvoir, contester et réguler les data ce... - 0 views

  •  
    Tandis que les données informatiques deviennent un enjeu commercial et politique majeur, une infrastructure occupe une place croissante sur les territoires : les centres de stockage de données ou data centers. Les façades aveugles des entrepôts massifs dans lesquels s'installent leurs opérateurs nous projettent bien loin des nuages qu'évoquent le cloud ou des discours sur la dématérialisation permise par le numérique. Le nord de Paris connaît l'essor entre 1990 et 2015 de la plus importante concentration de centre de données en Europe, générant des interrogations croissantes et des controverses entre riverains, élus, agents territoriaux et employés en charge de la gestion des réseaux électriques. L'article propose d'éclairer ces tensions en montrant la pluralité des manières de rendre visibles les data centers, c'est-à-dire, en analysant les dimensions matérielles, économiques, juridiques et écologiques qui sont saisies par les acteurs du territoire pour promouvoir l'implantation de ces infrastructures, ou au contraire pour les contester. Ce faisant, l'article qualifie différentes modalités de l'invisibilité qui facilitent l'implantation des centres de données : il rend compte des conditions politiques et sociales de leur implantation. Il identifie également deux démarches initiées par les acteurs pour qualifier ce que font les infrastructures numériques au territoire. D'abord, les centres de données se développent initialement comme des projets immobiliers ordinaires, puis sont légitimés a posteriori par les acteurs qui les soutiennent afin de les rendre acceptables à moindres frais. Or ces infrastructures sont aussi ciblées par une critique écologique du numérique, portée par des contestations qui en dénoncent l'empreinte environnementale et qui s'appuient sur les centres de données pour en matérialiser les conséquences.
Aurialie Jublin

Qui crée la valeur économique d'une nation ? - 0 views

  • Nous devons changer de cap, insiste-t-elle, dans ce livre stimulant. Entre autres choses, nous devons repenser la relation entre marchés et gouvernements ; faire une distinction claire entre créateurs de richesse et ceux qui ne font qu’en profiter ; avoir des ambitions collectives plus audacieuses, notamment passer à une économie plus écologique ; et investir pour l’avenir, au lieu de choisir une austérité stérile et contre-productive.
  • Ce livre vient après ‘The Entrepreneurial State’, dans lequel Mme Mazzucato a soutenu que le gouvernement a joué un rôle d’innovateur puissant dans l’économie moderne. L’argument principal de ce livre est qu’il est beaucoup trop facile pour ceux qui interviennent dans l’économie de marché de s’enrichir en profitant de la valeur économique créée par d’autres, au lieu d’en générer eux-mêmes.
  • La manière dont le secteur financier a généré une énorme augmentation de l’endettement des ménages au cours des années qui ont conduit à la crise financière de 2007-2009 en est un exemple évident. Cette concurrence stérile a financé l’achat du parc de logements existants à des prix très élevés. Cela a provoqué une crise importante, un surendettement, une faible croissance et un désenchantement politique. Ceci alors que, pour ceux qui ont créé, manipulé et vendu cette dette, c’était une mine d’or. C’était en fait de la valorisation accompagnée de destruction. Il en va de même pour la gestion d’actifs, avec ses pratiques abusives, ses frais exorbitants, son manque de transparence, sa mauvaise gestion et ses conflits d’intérêts. Ce secteur financier, ainsi que la “maximisation de la valeur pour les actionnaires” que les économistes ont défendu, a eu un effet néfaste sur l’ensemble des entreprises, soutient Mme Mazzucato, en encourageant les rémunérations exorbitantes ainsi que la manipulation des cours boursiers au détriment de l’investissement à long terme.
  • ...10 more annotations...
  • La finance n’est pas seule sur le banc des accusés. Mme Mazzucato s’attaque également à ce qui se passe dans des secteurs qui paraissent avoir un effet plus bénéfique, tels que les technologies de l’information ou les produits pharmaceutiques. Selon elle, l’un des problèmes est l’octroi de droits de propriété intellectuelle trop généreux ou simplement injustifiables, comme le fait de pouvoir breveter des richesses biologiques ou des processus commerciaux très basiques.
  • Elle souligne également l’importance d’un secteur trop souvent considéré comme ne créant aucune valeur économique : le gouvernement. Le gouvernement fait plus que faire respecter la justice et assurer la sécurité, selon elle. Il construit des infrastructures, éduque les jeunes, prend en charge la santé de la population, finance la recherche fondamentale, et a souvent favorisé directement le développement économique. C’est le gouvernement américain, et non des entreprises privées, qui a créé bon nombre des technologies les plus fondamentales et celles qui ont le plus d’impact d’aujourd’hui : l’Internet et le système mondial de positionnement GPS en sont deux exemples spectaculaires.
  • Une thèse fondamentale du livre est que la confusion entre la captation de valeur et la création de valeur, et vice versa, a ses racines dans les erreurs des économistes. Une longue partie du livre traite de l’histoire de la notion de valeur en économie, depuis les mercantilistes du XVIIe siècle jusqu’aux économistes classiques du XVIIIe et du début du XIXe siècle, puis aux marginaux (ou “économistes néoclassiques”) de la fin du XIXe et du XXe siècle.
  • Les économistes classiques, notamment Adam Smith, David Ricardo et Karl Marx, étaient préoccupés par la distinction entre ceux qui créent de la valeur, ceux qui ne font que la faire circuler, et ceux qui vivent du travail des autres comme des parasites (exemple : les aristocrates propriétaires des terres), souligne-t-elle. C’étaient des distinctions à la fois économiques et morales. Les économistes néoclassiques, tels que Léon Walras, Stanley Jevons et Alfred Marshall, avec leur révolution marginale et leur volonté d’équilibre, ont supprimé ces distinctions : selon la théorie subjective de la valeur, le prix est simplement la meilleure indication de la valeur (marginale) : ce qui est cher est, au moins à la marge, précieux. Les choix que font les gens sont les seuls déterminants de la valeur.
  • Le fait que les économistes se concentrent sur ce qui est produit et mis sur le marché a deux autres conséquences, affirme Mme Mazzucato : l’hypothèse de base est que le gouvernement est considéré comme improductif, voire parasitaire, et les activités domestiques deviennent invisibles. Ces hypothèses ont été reprises dans le nouveau système de comptabilité nationale élaboré dans les années 1930 et 1940, d’où est née notre mesure du “produit intérieur brut”.
  • Néanmoins, elle met en avant un point crucial : ce que nous valorisons est un choix social, et une partie de ce que nous valorisons aujourd’hui – l’ingénierie financière, par exemple – relève plus de la justification du fait de profiter de la valeur, que de la création de valeur ajoutée.
  • Ce qui n’est pas mesuré ne compte pas. Mais ce qui est mesuré compte. Mme Mazzucato montre au lecteur la manière dont on donne de la valeur aux activités bancaires. Cette valeur économique ajoutée est actuellement mesurée par le coût des “services d’intermédiation financière indirectement mesurés”, c’est-à-dire par l’écart entre le coût de l’emprunt et le taux d’intérêt des prêts. Plus l’écart est grand, par hypothèse, plus les banques sont censées créer de la valeur. Cela revient à confondre un coût avec un bénéfice.
  • Selon Mme Mazzucato, les évidentes défaillances de nos économies sont la conséquence de notre incapacité à distinguer entre les activités qui créent, redistribuent et détruisent la valeur. Ceci, ensuite, encourage les profiteurs de valeur (comme les compagnies pharmaceutiques qui fixent les prix en fonction de ce que le marché supporte) ; cela effraie les acteurs non marchands, y compris les bureaucrates, qui auraient pu aider à créer de la valeur ; et cela encourage les décideurs politiques à croire que les solutions de marché, comme la Private Finance Initiative (PFI, partenariat public-privé britannique), qui ne fonctionne pas correctement, sont nécessairement supérieures à celles qui sont proposées par les gouvernements.
  • Ce que j’aurais préféré lire, cependant, c’est une enquête approfondie sur quand et comment les gouvernements ajoutent de la valeur. Le gouvernement américain, par exemple, a joué un rôle extraordinaire en matière d’innovation, en particulier par l’intermédiaire du ministère de la Défense et des National Institutes of Health. Mais dans quelle mesure cela est-il vraiment pertinent pour les pays dont les ressources économiques et scientifiques sont plus limitées ? Comment s’assurer que les gouvernements ajoutent de la valeur plutôt que de simplement l’extraire, la prélever et la gaspiller ? Dans son enthousiasme sur le rôle potentiel de l’État, l’auteur sous-estime considérablement les importants dangers que représentent l’incompétence et la corruption gouvernementales.
  • Néanmoins, il y a trois points forts importants dans cet ouvrage. Premièrement, Mme Mazzucato nous pousse à nous éloigner du credo simpliste selon lequel les marchés sont toujours positifs et les gouvernements toujours négatifs. Deuxièmement, elle propose à la gauche un objectif positif de prospérité grâce à l’innovation, à la place d’une politique stérile et, finalement destructrice, de redistribution. Enfin, elle nous oblige à nous demander ce qui ajoute de la valeur à la société et comment créer un ordre économique et social qui favorise cela. En lui-même, ce livre crée de la valeur en nous forçant à nous confronter à ces points de vue.
  •  
    "Qui crée de la valeur ? Qui profite de la valeur ? Qui détruit de la valeur ? Si nous confondons ceux qui profitent de la valeur ou détruisent la valeur avec ceux qui la créent, nous finirons avec des sociétés appauvries et malheureuses, au sein desquelles règnent les pillards."
Aurialie Jublin

Vers une République des biens communs ? (vidéos) - 0 views

  •  
    Mieux connu depuis l'attribution, en octobre 2009, du prix Nobel d'économie à Elinor Ostrom, le concept de "communs" ou de "biens communs" fait actuellement florès dans de nombreuses disciplines: économie, gestion, droit et science politique, mais aussi dans les programmes de militants et responsables politiques. Ainsi le Parlement européen a constitué un intergroupe dédié aux "services publics et biens communs". Surtout, de très nombreuses initiatives témoignent de la vitalité de nouvelles forces sociales du vivre et produire ensemble et autrement, pour promouvoir des laboratoires citoyens et économiques dans les domaines tels que l'économie collaborative, la santé, l'éducation, la transition énergétique, le domaine foncier et pour utiliser des logiques de biens communs pour une gouvernance plus démocratique de fourniture de services d'intérêt général et élargir les choix dans les partenariats publics/privés. Dans ces temps de mutations économiques, technologiques, écologiques, sociales, majeures, ce colloque est conçu comme un carrefour pluridisciplinaire de rencontres et d'échanges entre chercheurs et acteurs, venant de plusieurs pays européens, pour cerner le contenu du concept de biens communs et sa capacité à permettre la construction d'une nouvelle manière de vivre en société.
Aurialie Jublin

Transition énergétique citoyenne - Le Labo de l'économie sociale et solidaire - 1 views

  •  
    "La transition énergétique recouvre un ensemble de modifications structurelles pour passer de l'utilisation de ressources énergétiques non renouvelables à des ressources renouvelables dans notre production et notre consommation : industrie, transports, éclairage et chauffage… La transition énergétique citoyenne est faite « avec des citoyens qui se réapproprient la gestion de l'énergie, de sa production à sa consommation en passant par sa maîtrise, dans un esprit d'intérêt général. » Depuis 2015, le Labo de l'ESS analyse les leviers de la participation citoyenne dans cette transformation de modèle à partir des expériences des acteurs de l'ESS qui apportent aujourd'hui des réponses par leurs valeurs, dont notamment la gouvernance démocratique et leur ancrage territorial."
Aurialie Jublin

[Écologie] Le monde du logiciel est en train de se détruire... Manifeste pour... - 0 views

  • Tout est lent, et cela ne va pas dans le bon sens. Certaines voix s’élèvent. Je vous invite notamment à lire “Le désenchantement du logiciel”. Tout est insupportablement lent, tout est ÉNORME, tout finit par devenir obsolète… La taille des sites web explose. Un site web est aussi gros que le jeu Doom. Le phénomène ne touche pas que le Web mais aussi l’IoT, le mobile… Le saviez-vous ? Il faut 13% de CPU pour faire clignoter un curseur…
  • Tout grossit : la taille des applications, les données stockées, la taille des pages web, la mémoire des téléphones… Les téléphones ont maintenant 2 Go de mémoire, échanger une photo de 10 Mo par mail est maintenant classique… À la limite, cela ne serait peut-être pas un problème si tous les logiciels étaient utilisés, efficaces et performants… Mais cela n’est pas le cas,
  • Alors tout le monde se cale sur une lenteur. Tout est uniformément lent. On se cale sur cela et tout va bien. Être performant aujourd’hui, c’est arriver à atteindre un ressenti utilisateur qui correspond à cette lenteur uniforme. On élague les choses qui pourraient être trop visibles. Une page qui met plus de 20 secondes à se charger, c’est trop lent. Par contre, 3 secondes c’est bien. 3 secondes ? Avec les multicoeurs de nos téléphones/PC et les data centers partout dans le monde, le tout relié par des supers technologies de communication (4G, fibre…),c’est un peu bizarre non ? Si on regarde la débauche de ressources pour le résultat obtenu, 3 secondes, c’est énorme. D’autant plus que les bits circulent dans nos processeurs avec des unités de temps du niveau de la nanoseconde. Donc oui, tout est uniformément lent.
  • ...29 more annotations...
  • Il est nécessaire de revenir à plus d’efficience, de « challenger » les besoins en matériel, de redéfinir ce qu’est la performance. Tant que l’on se satisfera de cette lenteur uniforme avec des solutions pour ne pas ralentir plus (comme l’ajout de matériel), nous n’avancerons pas. La dette technique, notion largement assimilée par les équipes de développement, n’est malheureusement pas adaptée à ce problème (on y reviendra). Nous sommes sur une dette de ressources matérielles et de mauvaise adéquation entre le besoin utilisateur et la solution technique. On parle ici d’efficience et non pas uniquement de performance. L’efficience est une histoire de mesure du gaspillage. L’ISO définie l’efficience avec comme domaine : Time behaviour, Resource utilization et Capacity. Pourquoi ne pas pousser plus ces concepts ?
  • Développez du code Java pour un serveur J2EE ou pour un téléphone Android, ce n’est pas pareil. Des structures spécifiques existent par exemple pour traiter des données en Android mais les structures classiques sont toujours utilisées. Les développeurs ont perdu le lien avec le hardware. C’est malheureux car c’est passionnant (et utile) de savoir comment fonctionne un processeur. Pourquoi : abstraction et spécialisation (nous verrons cela plus loin). Car en perdant ce lien, on perd une des forces du développement. Ce lien est important chez les hackers ou chez les développeurs d’informatique embarquée mais malheureusement de moins en moins présent chez les autres développeurs.
  • Les pratiques devops pourraient répondre à cette perte de lien. Là, c’est pareil, nous n’allons pas jusqu’au au bout : généralement le devops va se focaliser à bien gérer le déploiement d’une solution logicielle sur une infrastructure mixte (matérielle et un peu logicielle). Il faudrait aller plus loin en remontant par exemple les métriques de consommation, en discutant sur les contraintes d’exécution… plutôt que de “scaler” juste parce que c’est plus simple.
  • Certaines technologies ont une utilité mais sont maintenant systématiquement utilisées. C’est le cas par exemple des ORM qui sont devenus systématiques. Aucune réflexion n’est faite sur son intérêt en début des projets. Résultat : on a rajouté une surcouche qui consomme, qu’il faut maintenir et des développeurs qui n’ont plus l’habitude d’effectuer des requêtes natives. Cela ne serait pas un problème si chaque développeur connaissait très bien le fonctionnement des couches d’abstraction : comment fonctionne HIBERNATE par exemple ? On s’appuie hélas de façon aveugle sur ces frameworks.
  • Le besoin d’abstraction est lié à un autre défaut: nous attendons toujours des outils miracles. La silver bullet qui améliorera encore plus nos pratiques. Le langage idéal, le framework pour aller plus vite, l’outil de gestion miracle des dépendances… C’est la promesse à chaque fois d’un nouveau framework : gagner du temps en développement, être plus performant… Et on y croit, on fonce. On abandonne les frameworks sur lesquels nous avions investi, sur lesquels on avait passé du temps… et on passe au nouveau. C’est le cas actuellement des frameworks JS. L’histoire du développement est pavé de framework oubliés, non maintenus, abandonnés… Nous sommes les champions pour réinventer ce qui existe déjà. Si on le gardait suffisamment longtemps, on aurait le temps de maîtriser un framework, de l’optimiser, de le comprendre. Mais ce n’est pas le cas. Et que l’on ne me dise pas que si on n’avait pas continuellement réinventé la roue, on aurait encore des roues en pierre… Innover serait d’améliorer les frameworks existants .
  • Sur les langages, c’est la même rengaine. Attention, je ne préconise pas de rester sur l’assembleur et sur le C… C’est le cas par exemple dans le monde Android, pendant plus de 10 ans les développeurs ont pu travailler sur des outils et des frameworks Java. Et comme cela, par magie, le nouveau Langage de la communauté est Kotlin. On imagine l’impact sur les applications existantes (si elles doivent changer), il faut recréer des outils, retrouver des bonnes pratiques… Pour quel gain?
  • Sincèrement, on ne voit aucun ralentissement sur les cycles de renouvellement des technologies. C’est toujours un rythme frénétique. Nous trouverons bien le Graal un jour. Le problème est ensuite l’empilement de ses technologies. Comme aucune ne meurt vraiment et que l’on en maintient toujours des parties, on développe d’autres couches pour s’adapter et continuer à maintenir ces bouts de code ou ces librairies. Le problèmen’est pas le code legacy,, c’est la glue que l’on développe autour qui pêche.
  • Au final, on passe du temps à résoudre des problèmes techniques internes, on recherche des outils pour résoudre les problèmes que l’on ajoute, on passe son temps à s’adapter à ses nouveaux outils, on ajoute des surcouches (voir chapitre précédent…) … et on n’a pas améliorer la qualité intrinsèque du logiciel ou les besoins auxquels on doit répondre.
  • Au final, le rythme frénétique des changements ne nous permet pas de nous stabiliser sur une technologie. J’avoue qu’en tant que vieux développeur que je suis, j’ai été découragé par le changement Java vers Kotlin pour Android. C’est peut-être pour certains de véritables challenges, mais quand je repense au temps que j’ai passé sur l’apprentissage, sur la mise en place d’outils
  • Ensuite, comme aucune solution ne meurt vraiment, que de nouvelles arrivent… on se retrouve avec des projets avec des multitudes de technologies à gérer avec les compétences associées aussi… On s’étonne ensuite que le marché du recrutement de développeur soit bouché. Pas étonnant.. Il y a énormément de développeurs mais il est difficile de trouver un développeur React avec 5 ans d’expérience qui connaîsse le Go. Le marché est fractionné, comme les technologies. C’est peut-être bon pour les développeurs car cela crée de la rareté et cela fait monter les prix, mais pas pour le projet !
  • Cependant, cet apprentissage continu des technologies pose le problème d’apprentissage de domaines transverses : accessibilité, agilité, performance… En effet, qu’est-ce qui nous prouve que les outils et les langages que nous allons choisir ne vont pas changer dans 4 ans ? Rust, Go… dans 2 ans ? Rien ne tend à donner une tendance.
  • On ne se remet pas en question car on veut s’amuser. Le fun est important, car si l’on s’ennuie dans son boulot, on va déprimer. Par contre, on ne peut pas, sous prétexte de vouloir du fun tout le temps, changer nos outils continuellement. Il y a un déséquilibre entre l’expérience du développeur et l’expérience de l’utilisateur. On veut du fun, mais qu’est-ce que cela va réellement apporter à l’utilisateur ? Un produit plus « joyeux » ? Non, nous ne sommes pas des acteurs.
  • On ne se pose pas de question sur l’éthique de notre domaine, sur sa durabilité… Cela vient peut-être du fait que notre domaine n’a pas réellement de code éthique (comme par exemple les médecins ou les avocats). Mais sommes-nous en tant que développeurs réellement libres si l’on ne peut pas avoir une autocritique ? Nous sommes peut être asservis à une cause portée par d’autres personnes ? Le problème n’est pas simple mais nous avons dans tous les cas une responsabilité. Sans code éthique, c’est le plus fort et le plus malhonnête qui est le plus fort. Le buzz et les pratiques pour manipuler les utilisateurs sont de plus en plus répandus. Sans Dark Pattern ton produit ne sera rien. Les plus gros (GAFA…) n’en sont pas arrivés là pour rien.
  • Est-ce que la solution est politique ? Il faut légiférer pour mieux gouverner le monde du logiciel. On le voit avec les dernières réponses législatives aux problèmes concrets : RGPD, notification des cookies… la source du problème n’est pas résolue. Peut-être parce que les politiques ne comprennent que très mal le monde du logiciel.
  • Car si cette structuration n’est pas faite, les développeurs vont perdre la main sur ce qu’ils font. Or le manque d’éthique de la profession est critiqué à l’extérieur. Rachel Coldicutt (@rachelcoldicutt) directrice de DotEveryOne, un think tank britannique qui promeut une technologie plus responsable, encourage à former des diplômés non-informaticiens qui traiteraient de ces problèmes (Voir plus précisément dans l’article d’Internet Actu). Pour poursuivre sur ce dernier article, cela serait dans la droite ligne de l’informatique, domaine issu du monde militaire où les ingénieurs et développeurs seraient formés à suivre des décisions et des commandements.
  • Le monde du logiciel s’intègre dans un système organisationnel classique. Grands groupes, sous-traitances via des ESN, web agencies… Tous suivent les mêmes techniques de gestion des projets informatiques. Et tout le monde va « dans le mur ». Aucune analyse sérieuse n’est faite sur le coût global d’un logiciel (TCO), sur son impact sur la société, sur son bénéfice, sa qualité… C’est la rapidité de release(Time to Market), la surcharge featurale (fonctionnelle), la productivité immédiate, qui comptent. Premièrement car les gens externes à ce monde ne connaissent que trop peu la technicité du logiciel et son monde. Il est virtuel donc simple (sic). Mais ce n’est pas le cas. Les écoles de commerce et autres usines de managers n’ont pas de cours de développement. Comment peuvent-ils bien diriger et piloter des projets ?
  • On continue a vouloir chiffrer des projets informatiques comme de simples projets alors que des mouvements comme le no estimate propose des approches innovantes. Les projets continuent d’échouer : le chaos report rapporte que simplement 30% des projets réussissent bien. Et face à cette mauvaise gouvernance, les équipes techniques continuent de se battre sur les technologies. Dommages collatéraux : la qualité, l’éthique, l’environnement… et au final l’utilisateur. Cela ne serait pas si critique si le logiciel n’avait pas un impact aussi fort sur le monde. Software eats the world… et oui, on le « bouffe »…
  • Si ces décisions absurdes arrivent, ce n’est pas uniquement la faute du développeur mais bien de l’organisation. Et qui dit organisation dit management (sous-différente forme). Si l’on revient au livre de Morel, il parle de piège cognitif dans lesquels les managers et les techniciens tombent souvent. C’est le cas de la navette Challenger qui a été quand même lancée malgré la connaissance du problème d’un joint défectueux. Les managers ont sous-évalué les risques et les ingénieurs ne les ont pas prouvés. Chacun a reproché à l’autre de ne pas fournir assez de preuves scientifiques. C’est souvent ce qui se passe dans les entreprises : des warnings sont levés par certains développeurs mais le management ne les prend pas assez au sérieux.
  • En même temps, on revient aux causes précédentes (silver bullet, on s’amuse…), il est nécessaire d’avoir une vraie ingénierie et une vraie analyse des technologies. Sans cela, les équipes techniques seront toujours non-écoutées par le management. Des outils et benchmark existent mais ils sont encore trop peu connus. Par exemple, Technologie Radar qui classe les technologies en terme d’adoption.
  • Ce phénomène de décision absurde est renforcé par le tissu complexe du développement logiciel : Les sociétés historiquement hors du numérique sous-traitent à des entreprises du numérique, les ESN sous-traitent aux freelances… Le partage de responsabilité technique / management est encore plus complexe et les décisions absurdes plus nombreuses.
  • Mais cela ne s’arrête pas là. On peut aussi voir l’usage de l’open-source comme une sorte de sous-traitance. Idem pour l’usage de framework. On est juste consommateur passif, on se déleste de plein de problématiques (qui ont un impact sur les ressources, la qualité…).
  • C’est d’autant plus facile que le domaine est passionnant et que la pratique des sides-projects, du temps passé sur les projets open-source hors des horaires de bureau est chose commune… La recherche de “fun” et le temps passé bénéficient alors plus aux organisations qu’aux développeurs. Difficile dans ce cas de chiffrer le coût réel d’un projet. Et pourtant, cela ne serait pas un problème si on arrivait à des logiciels « au top ».
  • Le développeur n’est ici plus un artisan du code, mais plutôt un pion dans un système critiquable du point de vue humain. Cela n’est pas visible, tout va bien et on s’amuse. En apparence seulement, car certains domaines du développement logiciel vont plus loin et rendent beaucoup plus visible cette exploitation : Le domaine du jeux-vidéo où les heures explosent.
  • Et donc, toutes ces maladresses (logiciel trop lourd, sans qualité…) se retrouvent chez les utilisateurs. Comme on doit releaser au plus vite les logiciels, que l’on ne tente pas de résoudre les inefficiences internes, et que l’on ne met pas plus de ressource pour faire de la qualité, on arrive à des logiciels médiocres. Mais on a tellement d’outils de monitoring et de suivi des utilisateurs pour détecter ce qui se passe directement chez eux qu’au final, on pense que ce n’est pas grave. Cela serait une bonne idée si les outils étaient bien utilisés. Or la multitude d’informations récoltées (en plus des bugs remontés par les utilisateurs) n’est que faiblement utilisée. Trop d’information, difficulté de cibler la vraie source du problème… on s’y perd et au final, c’est l’utilisateur qui trinque. Tous les logiciels sont maintenant en bêta-test. A quoi bon faire de la sur-qualité, autant attendre que l’utilisateur le demande. Et on revient ainsi au premier chapitre : un logiciel uniformément lent … et médiocre.
  • Heureusement, on est sauvé par la non-sensibilisation des utilisateurs au monde du logiciel. C’est un monde effectivement virtuel et magique qu’ils ont l’habitude d’utiliser. On leur a mis en main les outils mais sans notice explicative. Comment évaluer la qualité d’un logiciel, les risques sur l’environnement, les problèmes de sécurité… si l’on n’a pas des notions d’informatique, même rudimentaires ?
  • L’informatique du 21ème siècle est ce que l’agroalimentaire était pour les consommateurs au 20ème siècle. Pour des raisons de productivité, on a poussé des solutions médiocres avec un calcul court-termiste : mise sur le marché de plus en plus rapide, profit en hausse constante… agriculture intensive, malbouffe, pesticides… avec des impacts importants sur la santé, sur l’environnement… Les consommateurs savent maintenant (de plus en plus) les conséquences désastreuses de ces dérives, l’industrie agroalimentaire doit donc se réinventer, techniquement, commercialement et éthiquement. Pour le logiciel, quand les utilisateurs comprendront les tenants et les aboutissants des choix techniques, l’industrie du logiciel devra gérer les mêmes problèmes. En effet, le retour au bon sens et aux bonnes pratiques n’est pas une chose simple pour l’agroalimentaire. Dans l’IT, on commence à le voir avec ses conséquence sur la vie privée des utilisateurs (mais nous n’en sommes qu’aux balbutiements).
  • On va dans la mauvaise direction. L’industrie de l’informatique a déjà effectué dans les années 70 des erreurs avec des impacts non-négligeables. L’exclusion des femmes de l’informatique en fait partie. Non seulement cela a été fatal pour certaines industries mais on peut se poser la question de comment on peut maintenant adresser des réponses à seulement 50% de la population informatique, avec une représentativité très faible. Le chemin est maintenant difficile à retrouver.
  • Mais l’impact du monde IT ne s’arrête pas là. La source et le modèle d’une grosse partie de l’informatique sont issus de la Silicon valley. Si l’on écarte les gagnants de la Silicon Valley, les populations locales subissent la montée des prix, le déclassement, la pauvreté…
  • Dans sa lancée vers le progrès technique, le monde du logiciel crée aussi sa dette environnementale…
  •  
    "Le monde du logiciel va mal et si l'on n'agit pas, on risque de le regretter. Environnement, qualité, exclusion… Software Eats The World (Le logiciel mange le monde…) ? Oui un peu trop. "
Aurialie Jublin

Artificial Intelligence & Human Rights | Berkman Klein Center - 0 views

  •  
    L'intelligence artificielle (IA) est en train de changer le monde sous nos yeux. Le potentiel que présente l'IA pour améliorer nos vies est énorme. Des systèmes reposant sur l'IA sont déjà plus performants que des médecins spécialistes pour diagnostiquer certaines maladies, tandis que l'utilisation de l'IA dans le système financier élargit l'accès au crédit à des emprunteurs qui étaient autrefois ignorés. Toutefois, l'IA présente aussi des inconvénients qui viennent assombrir son potentiel considérable. Les systèmes reposant sur l'IA ont une incidence sur le droit à la vie privée étant donné qu'ils dépendent de la collecte et de l'utilisation de vastes quantités de données pour faire des prédictions qui, dans de nombreux cas, ont pour effet de perpétrer des tendances sociales de préjugés et de discrimination. Ces possibilités dérangeantes ont donné lieu à un mouvement qui cherche à intégrer des considérations éthiques dans le développement et la mise en œuvre de l'IA. Ce projet, en revanche, démontre l'utilité considérable d'utiliser la législation sur les droits de la personne pour évaluer et aborder les répercussions complexes de l'IA sur la société. La législation sur les droits de la personne fournit un ensemble de normes communément admis et un langage commun ainsi qu'une infrastructure institutionnelle pour contribuer à faire en sorte que le potentiel de l'IA soit réalisé et que ses plus grands périls soient évités. Notre projet vise à faire progresser la conversation émergente sur l'IA et les droits de la personne en évaluant les répercussions sur les droits de la personne de six utilisations courantes de l'IA. Notre cadre de travail reconnaît que les systèmes d'IA ne sont pas déployés sur un canevas vierge, mais plutôt sur la toile de fond de conditions sociales qui ont elles-mêmes des répercussions complexes préexistantes sur les droits de la personne
Aurialie Jublin

Mise en commun de l'action publique  : faut il hacker le droit ?  - La 27e Ré... - 0 views

  • Souvent conçues et testées dans une démarche expérimentale, ces initiatives offrent des réponses efficientes et nouvelles aux enjeux qu’elles traitent. Mais sous leur apparente simplicité, elles posent de nombreux challenges juridiques en matière de mise en œuvre pour l’acteur public. Quid de la responsabilité de l’acteur public en matière de risque sanitaire et de salubrité des aliments d’un frigo partagé, qui s’adresse de facto à des usagers en dehors du seul spectre des membres de l’association qui l’ont conçu ? Quid du statut des contributeurs de Sauvlife, qui s’apparentent presque à des pompiers, mais qui ont également la liberté de ne pas intervenir ? Dans le cas du lycée, comment rendre possible un usage multiple d’un équipement public réservé à des mineurs ?
  • Quand certains pans de l’action publique sont gérés et utilisés de manière mutualisée, cela bouscule fondamentalement les piliers de l’acteur public : sa responsabilité face aux risques, ses contributeurs et la manière de les valoriser, la perméabilité avec le secteur marchand et même la légitimité à lever l’impôt pour financer des services devenus communs.
  • Sans surprise, faute de cadre juridique clair et sécurisant, rares sont les initiatives de ce type qui passent le cap de l’expérimentation. Et quand cela advient, cela tient souvent à des qualités individuelles : un élu prêt à prendre le risque, des équipes d’agents et des citoyens à l’implication exceptionnelles.
  • ...6 more annotations...
  • Elle peut s’inspirer des règlements d’administration partagée, développés par le laboratoire Labsus en Italie et actifs dans plus de 200 villes – dont Bologne, Gènes, Florence, Turin. S’appuyant sur un principe de subsidiarité horizontale stipulant que que “l’État, les Régions, les villes métropolitaines, les provinces et les communes favorisent l’initiative autonome des citoyens, seuls et associés, pour le développement d’activité d’intérêt général, sur la base du principe de subsidiarité”, ces règlements permettent aux villes de contracter des Pactes de collaboration avec les citoyens de la ville. Ces pactes actent une collaboration étroite entre citoyens et agents publics pour co-administrer des biens communs : espaces verts, entretien du patrimoine, solidarités… 
  • En rapprochant certaines notions italiennes avec des principes de droit français – comme par exemple le principe de subsidiarité horizontale italien avec la théorie de la collaboration occasionnelle au service public - il semble envisageable de procéder à une transposition effective d’un tel règlement. 
  • Quand ces frigos sont en libre accès et placés sur la voie publique, la responsabilité du maire est engagée au titre de ses pouvoirs de police, de la salubrité publique et de la conservation du domaine public, ce qui le conduit à faire des opérations de contrôle. En explorant les arrêtés et les potentialités offertes par le modèle des régies publiques, les étudiants ont posé les contours d’un partenariat public-commun soutenable du point de vue de l’acteur public et qui favorise le développement de cette solution.
  • Enfin, le terrain nous enseigne qu’il nous faut dépasser les cadres du seul droit public pour trouver des solutions durables. Face à l’enjeu de responsabilité civile de l’occupation d’un bâtiment public vacant par un tiers-lieu, comment renverser le problème, et confronter l’acteur public sur sa responsabilité de non-occupation ou de non usage d’espaces réinvestis ? Parfois les réponses peuvent se situer du côté des droits fondamentaux et du droit constitutionnel. 
  • Parfois les réponses se situent même en dehors du droit : du côté des mécanismes de financement et de démocratie participative, ou encore de l’innovation managériale. La mise en place de budgets participatifs, ou la collaboration occasionnelle au service public obligent par exemple à repenser la place de l’agent : quel est son mandat dans une logique de coproduction de service ? 
  • A cette occasion, les  juristes territoriaux avaient notamment proposé aux étudiants de la clinique juridique territoriale grenobloise de sécuriser la mise en oeuvre des frigos partagés – ces initiatives de lutte contre le gaspillage alimentaire par la mise à disposition gratuite d’aliments frais dans des frigos postés sur la voie publique.
  •  
    "A l'heure où la gestion en commun apparaît comme une piste sérieuse pour améliorer le fonctionnement de nos villes, les expériences territoriales à l'oeuvre appellent une nouvelle pratique du droit pour s'inscrire durablement dans nos politiques publiques. Elles nous invitent nous, agents publics, juristes, acteurs d'innovation publique, chercheurs, à puiser dans le droit d'usage, exhumer des principes constitutionnels et développer notre ingéniosité juridique et nos meilleures pratiques de détournement pour inventer de nouveaux modèles et travailler la souplesse de nos administrations.  Et si pour dépasser le cap de l'expérimentation, il devenait nécessaire d'inventer une nouvelle grammaire réglementaire ?"
Aurialie Jublin

Le contrôle des données numériques personnelles est un enjeu de liberté colle... - 0 views

  • Il serait commode de penser que l’humain du XXIe siècle a renoncé à sa vie privée. Mais il ne s’agit pourtant pas d’indifférence. Les sondages montrent avec insistance et sans ambiguïté que les internautes la chérissent encore à l’heure des réseaux sociaux et des smartphones. Comment, alors, expliquer cette apathie ?
  • Pendant des décennies, à raison, défendre la vie privée revenait à protéger l’individu. Aujourd’hui encore, on s’obstine à rechercher et mesurer les conséquences individuelles de cette collecte effrénée de données personnelles et de ces piratages à répétition. Mais le paradigme a changé : la question des données personnelle n’est pas un problème d’intimité. C’est un enjeu de liberté collective.
  • Prenez l’affaire Cambridge Analytica : le problème n’est pas que Donald Trump et son équipe de campagne ont consulté méthodiquement la liste d’amis de 87 millions d’utilisateurs de Facebook (dont plus de 200 000 Français). Mais qu’ils aient pu utiliser ces informations, agrégées à des millions d’autres, pour mener une campagne politique extrêmement personnalisée, quasi individualisée, en utilisant à plein l’invraisemblable machine à cibler des messages proposée par Facebook. L’impact de cette fuite de données personnelles n’est plus individuel, il est collectif. Il ne s’agit pas de l’intimité de son existence vis-à-vis d’une organisation politique, mais de la liberté collégiale de choisir en conscience son dirigeant politique ou ses conditions de vie commune.
  • ...2 more annotations...
  • Au bout du compte et si rien ne change, alors que ces entreprises s’immisceront de plus en plus dans nos activités quotidiennes, passant peu à peu de la « suggestion » à l’« injonction », nous serons sans doute pris au piège des données personnelles. On décidera à notre place, d’une manière qu’on nous présentera comme optimale puisque conçue sur l’analyse de données de millions de personnes dont la vie nous est similaire, et en nous confisquant une part de notre libre arbitre. Il ne s’agit pas d’intimité vis-à-vis d’une quelconque entreprise de la Silicon Valley, mais de liberté individuelle.
  • La seule solution est de limiter la dissémination aux quatre vents de nos données personnelles. Mais comment le faire sans se retirer des connexions, sociales et professionnelles, d’une société désormais numérisée ? Comment renoncer à tous ces avantages ? La solution se trouve quelque part entre le collectif (des règles politiques pour limiter la collecte et l’exploitation des données) et l’individuel (le recours à une technologie plus frugale et plus décentralisée).
  •  
    Les révélations des failles de sécurité touchant des services en ligne s'accumulent. Et la collecte de nos données fait peser un risque collectif d'envergure.
Aurialie Jublin

« Dans mon livre, j'ai imaginé un mélange entre l'ONU et Google » - 0 views

  • Un autre anachronisme consiste à penser que plus un pays est grand géographiquement, plus il est puissant. La situation économique et l’étendue du territoire sont de moins en moins intriqués. Je trouve plus intéressant d’imaginer une organisation plus flexible, qui donne à chaque personne la possibilité de choisir le gouvernement qu’elle souhaite.
  • L’Etat-nation, c’est l’idée que nous avons une identité liée à l’Etat plutôt qu’à notre ethnie, à notre religion ou à notre langue. C’est un progrès mais ce n’est qu’une étape si nous voulons échapper au déterminisme de nos identités liés à nos gènes, à notre naissance. Cette étape continue à nous lier par notre naissance puisque, si l’on n’a pas beaucoup d’argent, il reste très difficile de changer de nationalité. Il faut continuer à chercher d’autres étapes pour définir une autre identité, plus globale, en tant qu'être vivant. D’un point de vue écologique, il faut aussi se mettre à penser comme élément d’un écosystème
  • Oui, il y a une grande bureaucratie centrale qui facilite tout ça, qui s’appelle tout simplement « Information ». C’est une espèce de mélange entre l’ONU et Google, qui gère toute l’information dans le monde. Elle permet d’amener l’information à tout le monde tout en exerçant une surveillance globale. C’est une organisation très puissante. L’idée est d’interroger la possibilité et le bien-fondé d’une telle organisation globale, qui se réclame d’une neutralité en réalité impossible.
  • ...2 more annotations...
  • Aujourd’hui, en France comme aux Etats-Unis et dans la plupart des démocraties, il y a le même problème d’un gouvernement devenu monolithique, qui n’offre que peu de choix et peu d’alternatives aux citoyens. Il y a également ce problème de la fragmentation de l’information et des « bulles » d’information favorisées par les réseaux sociaux comme Twitter, qui renforcent mes opinions en me suggérant de suivre seulement des gens qui me ressemblent et qui ne me permettent plus de distinguer ce qui relève d’une information ou d’une opinion.
  • Internet et les réseaux sociaux ont le potentiel d’être très « démocratisants ». J’ai imaginé une organisation qui éviterait cette fragmentation de l’information. Il faut explorer ka gestion de l’information comme bien public. Mais la question du contrôle d’un tel organisme soulèvet évidemment des difficultés…
  •  
    "Le rattachement à un gouvernement par la géographie est aujourd'hui un anachronisme. Ça ne fait plus sens. J'ai travaillé dans beaucoup de pays connaissant des mouvements de sécession régionale ; presque tous les pays du monde sont concernés. C'est un gros problème pour la démocratie. On a d'un coté des populations qui ne se sentent plus appartenir à l'État-nation, qui veulent en sortir, et de l'autre des migrants qui veulent y entrer. C'est une contradiction fondamentale qu'il faut repenser. Ça ne marche plus d'avoir des frontières fixes qui ne changent pas avec les générations, et qui cherchent à conserver un peuple ayant un sentiment cohérent d'appartenance. C'est ridicule. C'est une résistance à l'idée que le monde change, que la démographie change, ainsi que les idées des gens."
Aurialie Jublin

Numérique : « Il faut un écosystème de partage des données soutenable sur le ... - 0 views

  •  
    "L'économiste Joëlle Farchy estime, dans une tribune au « Monde », que les données numériques, à la fois privées et d'intérêt général, doivent être gérées sous le régime des « biens communs », défini par l'économiste américaine Elinor Ostrom."
Aurialie Jublin

Pour protéger la vie privée des internautes, la première « coopérative de don... - 0 views

  • MyCO propose d’abord un navigateur sécurisé pour naviguer sur Internet sans laisser de traces. Celui-ci permet de choisir à tout moment entre trois niveaux de protection : « invisible » (aucune trace laissée sur les sites), « protégé » (empêche tout échange de données à l’insu de l’internaute) ou « à risque » (comparable à un navigateur classique). Mais l’ambition de la plateforme est d’aller plus loin en proposant une véritable « boîte à outils digitale ». Partage et édition de documents, de photos, de contacts, de calendriers, cagnottes façon crowdfunding, messagerie instantanée, mais aussi nouvelle adresse email sécurisée (non polluée et gérée en France) comptent parmi les fonctionalités de myCO.
  • L’aspect le plus ambitieux du projet concerne la gestion des données des internautes et c’est la que la forme coopérative entre en jeu. Chaque utilisateur de myCO doit souscrire une part à la coopérative. Celle-ci lui permet de répondre – ou non – à des questions auprès de marques ou d’instituts, de façon anonymisée « Plus un sociétaire est actif, plus il va engranger de myCoins, explique Arnaud Blanchard, CEO . À la fin de chaque mois, il est rétribué en euros selon le chiffre d’affaire engrangé et sa participation. »
  • La coopérative rémunère aussi ses membres sous forme de dividendes. « Il est possible de souscrire jusqu’à 500 parts et d’être rémunéré en fin d’exercice au prorata de ses parts », détaille Arnaud Blanchard. Enfin, cette forme juridique permet aux sociétaires de participer à la gouvernance de la plateforme selon le principe un homme égal une voix – et d’éviter que myCO soit rachetée par un grand groupe.
  • ...1 more annotation...
  • Environ 250 utilisateurs ont participé à la phase de bêta test. Ils sont aujourd’hui 2 000 sur la plateforme. Le défi sera évidemment de réussir assez d’utilisateurs pour atteindre une masse critique à même de faire poids face à l’omniprésence des géants américains dans le monde du numérique. Avec l’entrée en vigueur de lois comme la RGPD, Arnaud Blanchard est convaincu que les internautes sont prêts à « participer à la construction d’une approche éthique et européenne du web ».
  •  
    "En souscrivant une part à Myco, chaque utilisateur pourra choisir de partager ses données ou non, de façon anonymisée et rémunérée. Les membres de la coopérative auront aussi accès à de nombreuses fonctionnalités comme un navigateur et une adresse mail sécurisée." => rémunéré ? Est-ce vraiment une bonne idée ?
Aurialie Jublin

Cambridge analytica: «Le scandale a montré que les politiciens sont aussi mal... - 0 views

  • Le scandale Cambridge analytica a-t-il changé notre manière de voir la démocratie ? Le lien avec la démocratie n’est pas direct. Je ne crois pas qu’avec quelques posts finement ajustés, on a pu modifier lourdement le résultat des élections. Des gens qui cherchent à modifier le résultat des élections, c’est vieux comme Hérode, cela s’appelle des candidats. En revanche, Cambridge analytica a montré quelque chose de plus embêtant. Avec des mots crus : il y a différentes familles de margoulins qui tripatouillent les données personnelles pour faire des choses malsaines. Et je constate que les politiciens sont aussi malhonnêtes que les autres. Je trouve extrêmement embêtant qu’on retrouve dans la même classe le capitaliste qui veut faire du pognon pour vendre des produits et le politicien qui veut se faire élire à tout prix. Ce qui met en danger la démocratie, ce n’est pas tant le fait que certaines personnes font n’importe quoi avec les données personnelles, mais le fait que les politiciens trouvent normal d’avoir recours à ces méthodes.
  • Un an après, a-t-on des leviers plus efficaces pour lutter contre ces dérives ? Les leviers existent, mais on les utilise très faiblement. Le texte européen sur les données personnelles (RGPD) interdit d’utiliser les données personnelles des gens pour n’importe quoi. Les personnes doivent donner leur consentement à l’usage qu’on fait de leurs données. Pour chaque usage, il faut demander l’autorisation. A l’heure actuelle, ce n’est pas respecté, puisqu’on utilise vos données personnelles pour cibler la publicité. Je pense qu’aucun être humain sur terre n’a dit explicitement : « Oui, je souhaite que vous analysiez ma vie privée pour mieux me cibler ». C’est toujours plus ou moins implicite, plus ou moins inclus dans un contrat. Si on applique fermement le droit européen, c’est interdit. Les textes européens devraient écrire : « La publicité ciblée est interdite ». C’est écrit autrement parce qu’il y a eu un lobbying au Parlement européen pour espérer gagner quelques années, quelques exceptions, quelques passe-droits, quelques tolérances autour de certaines dérives…
  • Selon vous, Cambridge analytica n’a pas changé le cours de l’élection de Donald Trump. Pourquoi pensez-vous cela ? Donald Trump s’est fait élire avec des méthodes électorales d’une malhonnêteté fabuleuse. Au mieux Cambridge analytica a pu convaincre quelques républicains conservateurs d’aller voter alors qu’ils n’en avaient pas très envie. Je ne crois pas que Cambridge analytica a eu plus d’effet qu’un meeting électoral. Ce qui est embêtant, c’est de le faire de manière malhonnête. Le but de ces plateformes est de vous manipuler, elles gagnent leur vie de cette manière. Le client chez Facebook, c’est le publicitaire et le but de Facebook est de satisfaire ses clients. Les plateformes pourraient vous manipuler pour vous mettre dans la main des politiques. La France y travaille d’arrache pied. Quand on nous dit : « L’État va collaborer avec Facebook pour faire la chasse aux fakes news ». C’est extrêmement inquiétant. Un gouvernement décide le vrai du faux et se met d’accord avec les plus puissants manipulateurs pour vous faire admettre que le vrai gouvernemental est vrai et que le faux gouvernemental est faux. C’est de la manipulation à très grande échelle.
  • ...3 more annotations...
  • Comment décririez-vous la démocratie de demain ? Depuis une trentaine d’années, il n’y a plus de discussion politique. Tous les gouvernements, depuis 1983, sont des partisans de l’économie libérale de marché et ils expliquent qu’ils ne font pas de politique, mais de la bonne gestion. Fondamentalement, la politique, c’est arbitrer entre des intérêts divergents dans la société. Il faut résoudre le conflit entre deux catégories qui s’opposent sur un sujet. D’un côté, il y a des gens qui voudraient protéger leur vie privée et, de l’autre, il y a Facebook qui ne voudrait pas. Les deux s’affrontent et les politiques doivent trancher. Un conflit n’est pas malsain, mais tant qu’on n’a pas posé les termes d’un conflit, on ne sait pas qui cherche à obtenir quoi, et on obtient des arbitrages implicites au lieu d’arbitrages explicites.
  • Dans le futur, la démocratie va-t-elle retrouver la discussion politique ? Je pense qu’elle va la retrouver via Internet. Pas forcément via les réseaux sociaux tels qu’on les connaît aujourd’hui, mais ce n’est pas exclu. Internet comme outil de communication qui permet à tout le monde de s’exprimer tout le temps et de former des sujets politiques. Il ne s’agit pas forcément de sujets très complexes, il s’agit d’identifier le problème et d’identifier son ennemi.
  • Sur le même rond-point, vous avez des gens dont les intérêts divergent. Ils évitent de parler d’immigration, d’impôts, de libéralisme, de gauche, de droite… Mais à un moment, ils vont se remettre à en discuter. Je pense que la démocratie du futur ressemblera à ça : on va se remettre à discuter, à identifier de qui on dépend, de qui on a besoin.
  •  
    "Benjamin Bayart, cofondateur de la Quadrature du Net, revient sur le scandale Cambridge analytica et ouvre les portes à la démocratie du futur"
Aurialie Jublin

Pourquoi nous vivons dans un monde de plus en plus open-source - ZDNet - 0 views

  • Certaines personnes insistent encore sur le fait que l'open source et Linux sont en guerre contre les travers des logiciels propriétaires. En fait, nous avons gagné cette guerre il y a des années. Le dernier rapport Red Hat State of Enterprise Open Source, basé sur 950 entretiens, le montre clairement. Seulement 1% seulement des entreprises négligent l'importance des logiciels libres.
  • Cela ne veut pas dire que l'open source n'a pas son lot de problèmes. Ils sont nombreux. Plus notable encore, certaines entreprises open-source ont changé leurs licences en raison de conflits avec des entreprises de cloud computing.Mais, en fin de compte, ces conflits portent sur les limites de l'open source, et non sur la question de savoir si les anciennes méthodes propriétaires sont meilleures. Elles ne le sont pas.
  • Red Hat constate également que "nous voyons de plus en plus de logiciels libres utilisés dans des catégories qui, historiquement, ont été davantage associées à des applications propriétaires. Ces catégories comprennent, sans s'y limiter, la gestion du cloud, la sécurité, l'analyse et le stockage."
  • ...3 more annotations...
  • Historiquement, les entreprises se tournent vers les logiciels libres parce que c'est moins cher : 33% des utilisateurs professionnels considèrent que son coût total de possession (TCO) est le principal avantage de l'open-source mais "l'open source d'entreprise est de plus en plus utilisé non pas parce que c'est moins cher - bien que cela le soit souvent - mais parce que c'est un logiciel réellement meilleur".
  • Et 29% se tournent vers l'open source car il leur donne accès aux dernières innovations. Par exemple, le Big Data, l'intelligence artificielle et l'apprentissage machine sont presque entièrement construits sur des logiciels libres.
  • Ensuite, en terme d'avantage, les répondants mentionnent une meilleure sécurité, des logiciels de meilleure qualité, l'accès au support et la possibilité de personnaliser les logiciels.
  •  
    "Technologie : La nouvelle enquête de Red Hat sur l'utilisation de l'informatique en entreprises révèle un monde où le mouvement de l'open-source est ultra dominant."
Aurialie Jublin

Une Charte mondiale contre l'uberisation du travail - Pôle emploi - Emploi Pa... - 0 views

  • L’élaboration d’un système de gouvernance internationale qui établisse un socle de droits et protections et impose aux plateformes (et à leurs clients) de les respecter devient donc un enjeu essentiel pour l’OIT qui estime qu’aucune régulation ne pourra se faire en dehors d’instances internationales.
  • Elle propose, entre autres, un droit universel à l’apprentissage tout au long de la vie, une protection sociale universelle de la naissance à la vieillesse, une garantie universelle permettant à tous les travailleurs, quels que soient leur régime contractuel ou leur statut professionnel, de jouir des droits fondamentaux des travailleurs et d’un « salaire assurant des conditions d’existence convenables », etc. Le programme est non seulement très ambitieux mais il est entièrement axé autour de l’idée que l’action majeure est celle de la gestion de la technologie et de sa mise au service d’un travail décent et durable. Et cela passe par une approche dans laquelle l’intelligence artificielle reste sous contrôle humain et implique que « les décisions finales touchant le travail soient prises par des êtres humains ».
  •  
    "Pour son centenaire, l'OIT (Organisation Internationale du Travail) veut faire adopter un programme d'actions mondial pour réguler les évolutions du travail et garantir des droits à tous les travailleurs. Les actions proposées sont extrêmement ambitieuses et seront discutées en juin."
Asso Fing

La consommation électrique des logiciels, un enjeu pour les industriels et… l... - 0 views

  • Troisièmement, parce que le législateur pourrait intervenir… « En 2020 entrera en vigueur une législation européenne sur l'écoconception des serveurs et des unités de stockage en ligne, rappelle Rabih Bashroush, professeur en systèmes distribués et génie logiciel à l'Université de Londres-Est, qui a  participé à l'élaboration de ce texte . Il faut un cadre similaire pour la consommation des logiciels. » En France, un député, Fabrice Brun (LR), vient de  demander au gouvernement d'obliger les éditeurs de logiciels à « pratiquer une écriture plus vertueuse, en terme environnemental, du code informatique. »
  • Enfin, parce que jusqu'ici fabricants et gestionnaires ont tenté de réguler la consommation en jouant sur des solutions « matérielles » : utilisation de processeurs ou de cartes mères qui chauffent moins, de mémoires moins énergivores ; déclenchement des sauvegardes la nuit quand les serveurs sont moins occupés… Or, pour certains experts, ces gisements d'économies sont désormais épuisés. « Dans les dix ans à venir, il n'y aura pas de révolution technologique, facilement déployable à grande échelle, qui permettra de réduire la consommation énergétique du numérique : la seule voie possible est celle de la sobriété », affirme Hugues Ferreboeuf, qui dirige les réflexions sur l'empreinte carbone du numérique  au sein du think tank The Shift Project . « Nos data centers comptent d'ores et déjà parmi les plus économes du marché, mais nous devons aller plus loin, s'inquiète François Sterin, directeur industriel chez l'hébergeur Web OVH. Cet enjeu est crucial pour les fournisseurs de cloud, tant du point de vue commercial que sociétal. »
  • Reste donc une seule piste : la consommation induite par les logiciels. La mesurer est assez simple pour les smartphones et les objets connectés, plus compliqué pour les serveurs et PC. « On peut brancher des appareils de mesures - des sortes de wattmètres - sur les smartphones pour récupérer les données de la batterie, explique Thierry Leboucq. La mesure réelle permettra demain d'établir des normes et des labels pour valider l'éco-consommation d'un service numérique. » Pour les objets connectés, qui ne comportent que quelques composants, Alexandre Boé et son collègue Thomas Vantroys, de l'université de Lille, proposent déjà une solution. « Nous avons mis au point un petit appareil de mesure, composé d'un microprocesseur et d'un écran, coûtant une soixantaine d'euros, détaillent-ils. Couplé à des marqueurs introduits dans le logiciel, qui repèrent les fonctions les plus gourmandes, il permet aux fabricants et aux développeurs d'optimiser le fonctionnement et la consommation. »
  • ...6 more annotations...
  • La mesure est plus compliquée sur les serveurs et les PC. « Par exemple, les couches d'abstraction matérielle, ces logiciels intermédiaires entre le système d'exploitation et le matériel informatique, consomment de l'énergie que vous ne voyez pas », met en garde Marc Vautier, qui anime la communauté des Orange Experts « Energie et environnement » au sein du groupe Orange. Dès 2016, Jean-Patrick Gelas, docteur en informatique, avait publié, avec son équipe de l'université Lyon-1, un article exploratoire sur la mesure en temps réel de la consommation, dans la revue « International Journal of Electronic Business Management ». « L'idée était de coupler les mesures de puissance électrique, réalisées par un wattmètre, avec les instructions du logiciel et les tables de correspondance 'fonction réalisée/énergie dépensée' publiées par les constructeurs », explique-t-il.
  • Romain Rouvoy, professeur d'informatique à l'université de Lille, propose une approche basée sur l'estimation. En collaboration avec Orange et le cabinet Davidson Consulting, il a mis au point PowerAPI, un prototype de recherche distribué sous licence open source, disponible sur la plate-forme GitHub.  « Une fois installée sur un serveur, un ordinateur portable ou un robot, notre logiciel va évaluer, à l'aide de modèles mathématiques que nous avons développés, la consommation électrique des applications qui tournent sur ces machines », relate-t-il. Plusieurs industriels de l'automobile et de la robotique se disent intéressés par sa technologie.
  • « Les développeurs ne doivent pas s'empêcher de discuter des cahiers des charges avec les services marketing, qui peuvent, par exemple demander des serveurs disponibles 99,99 % du temps, là où 99,9 % suffiraient et permettraient d'économiser de l'énergie », conseille Erwan Diverrez, architecte logiciels chez Orange.
  • « On peut jouer sur le stockage de données - par exemple les données d'usage qui décrivent la relation de l'utilisateur avec sa machine - et ne les envoyer que lorsque le smartphone est en Wifi ; cela évite d'essayer continuellement de se connecter au réseau mobile », ajoute Sébastien Brault, développeur sur mobile chez Orange.
  • « Pour le Web, il existe des astuces comme la gestion du cache de la mémoire, par exemple, pour ne pas avoir à télécharger plusieurs fois une image qui apparaît sur plusieurs pages d'un site », ajoute Romain Petiot.  « On peut aussi jouer sur les langages de programmation utilisés et les bonnes pratiques de développement associées à ce langage », estime Romain Rouvoy, professeur d'informatique à l'université de Lille.
  • « La moitié de l'empreinte carbone du numérique provient de la production des équipements », résume Hugues Ferreboeuf, coordinateur du rapport « Pour une sobriété numérique » publié par le think tank Shift Project. L'autre moitié se répartit en trois tiers : la consommation des serveurs dans les data centers, les réseaux de télécommunication et les quelque 15 milliards de terminaux et périphériques sur lesquels tournent des logiciels.
  •  
    "Des logiciels tournent sur 15 milliards de terminaux et périphériques à travers le monde. Ce sont eux qui en commandent les besoins en énergie."
  •  
    "Des logiciels tournent sur 15 milliards de terminaux et périphériques à travers le monde. Ce sont eux qui en commandent les besoins en énergie."
1 - 20 of 21 Next ›
Showing 20 items per page