Skip to main content

Home/ QN2019/ Group items tagged infrastructure

Rss Feed Group items tagged

Aurialie Jublin

Des impacts énergétiques et sociaux de ces data-centers qu'on ne voit pas - M... - 0 views

  • Côté consommation pour commencer, les études les plus pessimistes avancent que ceux-ci pourraient représenter jusqu’à 13% de l’électricité mondiale en 2030 (avec un secteur informatique qui consommerait jusqu’à 51% du total de la consommation électrique mondiale). Des chiffres qui ne font pas l’unanimité, The Shift Project prévoyant plutôt 25% pour le secteur informatique et 5% pour les data centers en 2025 (ces 5% équivaudraient tout de même à toute la consommation électrique actuelle du secteur numérique).
  • Même si l’on constate de nombreux efforts faits pour améliorer l’efficacité énergétique des infrastructures, par exemple du côté des « big tech », l’ADEME rapporte que les géants du numérique ne portent pas un véritable discours sur la « sobriété énergétique et numérique nécessaire pour rester sous la perspective d’une augmentation des températures planétaires de 1,5°.»
  • Le rapport insiste ensuite sur les déséquilibres qui résultent de certaines implantations dans les territoires. Première constatation : ces impacts sociaux sont très peu documentés. Bien souvent, les data centers arrivent sans dire leur nom, en périphérie des villes, aux Etats-Unis ou en France, à Saclay par exemple ou encore Plaine Commune. Cette furtivité des bâtiments rend d’autant plus difficile les contestations ou demandes de participation de la part des populations locales.
  • ...14 more annotations...
  • Ils sont considérés comme de simples entrepôts par les pouvoirs publics alors même que leur consommation électrique a des répercussions à l’échelle d’un territoire tout entier.
  • Autre phénomène important : les data centers attirent les data centers, pour des questions de mutualisation d’énergie et de réseaux de télécommunication. Bien souvent, les hiérarchies urbaines en place sont renforcées par ces mécanismes. Les élus eux, peinent à lutter contre des acteurs puissants qui imposent leurs conditions « dans une négociation asymétrique qui pousse certains territoires à sur-calibrer des infrastructures énergétiques, hydrauliques et viaires pour pouvoir accueillir quelques dizaines, ou centaines d’emploi si l’on inclut les phases de construction. »
  • Aujourd’hui, c’est plutôt pour installer des hangars logistiques et des fermes de serveurs qu’on artificialise les sols. Autre effet non négligeable qui mériterait sans doute une discussion plus ample avec les populations locales : l’étalement urbain.
  • Le rapport souligne ensuite les possibles synergies entre les infrastructures numériques et le territoire. La réutilisation de la chaleur générée par les data centers  est à ce titre un cas d’usage bien connu. A Bailly-Romainvilliers, par exemple, le data center de BNP Parisbas chauffe le centre nautique voisin. Celui de Céleste à Noisy-Champs, chauffe ses propres bureaux. D’autres systèmes très chauffants comme les chaudières numériques de Stimergy chauffent une partie de l’eau de la piscine de la Butte-aux-Cailles, dans le treizième arrondissement de Paris.
  • Cependant, ces exemples restent anecdotiques. Dans l’immense majorité des cas, la chaleur n’est pas récupérée. D’abord pour des questions de coût et de rentabilité économique : les promoteurs des data-centers attendent des rendements sur des périodes courtes incompatibles avec la contractualisation pour les réseaux de chaleur (des engagements qui coulent sur 25 à 30 ans
  • Il existe aussi un frein technique : il est préférable de prévoir ces éventuels contrats dès la construction du data center car le modifier a posteriori peut représenter des risques que les promoteurs ne sont pas prêts à prendre.
  • La cinquième partie du rapport, qui m’a particulièrement plu, fait la part belle aux initiatives citoyennes, associatives et publiques des « infrastructures numériques alternatives ». Du côté des fournisseurs d’accès, de nombreux acteurs associatifs comme franciliens.net ou Aquilenet dans le Sud-Ouest sont regroupés au sein de la Fédération FFDN. Ils viennent compléter l’offre des fournisseurs principaux (Bouygues, Free, Orange et SFR). Le grand atout de ces solutions est de miser sur le social, l’éducation et la démocratie : « Ils participent d’une gouvernance partagée du commun qu’est Internet en portant des valeurs de transparence, d’inclusion, de lien social, d’apprentissage technique, et d’incitation à la participation à la vie citoyenne. »
  • La socioanthropologue des techniques Laure Dobigny affirme que quand cette gestion inclut et implique, alors les consommateurs vont vers plus de sobriété : « la mise en place de systèmes techniques de plus petite échelle ont permis, en modifiant les usages, une réduction des consommations. » La question est ensuite de savoir comment passer d’une gestion commune de réseaux à une gestion commune de data-centers.
  • Le rapport présente un certain nombre de solutions, comme le cloud de pair-à-pair : « l’idée centrale sous-tendant ces dispositifs est que les fichiers et les contenus téléchargés par les utilisateurs dans le système sont stockés, totalement ou en partie, sur un nuage de stockage composé d’une partie des disques durs de chaque utilisateur, reliés entre eux en architecture P2P. » L’idée est plutôt simple : re-décentraliser internet, réduire le besoin de grands data-centers et atténuer l’impact spatial de ces infrastructures. Les limites de ces solutions sont nombreuses bien sûr : pertes de données, erreur, taille critique non atteinte… Il existe également des data centers « de proximité » comme les chatons (« Collectif d’Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires ») ou encore SCANI dans l’Yonne et Tetaneutral à Toulouse.
  • Pour terminer, le rapport dessine trois « mondes numériques possibles ». Le premier scénario parie sur l’extrême croissance et l’ultracentralisation numérique. Pour faire simple, c’est aujourd’hui mais en pire : tout est numérisé, plateformisé, big-daté et concentré dans les mains des GAFAMS ou d’autres acteurs similaires. La ville se conforme aux modèles numériques de la smart-city, la consommation de data explose. C’est la fuite en avant, la croyance qu’un monde infini existe. Côté C02, c’est la catastrophe, la température globale monte de 2,5° en 2050. Pics de chaleur dans les villes, problèmes sociaux, etc.
  • Le deuxième scénario est en demie teinte. On stabilise le système technique numérique en permettant la coexistence de deux mondes : celui des big tech et celui, plus centralisé, des infrastructures à plus petite échelle. L’Union Européenne taxe les « Net Goinfres », ce qui modifie les comportements : on échange moins de photos de chats et on tend à les stocker sur nos terminaux personnels plutôt que dans le cloud, idem pour la musique. Côté consommation, on parvient à réduire les émissions de CO2 du secteur de 5% par an entre 2025 et 2050, ce qui nous ramène au niveau de 2013.
  • Le dernier scénario propose une forme de décentralisation ultime du numérique qui signe plus ou moins la fin des data-centers tels que nous les connaissons. Internet devient plus local et dépendant des énergies renouvelables, ce qui ne permet plus d’assurer sa continuité. Le projet Greenstar au Canada suit ces principes et accepte les intermittences du réseau (follow the wind/follow the sun), de même, le blog du Low Tech Magazine s’arrête de fonctionner quand le vent ne souffle plus (le scénario nucléaire n’est pas vraiment envisagé car l’exercice prospectif est global). Ce scénario « effondrement » se base sur des infrastructures totalement low-tech (c’est-à-dire peu coûteuses en énergie) et permet assez ironiquement un « retour aux principes fondateurs d’internet (horizontal et distribué) ». Côté service, on se contente du local et l’international devient l’exception
  • L’ADEME invite également à soutenir les FAI indépendants et à créer un « service public du numérique et des data centers publics », notamment pour améliorer l’intégration spatiale des infrastructures. Les questions énergétiques font également l’objet de propositions : sobriété, récupération de chaleur, décentralisation.
  • Le chercheur Clément Marquet cité plus haut dans l’article me rappelle que ces différents rapports (Shift, ADEME) arrivent dans un moment particulier puisque le gouvernement a voté en octobre 2018 une loi visant à réduire la fiscalité énergétique pour attirer les gros data centers. Je le cite : « il y a une tension entre le projet de souveraineté numérique par les infrastructures (et des bénéfices économiques qui iraient avec bien sûr) et celui de réduction de la consommation énergétique. »
  •  
    "L'ADEME, via le projet Enernum, vient de publier une étude approfondie sur les impacts à la fois énergétiques et sociétaux de l'installation et du déploiement des data centers, en France et ailleurs. Ce travail vient confirmer les conclusions du Think tank The Shift Project qui alertait déjà des coûts carbone importants de ces infrastructures qui soutiennent tous nos usages numériques. Par delà les chiffres, l'ADEME replace les data-centers dans leur contexte humain et géographique et interroge la gestion de ce type d'infrastructure sur le territoire."
Aurialie Jublin

Ce nuage que je ne saurais voir. Promouvoir, contester et réguler les data ce... - 0 views

  •  
    Tandis que les données informatiques deviennent un enjeu commercial et politique majeur, une infrastructure occupe une place croissante sur les territoires : les centres de stockage de données ou data centers. Les façades aveugles des entrepôts massifs dans lesquels s'installent leurs opérateurs nous projettent bien loin des nuages qu'évoquent le cloud ou des discours sur la dématérialisation permise par le numérique. Le nord de Paris connaît l'essor entre 1990 et 2015 de la plus importante concentration de centre de données en Europe, générant des interrogations croissantes et des controverses entre riverains, élus, agents territoriaux et employés en charge de la gestion des réseaux électriques. L'article propose d'éclairer ces tensions en montrant la pluralité des manières de rendre visibles les data centers, c'est-à-dire, en analysant les dimensions matérielles, économiques, juridiques et écologiques qui sont saisies par les acteurs du territoire pour promouvoir l'implantation de ces infrastructures, ou au contraire pour les contester. Ce faisant, l'article qualifie différentes modalités de l'invisibilité qui facilitent l'implantation des centres de données : il rend compte des conditions politiques et sociales de leur implantation. Il identifie également deux démarches initiées par les acteurs pour qualifier ce que font les infrastructures numériques au territoire. D'abord, les centres de données se développent initialement comme des projets immobiliers ordinaires, puis sont légitimés a posteriori par les acteurs qui les soutiennent afin de les rendre acceptables à moindres frais. Or ces infrastructures sont aussi ciblées par une critique écologique du numérique, portée par des contestations qui en dénoncent l'empreinte environnementale et qui s'appuient sur les centres de données pour en matérialiser les conséquences.
Aurialie Jublin

Feminist Hackerspace as a Place of Infrastructure Production - Ada New Media - 0 views

  •  
    "Work in a (feminist) hackerspace relies on the circulation of knowledge and availability of hardware. In contemporary maker scene, the majority of these resources is created in male-dominated circles and handed over to female identified makers to act upon and appropriate. Attempts to reconcile the disbalance in gender participation with pink-colored microcontrollers only reinforced existing gender and cultural stereotypes. Instead of adding to the growing voice of critique of exclusionist and inclusionist practices, we take a critical stand towards feminist hacking practice itself: we look at what is produced by feminist hackerspaces. Using standpoint theory to analyze the experience of working with one particular self-organized group of feminist artists and developers, this paper looks at practice in feminist hackerspaces as a way to create and share essential infrastructure with female or transgender identified makers. We analyze patterns of mutual self-help through sharing and learning, and their role in creating feminist infrastructure."
Aurialie Jublin

Les Communs numériques sont-il condamnés à devenir des « Communs du capital »... - 0 views

  •  
    Faudrait-il que les géants du numérique fassent davantage et qu'ils prennent en charge de manière significative la soutenabilité à long terme du Commun numérique que représente Wikipédia ? Cette question renvoie à celle de la réciprocité pour les Communs, qui est à la fois absolument essentielle et très ambivalente. Si on élargit la perspective aux logiciels libres, force est de constater que ces Communs sont devenus une infrastructure essentielle sans laquelle Internet ne pourrait plus fonctionner aujourd'hui (90% des serveurs dans le monde tournent sous Linux, 25% des sites internet utilisent WordPress, etc.). Mais beaucoup de ces projets souffrent d'un problème de maintenance et de financement, car leur développement repose sur des communautés dont les moyens sont sans rapport avec l'importance des ressources qu'elles mettent à disposition du monde entier. C'est ce que montre très bien l'ouvrage « Sur quoi reposent nos infrastructures numériques ? Le travail invisible des faiseurs du web » signé par Nadia Enghbal
Aurialie Jublin

Open source sustainability | TechCrunch - 0 views

  • Engineers around the world pour their sweat and frankly, their hearts into these passion projects that undergird all software in the modern internet economy. In exchange, they ask for nothing in return except for recognition and help in keeping their projects alive and improving them. It’s an incredible movement of decentralized voluntarism and represents humanity at its best.
  • Two years later, a new crop of entrepreneurs, open source maintainers, and organizations have taken Eghbal up on that challenge, developing solutions that maintain the volunteer spirit at the heart of open source while inventing new economic models to make the work sustainable. All are early, and their long-term effects on the output and quality of open source are unknown. But each solution offers an avenue that could radically change the way we think of a career in open source in the future.
  • Eghbal’s report two years ago summarized the vast issues facing open source maintainers, challenges that have remained essentially unchanged in the interim. It’s a quintessential example of the “tragedy of the commons.” As Eghbal wrote at the time, “Fundamentally, digital infrastructure has a free rider problem. Resources are offered for free, and everybody (whether individual developer or large software company) uses them, so nobody is incentivized to contribute back, figuring that somebody else will step in.” That has led to a brittle ecosystem, just as open source software reached the zenith of its influence.
  • ...22 more annotations...
  • Eghbal pointed to OpenSSL as an example, a library that powers a majority of encrypted communications on the web. Following the release of the Heartbleed security bug, people were surprised to learn that the OpenSSL project was the work of a very small team of individuals, with only one of them working on it full-time (and at a very limited salary compared to industry norms).
  • No one wants open source to disappear, or for maintainers to burnout. Yet, there is a strong cultural force against commercial interests in the community. Money is corrupting, and dampens the voluntary spirit of open source efforts. More pragmatically, there are vast logistical challenges with managing money on globally distributed volunteer teams that can make paying for work logistically challenging.
  • Kyle Mitchell, a lawyer by trade and founder of License Zero, says that there is an assumption that “Open source will continue to fall from the sky like manna from heaven and that the people behind it can be abstracted away.” He concludes: “It is just really wrong.”That view was echoed by Henry Zhu, who is the maintainer of the popular JavaScript compiler Babel. “We trust startups with millions of VC money and encourage a culture of ‘failing fast,’ yet somehow the idea of giving to volunteers who may have showed years of dedication is undesirable?” he said.
  • Mitchell believes that one of the most important challenges is just getting comfortable talking about money. “Money feels dirty until it doesn’t,” he said. “I would like to see more money responsibility in the community.” One challenge he notes is that “learning to be a great maintainer doesn’t teach you how to be a great open source contractor or consultant.” GitHub works great as a code repository service, but ultimately doesn’t teach maintainers the economics of their work.
  • Perhaps the greatest debate in sustaining open source is deciding who or what to target: the individual contributors — who often move between multiple projects — or a particular library itself.
  • Patreon is a crowdsourced subscription platform, perhaps best known for the creatives it hosts. These days though, it is also increasingly being used by notable open source contributors as a way to connect with fans and sustain their work. Aboukhadijeh launched his page after seeing others doing it. “A bunch of people were starting up Patreons, which was kind of a meme in my JavaScript circles,” he said. His Patreon page today has 72 contributors providing him with $2,874 in funding per month ($34,488 annually).
  • That may seem a bit paltry, but he explained to me that he also supplements his Patreon with funding from organizations as diverse as Brave (an adblocking browser with a utility token model) to PopChest (a decentralized video sharing platform). That nets him a couple of more thousands of dollars per month.
  • Aboukhadijeh said that Twitter played an outsized role in building out his revenue stream. “Twitter is the most important on where the developers talk about stuff and where conversations happen…,” he said. “The people who have been successful on Patreon in the same cohort [as me] who tweet a lot did really well.”
  • For those who hit it big, the revenues can be outsized. Evan You, who created the popular JavaScript frontend library Vue.js, has reached $15,206 in monthly earnings ($182,472 a year) from 231 patrons. The number of patrons has grown consistently since starting his Patreon in March 2016 according to Graphtreon, although earnings have gone up and down over time.
  • While Patreon is one direct approach for generating revenues from users, another one is to offer dual licenses, one free and one commercial. That’s the model of License Zero, which Kyle Mitchell propsosed last year. He explained to me that “License Zero is the answer to a really simple question with no simple answers: how do we make open source business models open to individuals?”
  • License Zero is a permissive license based on the two-clause BSD license, but adds terms requiring commercial users to pay for a commercial license after 90 days, allowing companies to try a project before purchasing it. If other licenses aren’t available for purchase (say, because a maintainer is no longer involved), then the language is no longer enforceable and the software is offered as fully open source. The idea is that other open source users can always use the software for free, but for-profit uses would require a payment.
  • Mitchell believes that this is the right approach for individuals looking to sustain their efforts in open source. “The most important thing is the time budget – a lot of open source companies or people who have an open source project get their money from services,” he said. The problem is that services are exclusive to a company, and take time away from making a project as good as it can be. “When moneymaking time is not time spent on open source, then it competes with open source,” he said.
  • Supporting individuals makes a lot of sense, but often companies want to support the specific projects and ecosystems that underpin their software. Doing so can be next to impossible. There are complicated logistics required in order for companies to fund open source, such as actually having an organization to send money to (and for many, to convince the IRS that the organization is actually a non-profit). Tidelift and Open Collective are two different ways to open up those channels.
  • Fischer and his team wanted to create a platform that would allow open source ecosystems to sustain themselves. “We felt frustrated at some level that while open source has taken over a huge portion of software, a lot of the creators of open source have not been able to capture a lot of the value they are creating,” he explained.Tidelift is designed to offer assurances “around areas like security, licensing, and maintenance of software,” Fischer explained. The idea has its genesis in Red Hat, which commercialized Linux. The idea is that companies are willing to pay for open source when they can receive guarantees around issues like critical vulnerabilities and long-term support. In addition, Tidelift handles the mundane tasks of setting up open source for commercialization such as handling licensing issues.
  • Tidelift initially launched in the JavaScript ecosystem around React, Angular, and Vue.js, but will expand to more communities over time. The company has raised $15 million in venture capital from General Catalyst and Foundry Group, plus former Red Hat chairman and CEO Matthew Szulik.
  • Fischer hopes that the company can change the economics for open source contributors. He wants the community to move from a model of “get by and survive” with a “subsistence level of earnings” and instead, help maintainers of great software “win big and be financially rewarded for that in a significant way.”
  • Where Tidelift is focused on commercialization and software guarantees, Open Collective wants to open source the monetization of open source itself.Open Collective is a platform that provides tools to “collectives” to receive money while also offering mechanisms to allow the members of those collectives to spend their money in a democratic and transparent way.
  • Xavier Damman, founder president of Open Collective, believes that this radical transparency could reshape how the economics of open source are considered by its participants. Damman likens Open Collective to the “View Source” feature of a web browser that allows users to read a website’s code. “Our goal as a platform is to be as transparent as possible,” he said.
  • Open Collective was launched in late 2015, and since then has become home to 647 open source projects. So far, Webpack, the popular JavaScript build tool, has generated the most revenue, currently sitting at $317,188 a year. One major objective of the organization is to encourage more for-profit companies to commit dollars to open source. Open Collective places the logos of major donors on each collective page, giving them visible credit for their commitment to open source.
  • Damman’s ultimate dream is to change the notion of ownership itself. We can move from “Competition to collaboration, but also ownership to commons,” he envisioned.
  • It’s unfortunately very early days for open source sustainability. While Patreon, License Zero, Tidelift, and Open Collective are different approaches to providing the infrastructure for sustainability, ultimately someone has to pay to make all that infrastructure useful. There are only a handful of Patreons that could substitute for an engineer’s day job, and only two collectives by my count on Open Collective that could support even a single maintainer full time. License Zero and Tidelift are too new to know how they will perform yet.
  • The change though can happen through all of us who work on code — every software engineer and product manager. If you work at a for-profit company, take the lead in finding a way to support the code that allows you to do your job so efficiently. The decentralization and volunteer spirit of the open source community needs exactly the same kind of decentralized spirit in every financial contributor. Sustainability is each of our jobs, every day. If we all do our part, we can help to sustain one of the great intellectual movements humanity has ever created, and end the oxymoron of open source sustainability forever.
  •  
    "Open source maintainers are exhausted and rarely paid. A new generation wants to change the economics."
Aurialie Jublin

Paris se dote de sa propre infrastructure pour héberger les données de ses ad... - 0 views

  • Alors que les services publics sont de plus en plus numérisés, ce nouvel équipement doit offrir les plus hauts standards de sécurité quant à l’hébergement des données. Il permet notamment à Paris, qui externalisait jusque-là cette prestation, de ne plus dépendre d’acteurs étrangers – possiblement soumis à des réglementations, comme le Cloud Act, lequel permet aux Etats-Unis de réclamer à des fournisseurs de service américains l’accès à des données stockées à l’étranger – et de garantir ainsi la souveraineté des données. En outre, sauf dans le cas de missions ponctuelles, les équipements sont entièrement gérés par les services informatiques de la mairie. « Nous avons la maîtrise physique du stockage de bout en bout », se réjouit M. Grégoire.
  • La mairie a également tenu à ce que cette installation ait une empreinte environnementale limitée. Manifestation la plus visible de cette volonté, la chaleur dégagée par le data center est utilisée pour alimenter le réseau de chauffage de bâtiments voisins.
  • Ce nouvel équipement a nécessité un investissement de 16 millions d’euros. Pour faire baisser la facture, la mairie a dimensionné le lieu de telle sorte qu’il puisse proposer à d’autres services publics d’accueillir leurs serveurs, moyennant finances – à un coût qu’elle assure avantageux. L’Assistance publique-Hôpitaux de Paris et Eau de Paris comptent parmi ses premiers clients, et des discussions sont en cours pour conclure de nouveaux contrats.
  • ...1 more annotation...
  • Une telle solution pourrait-elle être adoptée par d’autres villes françaises ? L’adjoint au maire admet que le coût d’entrée est prohibitif et que Paris n’aurait pas pu faire ce choix s’il ne disposait pas des compétences en interne pour créer et maintenir ce site. Mais, veut-il croire, « c’est une philosophie qui est appelée à se développer ».
  •  
    "Alors qu'elle externalisait jusque-là le stockage de ses données numériques, la ville a investi 16 millions d'euros dans un centre de données pour en reprendre le contrôle."
Aurialie Jublin

Peut-on contrer le pouvoir d'Amazon ? - 0 views

  •  
    Amazon n'est plus seulement un géant du numérique mais une infrastructure essentielle à de nombreuses entreprises qui en dépendent. Les outils juridiques traditionnels s'avèrent impuissants à endiguer ce type de pouvoir. Une bulle éco signée Catherine Petillon.
Aurialie Jublin

Des plateformes en leurs limites | InternetActu.net - 0 views

  • L’ouvrage commence par remettre la réalité des plateformes en perspective… Après le temps des promesses de l’avènement de « l’économie du partage » (voir notre dossier de 2014) voire de « la quatrième révolution industrielle », Srnicek rappelle que nous en sommes bien loin. Le secteur des technologies reste relativement modeste dans l’économie, tant en terme de valeur ajouté que d’emplois. Le secteur industriel, malgré la désindustrialisation, est encore bien plus flamboyant que le monde des nouvelles technologies.
  • Pour Srnicek, le capitalisme s’est tourné vers les données pour assurer la croissance et la vitalité de l’économie, à l’heure où l’industrie ralentissait. En ce sens, les plateformes sont un nouveau modèle d’entreprise, dont la fonction est d’extraire, de contrôler et de rendre productifs les données. Un « mirage compétitif », comme l’évoquaient Maurice Stucke et Ariel Ezrachi dans leur livre, qui tend à devenir de plus en plus monopolistique.
  • Le capitalisme s’est restructuré autour du numérique, réservoir de nouveaux concepts, d’innovations réelles ou à venir, reposant sur l’extraction des données. Les données sont devenues la matière première à extraire et les activités des usagers, leur source naturelle. Elles sont désormais au coeur du système capitaliste : « elles nourrissent les algorithmes et donnent [aux entreprises] des avantages concurrentiels, elles coordonnent la main d’oeuvre et permettent souvent de l’externaliser, elles optimisent et flexibilisent les processus de production, elles transforment des produits peu rentables en services hautement profitables et, après leur analyse, elles donnent accès à toujours plus de données – dans une sorte de cercle vertueux. »
  • ...21 more annotations...
  • La plupart des entreprises capitalistes n’étaient pas conçues pour extraire et utiliser des données, mais pour produire des marchandises. Pour améliorer l’extraction de données, un nouveau type d’entreprise s’est développée : la plateforme. Ce nouveau modèle est un intermédiaire entre différents usagers qui vise via des outils ou une infrastructure dédiée à produire des données à exploiter. Leur seconde caractéristique est de reposer sur des effets de réseaux qui favorisent le nombre et donc produits par nature des formes monopolistiques, très rapidement. Autre caractéristique des plateformes, contrairement aux entreprises allégées qui ne visaient qu’à conserver les compétences essentielles au coeur du projet, les plateformes démultiplient les activités rentables et non rentables pour diversifier les données, comme Google fourbit des services gratuits pour capter un maximum de données. Enfin, elles se présentent souvent comme des espaces ouverts, alors que les services sont entièrement déterminés par leurs propriétaires. Bien que se présentant comme des intermédiaires, les plateformes contrôlent et gouvernent les règles du jeu !
  • Srnicek distingue 5 catégories de plateformes : la plateforme publicitaire (type Google ou Facebook qui consiste à extraire de l’information pour vendre de l’espace publicitaire), la plateforme nuagique (type Amazon Web Services… qui loue de l’équipement à la demande), la plateforme industrielle (comme celles développées par GE ou Siemens… qui visent à transformer la production industrielle en processus produisant des données), la plateforme de produits (comme celles mises en place par Rolls Royce ou Spotify… qui transforment les produits en service sous forme de location ou d’abonnement) et enfin, la plateforme allégée (type Uber ou Airbnb… qui réduisent les actifs au minimum et dégage des profits en baissant au maximum leurs coûts de fonctionnement).
  • Plus qu’un digital labor, concept à l’égard duquel le philosophe semble méfiant, les plateformes publicitaires reposent sur l’appropriation des données et leur raffinage pour assortir annonceurs et usagers. Ce modèle n’est pas seulement prédominant sur internet : Dunnhumby, propriété de Tesco, est une entreprise d’analyse des habitudes de consommation. Ces plateformes publicitaires ont connu un grand succès. Leurs revenus, leurs profits sont élevés.
  • Les plateformes nuagiques permettent aux entreprises de sous-traiter leur développement technologique. Le modèle locatif permet aux entreprises qui développent des services en ligne de collecter de nouvelles données pour renforcer l’extraction. Là encore, les profits et revenus s’envolent.
  • Les plateformes industrielles, comme MindSphere de Siemens ou Predix de GE, sont certainement moins connues. Elles consistent à introduire des capteurs et des puces dans la chaîne de production pour améliorer la traçabilité logistique, afin d’optimiser l’efficacité du processus de production, de développer de la personnalisation dans la chaîne de montage et dans la chaîne de distribution. Ces plateformes construites pour collecter des mégadonnées de filières industrielles spécifiques, sont, elles aussi, particulièrement rentables.
  • Les plateformes de produits et de services en tant que produits reposent pour beaucoup sur le modèle de l’abonnement, à l’image de Spotify ou encore de Rolls Royce, qui, pour ses moteurs d’avion, fait payer les compagnies aériennes pour l’utilisation de ses moteurs plutôt que de les leur vendre. En retour, Rolls Royce prend en charge l’entretien et les pièces de rechange. En récupérant ainsi les données, ces plateformes améliorent leurs produits, à l’image de Rolls Royce qui a pu ainsi améliorer la consommation de carburant de ses moteurs et leur durée de vie, au détriment de ses compétiteurs.
  • Enfin, les plateformes allégées externalisent à maximum leurs coûts. La plateforme contrôle uniquement ce qui lui permet de percevoir une rente de monopole (un pourcentage sur les transactions qu’elle facilite). C’est là clairement le modèle d’Uber ou de Airbnb, de TaskRabbit ou Mechanical Turk. Mais, rappelle Srnicek, ce phénomène n’est pas propre au numérique. Le marché des travailleurs journaliers, des emplois informels, de la sous-traitance… bref du travail traditionnel… est également très proche de ce modèle.
  • Le numérique y ajoute une couche de surveillance. Aux États-Unis, les emplois non conventionnels représenteraient 15 millions de travailleurs soit 10 % de la main d’oeuvre du pays en 2005, et 15,8 % en 2015. Ces emplois non conventionnels ont même dépassé le nombre d’emplois créés entre 2005 et 2015 aux États-Unis (9,4 millions contre 9,1 millions). Reste que l’accélération de la précarisation de l’emploi n’est pas tout entier imputable aux plateformes numériques. On estime que l’économie du partage en ligne représente 1 % de la main-d’oeuvre américaine et que les chauffeurs d’Uber en représenteraient la grande majorité. En fait, ce secteur demeure encore relativement marginal, estime Srnicek. Ces plateformes prolongent la précarisation du travail initié par les entreprises allégées dès les années 70. Srnicek rappelle très justement que ce travail « autonome » demeure largement contraint 
  • Pour Srnicek, ces entreprises qui bénéficient de force investissements, sont un phénomène consécutif à la crise de 2008, mais Uber, Airbnb et Didi Chuxing (le concurrent chinois d’Uber), ont raflé à elles trois en 2015 59 % du financement des entreprises émergentes des services à la demande. Elles ont surtout bénéficié de capitaux excédentaires cherchant des opportunités de rendements élevés dans un contexte de faible taux d’intérêt. Pour Srnicek, la rentabilité des plateformes allégées est encore largement à prouver. Elle repose sur leur capacité à comprimer les coûts et à abaisser les salaires… comme on le constate dans le monde des livreurs à vélo où le prix de la course n’a cessé de s’effondrer.
  • Srnicek en tire un enseignement qui va à l’encontre des discours ambiants sur le modèle des plateformes : « le modèle allégé reste un joueur marginal », qui ne survit que par l’apport de capital-risque plutôt qu’en générant ses propres revenus. « Loin d’incarner l’avenir du travail ou de l’économie, il est fort probable que ces modèles finissent par s’écrouler dans les années à venir ».
  • Reste souligne Srnicek, que « nous n’assistons pas à la fin de la propriété, mais bien à sa concentration ». Les plateformes en imposant leur monopole sur l’extraction des données sont en passe de devenir « propriétaires de l’infrastructure même de la société ».
  • Le problème est que les monopoles qu’elles construisent sont donc de plus en plus importants. Qui pourrait aujourd’hui venir défaire le monopole d’un Google par exemple ? Pour autant, cela ne signifie pas que la concurrence est morte, souligne Srnicek, mais qu’elle a changé de forme. Pour lui, nous serions plutôt dans un colonialisme de plateforme, un moment où la capitalisation sur la quantité et la diversité des données importent plus que leur qualité.
  • Outre l’extraction de données, l’autre travail des plateformes repose sur leur capacité d’analyse et de traitement qui participe lui aussi à la concentration. D’où les investissements massifs dans l’intelligence artificielle : « le moindre goulot d’étranglement dans la circulation de données (…) contribue à entraver la production de valeur ». Pour Srnicek, l’expansionnisme des plateformes repose sur un modèle de convergence, tant et si bien que malgré leurs différences, les grandes plateformes se concurrencent de plus en plus entre elles.
  • Pour Srnicek, cette tendance devrait à terme se cristalliser dans des écosystèmes de plus en plus clos : « la concurrence capitaliste risque fort bien de mener à une fragmentation d’internet » que seule une intervention politique pourrait ralentir ou renverser.
  • Encore faudrait-il être sûr que la concurrence soit encore une caractéristique du capitalisme tel qu’il s’est transformé ces dernières années… C’est peut-être oublier combien celui-ci est en train de muter. Les comportements assez similaires des grandes plateformes, leurs ententes et collusions, montrent que si elles se font effectivement une petite guerre entre elles, leurs principes semblent imposer une vision du monde sans grande concurrence. Le retour des monopoles, le fait que d’énormes conglomérats dominent les marchés, souligne que nous ne sommes peut-être plus dans un capitalisme où la concurrence était un préalable. Peut-être que l’analyse de Srnicek n’est peut-être pas assez radicale ?
  • La conclusion de Srnicek est limpide. Le numérique ne nous conduit pas du tout à dépasser le capitalisme. Nous restons dans une économie où règne la concurrence et la rentabilité. Pour lui cependant, le modèle des plateformes fait face à un défi d’importance qui risque d’éprouver leurs limites : la crise de la production industrielle. Depuis 2008, la croissance est en berne. La Chine elle-même connaît une surcapacité industrielle, qui entraîne une baisse des prix… L’internet industriel est vu comme un espoir pour inverser la situation et ajuster la production à la demande. Or, souligne Srnicek, l’internet industriel lui-même ne semble pas capable de transformer le mode de production en profondeur : il se cantonne plutôt à réduire les coûts et le temps de production, plutôt que d’améliorer la productivité ou de développer de nouveaux marchés. L’internet industriel vise plutôt à agir sur la baisse des prix, et ce alors que l’austérité tend à diminuer la demande et à faire chuter la productivité. Quant au capital, explique-t-il, il cherche un peu partout les moindres opportunités, mais sans qu’elles soient raccord avec les difficultés actuelles.
  • Pour Srnicek, le scénario le plus probable est que les plateformes se propagent dans tous les secteurs, alors que la concurrence les entraîne à se refermer sur elles-mêmes. Les plateformes publicitaires pourraient être poussées à offrir des services payants, alors que les plateformes allégées pourraient être amenées à se transformer en plateformes de produits. « En dernière analyse, il semble que le capitalisme de plateforme tende inéluctablement à prendre la forme d’un échange d’une rente contre un service ». C’est-à-dire à construire des rentes par ceux qui souhaitaient les défaire…
  • La grande promesse de libération des plateformes, de fluidification de l’économie, se termine sous la forme de simples droits de péages (le fameux 30 % de marge qu’elles pratiquent toutes peu ou prou) pour accéder aux services, selon le modèle de bien des entreprises traditionnelles qu’elles prétendaient détrôner.
  • Dans une conclusion certainement trop rapide, Nick Srnicek, rappelle que les enjeux à venir consistent à s’opposer aux monopoles, à développer d’autres types de plateformes qui bénéficient à ceux qui les utilisent, à l’image du coopérativisme de plateforme, à lutter contre l’ubérisation, c’est-à-dire contre la précarisation, qu’induisent les plateformes allégées, à lutter contre l’évasion fiscale et l’exploitation des données… Pour lui, pour agir sur ce qui a permis le développement des plateformes, il est nécessaire de construire des plateformes publiques, de collectiviser les plateformes existantes pour mettre leurs données au service d’une meilleure redistribution des ressources, d’une plus grande participation… D’imaginer une autre innovation ne reposant plus sur l’optimisation capitalistique. Dommage que cette dernière partie ne dépasse pas l’appel d’intention.
  • Pour Erik Brynjolfsson et Andrew McAfee, dans Des machines, des plateformes et des foules (2018), la plateforme était encore définie comme une solution magique, puissante, sans réelle externalité (« la plateforme est un environnement numérique qui se caractérise par un coût marginal d’accès, de reproduction et de distribution proche de zéro »). La catégorisation de Srnicek apporte donc un peu de complexité et de mise en perspective et permet de relativiser l’enthousiasme et la fascination pour les plateformes, longtemps vues comme des infrastructures qui mettent en correspondance l’offre et la demande.
  • La plateforme était surtout un instrument pour industrialiser la création de valeurs et accélérer les rendements d’échelle nécessaires à l’établissement d’une position dominante sur les marchés, via un ensemble de mécanismes allant du crowdsourcing à l’appariement, en passant par des technologies comme les API et toutes les capacités offertes aux développeurs tiers. Reste que ces mécanismes et ces technologies ne sont plus magiques.
  •  
    "En attendant leurs nouvelles publications, intéressons-nous au précédent livre de Nick Srnicek Plaform Capitalism (2016), qui vient d'être traduit en français sous le titre Capitalisme de plateforme (Lux éditeur, 2018). Il est certainement moins ambitieux sur le plan politique que son manifeste, mais très stimulant pour comprendre les transformations concrètes de l'économie numérique. Ce court essai d'analyse de la réalité économique des plateformes nous aide à en saisir leur impact en les situant dans leur réalité économique."
Aurialie Jublin

Pour défendre le covoiturage « libre », deux plateformes indépendantes joigne... - 0 views

  • En 2017, Matthieu Jacquot, son fondateur, accepte de passer son infrastructure sur un socle open source. « Un prérequis indispensable pour garantir l’indépendance de notre communauté » souligne Bastien, ce qui scelle l’ébauche de partenariat entre les deux plateformes. « Cette alliance est primordiale, car nous sommes une association qui fonctionne avec peu de moyens. La maintenance de son interface technique est un problème récurrent. S’il y a un bug, il faut compter sur les bénévoles pour le corriger. » RoulezMalin, lui, possède une infrastructure solide.
  • « À travers ce rapprochement, on est en train de redessiner les cartes du covoiturage en France », espère Bastien. « On n’a aucun problème avec BlaBlaCar, on pense juste que c’est important qu’il y ait une offre avec laquelle la richesse créée par les covoitureurs reste à la communauté des covoitureurs ». Doctorant en science politique autour des questions du numérique, fondateur de l’Association internationale du logiciel libre, l’homme demeure fidèle à son mantra : faire du numérique un outil de progrès social.
  •  
    "« L'important pour nous, c'est que quand quelqu'un partage son trajet avec quelqu'un d'autre, cette générosité et cette conscience écologique ne conduisent pas à l'enrichissement de personnes privées ou de fonds d'investissement », explique Bastien Sybille. Président de Covoiturage-Libre, l'homme vient de nouer un partenariat avec le site RoulezMalin. Ces deux acteurs du covoiturage libre (ils ne prélèvent pas de commissions) souhaitent augmenter leur masse critique de covoitureurs pour proposer une alternative au géant du secteur."
Aurialie Jublin

DAISEE - internets of energu - energy as a common(s) - 0 views

  •  
    "DAISEE is an open design program for people who consider Energy as a Common(s). Our mission: Build the *Internets of Energy* relying on resilient, distributed, secured and trusted energy data & physical infrastructures. Our purpose: Provide the conditions for a shared governance of energy by ALL the grid stakeholders. "
Aurialie Jublin

Technologie : l'âge sombre | InternetActu.net - 0 views

  • Pire, la technologie s’est fait la complice de tous les défis auxquels nous sommes confrontés : à la fois d’un système économique hors de contrôle qui ne cesse d’élargir les inégalités, la polarisation politique comme le réchauffement climatique. Pour Bridle, la technologie n’est pas la solution à ces défis, elle est devenue le problème. Il nous faut la comprendre plus que jamais, dans sa complexité, ses interconnexions et ses interactions : mais cette compréhension fonctionnelle ne suffit pas, il faut en saisir le contexte, les conséquences, les limites, le langage et le métalangage.
  • Trop souvent, on nous propose de résoudre ce manque de compréhension de la technologie par un peu plus d’éducation ou son corollaire, par la formation d’un peu plus de programmeurs. Mais ces deux solutions se limitent bien souvent en une compréhension procédurale des systèmes. Et cette compréhension procédurale vise surtout à renforcer la « pensée computationnelle », c’est-à-dire la pensée des ingénieurs et des informaticiens qui n’est rien d’autre que le métalangage du solutionnisme technologique 
  • Les systèmes techniques sont devenus de plus en plus complexes. Trop critiques et interconnectés pour être compris, pensés ou conçus. Leur compréhension n’est disponible plus que pour quelques-uns et le problème est que ces quelques-uns sont les mêmes que ceux qui sont au sommet des structures de pouvoir. Pour James Bridle, il y a une relation causale entre la complexité des systèmes, leur opacité, et les violences et inégalités qu’ils propagent.
  • ...32 more annotations...
  • Le cloud (l’informatique en nuage) n’est plus une métaphore du réseau, c’est l’incarnation de ce système global et surpuissant qu’aucun d’entre nous ne peut désormais attraper. Ce nuage est pourtant une bien mauvaise métaphore. Rien de ce qu’il recèle n’y est sans poids, rien n’y est amorphe ou invisible. Le cloud cache une infrastructure physique complexe faite de lignes téléphoniques, de fibre optique, de satellite, de vastes entrepôts d’ordinateurs, qui consomment d’énormes quantités d’énergie et qui influent sur de multiples juridictions. Le cloud est l’incarnation d’une nouvelle industrie.
  • De la sécurité nationale aux secrets industriels, il y a beaucoup de raisons à obscurcir ce que recouvre ce nuage. Mais ce qui s’en évapore est assurément notre propriété (dans les nuages, tout appartient à d’autres) et notre agentivité, c’est-à-dire notre capacité à faire.
  • Le réseau donne l’impression d’être à la fois l’idéal de progrès le plus abouti et l’idéal de base de notre culture tout en paraissant avoir émergé inconsciemment, poursuivant son but d’interconnexion sans fin pour lui-même et par lui-même… « Nous présumons que l’interconnexion est inhérente et inévitable. Le réseau semble être devenu le résultat du progrès, son accomplissement ultime », à l’image de machines qui accompliraient ainsi leurs propres désirs. Internet semble avoir accompli l’idéal des Lumières, l’idéal du progrès : celui que plus de connaissance et plus d’information conduit toujours à prendre de meilleures décisions.
  • Mais n’est-ce pas plutôt le contraire auquel nous assistons ? « Ce qui était censé éclairer le monde l’a obscurci. L’abondance d’information et la pluralité d’opinion accessible à tous n’ont pas produit un consensus cohérent, mais au contraire a déchiré la réalité en narrations simplistes, en théories fumeuses et en politique d’opinion. Contrairement au Moyen Âge, où l’âge sombre était lié à une perte de connaissance antique, l’âge sombre moderne est lié à une abondance de connaissance dont nous ne savons plus démêler collectivement l’apport. »
  • L’obscurité dont parle Bridle c’est notre incapacité à voir clairement ce qui est devant nous, avec capacité et justice. Pour Bridle pourtant, ce constat ne doit pas être lu comme une condamnation de la technologie. Au contraire. Pour relever l’âge sombre qui s’annonce, il nous faut nous engager plus avant dans la technologie, avec elle, mais avec une compréhension radicalement différente de ce qu’il est possible d’en faire, en retrouver un sens que la seule recherche d’efficacité nous a fait perdre. Tout comme le changement climatique, les effets de la technologie s’étendent sur le globe et affectent tous les aspects de nos vies. Mais comme le changement climatique, ses effets sont potentiellement catastrophiques et résultent de notre incapacité à comprendre les conséquences de nos propres inventions. Nous devons changer de manière de voir et penser le monde, nous invite Bridle, un peu facilement ou naïvement.
  • « En rapprochant la simulation de l’approximation, les grands prêtres de la pensée computationnelle pensent remplacer le monde par des modèles biaisés de lui-même ; et en le faisant, les modeleurs s’assurent du contrôle du monde. » James Bridle s’inscrit dans la continuité des constats de l’historien des sciences David Noble qui, dans Le progrès sans le peuple notamment, soulignait combien la pensée des ingénieurs avait contribué à donner du pouvoir aux puissants plutôt que favoriser l’équité ou la démocratie ; comme dans celle de Richard Sclove du Loka Institute, qui dans Choix technologiques, choix de société, soulignait combien les enjeux démocratiques restaient le parent pauvre de la question technologique.
  • La pensée computationnelle s’infiltre partout : elle devient notre culture. Elle nous conditionne à la fois parce qu’elle nous est illisible et à la fois parce que nous la percevons comme neutre émotionnellement et politiquement. Les réponses automatisées nous semblent plus dignes de confiance que celles qui ne le sont pas. Dans la pensée computationnelle, nous sommes victimes du biais d’automatisation : « nous avons plus confiance dans l’information automatisée que dans notre propre expérience, même si elle est en conflit avec ce qu’on observe ». Les conducteurs de voitures comme les pilotes d’avion ont plus tendance à croire leurs instruments que leur expérience, même si celle-ci n’est pas alignée.
  • Pour Bridle, l’informatique, en ce sens, est un piratage de notre capacité cognitive, de notre capacité attentionnelle, qui renvoie toute responsabilité sur la machine. « À mesure que la vie s’accélère, les machines ne cessent de prendre en main de plus en plus de tâches cognitives, renforçant par là leur autorité – sans regarder les conséquences ». « Nous nous accommodons de mieux en mieux et de plus en plus aux confortables raccourcis cognitifs que nous proposent nos machines. L’informatique remplace la pensée consciente. Nous pensons de plus en plus comme des machines, ou plutôt nous ne pensons plus du tout ! ».
  • « Ce qui est difficile à modéliser, à calculer, à quantifier, ce qui est incertain ou ambigu, est désormais exclu du futur possible. » L’informatique projette un futur qui ressemble au passé (« Les algorithmes ne prédisent pas le futur, ils codifient le passé », disait déjà Cathy O’Neil). La pensée computationnelle est paresseuse. Elle propose finalement des réponses faciles. Elle nous fait croire qu’il y a toujours des réponses.
  • les réseaux souffrent d’une gouvernance fragmentée, sans responsabilités claires, peu cartographiés et sous-financés ; des infrastructures en silos ; des investissements privés comme publics insuffisants et plus encore un manque de compréhension de la complexité de leur fonctionnement… expliquent leur fragilité intrinsèque et la difficulté de leur maintenance. Ajoutez à cela les impacts du changement climatique sur leur maintenance et leur évolution et vous comprendrez que les réseaux ne sont pas dimensionnés pour faire face au futur. Bref, non seulement l’informatique contribue largement au réchauffement climatique, mais elle risque d’en être l’une des principales victimes.
  • Mais les grands volumes de données ne produisent pas de la connaissance automatiquement. Dans la recherche pharmacologique par exemple, les dépenses et investissements n’ont jamais été aussi forts alors que les découvertes, elles, n’ont jamais produit aussi peu de nouveaux traitements. On appelle cela la loi d’Eroom : l’exact inverse de la loi de Moore. Le nombre de résultats de recherche chute et ces résultats sont de moins en moins dignes de confiance. Si les publications scientifiques n’ont jamais été aussi volumineuses (au détriment de leur qualité), les rétractions ont augmenté et le nombre de recherches ayant un impact significatif, elles, ont diminué proportionnellement. La science connaît une crise de réplicabilité majeure.
  • Plusieurs facteurs expliquent ce revirement de la loi du progrès. La première est que les choses les plus évidentes à découvrir ont été exploitées. La régulation est également devenue plus exigeante et la société moins tolérante aux risques. Mais le problème principal relève certainement des méthodes désormais employées. Historiquement, la découverte de médicament était le fait de petites équipes de chercheurs qui se concentrait intensément sur de petits groupes de molécules. Mais depuis 20 ans, ces processus ont été largement automatisés, sous la forme de ce qu’on appelle le HTS (High-throughput screening pour criblage à haut débit) qui consiste en des recherches automatisées de réactions potentielles via de vastes bibliothèques de composants. Le HTS a priorisé le volume sur la profondeur. Ce qui a marché dans d’autres industries a colonisé la recherche pharmaceutique : automatisation, systématisation et mesures… Certains commencent à douter de l’efficacité de ces méthodes et voudraient revenir à l’empirisme humain, au hasard, au bordel, au jeu… À nouveau, « la façon dont nous pensons le monde est façonnée par les outils à notre disposition ». Nos instruments déterminent ce qui peut être fait et donc, ce qui peut être pensé. À mesure que la science est de plus en plus technologisée, tous les domaines de la pensée humaine le sont à leur tour. Les vastes quantités de données ne nous aident qu’à voir les problèmes des vastes quantités de données.
  • Les bourses et places de marchés d’antan ont été remplacées par des entrepôts, des data centers, anonymes, dans des banlieues d’affaires impersonnelles. La dérégulation et la numérisation ont transformé en profondeur les marchés financiers. La vitesse des échanges s’est accélérée avec la technologie. Les transactions à haute fréquence (HFT, High-frequency trading) reposent sur la latence et la visibilité. La latence, c’est-à-dire la rapidité d’échange où des millions peuvent s’échanger en quelques millisecondes et la visibilité (sauf pour les non-initiés), c’est-à-dire le fait que les échanges sont visibles de tous les participants, instantanément. Les échanges reposent sur des algorithmes capables de calculer des variations éclair et de masquer les mouvements de fonds. Les échanges sont plus opaques que jamais : ils s’imposent sur des forums privés, les « dark pools » (en 2015, la SEC, l’organisme américain de réglementation et de contrôle des marchés financiers, estimait que les échanges privés représentaient 1/5e du total des échanges)… Les échanges financiers ont été rendus obscurs et plus inégaux que jamais, rappelle Bridle.
  • Pour Bridle, l’une des clefs qui expliquent que les inégalités se renforcent avec la technologie est intrinsèquement liée à l’opacité des systèmes. Comme les robots des entrepôts d’Amazon et ses employés commandés par des commandes vocales émanant de robots, nous sommes en train d’arranger le monde pour rendre les machines toujours plus efficaces, quitte à ce que le monde devienne incompréhensible et inadapté aux humains. Les travailleurs deviennent le carburant des algorithmes, utiles seulement pour leurs capacités à se déplacer et à suivre des ordres. Pour Bridle, les startups et les Gafam signent le retour des barons voleurs, ces tyrans industriels du XIXe siècle. La technologie est venue couvrir d’un voile d’opacité la prédation : l’avidité s’est habillée de la logique inhumaine des machines. Amazon ou Uber cachent derrière des pixels lumineux un système d’exploitation sans faille
  • Pour la sociologue Deborah Cowen (@debcowen), nous sommes entrés dans la tyrannie de la techne explique-t-elle dans The Deadly Life of Logistics (2014) : l’efficacité est devenu primordiale sur tous les autres objectifs, sur toutes les autres valeurs
  • Autre exemple avec How-Old.net un outil de reconnaissance faciale qui tente de prédire l’âge d’une personne, et qui a été utilisée pour deviner l’âge de migrants arrivants au Royaume-Uni. Microsoft, qui a développé cette application, s’est défendu et a dénoncé cette utilisation… comme les 2 chercheurs chinois. Ceux-ci expliquaient néanmoins dans leur défense que leur système était « sans préjugé » (sic). Comme souvent, on nous explique que la technologie, et plus encore l’apprentissage automatisé, est neutre. Mais « la technologie n’émerge pas de nulle part. Elle est toujours la réification de croyances et de désirs, notamment de ses créateurs. Leurs biais sont encodés dans les machines et les bases de données ou les images que nous prenons du monde. »
  • Pour Bridle, le problème n’est pas tant que les machines puissent réécrire la réalité, mais que la réalité, le passé comme le futur, ne puissent plus être correctement racontés. DeepDream de Google illustre parfaitement cela. L’enjeu n’est pas pour nous de comprendre ce qu’est l’image, mais de nous demander ce que le réseau de neurones veut y voir ?
  • Pour Bridle, nous devrions ajouter une 4e loi aux trois lois de la robotique d’Asimov. Les machines intelligentes devraient être capables de s’expliquer aux humains. Ce devrait être une loi première, car éthique. Mais le fait que ce garde-fou ait déjà été brisé laisse peu d’espoir quant au fait que les autres règles le soient à leur tour. « Nous allons devoir affronter un monde où nous ne comprendrons plus nos propres créations et le résultat d’une telle opacité sera toujours et inévitablement violent ».
  • Pour Bridle, l’alliance entre l’humain et la machine peut encore fonctionner, comme l’a montré Garry Kasparov avec les échecs avancés, consistant à ce qu’une IA et qu’un humain jouent ensemble plutôt qu’ils ne s’affrontent. C’est dans la perspective d’associer les talents des humains et des machines, d’associer leurs différences d’une manière coopérative plutôt que compétitive que nous parviendrons à réduire l’opacité computationnelle. La perspective que l’intelligence des machines nous dépasse dans nombre de disciplines est une perspective destructrice. Nous devons trouver la voie d’une éthique de la coopération avec les machines, plutôt qu’un affrontement.
  • Bridle s’en prend également longuement à la surveillance et notamment à la surveillance d’Etat pour souligner combien elle nous est masquée et continue à l’être, malgré les révélations d’Edward Snowden. Vous pouvez lire n’importe quel e-mail dans le monde d’une personne dont vous avez l’adresse. Vous pouvez regarder le trafic de tout site web. Vous pouvez suivre les mouvements de tout ordinateur portable à travers le monde. Pour Bridle, cela nous a montré qu’il n’y a pas de restriction possible à la capacité de surveillance du réseau. L’échelle et la taille de la surveillance a excédé ce que nous pensions comme étant techniquement possible.
  • En opposition au secret, nous demandons de la transparence, mais elle n’est peut-être pas le bon levier. La NSA et Wikileaks partagent la même vision du monde avec des finalités différentes, rappelle Bridle. Les deux pensent qu’il y a des secrets au coeur du monde qui, s’ils étaient connus, pourraient rendre le monde meilleur. Wikileaks veut la transparence pour tous. La NSA veut la transparence pour elle. Les deux fonctionnent sur une même vision du monde. Wikileaks ne voulait pas devenir le miroir de la NSA, mais voulait briser la machine de surveillance. En 2006, Assange a écrit « Conspiracy as Governance » (.pdf). Pour lui, tout système autoritaire repose sur des conspirations, car leur pouvoir repose sur le secret. Les leaks minent leur pouvoir, pas par ce qui fuite, mais parce que la peur et la paranoïa dégradent la capacité du système autoritaire à conspirer. Mais les fuites de données ne suffisent pas à remettre en cause ou à abattre l’autorité. Les révélations ne font pas bouger l’opinion, sinon, nous aurions réagi bien avant les révélations de Snowden. Tant que les organisations de surveillance ne changent pas de l’intérieur, ceux qui sont en dehors de ces organisations, comme les lanceurs d’alertes, n’ont pas de capacité d’action. Ils attendent que des fonctionnaires ou que la justice confirment ce qu’ils avancent.
  • Mais la lumière du calcul nous dépossède de pouvoir, car elle nous fait crouler sous l’information et nous donne un faux sens de la sécurité. C’est là encore une conséquence de la pensée computationnelle. « Notre vision est devenue universelle, mais notre capacité d’action, elle, s’est réduite plus que jamais. » A l’image du réchauffement climatique, à nouveau, « nous savons de plus en plus de choses sur le monde, mais nous sommes de moins en moins capable d’agir sur lui ». Au final, nous nous sentons plus démunis que jamais. Plutôt que de reconsidérer nos hypothèses, nous nous enfonçons dans la paranoïa et la désintégration sociale.
  • Le monde est devenu trop complexe pour des histoires simples. En fait, « la démultiplication de l’information ne produit pas plus de clarté, mais plus de confusion ». L’un des symptômes de la paranoïa consiste à croire que quelqu’un vous surveille. Mais cette croyance est désormais devenue raisonnable, s’amuse Bridle en évoquant la surveillance d’Etat comme la surveillance des services numériques. Nous sommes entièrement sous contrôle, tant et si bien qu’on peut se demander qui est paranoïaque désormais ?
  • « Les théories conspirationnistes sont le dernier ressort des sans pouvoirs, imaginant ce que serait que d’être puissant », avance Bridle. Pour le spécialiste de la postmodernité, Frederic Jameson, les théories conspirationnistes sont « la cartographie cognitive des plus démunis dans un âge postmoderne ». C’est la figure dégradée de la logique par ceux qui ont le moins de capital culturel, une tentative désespérée de se représenter un système qu’ils ne comprennent pas. Encerclé par l’évidence de la complexité, l’individu a recours à un récit simpliste pour tenter de regagner un peu de contrôle sur la situation. À mesure que la technologie augmente et accélère le monde, celui-ci devient plus complexe. Les théories conspirationnistes deviennent alors des réponses, étranges, intriquées et violentes, pour s’en accommoder.
  • Ainsi, si vous cherchez de l’information sur les vaccins, vous tomberez invariablement sur de l’information contre les vaccins. Si vous cherchez de l’information sur la rotondité de la terre, vous tomberez inexorablement sur ceux qui pensent qu’elle est plate. Ces opinions divergentes semblent devenir la majorité tant elles sont exprimées et répétées avec force. « Ce qui se passe quand vous désirez en savoir de plus en plus sur le monde entre en collision avec un système qui va continuer à assortir ses réponses à n’importe quelle question, sans résolution ». Vous trouverez toujours quelqu’un pour rejoindre vos points de vue. Et toujours un flux pour les valider. Voici l’âge de la radicalisation algorithmique (à l’image de ce que disait Zeynep Tufekci de YouTube). Les théories conspirationnistes sont devenues la narration dominante. Elles expliquent tout. Dans la zone grise des connaissances, tout prend un sens.
  • Les failles des algorithmes sont les dernières failles du capitalisme où certains s’infiltrent non pas pour le renverser, mais pour tenter de gratter un peu d’argent que les plus gros systèmes s’accaparent. Au final, des vidéos automatisées finissent par être vues par des enfants. Leurs personnages préférés y font n’importe quoi, parfois suggèrent des scènes de meurtre ou de viols. Ces effets de réseaux causent des problèmes réels. Les algorithmes de YouTube ont besoin d’exploitation pour produire leurs revenus. Derrière leurs aspects séduisants, ils encodent les pires aspects du marché, notamment l’avidité. « La capacité à exploiter l’autre est encodée dans les systèmes que nous construisons », pointe très justement James Bridle, puisque leur efficacité repose sur leur capacité à extraire de l’argent de nos comportements.
  • À défaut d’une solution, Google annonçait en avril que l’application YouTube Kids allait devenir « non-algorithmique »… À croire, comme le pointait très justement le chercheur Olivier Ertzscheid, que l’algorithimsation n’est pas une solution sans limites.
  • Pour Bridle, les humains sont dégradés des deux côtés de l’équation : à la fois dans l’exploitation qui est faite de leur attention et à la fois dans l’exploitation de leur travail. Ces nouvelles formes de violence sont inhérentes aux systèmes numériques et à leur motivation capitaliste. Le système favorise l’abus et ceux qui le produisent sont complices, accuse-t-il. L’architecture qu’ils ont construite pour extraire le maximum de revenus des vidéos en ligne a été hackée par d’autres systèmes pour abuser d’enfants à une échelle massive. Les propriétaires de ces plateformes ont une responsabilité forte dans l’exploitation qu’ils ont mise en place. « C’est profondément un âge sombre quand les structures qu’on a construites pour étendre la sphère de communications sont utilisées contre nous d’une manière systématique et automatique. »
  • Pour Bridle, les fausses nouvelles ne sont pas le produit de l’internet. Elles sont le produit de la cupidité et de la démocratisation de la propagande où tout a chacun peut devenir un propagandiste. Elles sont un amplificateur de la division qui existe déjà dans la société, comme les sites conspirationnistes amplifient la schizophrénie.
  • Mais ce qu’il y a de commun avec le Brexit, les élections américaines ou les profondeurs de YouTube, c’est que malgré tous les soupçons, il reste impossible de savoir qui fait ça, qu’elles sont leurs motivations, leurs intentions. On peut regarder sans fin ces flux vidéos, on peut parcourir sans fin les murs de mises à jour de statuts ou de tweets… cela ne permet pas de discerner clairement ce qui est généré algorithmiquement ou ce qui est construit délibérément et soigneusement pour générer des revenus publicitaires. On ne peut pas discerner clairement la fiction paranoïaque, l’action d’États, la propagande du spam… Ces confusions servent les manipulateurs quels qu’ils soient bien sûr, mais cela les dépasse aussi. C’est la manière dont le monde est. Personne ne semble réellement décider de son évolution… « Personne ne veut d’un âge sombre, mais nous le construisons quand même et nous allons devoir y vivre. »
  • Exploiter plus de données pour construire de meilleurs systèmes est une erreur. Cette méthode ne parviendra pas à prendre en compte la complexité humaine ni à la résoudre. Le développement de l’information n’a pas conduit à une meilleure compréhension du monde, mais au développement de points de vue alternatifs et concurrents. Nous devons changer nos façons de penser comme nous y invitait Lovecraft. Nous ne survivrons pas plus à l’information brute qu’à la bombe atomique. Le nouvel âge sombre est un lieu où le futur devient radicalement incertain et où le passé devient irrévocablement contesté. Mais c’est le présent dans lequel nous devons vivre et penser. Nous ne sommes pas sans pouvoir ni capacités. Mais pour cela nous devons nous défaire des promesses illusoires de la pensée computationnelle. Penser le monde autre, c’est ce à quoi nous invite James Bridle dans le nouvel âge sombre.
  • Reste à savoir si cet âge sombre des technologies est vraiment notre avenir. L’âge sombre du Moyen Âge n’a jamais vraiment existé ailleurs que dans les lacunes des historiens. On peut douter également de cette nouvelle obscurité ou regretter le titre faussement prophétique. Reste que la complexité et l’intrication du monde que décrit James Bridle, montrent combien il nous faut, plus que jamais, nous défaire justement d’une vision simple et manichéenne de la technologie.
  •  
    "Ce New Dark Age porte un titre prophétique et apocalyptique. Un peu trop peut-être. C'est effectivement un livre très critique sur notre rapport à la technologie, très éloigné du rapport souvent curieux et amusé que Bridle portait aux technologies avec la nouvelle esthétique. En une dizaine de chapitres, Bridle explore les glitchs qui sont désormais devenus des schismes, des scissions, des ruptures… comme s'ils n'étaient plus aussi distrayants. Dans son livre, il montre combien les bugs se cristallisent en caractéristiques. Combien la complexité technique que nous avons construite s'entremêle pour produire des effets en réseau, complexes, profonds, intriqués que nous ne parvenons plus vraiment à démêler. Son constat principal consiste à dire que ces dysfonctionnements ne sont pas amenés à être corrigés. Ils sont au contraire intrinsèques à la nature même des technologies qui se déploient aujourd'hui. Contrairement à ce que nous annonçaient les pionniers et les prophètes des technologies, pour Bridle, la technologie n'annonce pas de nouvelles Lumières ou une Renaissance, mais, comme Jules Michelet parlait du Moyen Âge, un âge sombre, une ère d'obscurité pour ne pas dire d'obscurantisme. Ni les réseaux sociaux, ni l'intelligence artificielle, ni les systèmes techniques ne vont nous aider à faire monde commun. Au contraire."
Aurialie Jublin

Le CES de Las Vegas ou l'urgence de la sobriété numérique | Perspectives sur ... - 0 views

  • Le numérique, c’est surement là où les logiques de surconsommation, de renouvellement accéléré des équipements, d’options ubuesques, et des traitements "chaotiques" des déchets sont les plus fortes. C’est donc pour tout cela que la sobriété doit pénétrer pleinement désormais le numérique. Il ne semble pas que ce soit le chemin pris aujourd’hui, même si plusieurs acteurs notables tentent quelques propositions en ce sens : La Fing avec une journée Agenda pour le futur sur la « sobriété numérique » en 2018 ou son appel Reset en 2019 pour réinventer le numérique, le think-tank The Shift Projet présidé par Jean-Marc Jancovici avec un conséquent et solide rapport « Lean ICT – pour une sobriété numérique » publié en octobre 2018.
  • Le constat de départ est simple, c'est « le grand gâchis énergétique » comme le CNRS le résume. Le numérique c’est de l’ordre de 10% de la consommation d’électricité mondiale. Pour comprendre ces consommations énergétiques qui plombent l’imaginaire immatériel derrière le « cloud », il faut avoir en tête la consommation énergétique (et de matière ensuite) associée aux objets connectés, écrans, mais aussi réseaux et data-center de plus en plus nombreux.
  • Anne-Cécile Orgeri chercheuse de l’Irisa le rappelle, les terminaux entre nos mains ne consomment que 30% de cette énergie, les 70% restants étant consommés dans les data-centers, routeurs, et infrastructures cachés pour l’usager. Et comme toujours, les infrastructures sont dimensionnées pour la pointe. En gros, c’est le pic de streaming du soir qui détermine l’infrastructure, comme les heures de sortie de travail déterminent les périphériques routiers ou les consommations de chauffage le système électrique avec ses centrales d’extrême pointe. Tout cela concoure donc à un surdimensionnement, très consommateur d'énergie et de ressources, et dont la majorité des impacts sont occultés, ou invisibles pour l’utilisateur. Et on ne parle même pas à ce stade des limites même du recyclage, et des filières défaillantes des déchets numériques.
  • ...5 more annotations...
  • L’énergie grise, ou embarquée, est telle que les équipements numériques doivent incontestablement augmenter leur durée de vie puis réduire leur nombre. Il n’est pas du tout certain que l’Internet des Objets (IoT) présente un quelconque intérêt environnemental, par contre, il viendra indubitablement rajouter quelques équipements à des foyers déjà suréquipés (une dizaine d'équipements pour les citoyens américains par exemple). Mais avec les poubelles ou toilettes connectées, on voit bien qu'il n'y a guère de limites.
  • Sur le design, mais aussi le code et les logiciels, aujourd’hui parfois écrits à la va-vite et surconsommant ressources et énergie, des principes d’efficacité et de sobriété doivent aussi être mis en oeuvre. Cela n’est évidemment pas qu’une question technique mais aussi économique : quand pour consulter la météo, une vidéo publicitaire s’ouvre systématiquement avant de vous permettre l’accès à l’information, il va sans dire que 90% du volume de données n’a rien à voir avec la demande initiale…
  • Un numérique sobre, c’est aussi et surtout un numérique qui s'intéresse à « sa périphérie ». Plus largement, tant dans le hard que le soft, des équipements aux logiciels, c’est un numérique au service de la transition énergétique. Pas un numérique qui « connecte » notre poubelle, nos toilettes, ou notre réfrigérateur, mais un numérique qui aide à consommer moins de ressources.
  • Il faudrait donc développer des d’outils numériques qui, plutôt que de cacher (et repousser) leurs impacts, rendent visible à l’utilisateur tout ce poids, cette énergie grise ou ce « sac-à-dos matières ». Les formes de restitution pour l’utilisateur sont nombreuses à imaginer : de l’étiquette énergie/environnement lors de l’achat, l’indice de réparabilité en préparation, aux applications adaptées dans le quotidien et le paysage urbain, en passant par les indicateurs à penser pour les différents usages (un voyant, box, écran ou autre dispositif « rouge » pour du streaming à l'heure de pointe par exemple), voire une fiscalité environnementale incitative sur les équipements (type bonus/malus)…
  • Là où le pouvoir du numérique est encore grand, c’est par exemple dans la mise en visibilité d’alternatives existantes. Par exemple des itinéraires cyclables ou "marchables". Les collectivités sont tellement en retard sur ces liaisons douces sur de très nombreux territoires, notamment en milieu rural, que la mise en visibilité d’une pratique, d’une demande, peut être le premier pas pour mettre dans le débat public un besoin. Et là, la puissance d’un Maps, Google map, ou encore Openstreetmap est intéressant. Redécouvrir cette cartographie au profit de mobilité douce ou active est une perspective réjouissante pour la sobriété numérique. Il faudra ensuite bien sûr le relais des collectivités pour équiper durablement, éclairer la nuit, nettoyer l’automne et l’hiver, sécuriser les chemins de halage… mais le point de départ peut être la cartographie numérique des pratiques.
  •  
    "A la lecture du compte rendu du Consumer Electronics Show de ce début 2019 faite par Bernard Le Moullec dans l'Usine Nouvelle, l'urgence de la sobriété numérique vous saute aux yeux. Un tel déluge d'innovations inutiles fait surement bien plus que tout le travail de fond de think-tanks ou chercheurs pour prendre conscience de l'absurdité de la voie empruntée."
Aurialie Jublin

What the hell is a blockchain phone-and do I need one? - MIT Technology Review - 0 views

  • All of a sudden, several crypto-focused handsets are hitting the market, or will soon. The biggest player in the new game is Samsung, which confirmed this month that the Galaxy S10 will include a secure storage system for cryptocurrency private keys. It joins HTC, which for months has been touting the Exodus 1; Sirin Labs, which used proceeds from a huge ICO to build the Finney; and Electroneum, which this week began selling an $80 Android phone that can mine cryptocurrency.
  • In the wildest dreams of enthusiasts, these devices will be a gateway to something called the decentralized web, or “Web 3.0.” In this future version of the internet, blockchains and similar technologies would support decentralized applications—“dapps”—that look and feel like the mobile apps we use today but run on public, peer-to-peer networks instead of the private servers of big tech companies.
  • It’s widely thought that a major impediment to mainstream adoption of cryptocurrency and dapps is that these technologies are too difficult to use for people who are not especially tech savvy. Better user experiences, starting with cryptographic key management, could change that. But getting there is not straightforward, given that key security is paramount: you lose your keys, you lose your assets.
  • ...2 more annotations...
  • This also explains why Ethereum creator Vitalik Buterin seems so excited about one particular feature of HTC’s Exodus 1, called social key recovery. Essentially, users can choose a small group of contacts and give them parts of their keys. If they lose their keys, they can recover them piece by piece from their contacts. Buterin, as usual, is looking far down the road, in this case to a future where people use blockchains to maintain more control over their digital identities and personal data than is generally possible today. Social key recovery is “arguably an early step toward formalized non-state-backed identity,” he tweeted.
  • Indeed, even if these phones take off, the decentralized web will still be mostly a dream. Construction of its foundational infrastructure is in the beginning stages. Perhaps an influx of new users would spawn compelling new applications, which might in turn inspire the development of new infrastructure. But the best the first round of blockchain phones can do is give us a glimpse at a potential future that’s still a long way off.
  •  
    "The first wave of crypto-focused smartphones from big players like Samsung is a small step toward a decentralized web."
Aurialie Jublin

A viewpoint on Craft and the Internet - Ding Magazine - 0 views

  •  
    "On a recent visit to Barcelona, I was charmed by the Institute for Advanced Architecture of Catalonia's Smart Citizen platform that enables citizens to monitor levels of air or noise pollution around their home or business. The system connects data, people and knowledge based on their location; the device's low power consumption allows it to be placed on balconies and windowsills where power is provided by a solar panel or battery. Smart Citizen is just one among a growing array of devices and platforms that can sense everything from the health of a tomato in Brazil, to bacteria in the stomach of a cow in Perthshire - remotely. This innovation is welcome, but it leaves a difficult question unanswered: Under what circumstances will possession of this data contribute to the system transformation that we so urgently need? What's missing, so far - from the Internet of Things in general, and remote sensing in particular - is a value benchmark against which to analyze the data being generated. We've created a global infrastructure that is brilliant on means, but unambitious when it comes to ends"
Aurialie Jublin

Artificial Intelligence & Human Rights | Berkman Klein Center - 0 views

  •  
    L'intelligence artificielle (IA) est en train de changer le monde sous nos yeux. Le potentiel que présente l'IA pour améliorer nos vies est énorme. Des systèmes reposant sur l'IA sont déjà plus performants que des médecins spécialistes pour diagnostiquer certaines maladies, tandis que l'utilisation de l'IA dans le système financier élargit l'accès au crédit à des emprunteurs qui étaient autrefois ignorés. Toutefois, l'IA présente aussi des inconvénients qui viennent assombrir son potentiel considérable. Les systèmes reposant sur l'IA ont une incidence sur le droit à la vie privée étant donné qu'ils dépendent de la collecte et de l'utilisation de vastes quantités de données pour faire des prédictions qui, dans de nombreux cas, ont pour effet de perpétrer des tendances sociales de préjugés et de discrimination. Ces possibilités dérangeantes ont donné lieu à un mouvement qui cherche à intégrer des considérations éthiques dans le développement et la mise en œuvre de l'IA. Ce projet, en revanche, démontre l'utilité considérable d'utiliser la législation sur les droits de la personne pour évaluer et aborder les répercussions complexes de l'IA sur la société. La législation sur les droits de la personne fournit un ensemble de normes communément admis et un langage commun ainsi qu'une infrastructure institutionnelle pour contribuer à faire en sorte que le potentiel de l'IA soit réalisé et que ses plus grands périls soient évités. Notre projet vise à faire progresser la conversation émergente sur l'IA et les droits de la personne en évaluant les répercussions sur les droits de la personne de six utilisations courantes de l'IA. Notre cadre de travail reconnaît que les systèmes d'IA ne sont pas déployés sur un canevas vierge, mais plutôt sur la toile de fond de conditions sociales qui ont elles-mêmes des répercussions complexes préexistantes sur les droits de la personne
Aurialie Jublin

Retour sur MyData2018 : quelle(s) approche(s) collective(s) des données perso... - 0 views

  • L’entrée en vigueur du RGPD a clairement été l’événement marquant de 2018 et beaucoup d’intervenants s’y sont référés. Le principe d’équité y est affirmé. Or il s’agit d’un principe qui recouvre une dimension collective : l’équité suppose un groupe, contrairement aux autres principes (transparence, légalité, limitation de but, rétention, intégrité et confidentialité, minimisation des données, précision). Toutefois le texte ne donne pas de définition de l’équité dans le contexte de la gestion des données personnelles a fait remarquer Jussi Leppälä, Privacy Officer (Global) chez Valmet. Finalement, les intervenants s’accordaient à dire que le RGPD est un texte axé sur les besoins individuels plutôt que collectifs. Il protège l’individu, mais ne porte pas de vision véritablement collective des données personnelles.
  • Sur cette question de l’équité, l’exemple d’openSCHUFA donné par Walter Palmetshofer (Open Knowledge Allemagne) est inspirant : une campagne de collecte de données a été faite auprès de milliers d’individus pour comprendre l’algorithme de credit-scoring (pointage de crédit) de SCHUFA, bureau de crédit privé allemand. Cela a permis à des individus de pouvoir demander, preuves à l’appui, à corriger des décisions prises par l’algorithme. De manière générale, le biais algorithmique est un enjeu sociétal important, surtout pour les groupes les plus fragiles dont les données personnelles sont plus exposées et davantage victimes de biais algorithmiques (à ce sujet, lire Internet Actu).
  • D’autres intervenants ont insisté sur la nécessité d’accompagner les entreprises vers plus de prises en compte de leur responsabilité sociale. Le modèle de gouvernance qui domine actuellement étant l’hégémonie d’acteurs économiques (GAFA, BATX) raconte Bruno Carballa Smichowski, de Chronos, le rééquilibrage des pouvoirs doit venir des Etats. Ces derniers disposent de données personnelles, mais peuvent également demander des comptes et pousser les acteurs qui utilisent les données à être plus ouverts et actifs : littératie, infrastructure, open innovation, construire la confiance et faire reculer la peur, ou encore impliquer les personnes concernées (Hetan Shah et Jeni Tennison), sont autant d’actions que les pouvoirs publics peuvent mettre en place.
  • ...9 more annotations...
  • Depuis le lancement de MyData, la nécessité de développer les enjeux collectifs des données personnelles apparaît chaque année plus forte. En parallèle, les communs numériques apparaissent de plus en plus comme un modèle alternatif désirable face aux comportements abusifs des acteurs dominants. Les communs autorisent par nature une gestion transparente et au service de la communauté, car gérés par leurs membres.
  • Si sa remarque a donné naissance au track “OurData” en 2017 et en 2018,, le terme de “commun” était pourtant quasiment absent des discussions du track OurData, essentiellement tourné vers l’acteur public et la régulation. L’exemple d’OpenSCHUFA se rattache néanmoins au courant des communs en donnant un exemple concret.
  • L’idée derrière la coopérative de données qui s’intègrerait au modèle MyData/Self Data viserait plutôt à créer un commun : une association d’individus développant des outils et services (chat, moteur de recherche,…) leur permettant de gérer leurs données de A à Z. Il existe plusieurs coopératives de données de ce type : diglife.coop, schluss, open.coop,…
  • Laura James (doteveryone) a suggéré  cette session afin d’échanger avec les participants sur la faisabilité de créer une ou des coopératives “de masse”, appartenant à leurs membres et gérées par eux. L’objectif serait d’offrir aux gens de meilleurs services que les géants de la technologie et les entreprises de type Silicon Valley. Laura James constate que si le problème avec les géants numériques est leur modèle d’entreprise (capitalisme de surveillance) et le modèle de propriété (extraction de richesse au profit de quelques-uns), la “data coop” doit permettre d’offrir une technologie en laquelle nous pouvons avoir confiance – c’est-à-dire préservant notre vie privée, accessible, fiable, équitable, basée sur les sources ouvertes existantes, avec un meilleur support et une véritable durabilité.
  • Est-ce que le peu de succès de Digital Life Collective est dû à un manque d’intérêt de la part des consommateurs pour les questions liées aux données personnelles ? Ou bien est-ce que les enjeux ne sont pas encore bien compris par les gens ? Les porteurs de coopératives présents à la session échangent sur plusieurs éléments de réponse. D’abord, il n’y a pas une absence d’intérêt pour les questions de privacy mais une perception et un traitement différent selon les personnes (par les « millenials » par exemple). Ensuite, les consommateurs veulent-ils avoir à supporter la responsabilité qui va avec la reprise du contrôle sur leurs données ? Rien n’est moins sûr : comme les services gratuits d’aujourd’hui, cela doit être simple. Mais le contrôle implique nécessairement des responsabilités… Les consommateurs ont aussi besoin de services pratiques. Il faut travailler l’expérience utilisateur. Enfin, il faut une littératie des données pour créer un véritable intérêt et dissiper la peur et les malentendus autour de ce sujet.
  • Comment avoir une véritable gouvernance partagée tout en ayant une organisation suffisamment grande ? A peine 10 personnes sont vraiment actives au sein de Digital Life Collective. Schluss recherche une manière de faire participer davantage les membres. C’est un problème récurrent pour les coopératives, et toute organisation dont la gestion s’appuie sur l’ensemble de ses membres. Toutefois, l’un des participants soulignait que même si seul 1% s’implique dans la prise de décisions, tous reçoivent les bénéfices de la coopérative ! Ca n’est pas la gestion parfaitement partagée et idéale, mais cela fonctionne quand même. Avant de renoncer au modèle participatif, quelques modèles de gouvernance pourraient être expérimentés pour faciliter les prises de décision participatives au sein de la coopérative : les jurys citoyens, sociocracy 3.0 (utilisé par certaines entreprises télécom en Finlande), …
  • Dans les sessions de la thématique “OurData”, nous avons eu le plaisir d’entendre à chaque fois (ou presque) que la propriété appliquée aux données personnelles n’a aucun sens. Bien que ce track, plus qu’aucun autre, soit prédisposé à un tel constat,depuis quelques années, la position de la communauté MyData s’est éclaircie à ce sujet et on voit de moins en moins de personnes prôner ce modèle de propriété et de revente individuelle de ses données..
  • En découle un modèle collectif basé non pas sur des titres de propriété individuels mais sur des droits d’usage. Le RGPD en crée quelques-uns mais d’autres questions restent en suspens, comme le droit à la mémoire collective, notamment pour les catégories les plus défavorisées, ou encore l’équité, qui s’oppose à une régulation par les lois du marché.
  • La plupart des intervenants postulent que c’est l’acteur public qui doit agir : en créant de nouveaux droits associés aux données personnelles, en accompagnant les acteurs privés à fournir des solutions plus éthiques et transparentes, en s’engageant pour une culture et une littératie de la donnée pour tous, en actant juridiquement que les données personnelles sont le résultat d’un processus collectif qui appartient à la société qui l’a co-généré et qu’il ne peut y avoir de propriété associée (en France la CNIL est très claire sur ce dernier point, nous avons besoin d’une voie aussi claire au niveau européen !), en promouvant leur valeur sociale, et non commerciale, et enfin qu’il fasse que le fruit de ce travail doit servir à répondre à des problématiques collectives telles que la santé, l’éducation, la culture, la protection de l’environnement, …
  •  
    "LE CONSTAT : LA GESTION ACTUELLE DES DONNÉES PERSONNELLES S'INTÉRESSE PEU AU COLLECTIF MyData s'intéresse à toutes les dimensions que recouvre le contrôle des données personnelles : si la privacy occupe souvent le devant de la scène, MyData explore également la transparence des organisations et des technologies, l'équité et la dimension collective des données personnelles."
Aurialie Jublin

Opinion | There May Soon Be Three Internets. America's Won't Necessarily Be the Best. -... - 0 views

  • The received wisdom was once that a unified, unbounded web promoted democracy through the free flow of information. Things don’t seem quite so simple anymore. China’s tight control of the internet within its borders continues to tamp down talk of democracy, and an increasingly sophisticated system of digital surveillance plays a major role in human rights abuses, such as the persecution of the Uighurs. We’ve also seen the dark side to connecting people to one another — as illustrated by how misinformation on social media played a significant role in the violence in Myanmar.
  • There’s a world of difference between the European Union’s General Data Protection Regulation, known commonly as G.D.P.R., and China’s technologically enforced censorship regime, often dubbed “the Great Firewall.” But all three spheres — Europe, America and China — are generating sets of rules, regulations and norms that are beginning to rub up against one another.
  • The information superhighway cracks apart more easily when so much of it depends on privately owned infrastructure. An error at Amazon Web Services created losses of service across the web in 2017; a storm disrupting a data center in Northern Virginia created similar failures in 2012. These were unintentional blackouts; the corporate custodians of the internet have it within their power to do far more. Of course, nobody wants to turn off the internet completely — that wouldn’t make anyone money. But when a single company with huge market share chooses to comply with a law — or more worryingly, a mere suggestion from the authorities — a large chunk of the internet ends up falling in line.
  • ...7 more annotations...
  • But eight years later, Google is working on a search engine for China known as Dragonfly. Its launch will be conditional on the approval of Chinese officials and will therefore comply with stringent censorship requirements. An internal memo written by one of the engineers on the project described surveillance capabilities built into the engine — namely by requiring users to log in and then tracking their browsing histories. This data will be accessible by an unnamed Chinese partner, presumably the government.
  • Google says all features are speculative and no decision has been made on whether to launch Dragonfly, but a leaked transcript of a meeting inside Google later acquired by The Intercept, a news site, contradicts that line. In the transcript, Google’s head of search, Ben Gomes, is quoted as saying that it hoped to launch within six to nine months, although the unstable American-China relationship makes it difficult to predict when or even whether the Chinese government will give the go-ahead.
  • Internet censorship and surveillance were once hallmarks of oppressive governments — with Egypt, Iran and China being prime examples. It’s since become clear that secretive digital surveillance isn’t just the domain of anti-democratic forces. The Snowden revelations in 2013 knocked the United States off its high horse, and may have pushed the technology industry into an increasingly agnostic outlook on human rights.
  • If the future of the internet is a tripartite cold war, Silicon Valley wants to be making money in all three of those worlds.
  • Yet even the best possible version of the disaggregated web has serious — though still uncertain — implications for a global future: What sorts of ideas and speech will become bounded by borders? What will an increasingly disconnected world do to the spread of innovation and to scientific progress? What will consumer protections around privacy and security look like as the internets diverge? And would the partitioning of the internet precipitate a slowing, or even a reversal, of globalization?
  • What these types of sky-is-falling articles keep getting wrong is the idea that the World Wide Web is the same as the Internet. It’s not. Web sites and the browsers that access them are an application that uses the Internet for transport.The Internet transports far more than just web traffic, but the most crucial one for companies is probably VPN: Companies connect to one another using site-to-site VPNs. Their employees can work from anywhere with remote user VPN. Disconnect the EU from the US, and you’ve removed the cheapest way for companies to connect their networks together.These regulatory worlds will get along somehow. Perhaps someone will write a web app that recognizes where a user is from, and apply appropriate policy to their session. Perhaps that web app will become wildly popular and be deployed on every website everywhere. I don’t know how it will work, but I do know the Internet will not become fragmented.
  • The internet was never meant to be a walled garden. Remember America Online began as a walled garden until the World Wide Web came along and “tore down that wall.” So, Europe can have its Europe Wide Web and China can have its China Wide Web, but we will always be the World Wide Web – truly open and free. The “one internet led by the United States” will remain the world’s “go to” information super highway just as the greenback has remained the world’s reserve currency for decades.
  •  
    "In September, Eric Schmidt, the former Google chief executive and Alphabet chairman, said that in the next 10 to 15 years, the internet would most likely be split in two - one internet led by China and one internet led by the United States. Mr. Schmidt, speaking at a private event hosted by a venture capital firm, did not seem to seriously entertain the possibility that the internet would remain global. He's correct to rule out that possibility - if anything, the flaw in Mr. Schmidt's thinking is that he too quickly dismisses the European internet that is coalescing around the European Union's ever-heightening regulation of technology platforms. All signs point to a future with three internets."
Aurialie Jublin

Qui crée la valeur économique d'une nation ? - 0 views

  • Nous devons changer de cap, insiste-t-elle, dans ce livre stimulant. Entre autres choses, nous devons repenser la relation entre marchés et gouvernements ; faire une distinction claire entre créateurs de richesse et ceux qui ne font qu’en profiter ; avoir des ambitions collectives plus audacieuses, notamment passer à une économie plus écologique ; et investir pour l’avenir, au lieu de choisir une austérité stérile et contre-productive.
  • Ce livre vient après ‘The Entrepreneurial State’, dans lequel Mme Mazzucato a soutenu que le gouvernement a joué un rôle d’innovateur puissant dans l’économie moderne. L’argument principal de ce livre est qu’il est beaucoup trop facile pour ceux qui interviennent dans l’économie de marché de s’enrichir en profitant de la valeur économique créée par d’autres, au lieu d’en générer eux-mêmes.
  • La manière dont le secteur financier a généré une énorme augmentation de l’endettement des ménages au cours des années qui ont conduit à la crise financière de 2007-2009 en est un exemple évident. Cette concurrence stérile a financé l’achat du parc de logements existants à des prix très élevés. Cela a provoqué une crise importante, un surendettement, une faible croissance et un désenchantement politique. Ceci alors que, pour ceux qui ont créé, manipulé et vendu cette dette, c’était une mine d’or. C’était en fait de la valorisation accompagnée de destruction. Il en va de même pour la gestion d’actifs, avec ses pratiques abusives, ses frais exorbitants, son manque de transparence, sa mauvaise gestion et ses conflits d’intérêts. Ce secteur financier, ainsi que la “maximisation de la valeur pour les actionnaires” que les économistes ont défendu, a eu un effet néfaste sur l’ensemble des entreprises, soutient Mme Mazzucato, en encourageant les rémunérations exorbitantes ainsi que la manipulation des cours boursiers au détriment de l’investissement à long terme.
  • ...10 more annotations...
  • La finance n’est pas seule sur le banc des accusés. Mme Mazzucato s’attaque également à ce qui se passe dans des secteurs qui paraissent avoir un effet plus bénéfique, tels que les technologies de l’information ou les produits pharmaceutiques. Selon elle, l’un des problèmes est l’octroi de droits de propriété intellectuelle trop généreux ou simplement injustifiables, comme le fait de pouvoir breveter des richesses biologiques ou des processus commerciaux très basiques.
  • Elle souligne également l’importance d’un secteur trop souvent considéré comme ne créant aucune valeur économique : le gouvernement. Le gouvernement fait plus que faire respecter la justice et assurer la sécurité, selon elle. Il construit des infrastructures, éduque les jeunes, prend en charge la santé de la population, finance la recherche fondamentale, et a souvent favorisé directement le développement économique. C’est le gouvernement américain, et non des entreprises privées, qui a créé bon nombre des technologies les plus fondamentales et celles qui ont le plus d’impact d’aujourd’hui : l’Internet et le système mondial de positionnement GPS en sont deux exemples spectaculaires.
  • Une thèse fondamentale du livre est que la confusion entre la captation de valeur et la création de valeur, et vice versa, a ses racines dans les erreurs des économistes. Une longue partie du livre traite de l’histoire de la notion de valeur en économie, depuis les mercantilistes du XVIIe siècle jusqu’aux économistes classiques du XVIIIe et du début du XIXe siècle, puis aux marginaux (ou “économistes néoclassiques”) de la fin du XIXe et du XXe siècle.
  • Les économistes classiques, notamment Adam Smith, David Ricardo et Karl Marx, étaient préoccupés par la distinction entre ceux qui créent de la valeur, ceux qui ne font que la faire circuler, et ceux qui vivent du travail des autres comme des parasites (exemple : les aristocrates propriétaires des terres), souligne-t-elle. C’étaient des distinctions à la fois économiques et morales. Les économistes néoclassiques, tels que Léon Walras, Stanley Jevons et Alfred Marshall, avec leur révolution marginale et leur volonté d’équilibre, ont supprimé ces distinctions : selon la théorie subjective de la valeur, le prix est simplement la meilleure indication de la valeur (marginale) : ce qui est cher est, au moins à la marge, précieux. Les choix que font les gens sont les seuls déterminants de la valeur.
  • Le fait que les économistes se concentrent sur ce qui est produit et mis sur le marché a deux autres conséquences, affirme Mme Mazzucato : l’hypothèse de base est que le gouvernement est considéré comme improductif, voire parasitaire, et les activités domestiques deviennent invisibles. Ces hypothèses ont été reprises dans le nouveau système de comptabilité nationale élaboré dans les années 1930 et 1940, d’où est née notre mesure du “produit intérieur brut”.
  • Néanmoins, elle met en avant un point crucial : ce que nous valorisons est un choix social, et une partie de ce que nous valorisons aujourd’hui – l’ingénierie financière, par exemple – relève plus de la justification du fait de profiter de la valeur, que de la création de valeur ajoutée.
  • Ce qui n’est pas mesuré ne compte pas. Mais ce qui est mesuré compte. Mme Mazzucato montre au lecteur la manière dont on donne de la valeur aux activités bancaires. Cette valeur économique ajoutée est actuellement mesurée par le coût des “services d’intermédiation financière indirectement mesurés”, c’est-à-dire par l’écart entre le coût de l’emprunt et le taux d’intérêt des prêts. Plus l’écart est grand, par hypothèse, plus les banques sont censées créer de la valeur. Cela revient à confondre un coût avec un bénéfice.
  • Selon Mme Mazzucato, les évidentes défaillances de nos économies sont la conséquence de notre incapacité à distinguer entre les activités qui créent, redistribuent et détruisent la valeur. Ceci, ensuite, encourage les profiteurs de valeur (comme les compagnies pharmaceutiques qui fixent les prix en fonction de ce que le marché supporte) ; cela effraie les acteurs non marchands, y compris les bureaucrates, qui auraient pu aider à créer de la valeur ; et cela encourage les décideurs politiques à croire que les solutions de marché, comme la Private Finance Initiative (PFI, partenariat public-privé britannique), qui ne fonctionne pas correctement, sont nécessairement supérieures à celles qui sont proposées par les gouvernements.
  • Ce que j’aurais préféré lire, cependant, c’est une enquête approfondie sur quand et comment les gouvernements ajoutent de la valeur. Le gouvernement américain, par exemple, a joué un rôle extraordinaire en matière d’innovation, en particulier par l’intermédiaire du ministère de la Défense et des National Institutes of Health. Mais dans quelle mesure cela est-il vraiment pertinent pour les pays dont les ressources économiques et scientifiques sont plus limitées ? Comment s’assurer que les gouvernements ajoutent de la valeur plutôt que de simplement l’extraire, la prélever et la gaspiller ? Dans son enthousiasme sur le rôle potentiel de l’État, l’auteur sous-estime considérablement les importants dangers que représentent l’incompétence et la corruption gouvernementales.
  • Néanmoins, il y a trois points forts importants dans cet ouvrage. Premièrement, Mme Mazzucato nous pousse à nous éloigner du credo simpliste selon lequel les marchés sont toujours positifs et les gouvernements toujours négatifs. Deuxièmement, elle propose à la gauche un objectif positif de prospérité grâce à l’innovation, à la place d’une politique stérile et, finalement destructrice, de redistribution. Enfin, elle nous oblige à nous demander ce qui ajoute de la valeur à la société et comment créer un ordre économique et social qui favorise cela. En lui-même, ce livre crée de la valeur en nous forçant à nous confronter à ces points de vue.
  •  
    "Qui crée de la valeur ? Qui profite de la valeur ? Qui détruit de la valeur ? Si nous confondons ceux qui profitent de la valeur ou détruisent la valeur avec ceux qui la créent, nous finirons avec des sociétés appauvries et malheureuses, au sein desquelles règnent les pillards."
Aurialie Jublin

Let's make private data into a public good - MIT Technology Review - 0 views

  • Why is this a problem? Well, maybe because these giants are making huge profits from technologies originally created with taxpayer money. Google’s algorithm was developed with funding from the National Science Foundation, and the internet came from DARPA funding. The same is true for touch-screen displays, GPS, and Siri. From this the tech giants have created de facto monopolies while evading the type of regulation that would rein in monopolies in any other industry. And their business model is built on taking advantage of the habits and private information of the taxpayers who funded the technologies in the first place.
  • Apologists like to portray the internet giants as forces for good. They praise the sharing economy in which digital platforms empower people via free access to everything from social networking to GPS navigation to health monitoring. But Google doesn’t give us anything for free. It’s really the other way around—we’re handing over to Google exactly what it needs. When you use Google’s services it might feel as if you’re getting something for nothing, but you’re not even the customer—you’re the product. The bulk of Google’s profits come from selling advertising space and users’ data to firms. Facebook’s and Google’s business models are built on the commodification of personal data, transforming our friendships, interests, beliefs, and preferences into sellable propositions.
  • And because of network effects, the new gig economy doesn’t spread the wealth so much as concentrate it even more in the hands of a few firms (see Rein in the Data Barons). Like the internal-combustion engine or the QWERTY keyboard, a company that establishes itself as the leader in a market achieves a dominance that becomes self-perpetuating almost automatically.
  • ...5 more annotations...
  • The low tax rates that technology companies are typically paying on these large rewards are also perverse, given that their success was built on technologies funded and developed by high-risk public investments: if anything, companies that owe their fortunes to taxpayer-funded investment should be repaying the taxpayer, not seeking tax breaks.
  • We should ask how the value of these companies has been created, how that value has been measured, and who benefits from it. If we go by national accounts, the contribution of internet platforms to national income (as measured, for example, by GDP) is represented by the advertisement-related services they sell. But does that make sense? It’s not clear that ads really contribute to the national product, let alone to social well-being—which should be the aim of economic activity. Measuring the value of a company like Google or Facebook by the number of ads it sells is consistent with standard neoclassical economics, which interprets any market-based transaction as signaling the production of some kind of output—in other words, no matter what the thing is, as long as a price is received, it must be valuable. But in the case of these internet companies, that’s misleading: if online giants contribute to social well-being, they do it through the services they provide to users, not through the accompanying advertisements.
  • This way we have of ascribing value to what the internet giants produce is completely confusing, and it’s generating a paradoxical result: their advertising activities are counted as a net contribution to national income, while the more valuable services they provide to users are not.
  • Let’s not forget that a large part of the technology and necessary data was created by all of us, and should thus belong to all of us. The underlying infrastructure that all these companies rely on was created collectively (via the tax dollars that built the internet), and it also feeds off network effects that are produced collectively. There is indeed no reason why the public’s data should not be owned by a public repository that sells the data to the tech giants, rather than vice versa. But the key issue here is not just sending a portion of the profits from data back to citizens but also allowing them to shape the digital economy in a way that satisfies public needs. Using big data and AI to improve the services provided by the welfare state—from health care to social housing—is just one example.
  • Only by thinking about digital platforms as collective creations can we construct a new model that offers something of real value, driven by public purpose. We’re never far from a media story that stirs up a debate about the need to regulate tech companies, which creates a sense that there’s a war between their interests and those of national governments. We need to move beyond this narrative. The digital economy must be subject to the needs of all sides; it’s a partnership of equals where regulators should have the confidence to be market shapers and value creators. 
  •  
    "The internet giants depend on our data. A new relationship between us and them could deliver real value to society."
Cécile Christodoulou

Scientists Warn the UN of Capitalism's Imminent Demise - Motherboard - 0 views

  •  
    " Many experts believe we're moving past capitalism, but they disagree on what the ultimate outcome will be. In his book Postcapitalism: A Guide to Our Future, British economics journalist Paul Mason theorises that information technology is paving the way for the emancipation of labour by reducing the costs of knowledge production-and potentially other kinds of production that will be transformed by AI, blockchain, and so on-to zero. Thus, he says, will emerge a utopian 'postcapitalist' age of mass abundance, beyond the price system and rules of capitalism. It sounds peachy, but Mason completely ignores the colossal, exponentially increasing physical infrastructure for the 'internet-of-things.' His digital uprising is projected to consume evermore [https://www.sciencedirect.com/science/article/pii/S2214629618301051] vast quantities of energy (as much as one-fifth of global electricity by 2025), producing 14 percent of global carbon emissions by 2040."
1 - 20 of 31 Next ›
Showing 20 items per page