Skip to main content

Home/ QN2019/ Group items tagged alternative

Rss Feed Group items tagged

Aurialie Jublin

Have We Already Lost the Individual Privacy Battle? - Post - No Jitter - 0 views

  • Individual cookie management and installing special anti-tracking software has never been a common activity, so the majority of users continue to contribute to the collection of personalized data, even if it makes most of us uneasy. We don't trust most Internet sites, but we use them anyway. Pew Research Center wrote about the fate of online trust and summarized that many experts doubt the possibility of progress, saying "people are insured to risk, addicted to convenience, and will not be offered alternatives to online interactions."
Aurialie Jublin

"I Was Devastated": Tim Berners-Lee, the Man Who Created the World Wide Web, Has Some R... - 2 views

  • Initially, Berners-Lee’s innovation was intended to help scientists share data across a then obscure platform called the Internet, a version of which the U.S. government had been using since the 1960s. But owing to his decision to release the source code for free—to make the Web an open and democratic platform for all—his brainchild quickly took on a life of its own.
  • He also envisioned that his invention could, in the wrong hands, become a destroyer of worlds, as Robert Oppenheimer once infamously observed of his own creation. His prophecy came to life, most recently, when revelations emerged that Russian hackers interfered with the 2016 presidential election, or when Facebook admitted it exposed data on more than 80 million users to a political research firm, Cambridge Analytica, which worked for Donald Trump’s campaign. This episode was the latest in an increasingly chilling narrative. In 2012, Facebook conducted secret psychological experiments on nearly 700,000 users. Both Google and Amazon have filed patent applications for devices designed to listen for mood shifts and emotions in the human voice.
  • This agony, however, has had a profound effect on Berners-Lee. He is now embarking on a third act—determined to fight back through both his celebrity status and, notably, his skill as a coder. In particular, Berners-Lee has, for some time, been working on a new platform, Solid, to reclaim the Web from corporations and return it to its democratic roots.
  • ...10 more annotations...
  • What made the Web powerful, and ultimately dominant, however, would also one day prove to be its greatest vulnerability: Berners-Lee gave it away for free; anyone with a computer and an Internet connection could not only access it but also build off it. Berners-Lee understood that the Web needed to be unfettered by patents, fees, royalties, or any other controls in order to thrive. This way, millions of innovators could design their own products to take advantage of it.
  • “Tim and Vint made the system so that there could be many players that didn’t have an advantage over each other.” Berners-Lee, too, remembers the quixotism of the era. “The spirit there was very decentralized. The individual was incredibly empowered. It was all based on there being no central authority that you had to go to to ask permission,” he said. “That feeling of individual control, that empowerment, is something we’ve lost.”
  • The power of the Web wasn’t taken or stolen. We, collectively, by the billions, gave it away with every signed user agreement and intimate moment shared with technology. Facebook, Google, and Amazon now monopolize almost everything that happens online, from what we buy to the news we read to who we like. Along with a handful of powerful government agencies, they are able to monitor, manipulate, and spy in once unimaginable ways.
  • The idea is simple: re-decentralize the Web. Working with a small team of developers, he spends most of his time now on Solid, a platform designed to give individuals, rather than corporations, control of their own data. “There are people working in the lab trying to imagine how the Web could be different. How society on the Web could look different. What could happen if we give people privacy and we give people control of their data,” Berners-Lee told me. “We are building a whole eco-system.”
  • For now, the Solid technology is still new and not ready for the masses. But the vision, if it works, could radically change the existing power dynamics of the Web. The system aims to give users a platform by which they can control access to the data and content they generate on the Web. This way, users can choose how that data gets used rather than, say, Facebook and Google doing with it as they please. Solid’s code and technology is open to all—anyone with access to the Internet can come into its chat room and start coding.
  • It’s still the early days for Solid, but Berners-Lee is moving fast. Those who work closely with him say he has thrown himself into the project with the same vigor and determination he employed upon the Web’s inception. Popular sentiment also appears to facilitate his time frame. In India, a group of activists successfully blocked Facebook from implementing a new service that would have effectively controlled access to the Web for huge swaths of the country’s population. In Germany, one young coder built a decentralized version of Twitter called Mastodon. In France, another group created Peertube as a decentralized alternative to YouTube.
  • Berners-Lee is not the leader of this revolution—by definition, the decentralized Web shouldn’t have one—but he is a powerful weapon in the fight. And he fully recognizes that re-decentralizing the Web is going to be a lot harder than inventing it was in the first place.
  • But laws written now don’t anticipate future technologies. Nor do lawmakers—many badgered by corporate lobbyists—always choose to protect individual rights. In December, lobbyists for telecom companies pushed the Federal Communications Commission to roll back net-neutrality rules, which protect equal access to the Internet. In January, the U.S. Senate voted to advance a bill that would allow the National Security Agency to continue its mass online-surveillance program. Google’s lobbyists are now working to modify rules on how companies can gather and store biometric data, such as fingerprints, iris scans, and facial-recognition images.
  • It’s hard to believe that anyone—even Zuckerberg—wants the 1984 version. He didn’t found Facebook to manipulate elections; Jack Dorsey and the other Twitter founders didn’t intend to give Donald Trump a digital bullhorn. And this is what makes Berners-Lee believe that this battle over our digital future can be won.
  • When asked what ordinary people can do, Berners-Lee replied, “You don’t have to have any coding skills. You just have to have a heart to decide enough is enough. Get out your Magic Marker and your signboard and your broomstick. And go out on the streets.” In other words, it’s time to rise against the machines.
  •  
    "We demonstrated that the Web had failed instead of served humanity, as it was supposed to have done, and failed in many places," he told me. The increasing centralization of the Web, he says, has "ended up producing-with no deliberate action of the people who designed the platform-a large-scale emergent phenomenon which is anti-human." "While the problems facing the web are complex and large, I think we should see them as bugs: problems with existing code and software systems that have been created by people-and can be fixed by people." Tim Berners-Lee
  •  
    "Berners-Lee has seen his creation debased by everything from fake news to mass surveillance. But he's got a plan to fix it."
Aurialie Jublin

La fibre, « facteur clé » de la survie des FAI associatifs - 0 views

  • Pour la fédération, une éviction de ses membres de la fibre est « tout à fait inquiétant ». Aujourd'hui, le marché est dominé par l'opérateur historique (voir notre analyse), qui compte pour plus des deux tiers de recrutement de clients en fibre, en embarquant notamment des abonnés ADSL de concurrents. « On est en train de refermer un marché vivace, qui a permis à une foule d'acteurs locaux d'exister, sur quelques gros acteurs qui n'ont pas la même capacité d'innovation » appuie FFDN.
  • Il serait donc nécessaire de défendre l'accès de ces petits acteurs aux réseaux FTTH, à la fois pour leurs offres « neutres » et pour leur statut de « poisson-pilote », avec des compétences particulières. La fédération se targue de fournir un regard unique, fondé sur les droits fondamentaux et une longue expérience. Elle répond aussi bénévolement à des problèmes locaux (comme les réseaux hertziens en zones blanches) ou en palliant les manquements des opérateurs commerciaux. « La santé des associations que je représente est un des marqueurs du respect ou non de l'intérêt général sur ce marché. On est un peu des canaris, déclare Oriane Piquer-Louis. Si les plus petits meurent, les plus grands doivent quitter la mine. » 
  • Les réseaux d'initiative publique (RIP), initiés par des départements et régions, sont la voie la plus évidente vers la fibre pour les FAI associatifs. Ces réseaux sont tenus à une obligation de non-discrimination, soit les mêmes conditions tarifaires pour l'ensemble des opérateurs qui veulent y proposer leurs offres. Or, pour FFDN, les conditions ne conviennent pas à des acteurs qui comptent quelques centaines d'abonnés sur toute la France, alors que Bouygues Telecom ou Free négocient avec les délégataires des réseaux publics sur des millions de lignes.
  • ...1 more annotation...
  • Qu'en disent les réseaux publics ? Pour l'Avicca, la principale association de collectivités sur le numérique, une partie des difficultés des FAI associatifs résulteraient de l'absence d'offres activées sur certains réseaux publics. Une situation qui devrait changer.
  •  
    "Alors que la fibre jusqu'à l'abonné grignote chaque trimestre des dizaines de milliers d'abonnés à l'ADSL. Au sein de FFDN, des fournisseurs d'accès associatifs cherchent une porte d'entrée vers ces nouveaux réseaux, encore inaccessibles pour ces petits acteurs."
Aurialie Jublin

Redecentralize.org - 0 views

  • Motivations for decentralizing the internet vary. These three keep coming up: Resilient - whether there’s a hurricane, a severed trans-atlantic cable or just a train line with a poor connection, we’d like to be able to carry on making phone calls and sharing documents. Private - as a company keeping our commercial secrets, or as an individual concerned about criminals and overreaching governments, we'd like our most personal messages not to be held in distant data centres. Competitive - we're often forced to use one dominant provider who restricts competition, we'd like to build communtities around new protocols, driving innovation of new services on top.
  •  
    "The original Internet was decentralized. Anyone could set up parts of it. That's why it won. For various reasons, control of our information technologies is increasingly falling into a few hands. Some big companies and Governments. We want it to become decentralized. Again."
Aurialie Jublin

Can Worker Co-ops Make the Tech Sector More Equitable? | The Nation - 0 views

  • Fed up with this heartless model, some tech activists are developing online workplaces that operate as worker-driven communities. Daemo, a pilot program incubated at Stanford University’s Crowd Research Collective, is one such worker-driven crowd-labor platform. Since 2015, Daemo’s developers have been building on MTurk’s interface with a communications system aimed at allowing for more equitable “matching” between work requesters and digital taskers. As a non-hierarchical, nonprofit framework where workers control the operations, Daemo is designed for fairer working conditions, with a minimum wage of $10 an hour, which is a major improvement on MTurk’s precarious labor-outsourcing system.
  • Some former participants in Daemo’s project recently aired sharp criticism of the platform in response to a largely favorable article in Wired. In a collectively authored article on Medium, they argued that, in their practical experience with the platform, decision-making power rests with a “platform team” of researchers and leading developers. Though Daemo has established a Constitution that theoretically is open to amendments and revision based on workers’ input, critics say the day-to-day management remains tightly controlled by researchers.
  • “Whenever they talk about the decentralization, they talk about technical decentralization, like block-chain or decentralized platforms, but most of the time they overlook the governance level, which is more important,” Hashim says. “So it’s about who takes the positions, it’s about who has the right to access information. If you don’t have a well-informed society, you don’t have democracy.”
  • ...4 more annotations...
  • Kristy Milland, an activist with the MTurk advocacy network We Are Dynamo, says she’s given up collaborating with Daemo because “There hasn’t been any deep, involved worker input…. It’s built by academics with the bias they bring to such a platform that they expect will provide them with free data to publish down the road. Just like Amazon built MTurk with their needs in mind, even if many of the roadblocks this caused may have been unintentional.”
  • The “platform cooperativism” concept, as articulated by technologist Trebor Scholz and other academics, is that worker control can be integrated by working with the democratic aspects of the online sphere: entrepreneurial horizontalism and a pluralistic culture of innovation. But with online workspaces proliferating at breakneck speed, it’s a race to see whether these more principled worker-led models will ever be able to compete for market share with the app-based workforce of MTurk. Similarly, small-scale cab-service cooperatives are emerging in the United States, but Uber and Lyft’s mega brands are displacing cabbies by the minute.
  • The problem with crowd labor isn’t that it’s big, or complex; it’s that workers can’t control their means of technological production. According to Joshua Danielson of the Bay Area start-up cooperative Loconomics, Daemo’s model “has the potential to provide an alternative to Amazon Turk,” if the platform combines a good product and good jobs for the producers. The key, he says via e-mail, is “creating a cooperative business model that can be self-sufficient and be able to attract clients. The latter is the more challenging one given the deep pockets of the current players. That said, it’s important to remember that workers are the product, not the platform, and they hold an immense amount of power if they can organize.”
  • The digital frontier offers endless room both for exploitation and for social transformation. But if workers can get ahead of corporations in harnessing the potential of open-source technology, they can disrupt the incumbent Silicon Valley oligarchs from below. So far, technology hasn’t emancipated labor nearly as rapidly as it has liberalized markets. Cooperative thinking can make technological power part of the solution, but only if it’s matched with people power.
  •  
    "The crowdwork sector is dominated by low-paid gigs-can communally run companies make these jobs sustainable?"
Aurialie Jublin

Pour une pratique féministe de la visualisation de données - Catherine D'Igna... - 0 views

  • Et pourtant, il existe des façons de procéder à des représentations plus responsables. Il existe des moyens pour « situer » le regard et le localiser dans des corps et des géographies concrètes. Les cartographes critiques, les artistes de la contre-cartographie, les pratiquants de cartographie participative et d’autres développent des expérimentations et des méthodes pour cela depuis des années et ont beaucoup à nous apprendre.
  • Une manière de re-situer les visualisations de données pourrait être de les déstabiliser en rendant les désaccords possibles. Comment créer des manières de répondre aux données ? De mettre en question les faits ? De présenter des points de vue et des réalités alternatives ? De contester et même de saper les bases de l’existence de ces données et des méthodes par lesquelles elles ont été acquises ? Comment procéder ? Sachant que la plupart des gens qui travaillent sur les données sont des hommes blancs, il s’agit simplement d’inclure des gens différents, avec des points de vue différents, dans la production des visualisations. Ainsi par exemple, le Detroit Geographical Expedition and Institute était né, à la fin des années 1960, d’une collaboration entre des géographes universitaires, dont les responsables étaient des hommes blancs, et des jeunes du centre ville de Detroit conduits par Gwendolyn Warren, une militante de la communauté noire de 19 ans.
  • Cette carte, intitulée « Where Commuters Run Over Black Children on the Pointes-Downtown Track », était technologiquement en avance sur son temps. Peut-être est-elle assez conventionnelle (à nos yeux) dans sa stratégie visuelle. Mais ce qui donne à cette carte son caractère dissident, c’est le titre, formulé par les jeunes Noirs qui ont produit la carte. « Où les banlieusards qui rentrent du boulot écrasent les enfants noirs ». Un titre qui n’est pas neutre. On est loin de « Localisation des accidents de la route dans le centre de Detroit », titre qui aurait probablement été donné à la carte si elle avait été élaborée par des consultants extérieurs employés par la ville. Mais du point de vue des familles noires dont les enfants avaient été tués, il ne faisait aucun doute que les enfants étaient noirs, les banlieusards blancs, et les événements décrits comme des « meurtres » plutôt que des « accidents ».
  • ...4 more annotations...
  • ToxicSites.us, un site web géré par Brooke Singer, met en ligne un rapport sur chacun des sites « superfund » — ces lieux répertoriés par le CERCLA, l’agence américaine en charge des sites souillés par des déchets dangereux. Le site invite les contributeur·e·s à ajouter des reportages locaux, des images et des films qui documentent ces sites (et contredisent potentiellement les données), et cherche à faciliter l’organisation et le plaidoyer pour les efforts de nettoyage. Permettre de « répondre aux données » invite aussi à transformer la conversation en action.
  • Si les infographies — je ne parle pas ici des outils de recherche et d’exploration, mais des représentations publiques et populaires — excellent à présenter des mondes entièrement contenus, elles ne savent pas représenter visuellement leurs limites. Où sont les lieux où l’enquête n’est pas allée, qu’elle n’a pas pu atteindre ? Comment les indiquer ? Comment représente-t-on les données manquantes ? Andy Kirk a fait cet exposé remarquable sur le design du rien, qui recense diverses manières de représenter l’incertitude et d’intégrer le zéro, l’absent et le vide. Comment encourager plus de designers à prendre ces méthodes en considération ? Peut-on demander à nos données qu’elles montrent aussi ce qui constitue leur extérieur ?
  • Quelles sont les conditions matérielles qui ont rendu cette infographie possible ? Qui l’a financée ? Qui a collecté les informations ? Quel travail a été nécessaire en coulisses et comment la production de ce graphique s’est-elle déroulée ? Par exemple, le Public Laboratory for Open Technology and Science — un groupe de science citoyenne dont je fais partie — utilise une technique de cartographie consistant à suspendre une caméra à un cerf-volant où à un ballon pour collecter des photos aériennes. Un effet secondaire de cette méthode, adopté avec entrain par la communauté, est que la caméra capture aussi l’image des personnes qui collectent les images. On voit le corps des collecteurs des données, un objet généralement absent des représentations sous forme de produit fini.
  • Quel est le problème ? La théorie féministe du point de vue situé rappelle que toute connaissance est située socialement et que les perspectives des groupes opprimés — femmes, minorités et autres — sont exclues de manière systématique de la connaissance dite « générale ». La cartographie critique dirait que les cartes sont des sites du pouvoir et produisent des mondes qui sont intimement associés à ce pouvoir. Comme le soulignent Denis Wood et John Krygier, le choix de ce que l’on place sur la carte « fait inévitablement surgir le problème de la connaissance, tout comme les opérations de symbolisation, de généralisation et de classification ». Il faudra bien admettre l’existence de ce pouvoir d’inclure et d’exclure, apprendre à le dépister et développer un langage visuel pour le décrire. Dans l’immédiat, il importe de reconnaître que la visualisation de données est un des outils de pouvoir parmi les plus puissants et les plus biaisés.
  •  
    "La visualisation de données, ou infographie, est à la mode et chacun s'enthousiasme pour les nouveaux outils qui permettent d'en produire - nous en avons dénombré, avec mon collègue Rahul Bhargava, plus de cinq cents. Malgré cette richesse technique, on manque souvent d'outils permettant une réflexion critique sur la politique et l'éthique de la représentation. Et comme le grand public est plutôt facile à impressionner avec des graphiques, la « data visualization » acquiert un grand pouvoir rhétorique. Quand bien même nous savons rationnellement que ces images ne représentent pas « le monde entier », nous avons tendance à l'oublier, et à accepter les graphiques comme des faits car ils sont généralisés, scientifiques et semblent présenter un point de vue neutre et expert. Quel est le problème ? La théorie féministe du point de vue situé rappelle que toute connaissance est située socialement et que les perspectives des groupes opprimés - femmes, minorités et autres - sont exclues de manière systématique de la connaissance dite « générale ». La cartographie critique dirait que les cartes sont des sites du pouvoir et produisent des mondes qui sont intimement associés à ce pouvoir. Comme le soulignent Denis Wood et John Krygier, le choix de ce que l'on place sur la carte « fait inévitablement surgir le problème de la connaissance, tout comme les opérations de symbolisation, de généralisation et de classification ». Il faudra bien admettre l'existence de ce pouvoir d'inclure et d'exclure, apprendre à le dépister et développer un langage visuel pour le décrire. Dans l'immédiat, il importe de reconnaître que la visualisation de données est un des outils de pouvoir parmi les plus puissants et les plus biaisés."
Aurialie Jublin

affordance.info: Les algorithmes du Dr Frankenstein (ou pourquoi faut pas pou... - 0 views

  • néo-fascisme documentaire distinguant une humanité sur-documentée d'une humanité sous-documentée, néo-fascisme nourri d'un fétichisme du fichier (et du fichage). Et je milite et alerte comme je peux sur l'impérieuse nécessité et urgence de nourrir une réflexion politique radicale visant à une forme de "nationalisation" des grandes plateformes et du code informatique, et à réinstaurer des formes légitimes de "communs" (dont un index indépendant du web entre autres). 
  • Le problème n'est plus tant de se demander comment construire des technologies avec des sciences comportementales que de voir s'il est encore possible, pour en limiter l'impact politique et démocratique, de déconstruire la logique qui a mené quelques grandes plateformes à construire et à normer des comportements avec des technologies opérant dans le cadre d'architectures techniques toxiques.  
  • En gros le pitch de l'article du Guardian est, à partir notamment des travaux de Cathy O'Neil (les algorithmes comme "armes de destruction matheuse") et Neil Johnson, et en remobilisant des exemples issus du Trading Haute-fréquence ou du récent fait-divers sur le premier décès "accidentel" causé par une voiture autonome (dont je vous avais moi-même longuement parlé), de revenir en détail sur ces nouvelles "approches algorithmiques" ou "l'algorithme" ne désigne plus simplement la trivialité d'une série d'instructions logico-mathématiques mais un environnement complexe d'automatismes décisionnels sur la base de gigantesques jeux de données (Datasets) que plus personne n'est en mesure de comprendre ou d'englober dans leur totalité, à commencer par ceux-là mêmes qui développent lesdits algorithmes et jeux de données**.
  • ...6 more annotations...
  • Et l'article du Guardian évoque donc ces "Franken-algorithms" : ces algorithmes semblables à la créature du Dr Frankenstein, des Franken-algorithmes qui deviennent totalement imprévisibles (et donc potentiellement très dangereux) non seulement au travers de leur mode opératoire "auto-apprenant" (on parle aussi d'algorithmes "génétiques" et "d'apprentissage renforcé" - Reinforced Learning) mais aussi et surtout au travers de ce que leur marge d'incertitude et d'imprévisibilité intrinsèque peut donner lorsqu'elle entre en interaction avec d'autres algorithmes, avec des comportements sociaux individuels ou collectifs, ou avec le monde - et les objets - physique(s).
  • Voilà ce qui, sur mon petit schéma donne naissance au "SPA", une sorte de "Service Public de l'Algorithmie" que mon côté Marxiste idéalise peut-être mais que je crois nécessaire et urgent de bâtir si nous voulons éviter de prendre le risque d'un Hiroshima technologique désormais plus que probable à l'échelle de nos formes démocratiques de gouvernance qui ont déjà en partie basculé dans les formes assumées et délétères de surveillance.
  • Au-delà de la seule transmission de connaissances ou d'informations, l'enjeu de l'apprentissage est de permettre à "celui qui apprend" de pouvoir un jour s'affranchir de la dépendance à "celui qui lui enseigne" certaines règles et certains codes sociaux. Et d'être en capacité de pouvoir à son tour "faire", "transmettre", "produire", "jouer" mais aussi "tricher" ou "faire semblant". Le souci, me semble-t-il, est que nous sommes aujourd'hui majoritairement et collectivement incapables de formuler clairement la raison pour laquelle nous voulons que ces algorithmes apprennent et nous échappent autrement.
  • Voilà pourquoi sans aller vers un radicalisme luddite dont Eric Sadin et quelques autres sont les opportunistes ténors, il nous faut construire une alternative politique qui, après le temps numérique de la "désintermédiation", soit celui de formes de remédiations respectueuses du corps social et partant de sa partie la plus fragile, la plus pauvre, et la plus exposée.
  • La vie de la cité aujourd'hui (c'est à dire "le" politique au sens étymologique), notre vie, est prise entre des techno-craties qui organisent l'espace économique et des techno-structures qui organisent l'espace social. Les plateformes comme Facebook, Google ou Amazon ont comme point commun d'être les premières techno-craties algorithmiques dans lesquelles les données ont fonction d'infrastructure et qui organisent l'espace social pour satisfaire à des impératifs d'organisation économique. 
  • Dans la montée partout en Europe (et ailleurs) des néo-fascismes qu'une pudibonderie tout à fait déplacée nous désigne sous l'euphémisme de "droites extrêmes", au moment où chacun est conscient de l'impact que jouent les architectures techniques toxiques dans la polarisation de l'opinion, alors même qu'il est établi, comme le rappelait récemment Cory Doctorow que  "le problème de Facebook n'est pas un problème de contrôle des esprits mais un problème de corruption : Cambridge Analytica n'a pas convaincu des gens ordinaires de devenir racistes mais ils ont convaincu des racistes d'aller voter", il ne faudrait pas qu'aux algorithmes du Dr Frankenstein s'ajoutent les ambitions politiques d'Anénoïd Hynkel.
Aurialie Jublin

Aucun algorithme, jamais, ne pourra défendre la démocratie - Libération - 0 views

  • Comment avons-nous pu nous retrouver au début du XXIe siècle dans une situation où Mark Zuckerberg – et quelques autres patrons de plateformes numériques – se fixent comme objectif récurrent de «protéger la démocratie», principalement à grands coups «d’algorithmes» et «d’intelligence artificielle» et affirment que cela sera une de leurs principales «missions» au sein de leur entreprise et à l’échelle du monde ?
  • En 2011, deux théoriciens de l’intelligence artificielle traitant des problèmes éthiques qu’allaient poser les algorithmes écrivaient que «les algorithmes de plus en plus complexes de prise de décision sont à la fois souhaitables et inévitables, tant qu’ils restent transparents à l’inspection, prévisibles pour ceux qu’ils gouvernent, et robustes contre toute manipulation» (Bostrom et Yudowski, «The Ethics of Artificial Intelligence»).
  • Aujourd’hui, «les algorithmes» dont nous parlons se déploient au sein d’architectures techniques toxiques englobant des millions ou des milliards d’utilisateurs. Aujourd’hui, «les algorithmes» dont nous parlons reposent sur des jeux de données propriétaires et donc totalement opaques. Aujourd’hui, «les algorithmes» dont nous parlons sont explicitement développés pour se doter d’un niveau d’autonomie (ou «d’apprentissage») qui rend leur «comportement» et leurs décisions souvent imprévisibles pour leurs créateurs eux-mêmes. Aujourd’hui, «les algorithmes» dont nous parlons interagissent en permanence avec d’autres algorithmes, d’autres jeux de données et d’autres architectures techniques toxiques ; et ils le font à des échelles toujours plus vastes et dans des environnements toujours plus contraints qui augmentent encore le niveau de risque et d’incertitude.
  • ...5 more annotations...
  • Pendant les dix dernières années, le combat principal d’activistes, de journalistes, de défenseurs des libertés numériques fut celui visant à limiter l’impact de l’empreinte algorithmique sur nos vies privées et intimes. Ce combat-là est terminé, obsolète et, pour l’essentiel, perdu. C’est un autre combat qu’il nous faut aujourd’hui mener, sur un tout autre front, avec une tout autre urgence et à une tout autre échelle. C’est le combat pour limiter l’impact de l’empreinte algorithmique décisionnelle sur notre vie publique, sur nos infrastructures sociales communes et sur notre destin collectif
  • Il est urgent et impératif que toute forme, ambition ou projet de gouvernance algorithmique, dès lors qu’il touche à des secteurs régaliens (transport, éducation, santé, justice, sécurité) soit, obligatoirement et par contrainte législative, développé sur le modèle des licences GNU GPL du logiciel libre pour garantir a minima l’auditabilité complète et pérenne des processus à l’œuvre.
  • Il est urgent et impératif que le développement d’un modèle universel de portabilité de l’ensemble de nos données (1) soit une priorité des Etats, et qu’il soit imposé à l’ensemble des acteurs du monde économique en lien avec la conservation ou le dépôt de données numériques, et ce quels qu’en soient la nature, le volume et l’usage.
  • Il est urgent et impératif que les entreprises qui captent aujourd’hui l’essentiel des données et des flux numériques (en gros les Gafam, Natu et autres Batx) soient taxées à la hauteur réelle de leur volume d’affaire et que cet impôt finance directement les actions précitées, ce processus de redistribution devant impérativement rester hors du contrôle desdites sociétés. Car le processus inverse a déjà commencé, celui dans lequel quelques entreprises omnipotentes s’arrogent le droit de défier la puissance publique et l’intérêt général dans la levée de l’impôt, comme Amazon et Starbucks en ont encore récemment fait la démonstration à Seattle.
  • L’enjeu est de savoir si nous serons capables à très court terme de construire une alternative qui, après le temps numérique de la «désintermédiation» des vingt dernières années, sera celle de formes de remédiations algorithmiques respectueuses du corps social et partant de sa partie la plus fragile, la plus pauvre, et la plus exposée. Alors peut-être, et alors seulement, les questions de gouvernance algorithmique pourront commencer d’être envisagées sereinement.
  •  
    "Nous avons perdu la bataille contre les algorithmes en ce qui concerne la vie privée. Il faut aujourd'hui se battre pour limiter leur impact sur nos vies publiques et notre destin collectif. "
Aurialie Jublin

Des impacts énergétiques et sociaux de ces data-centers qu'on ne voit pas - M... - 0 views

  • Côté consommation pour commencer, les études les plus pessimistes avancent que ceux-ci pourraient représenter jusqu’à 13% de l’électricité mondiale en 2030 (avec un secteur informatique qui consommerait jusqu’à 51% du total de la consommation électrique mondiale). Des chiffres qui ne font pas l’unanimité, The Shift Project prévoyant plutôt 25% pour le secteur informatique et 5% pour les data centers en 2025 (ces 5% équivaudraient tout de même à toute la consommation électrique actuelle du secteur numérique).
  • Même si l’on constate de nombreux efforts faits pour améliorer l’efficacité énergétique des infrastructures, par exemple du côté des « big tech », l’ADEME rapporte que les géants du numérique ne portent pas un véritable discours sur la « sobriété énergétique et numérique nécessaire pour rester sous la perspective d’une augmentation des températures planétaires de 1,5°.»
  • Le rapport insiste ensuite sur les déséquilibres qui résultent de certaines implantations dans les territoires. Première constatation : ces impacts sociaux sont très peu documentés. Bien souvent, les data centers arrivent sans dire leur nom, en périphérie des villes, aux Etats-Unis ou en France, à Saclay par exemple ou encore Plaine Commune. Cette furtivité des bâtiments rend d’autant plus difficile les contestations ou demandes de participation de la part des populations locales.
  • ...14 more annotations...
  • Ils sont considérés comme de simples entrepôts par les pouvoirs publics alors même que leur consommation électrique a des répercussions à l’échelle d’un territoire tout entier.
  • Autre phénomène important : les data centers attirent les data centers, pour des questions de mutualisation d’énergie et de réseaux de télécommunication. Bien souvent, les hiérarchies urbaines en place sont renforcées par ces mécanismes. Les élus eux, peinent à lutter contre des acteurs puissants qui imposent leurs conditions « dans une négociation asymétrique qui pousse certains territoires à sur-calibrer des infrastructures énergétiques, hydrauliques et viaires pour pouvoir accueillir quelques dizaines, ou centaines d’emploi si l’on inclut les phases de construction. »
  • Aujourd’hui, c’est plutôt pour installer des hangars logistiques et des fermes de serveurs qu’on artificialise les sols. Autre effet non négligeable qui mériterait sans doute une discussion plus ample avec les populations locales : l’étalement urbain.
  • Le rapport souligne ensuite les possibles synergies entre les infrastructures numériques et le territoire. La réutilisation de la chaleur générée par les data centers  est à ce titre un cas d’usage bien connu. A Bailly-Romainvilliers, par exemple, le data center de BNP Parisbas chauffe le centre nautique voisin. Celui de Céleste à Noisy-Champs, chauffe ses propres bureaux. D’autres systèmes très chauffants comme les chaudières numériques de Stimergy chauffent une partie de l’eau de la piscine de la Butte-aux-Cailles, dans le treizième arrondissement de Paris.
  • Cependant, ces exemples restent anecdotiques. Dans l’immense majorité des cas, la chaleur n’est pas récupérée. D’abord pour des questions de coût et de rentabilité économique : les promoteurs des data-centers attendent des rendements sur des périodes courtes incompatibles avec la contractualisation pour les réseaux de chaleur (des engagements qui coulent sur 25 à 30 ans
  • Il existe aussi un frein technique : il est préférable de prévoir ces éventuels contrats dès la construction du data center car le modifier a posteriori peut représenter des risques que les promoteurs ne sont pas prêts à prendre.
  • La cinquième partie du rapport, qui m’a particulièrement plu, fait la part belle aux initiatives citoyennes, associatives et publiques des « infrastructures numériques alternatives ». Du côté des fournisseurs d’accès, de nombreux acteurs associatifs comme franciliens.net ou Aquilenet dans le Sud-Ouest sont regroupés au sein de la Fédération FFDN. Ils viennent compléter l’offre des fournisseurs principaux (Bouygues, Free, Orange et SFR). Le grand atout de ces solutions est de miser sur le social, l’éducation et la démocratie : « Ils participent d’une gouvernance partagée du commun qu’est Internet en portant des valeurs de transparence, d’inclusion, de lien social, d’apprentissage technique, et d’incitation à la participation à la vie citoyenne. »
  • La socioanthropologue des techniques Laure Dobigny affirme que quand cette gestion inclut et implique, alors les consommateurs vont vers plus de sobriété : « la mise en place de systèmes techniques de plus petite échelle ont permis, en modifiant les usages, une réduction des consommations. » La question est ensuite de savoir comment passer d’une gestion commune de réseaux à une gestion commune de data-centers.
  • Le rapport présente un certain nombre de solutions, comme le cloud de pair-à-pair : « l’idée centrale sous-tendant ces dispositifs est que les fichiers et les contenus téléchargés par les utilisateurs dans le système sont stockés, totalement ou en partie, sur un nuage de stockage composé d’une partie des disques durs de chaque utilisateur, reliés entre eux en architecture P2P. » L’idée est plutôt simple : re-décentraliser internet, réduire le besoin de grands data-centers et atténuer l’impact spatial de ces infrastructures. Les limites de ces solutions sont nombreuses bien sûr : pertes de données, erreur, taille critique non atteinte… Il existe également des data centers « de proximité » comme les chatons (« Collectif d’Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires ») ou encore SCANI dans l’Yonne et Tetaneutral à Toulouse.
  • Pour terminer, le rapport dessine trois « mondes numériques possibles ». Le premier scénario parie sur l’extrême croissance et l’ultracentralisation numérique. Pour faire simple, c’est aujourd’hui mais en pire : tout est numérisé, plateformisé, big-daté et concentré dans les mains des GAFAMS ou d’autres acteurs similaires. La ville se conforme aux modèles numériques de la smart-city, la consommation de data explose. C’est la fuite en avant, la croyance qu’un monde infini existe. Côté C02, c’est la catastrophe, la température globale monte de 2,5° en 2050. Pics de chaleur dans les villes, problèmes sociaux, etc.
  • Le deuxième scénario est en demie teinte. On stabilise le système technique numérique en permettant la coexistence de deux mondes : celui des big tech et celui, plus centralisé, des infrastructures à plus petite échelle. L’Union Européenne taxe les « Net Goinfres », ce qui modifie les comportements : on échange moins de photos de chats et on tend à les stocker sur nos terminaux personnels plutôt que dans le cloud, idem pour la musique. Côté consommation, on parvient à réduire les émissions de CO2 du secteur de 5% par an entre 2025 et 2050, ce qui nous ramène au niveau de 2013.
  • Le dernier scénario propose une forme de décentralisation ultime du numérique qui signe plus ou moins la fin des data-centers tels que nous les connaissons. Internet devient plus local et dépendant des énergies renouvelables, ce qui ne permet plus d’assurer sa continuité. Le projet Greenstar au Canada suit ces principes et accepte les intermittences du réseau (follow the wind/follow the sun), de même, le blog du Low Tech Magazine s’arrête de fonctionner quand le vent ne souffle plus (le scénario nucléaire n’est pas vraiment envisagé car l’exercice prospectif est global). Ce scénario « effondrement » se base sur des infrastructures totalement low-tech (c’est-à-dire peu coûteuses en énergie) et permet assez ironiquement un « retour aux principes fondateurs d’internet (horizontal et distribué) ». Côté service, on se contente du local et l’international devient l’exception
  • L’ADEME invite également à soutenir les FAI indépendants et à créer un « service public du numérique et des data centers publics », notamment pour améliorer l’intégration spatiale des infrastructures. Les questions énergétiques font également l’objet de propositions : sobriété, récupération de chaleur, décentralisation.
  • Le chercheur Clément Marquet cité plus haut dans l’article me rappelle que ces différents rapports (Shift, ADEME) arrivent dans un moment particulier puisque le gouvernement a voté en octobre 2018 une loi visant à réduire la fiscalité énergétique pour attirer les gros data centers. Je le cite : « il y a une tension entre le projet de souveraineté numérique par les infrastructures (et des bénéfices économiques qui iraient avec bien sûr) et celui de réduction de la consommation énergétique. »
  •  
    "L'ADEME, via le projet Enernum, vient de publier une étude approfondie sur les impacts à la fois énergétiques et sociétaux de l'installation et du déploiement des data centers, en France et ailleurs. Ce travail vient confirmer les conclusions du Think tank The Shift Project qui alertait déjà des coûts carbone importants de ces infrastructures qui soutiennent tous nos usages numériques. Par delà les chiffres, l'ADEME replace les data-centers dans leur contexte humain et géographique et interroge la gestion de ce type d'infrastructure sur le territoire."
Aurialie Jublin

Peut-on créer un nouveau moteur de recherche aujourd'hui ? U&R - 0 views

  • Si elle n’est pas en mesure de construire sa propre base et son propre index rapidement et efficacement, vous aurez beau l’interroger, aucun résultat n’en sortira… Peut-elle le faire ? Techniquement oui. Cela va néanmoins lui coûter cher car il va falloir qu’elle achète des milliers de serveurs pour stocker une réplique du web. Mais c’est possible, et c’est justement ce qu’est en train de faire Qwant. Ce moteur de recherche français construit son propre index, qui contient actuellement près de 20 milliards de pages. Cette société bâtit ainsi progressivement son indépendance technologique. Cette barrière technique et financière n’est donc pas infranchissable en soi. Le problème est qu’elle est doublée d’autres barrières autrement plus élevées. Lesquelles ?
  • D’abord, toute nouvelle entreprise créant un moteur de recherche innovant commercera son travail d’indexation à partir du moment où … elle commencera à le faire. Cette lapalissade a en réalité un sens profond : si Google a commencé à indexer le web en 1998, notre jeune société innovante a accumulé un retard de 20 dans la collecte des données du web. Mais ce n’est pas tant les couches successives du web qui vont lui faire défaut. C’est surtout 20 ans d’analyse des habitudes des internautes.
  • Or Google a verrouillé la connaissance client. Comment ? En offrant toute la panoplie des parfaits services web. Voyons le cheminement de l’internaute, c’est-à-dire « vous », sur la toile. Après vous être connecté, la première chose que vous ferez sera d’ouvrir un navigateur (Google a développé le navigateur Chrome pour les ordinateurs et Android pour les téléphones, dont il détient 80% de part de marché). Puis vous allez généralement consulter vos mails (Google a développé Gmail). Vous ferez ensuite des recherches (Google search a 92% de part de marché en France). Quand vous cliquez sur un lien vous arrivez sur un site. Et même à l’intérieur du site, Google sait comment vous naviguez grâce à son outil d’analyse d’audience (Google Analytics là encore possède près de 80% de part de marché). Que vous recherchiez un endroit où aller ou une vidéo à regarder, Google Maps et Youtube règnent sans réelle concurrence. Vous êtes donc cerné par ces outils. C’est cette « capture » dans le monde Google qui est préoccupante.
  • ...7 more annotations...
  • Les jeunes moteurs Lilo ou Ecosia sont adossés à Bing, sinon ils n’existeraient tout simplement pas. Ils ventent leur orientation écologique pour séduire l’internaute. Qwant utilise Bing pour compléter les résultats issus de son propre index, lorsque c'est nécessaire, en particulier sur les images. Et ce dernier a fait du respect de la vie privée son cheval de bataille.
  • On peut reprocher à Google sa position hégémonique, sa captation continuelle d’informations sur ses utilisateurs, sa malhonnêteté fiscale et concurrentielle sanctionnée récemment par la Commission Européenne. Mais beaucoup de personnes, en réalité, ignorent ou s’accommodent de cet état de fait. Cette soumission consentie du grand public risque de faire disparaitre une partie de notre liberté numérique. Par contre, les autorités américaines et européennes peuvent-elles accepter cette « confiscation » du web et cette « captation » des internautes qui empêchent de facto l’apparition de tout nouvel acteur ? On peut imaginer que, dans un monde normal, la réponse serait négative ! Quelle solution ?
  • Une troisième idée consiste simplement à empêcher Google d’imposer son navigateur sur les ordinateurs (Chrome) et surtout sur les mobiles (Android), privant les autres moteurs de recherche de la possibilité d'investir le marché de façon équitable. Cette solution simple et réaliste est certainement la plus prometteuse. L’amende récente de la Commission Européenne va dans ce sens.
  • On pourra poursuivre en objectant que les moteurs chinois (Baidu) ou Russe (Yandex) existent bien et prouvent qu’une alternative est possible. Mais ces derniers sont le reflet d’une politique volontariste d’Etats en délicatesse avec l’hégémonie américaine. Ils ne sont en rien le produit d’une libre concurrence.
  • On pourra objecter qu’une révolution technique peut toujours poindre, avec comme ingrédient la blockchain, une autre forme d’indexation ou une autre forme de distribution du référencement. Bien sûr, mais la création de la valeur est actuellement totalement phagocytée par les GAFAM, et si une révolution voit le jour, elle risque d’être préemptée, voire étouffée dans l’œuf par les géants en position monopolistique.
  • Une autre critique peut porter sur le fait que Google n’est qu’une partie du problème, et que c’est la puissance du système composé des GAFAM, de la dynamique d’innovation américaine, de son système de financement, … qui est en cause. Mais là encore nous pourrions rétorquer qu’en s’attaquant à un premier acteur emblématique, il se créé un précédent qui pourra ensuite s’étendre aux autres rouages du système.
  • Mais en définitive, le peuple européen peut aussi s’exprimer. Nous sommes les clients et donc avons un pouvoir considérable. Pourquoi ne pas faire l’expérience d’une sortie de Chrome et d’Android ? Firefox est un excellent navigateur pour ordinateurs. Quant aux mobiles, des solutions se font jour avec notamment FairPhone et la suite Framasoft. Soyons clair : sortir complètement de Google n’est pas facile, mais les bénéfices à long terme sont à la mesure des enjeux !
  •  
    "Un moteur de recherche concurrent à Google n'a aujourd'hui presque aucune chance d'émerger, explique Jérôme Bondu, lecteur d'Usbek & Rica et directeur de la société Inter-Ligere. Or les implications sur notre liberté sont grandes, car nous sommes « capturés » dans le monde de Google, estime-t-il, proposant des pistes pour s'affranchir de cette emprise. "
Aurialie Jublin

Le CES de Las Vegas ou l'urgence de la sobriété numérique | Perspectives sur ... - 0 views

  • Le numérique, c’est surement là où les logiques de surconsommation, de renouvellement accéléré des équipements, d’options ubuesques, et des traitements "chaotiques" des déchets sont les plus fortes. C’est donc pour tout cela que la sobriété doit pénétrer pleinement désormais le numérique. Il ne semble pas que ce soit le chemin pris aujourd’hui, même si plusieurs acteurs notables tentent quelques propositions en ce sens : La Fing avec une journée Agenda pour le futur sur la « sobriété numérique » en 2018 ou son appel Reset en 2019 pour réinventer le numérique, le think-tank The Shift Projet présidé par Jean-Marc Jancovici avec un conséquent et solide rapport « Lean ICT – pour une sobriété numérique » publié en octobre 2018.
  • Le constat de départ est simple, c'est « le grand gâchis énergétique » comme le CNRS le résume. Le numérique c’est de l’ordre de 10% de la consommation d’électricité mondiale. Pour comprendre ces consommations énergétiques qui plombent l’imaginaire immatériel derrière le « cloud », il faut avoir en tête la consommation énergétique (et de matière ensuite) associée aux objets connectés, écrans, mais aussi réseaux et data-center de plus en plus nombreux.
  • Anne-Cécile Orgeri chercheuse de l’Irisa le rappelle, les terminaux entre nos mains ne consomment que 30% de cette énergie, les 70% restants étant consommés dans les data-centers, routeurs, et infrastructures cachés pour l’usager. Et comme toujours, les infrastructures sont dimensionnées pour la pointe. En gros, c’est le pic de streaming du soir qui détermine l’infrastructure, comme les heures de sortie de travail déterminent les périphériques routiers ou les consommations de chauffage le système électrique avec ses centrales d’extrême pointe. Tout cela concoure donc à un surdimensionnement, très consommateur d'énergie et de ressources, et dont la majorité des impacts sont occultés, ou invisibles pour l’utilisateur. Et on ne parle même pas à ce stade des limites même du recyclage, et des filières défaillantes des déchets numériques.
  • ...5 more annotations...
  • L’énergie grise, ou embarquée, est telle que les équipements numériques doivent incontestablement augmenter leur durée de vie puis réduire leur nombre. Il n’est pas du tout certain que l’Internet des Objets (IoT) présente un quelconque intérêt environnemental, par contre, il viendra indubitablement rajouter quelques équipements à des foyers déjà suréquipés (une dizaine d'équipements pour les citoyens américains par exemple). Mais avec les poubelles ou toilettes connectées, on voit bien qu'il n'y a guère de limites.
  • Sur le design, mais aussi le code et les logiciels, aujourd’hui parfois écrits à la va-vite et surconsommant ressources et énergie, des principes d’efficacité et de sobriété doivent aussi être mis en oeuvre. Cela n’est évidemment pas qu’une question technique mais aussi économique : quand pour consulter la météo, une vidéo publicitaire s’ouvre systématiquement avant de vous permettre l’accès à l’information, il va sans dire que 90% du volume de données n’a rien à voir avec la demande initiale…
  • Un numérique sobre, c’est aussi et surtout un numérique qui s'intéresse à « sa périphérie ». Plus largement, tant dans le hard que le soft, des équipements aux logiciels, c’est un numérique au service de la transition énergétique. Pas un numérique qui « connecte » notre poubelle, nos toilettes, ou notre réfrigérateur, mais un numérique qui aide à consommer moins de ressources.
  • Il faudrait donc développer des d’outils numériques qui, plutôt que de cacher (et repousser) leurs impacts, rendent visible à l’utilisateur tout ce poids, cette énergie grise ou ce « sac-à-dos matières ». Les formes de restitution pour l’utilisateur sont nombreuses à imaginer : de l’étiquette énergie/environnement lors de l’achat, l’indice de réparabilité en préparation, aux applications adaptées dans le quotidien et le paysage urbain, en passant par les indicateurs à penser pour les différents usages (un voyant, box, écran ou autre dispositif « rouge » pour du streaming à l'heure de pointe par exemple), voire une fiscalité environnementale incitative sur les équipements (type bonus/malus)…
  • Là où le pouvoir du numérique est encore grand, c’est par exemple dans la mise en visibilité d’alternatives existantes. Par exemple des itinéraires cyclables ou "marchables". Les collectivités sont tellement en retard sur ces liaisons douces sur de très nombreux territoires, notamment en milieu rural, que la mise en visibilité d’une pratique, d’une demande, peut être le premier pas pour mettre dans le débat public un besoin. Et là, la puissance d’un Maps, Google map, ou encore Openstreetmap est intéressant. Redécouvrir cette cartographie au profit de mobilité douce ou active est une perspective réjouissante pour la sobriété numérique. Il faudra ensuite bien sûr le relais des collectivités pour équiper durablement, éclairer la nuit, nettoyer l’automne et l’hiver, sécuriser les chemins de halage… mais le point de départ peut être la cartographie numérique des pratiques.
  •  
    "A la lecture du compte rendu du Consumer Electronics Show de ce début 2019 faite par Bernard Le Moullec dans l'Usine Nouvelle, l'urgence de la sobriété numérique vous saute aux yeux. Un tel déluge d'innovations inutiles fait surement bien plus que tout le travail de fond de think-tanks ou chercheurs pour prendre conscience de l'absurdité de la voie empruntée."
Aurialie Jublin

Mozilla Foundation - Open letter to Facebook - 0 views

  • We are writing you today as a group of technologists, human rights defenders, academics, journalists and Facebook users who are deeply concerned about the validity of Facebook’s promises to protect European users from targeted disinformation campaigns during the European Parliamentary elections. You have promised European lawmakers and users that you will increase the transparency of political advertising on the platform to prevent abuse during the elections. But in the very same breath, you took measures to block access to transparency tools that let your users see how they are being targeted.
  • In the company’s recent Wall Street Journal op-ed, Mark Zuckerberg wrote that the most important principles around data are transparency, choice and control. By restricting access to advertising transparency tools available to Facebook users, you are undermining transparency, eliminating the choice of your users to install tools that help them analyse political ads, and wielding control over good faith researchers who try to review data on the platform. Your alternative to these third party tools provides simple keyword search functionality and does not provide the level of data access necessary for meaningful transparency.
  • Specifically, we ask that you implement the following measures by 1 April 2019 to give developers sufficient lead time to create transparency tools in advance of the elections:Roll out a functional, open Ad Archive API that enables advanced research and development of tools that analyse political ads served to Facebook users in the EU.Ensure that all political advertisements are clearly distinguished from other content and are accompanied by key targeting criteria such as sponsor identity and amount spent on the platform in all EU countries.Cease harassment of good faith researchers who are building tools to provide greater transparency into the advertising on your platform.
  • ...1 more annotation...
  • UPDATE 13 February: In response to our campaign, Facebook announced that it would open up its Ad Archive API next month
  •  
    "Political actors use disinformation campaigns that prey on our emotions and values to manipulate our behaviour. We have a right to know who is paying to influence our vote, and Facebook is responsible for making sure that happens on their platform. They have made many promises to European lawmakers and users to make political ads more transparent, but so far we've seen little action. So we decided to pen an open letter telling them to implement what they've promised in enough time to protect users during the European elections."
Aurialie Jublin

Uberland : l'avenir du travail à l'heure des algorithmes | InternetActu.net - 0 views

  • Pour Alex Rosenblat, Uber a provoqué « un changement culturel fondamental sur ce que signifie avoir un emploi ». Uber a tiré un maximum de valeur des conducteurs en surfant sur les limites et ambiguïtés des normes culturelles et juridiques. Pour Adrian Chen, la gestion algorithmique d’Uber est moins une révolution qu’un affinage, à l’image des chauffeurs de taxi eux-mêmes, qui ont longtemps été dans une situation entre autonomie et dépendance, notamment avec nombre d’intermédiaires influant sur leurs possibilités de travail. Uber a simplement rendu cette sous-traitance plus efficace.
  • Adrian Chen pour Intelligencer explique que cette gestion algorithmique de la force de travail suppose une surveillance totale (jusqu’aux tremblements du téléphone pour s’assurer que le conducteur conduit en toute sécurité ! ce qui montre à nouveau, s’il en était besoin, que Uber n’est pas seulement un intermédiaire pour réaliser une transaction). Pourtant, de nombreux chauffeurs semblent satisfaits du travail qu’ils réalisent : ils apprécient la flexibilité et le complément de salaire que leur travail apporte. Même si les récits que Rosenblat a recueillis témoignent principalement d’une résignation épuisée. «Pour certains chauffeurs, ce travail est un véritable boulet, et pour d’autres, c’est un gilet de sauvetage».
  • Dans une interview pour CityLab, la chercheuse rappelle que malgré les efforts d’Uber, le taux de désengagement des chauffeurs est assez fort : 68 % d’entre eux quittent la plateforme dans les 6 mois. Elle pointe néanmoins que les outils d’Uber proposent des services que les collectivités ne savaient pas fournir, notamment en offrant des modalités de transports là où elles n’existaient pas (voir « Plateformes et métropoles » et « Vers une ville numérique ingouvernable »). Uber, derrière sa neutralité de façade, a surtout profité d’un Far West réglementaire pour s’imposer. Partout où elle s’est imposée, la firme a profondément déstabilisé la société (autour de la question du statut des chauffeurs), tout en offrant des avantages populaires (ouvrant de nouvelles dessertes et des prix bas notamment). Toute la question reste de trouver la balance entre les avantages et les inconvénients
  • ...10 more annotations...
  • Dans une tribune pour le New York Times, la chercheuse rappelait la difficulté de cette gestion algorithmique de la relation de travail (voir également « Qui des algorithmes ou des clients seront nos nouveaux patrons »). Une relation profondément asymétrique et qui se crispe notamment dès qu’il y a un problème. Elle souligne combien les informations que délivre Uber à ses chauffeurs comme à leurs passagers sont asymétriques. Un chauffeur de New York évoquait par exemple un échange avec un client qui montrait que celui-ci était facturé 40$ alors que pour le chauffeur, la course n’en coûtait que 28 !
  • Dans les années 70, le sociologue du travail britannique Michael Burawoy, dans son livre Produire le consentement (1979, traduit en français en 2015) constatait que si les travailleurs consentaient à leur propre exploitation, c’était en fait surtout par jeu. Burawoy expliquait que lorsque le travail prenait la forme d’un jeu, la principale source de tension n’était plus dans la relation des travailleurs avec les dirigeants, mais s’étendait aux autres travailleurs, aux machines et contre eux-mêmes. En proposant un sentiment d’autonomie et de contrôle relatifs, la ludification propose aux travailleurs de souscrire aux objectifs de l’entreprise. Lyft propose ainsi des défis à ses conducteurs en échange d’une prime supplémentaire : des défis assez difficiles à décrocher qui reposent sur le nombre de courses à réaliser à certains créneaux horaires.
  • 50 % des conducteurs de Uber cessent d’utiliser l’application au bout de deux mois. 4 % des conducteurs le sont encore après une année. Des rapports récents estiment que le revenu des chauffeurs à l’heure est souvent inférieur au salaire minimum.
  • Sur les forums de chauffeurs ou dans leurs discussions, ceux-ci spéculent sans cesse sur les algorithmes et les moyens de les déjouer, mais sans réellement ne jamais y parvenir. Ils tentent fréquemment de faire des déconnexions en masse de l’application pour faire monter les prix des courses, sans que l’effet n’ait jamais vraiment été assuré. Ces formes de déconnexion volontaires et organisées ressemblent à des microgrèves, à des microprotestations, sans jamais avoir permis de réelles émancipations.
  • Burawoy est à nouveau utile pour comprendre pourquoi. Le fait de « jouer » permet aux travailleurs d’exercer un contrôle limité sur le processus de travail. Mais les victoires qu’ils remportent renforcent leur engagement et leur consentement aux règles du jeu. À l’inverse, leurs échecs dirigent leur insatisfaction contre les obstacles du jeu, et non contre ceux qui en fixent les règles. Apprendre à utiliser intelligemment les paramètres du jeu, de l’algorithme, devient pour eux la seule option imaginable.
  • Après des semaines d’une conduite maniaque pour améliorer sa note… elle a constaté que cette amélioration était sans incidence directe (tant qu’elle restait au-dessus de 4,6/5) : cela ne générait ni réel bonus ni amélioration du niveau de rémunération. « En fait, je perdais de l’argent en essayant de flatter les clients avec des bonbons et de garder ma voiture scrupuleusement propre », simplement parce qu’elle souhaitait rester un pilote bien côté. « Ce qui est à la fois si brillant et affreux dans la ludification de Lyft et Uber, c’est qu’elle repose sur notre seul désir d’être utile, aimé et bon. Les semaines où je suis très bien noté, je suis plus motivé à conduire. Les semaines où je suis mal noté, je suis également plus motivé à conduire. » Une fois qu’on est pris dans la zone du jeu, il n’y a plus d’échappatoire !
  • Heureusement, la réaction à l’ubérisation s’est aussi peu à peu musclée. Pour Les Inrocks, Benoît Fabien revient sur le lancement de la Fédération transnationale des coursiers (FTC), qui a rassemblé fin octobre à Bruxelles des livreurs à domicile de toute l’Europe, à l’initiative du Groupe de recherche pour une stratégie économique alternative, de l’Alter Summit et du réseau ReAct, qui encourage les mobilisations transnationales face aux grandes entreprises. Un moyen de contrer la division et l’individualisation des plateformes de livraison pour rééquilibrer les relations de travail imposées par celles-ci. Les revendications sont nombreuses, mais s’organisent : salaire minimum, transparence des algorithmes, la liberté de se réunir en collectif…
  • les chauffeurs d’Uber s’informent des nouvelles fonctionnalités de la plateforme via ces outils, notamment quand Uber teste sur certains d’entre eux de nouvelles fonctionnalités. Le géographe Mark Graham a montré que plus de 50 % de travailleurs freelances qui utilisent des plateformes comme le Mechanical Turk d’Amazon ou Freelancer, sont en contact avec d’autres travailleurs de plateformes et échangent sur les tarifs, sur les tâches proposées et la qualité de ceux qui proposent du travail. Ces groupes servent souvent à des formes de coordination, comme l’a montré la grève des enseignants de Virginie-Occidentale, où 70 % des 35 000 enseignants de l’État étaient présents et ont permis d’articuler les revendications et d’organiser les protestations. Les groupes permettent également de fabriquer des hashtags, des gifs, des vidéos et des mêmes pour publiciser leurs actions. Si ces outils ne sont pas conçus pour soutenir le militantisme, le relai est assuré par des sites dédiés comme Coworker.org, permettant par exemple aux employés de Starbucks de faire pression sur la direction pour limiter le « clopening », le fait qu’un même employé soit chargé de la fermeture et de l’ouverture d’un magasin.
  • Reste que ces services ne sont pas toujours suffisamment en lien avec les syndicats existants : ils manquent d’assistance juridique, comme le proposent les syndicats, ou de fonds pour être maintenus. Les « startups du travail » ont assurément besoin de la force des syndicats pour se transformer. En Allemagne, IG Metal, l’un des plus importants syndicats, permet aux autoentrepreneurs de le rejoindre. Il a également lancé un site pour comparer les conditions de travail sur les plateformes baptisé Fair Crowd Work.
  • Pour Fredrik Soderqvist de Unionen, un syndicat suédois, les syndicats doivent apprendre également à mieux utiliser les données afin de permettre de créer des services adaptés aux transformations du monde… À l’exemple de Mystro, une application pour conducteurs, qui leur permet de basculer d’un service à l’autre, d’évaluer les demandes, de rejeter celles qui ne sont pas rentables, afin d’aider les conducteurs à prendre de meilleures décisions pour eux-mêmes. Assurément, s’emparer activement de la technologie pour les syndicats et les travailleurs peut leur permettre de contrer l’ubérisation… Ça ne remplace ni la lutte sociale ni la lutte légale, mais la lutte technologique peut permettre de faire des contre-propositions concrètes, de fournir des outils d’aide à la décision des travailleurs algorithmisés pour les aider à en comprendre le fonctionnement et à resymétriser la relation.
  •  
    "Dans Uberland : comment les algorithmes réécrivent les règles du travail (2018, Presse universitaire de Californie, non traduit), la chercheuse Alex Rosenblat (@mawnikr) a synthétisé quatre années de recherche ethnographique avec les conducteurs d'Uber. Un livre où transparaît une vision dystopique du travail où des millions de conducteurs sont gérés par un système technique qui combine à la fois l'autoritarisme du management scientifique à la Frederick Taylor et le leadership cynique d'un Michael Scott (le personnage incarné par Steve Carell dans la série The Office), rapporte Intelligencer."
Aurialie Jublin

Bienvenue dans le «World Wide Fake» - Libération - 0 views

  • Le Web existe officiellement depuis le mois de mars 1989. Il s’est construit sur différentes strates, dont la rétro-archéologie pourrait être la suivante. D’abord, le «World Wide Web». Le Web des documents : ses utilisateurs, ses ingénieurs, ses interfaces et ses intérêts économiques, tout sur la planète web tourne autour de l’axe documentaire. Il faut indexer, classer, donner accès à ce qui va très vite devenir une quasi-infinité de documents d’abord disponibles sous forme de texte, puis d’images, dans des pages et des sites.
  • Ensuite, un «World Live Web» car tout s’accélère, de la production des contenus à leur mise à disposition quasi instantanée dans les architectures de moteurs de recherche qui se font désormais fort d’indexer toute l’actualité et ce en temps réel.
  • uis, le «World Life Web». L’axe autour duquel tourne toute la planète web n’est plus celui des documents mais celui des «profils». Ce qui change tout, tant sur le plan trivial de l’ergonomie que sur celui - crucial - de l’économie.
  • ...8 more annotations...
  • Enfin, avec l’Internet des objets vient alors le règne du «World Wide Wear». Les interfaces sont désormais celles de nos vêtements, elles siègent sous la forme d’enceintes connectées au milieu même de nos maisons. Des technologies littéralement «prêtes à porter» autant qu’elles sont prêtes et toujours «à portée». Et, avec elles, l’anecdotisation des régimes de surveillance qui conduit tout droit au «World Wide Orwell».
  • Nous sommes aujourd’hui à l’étape d’après. Celle du «World Wide Fake». Un environnement, un écosystème dont l’essentiel des interactions est artificiellement fabriqué sur la base d’une spéculation qui n’a d’autre but que de s’entretenir elle-même. Issue d’une forme de capitalisme linguistique se déclinant en un capitalisme de surveillance, cette spéculation avait initialement pour but de nous maintenir le plus attentionnellement captifs possible, nous rappelant sans cesse qu’il fallait interagir, notamment par le biais de ces contremaîtres cognitifs que sont les notifications. Mais aujourd’hui le «faux» se déploie au sein des architectures techniques toxiques de plateformes prédatrices qui ont presque totalement phagocyté tout ce qui fut l’espace public du Web, et contraint nos usages à prendre place dans ces espaces privés et privatifs.
  • Aujourd’hui, «de faux internautes avec de faux cookies et de faux comptes sur des réseaux sociaux effectuent de faux mouvements de souris, activent de faux clics vers de faux sites webs [….], créant un simulacre d’Internet dans lequel la seule chose encore réelle ce sont les publicités», écrit Max Read dans un papier pour le New York Magazine.
  • Nous y sommes et dans des proportions encore plus ahurissantes : presque 52 % du trafic internet mondial en 2016 a été généré par des bots. De faux utilisateurs donc.
  • Le faux est souvent l’autre nom du «mensonge». Et on semble découvrir que tout le monde ment sur le Web. Puisque chacun est seul à disposer de ses propres chiffres au service de ses propres certitudes ou de ses propres intérêts comment pourrait-il en être autrement ? On a découvert, presque étonnés, que Facebook avait menti sur les chiffres d’audience de ses vidéos, qu’il mentait également sur les métriques liées à «l’engagement». On a découvert que Google mentait si on lui posait la question de savoir si l’Holocauste avait vraiment existé. On a compris qu’en plus de leurs architectures techniques toxiques, les grandes plateformes disposaient chacune de leur propre régime de vérité - celui de la popularité pour Google et celui de l’engagement pour Facebook - qui rendait encore plus difficile la construction d’un espace culturel commun permettant de faire société
  • Au niveau géopolitique même, de faux comptes utilisant de fausses publicités ont permis d’influencer le résultat de vraies élections. Les technologies de l’artefact, les «Deep Fakes», qui permettent à moindre coût de truquer le réel avec un effet de vraisemblance quasi indétectable, sont aujourd’hui en passe de devenir des technologies «grand public» : on peut grâce à elles remplacer le visage d’un acteur par celui d’un autre dans un film mais également modifier la vocalisation du discours tenu par un homme politique pour lui faire dire ce que l’on veut.
  • Ce faisant, c’est tout ce qui dans notre société permettait d’établir la valeur de preuve d’une image, d’un discours, d’un témoignage ou d’un fait, qui vole en éclats et qu’il nous faut réapprendre à définir et à construire. Voilà des années qu’avec d’autres, je milite pour une prise en compte et une intervention sur la dimension non pas économique mais simplement politique des grandes plateformes.
  • Hannah Arendt est morte en 1975 et n’a donc jamais connu Internet. Dans un entretien de 1974 sur la question du totalitarisme, elle écrivait ceci : «Quand tout le monde vous ment en permanence, le résultat n’est pas que vous croyez ces mensonges, mais que plus personne ne croit plus rien. Un peuple qui ne peut plus rien croire ne peut se faire une opinion. Il est privé non seulement de sa capacité d’agir mais aussi de sa capacité de penser et de juger. Et, avec un tel peuple, vous pouvez faire ce qu’il vous plaît.» C’est très exactement cela, le risque et la promesse du World Wide Fake si nous n’y faisons rien : la conjugaison d’un emballement spéculatif autour d’une industrie publicitaire de la falsification et de l’altération et l’annonce d’un effondrement de notre capacité collective à faire société dans un espace public commun. Et, avec un tel peuple, vous pouvez faire ce qu’il vous plaît
  •  
    "Aujourd'hui, plus de la moitié du trafic internet mondial est généré par des bots, c'est-à-dire des faux utilisateurs, qui manipulent les audiences et orientent les débats. Et c'est notre capacité collective à faire société qui est en jeu."
Aurialie Jublin

TRIBUNE. Comment la France s'est vendue aux Gafam - Le Point - 0 views

  • L'histoire du déclin du numérique français est une tragédie en trois actes. Il y eut d'abord les «  30 honteuses du numérique  », où une petite élite arrogante et dénuée de vision stratégique a démantelé notre industrie informatique et électronique grand public. Elle a débranché les travaux de recherches les plus intéressants et laissé nos meilleurs développeurs partir à l'étranger faute de pouvoir les associer à des projets ambitieux. Vient ensuite la capitulation vis-à-vis des grands acteurs américains. Ainsi, de nombreux politiques et hauts fonctionnaires français leur ont permis d'intégrer leurs technologies au cœur des prérogatives régaliennes de l'État : défense, renseignement, éducation, sécurité, mais aussi culture. Plusieurs d'entre eux quitteront leurs fonctions pour aller rejoindre ces sociétés. Le troisième acte se joue en ce moment. Alors que nos dirigeants se préparent à une vente à la découpe, il reste cependant un mince espoir d'inventer une autre manière d'utiliser le réseau plus en phase avec nos principes et nos valeurs. Mais pouvons-nous encore changer la doctrine des politiques numériques de la France  ? Quand on écoute nos hommes politiques, le déclassement de l'Europe vis-à-vis de l'Internet est présenté comme une fatalité. Un accident de l'Histoire à l'issue duquel les clés du monde de demain auraient été données aux États-Unis et à la Chine.
  • Nous aurions pu avoir un autre destin, car si les États-Unis avaient la vision et l'argent, c'est en Europe qu'ont été inventées deux des briques fondamentales de l'Internet : Linux et le Web. Mais à la différence du standard GSM, ces dernières ont eu le malheur d'être conçues par des individus talentueux hors des grandes institutions. Snobés chez nous, ces deux projets deviendront le moteur des plateformes numériques américaines et chinoises et l'instrument de leur domination mondiale.
  • Tout commence dans les années 70, avec l'abandon du réseau Cyclades de Louis Pouzin au profit du Minitel. Louis Pouzin en est le concepteur et il est l'inventeur de la segmentation des données en «  Datagramme  ». Il sera récompensé (avec Tim Berners-Lee et Vinton Cerf) par la reine d'Angleterre pour ses contributions essentielles à la création de l'Internet et il reste à ce jour un inconnu du grand public en France. Il faudra attendre 1994 pour que nos chercheurs acceptent enfin de s'intéresser à autre chose qu'à des technologies incompatibles avec l'Internet.
  • ...8 more annotations...
  • Quasiment au même moment, Alcatel décide de transférer ses usines vers la Chine. Son PDG veut appliquer la stratégie du «  fabless  », à savoir délocaliser la production tout en conservant le design en France. Ce sera une grossière erreur d'analyse. Lorsque les smartphones deviennent un succès international, la France n'a plus de capacités industrielles dans ce secteur, alors qu'elle était l'un des principaux fabricants dans le monde.
  • Alors que la Silicon Valley parie sur les talents et les start-up, la France préfère s'embourber dans des grands projets institutionnels sans avenir. Mais ces projets permettent aux politiques de faire des annonces et aux industriels déjà établis de bénéficier de la manne de l'argent public. Ainsi, le projet Quaero, qui visait à créer un «  Google Européen  », a été lancé par Jacques Chirac. Il terminera rapidement dans les oubliettes technologiques. Plus récemment, le Cloud souverain, qui se targuait d'être la réponse française à Amazon et Microsoft, sera abandonné en rase campagne puis revendu (et sans ironie aucune)… au chinois Huawei. Au final, beaucoup d'argent aura été dépensé soit pour concurrencer l'Internet lui-même soit pour contourner les start-up qui voulaient développer des solutions alternatives aux Gafam. C'est une génération entière d'entrepreneurs et de chercheurs que l'on a écartés pour redéfinir la politique industrielle du secteur. Tout récemment, le rapport sur l'intelligence artificielle de Cédric Villani n'a pas fait mention des deux meilleures solutions open sources dans le domaine : SciKit Learn et Keras qui se trouvent être… françaises.
  • L'acte deux commence avec le quinquennat Hollande. Un changement d'attitude va s'opérer vis-à-vis des grandes plateformes. La défaite est désormais entérinée en coulisses. Il ne s'agit plus d'exister au niveau mondial, mais de négocier avec les Gafam tout en faisant mine de s'indigner publiquement de leurs abus de position dominante.
  • Microsoft est devenue le partenaire de l'Éducation nationale, et Google le parrain de la Grande École du Numérique. La société de Big Data Palantir, proche des services secrets américains, a conclu un contrat avec la DGSI (et peut-être la DGSE  ?), et elle est également présente chez Airbus. Enfin, à l'échelon des collectivités territoriales, les régions vont s'appuyer sur Facebook pour «  la formation au numérique  ».Comment, dans ces conditions, se plaindre des conséquences des réseaux sociaux et de l'impact des Gafam sur notre démocratie quand nous leur avons ouvert si largement les portes de l'État  ?
  • En effet, ce gouvernement prend un risque inconsidéré en pariant notre avenir sur une hypothétique transformation numérique autour de «  l'intelligence artificielle  ». Si nous ne nous donnons pas les moyens de réguler la manière dont ses entreprises et ce type de technologies fonctionnent, nous pourrions détruire notre modèle social en tentant de copier ceux de la Chine ou des États-Unis. L'ironie du sort veut que, désormais, certains industriels et chercheurs américains s'appuient sur l'Europe et sa réglementation sur les données personnelles pour sortir d'un modèle numérique qui n'est pas «  durable  ». Aux États-Unis, le ministère de la Santé a ainsi lancé une grande étude sur l'impact des écrans et le Sénat a analysé, dans un rapport très détaillé, les manipulations des réseaux sociaux qui ont eu lieu lors de la dernière campagne présidentielle.
  • Il existe pourtant un scénario de sortie de crise. En effet, la meilleure réponse à la crise de confiance systémique vis-à-vis des Gafam est de soutenir les mouvements autour des technologies «  éthiques  ». Il s'agit d'un nouveau terrain de croissance industrielle pour l'Europe, comme le Bio l'a été pour l'agriculture. De nombreux entrepreneurs réfléchissent à d'autres façons de concevoir la technologie, s'appuyant beaucoup moins sur la donnée et créant moins d'intrusions vis-à-vis de leurs utilisateurs. C'est le mouvement autour des logiciels éthiques et du Slow Web. Ce mouvement, qui s'est réuni en septembre dernier à Copenhague, souhaite définir un meilleur équilibre entre usage numérique et monde réel pour ne pas rendre ces technologies aliénantes. Il prône notamment l'arrêt de certaines pratiques toxiques comme le profilage (micro targeting) ou la manipulation de nos émotions via des messages ciblés sur nos mobiles dont nous avons vu les conséquences désastreuses lors du référendum sur le Brexit ou l'élection américaine.
  • Nous devons désormais exiger que les choix technologiques faits par l'État (comme les décisions politiques dans ces domaines) soient lisibles et compréhensibles par l'ensemble des citoyens… Car s'il s'agit de faire de la France une colonie numérique des plateformes et qui ne profiterait qu'à une petite bourgeoisie d'Internet, alors il faudra le dire clairement  
  • Il est temps également de voir émerger une nouvelle forme de résistance citoyenne. Car l'usage de ces technologies n'est pas neutre, la substitution de l'action de l'État par des algorithmes rend caduque l'égalité de traitement entre chaque Français. Le remplacement de nos services publics par un «  État plateforme  » totalitaire (à l'instar du «  Crédit social  » qui voit chaque Chinois recevoir une note qui détermine leur capacité à se déplacer ou à obtenir un crédit) n'est pas la vision que nous souhaitons promouvoir. C'est pourtant ce qui se prépare dans certains cabinets ministériels lorsqu'il est question d'État plateforme…
  •  
    "Pour le pionnier du Web français Tariq Krim, l'histoire du déclin du numérique français est une tragédie en 3 actes. Il existe pourtant une sortie de crise."
Aurialie Jublin

Le paysage, réceptacle ou levier de la transition énergétique ? | Perspective... - 0 views

  •  
    "La transition énergétique va impacter toutes les composantes de nos paysages : des bâtiments, aux formes urbaines, en passant par l'occupation de l'espace, aux véhicules ou encore les moyens de production d'énergie. La transition énergétique, ce n'est évidemment pas seulement planter de nouvelles unités de production en bout de lignes existantes. La transition énergétique, c'est une évolution systémique qui va de la rénovation des bâtiments, aux déplacements avec moins de véhicules, plus petits et efficaces, à une alimentation moins carnée, à des réseaux différents, et enfin, sans être exhaustif, à « produire » de l'énergie différemment. Tout cela va impacter nos paysages. "
Aurialie Jublin

Bastien Sibille : une alternative à l'ubérisation des services est possible - 0 views

  • Ici, le statut d’entrepreneur salarié associé (ESA) réunis dans des coopératives d’emploi et d’activité (CAE) est une vraie solution. Mobicoop réfléchit activement au déploiement d’une CAE dédiée aux métiers de la mobilité. Celle-ci permettrait par exemple aux travailleurs des plateformes de mobilité (Uber, Deliveroo etc.) de garder le statut d’indépendant auquel ils sont attachés tout en bénéficiant de mécanismes de protection sociale et de représentation collective.
  • Les collectivités territoriales, en entrant dans leur gouvernance, peuvent les lier durablement aux territoires. Le problème n’est donc pas tant technique ou juridique que celui de la volonté des acteurs politiques et économiques à s’asseoir à une table commune pour construire les mécanismes collaboratifs d’un XXIème siècle... non ubérisé ! 
  • Il faut ensuite que les utilisateurs et les travailleurs des plateformes puissent être associés aux grandes décisions des plateformes auxquelles ils sont liés, de façon à avoir leur mot à dire sur les évolutions de celles-ci, qu’elles soient technique ou économique. Cela peut se faire si la plateforme adopte des statuts coopératifs qui permettent aux utilisateurs et aux travailleurs de devenir membres coopérateurs.
  • ...2 more annotations...
  • Il faut d’abord introduire une forme de justice économique entre les plateformes et leurs utilisateurs. La richesse créée sur les plateformes est, pour l’essentiel, produite par les utilisateurs finaux : ce sont les chauffeurs, les conducteurs, les livreurs qui rendent le service. Il serait normal que les bénéfices réalisés par les plateformes leurs reviennent au moins en partie. Cela peut se faire en associant systématiquement les utilisateurs au capital (que ce soit des sociétés de capitaux ou des coopératives) des plateformes de façon à se voir distribuer des dividendes quand les plateformes font des bénéfices.
  • Il est également urgent de donner un statut et une protection aux travailleurs des plateformes. La situation des conducteurs d’Uber ou des livreurs de Deliveroo est la parfaite illustration des risques qui pèsent sur les travailleurs de plateformes. Leur relation avec la plateforme est un contrat de droit privé et non un contrat de travail : ils ne sont pas salariés mais prestataires. Dès lors, ils ne bénéficient pas des protections liées au droit du travail ; ils ne bénéficient que de façon très incomplète de la protection sociale ; ils ne bénéficient pas instances de représentation collective.
  •  
    "Bastien Sibille, président de la plateforme de covoiturage Mobicoop, alerte sur l'exploitation des utilisateurs de la plupart des plateformes comme Uber ou Deliveroo, et leur propose un modèle de fonctionnement plus soucieux de la justice, de la démocratie et de la protection des travailleurs. Tribune."
‹ Previous 21 - 37 of 37
Showing 20 items per page