Skip to main content

Home/ QN2019/ Group items matching "design" in title, tags, annotations or url

Group items matching
in title, tags, annotations or url

Sort By: Relevance | Date Filter: All | Bookmarks | Topics Simple Middle
Aurialie Jublin

Can Worker Co-ops Make the Tech Sector More Equitable? | The Nation - 0 views

  • Fed up with this heartless model, some tech activists are developing online workplaces that operate as worker-driven communities. Daemo, a pilot program incubated at Stanford University’s Crowd Research Collective, is one such worker-driven crowd-labor platform. Since 2015, Daemo’s developers have been building on MTurk’s interface with a communications system aimed at allowing for more equitable “matching” between work requesters and digital taskers. As a non-hierarchical, nonprofit framework where workers control the operations, Daemo is designed for fairer working conditions, with a minimum wage of $10 an hour, which is a major improvement on MTurk’s precarious labor-outsourcing system.
  • Some former participants in Daemo’s project recently aired sharp criticism of the platform in response to a largely favorable article in Wired. In a collectively authored article on Medium, they argued that, in their practical experience with the platform, decision-making power rests with a “platform team” of researchers and leading developers. Though Daemo has established a Constitution that theoretically is open to amendments and revision based on workers’ input, critics say the day-to-day management remains tightly controlled by researchers.
  • “Whenever they talk about the decentralization, they talk about technical decentralization, like block-chain or decentralized platforms, but most of the time they overlook the governance level, which is more important,” Hashim says. “So it’s about who takes the positions, it’s about who has the right to access information. If you don’t have a well-informed society, you don’t have democracy.”
  • ...4 more annotations...
  • Kristy Milland, an activist with the MTurk advocacy network We Are Dynamo, says she’s given up collaborating with Daemo because “There hasn’t been any deep, involved worker input…. It’s built by academics with the bias they bring to such a platform that they expect will provide them with free data to publish down the road. Just like Amazon built MTurk with their needs in mind, even if many of the roadblocks this caused may have been unintentional.”
  • The “platform cooperativism” concept, as articulated by technologist Trebor Scholz and other academics, is that worker control can be integrated by working with the democratic aspects of the online sphere: entrepreneurial horizontalism and a pluralistic culture of innovation. But with online workspaces proliferating at breakneck speed, it’s a race to see whether these more principled worker-led models will ever be able to compete for market share with the app-based workforce of MTurk. Similarly, small-scale cab-service cooperatives are emerging in the United States, but Uber and Lyft’s mega brands are displacing cabbies by the minute.
  • The problem with crowd labor isn’t that it’s big, or complex; it’s that workers can’t control their means of technological production. According to Joshua Danielson of the Bay Area start-up cooperative Loconomics, Daemo’s model “has the potential to provide an alternative to Amazon Turk,” if the platform combines a good product and good jobs for the producers. The key, he says via e-mail, is “creating a cooperative business model that can be self-sufficient and be able to attract clients. The latter is the more challenging one given the deep pockets of the current players. That said, it’s important to remember that workers are the product, not the platform, and they hold an immense amount of power if they can organize.”
  • The digital frontier offers endless room both for exploitation and for social transformation. But if workers can get ahead of corporations in harnessing the potential of open-source technology, they can disrupt the incumbent Silicon Valley oligarchs from below. So far, technology hasn’t emancipated labor nearly as rapidly as it has liberalized markets. Cooperative thinking can make technological power part of the solution, but only if it’s matched with people power.
  •  
    "The crowdwork sector is dominated by low-paid gigs-can communally run companies make these jobs sustainable?"
Aurialie Jublin

De l'imbrication algorithmique | InternetActu.net - 0 views

  • Pour la programmeuse et essayiste Ellen Ullman, le problème est que la programmation est de plus en plus éloignée de la compréhension humaine du fait de l’intrication des programmes, algorithmes et données. Les gens pensent souvent que les algorithmes peuvent être modifiés, mais le plus souvent, ils s’exécutent et évoluent par eux-mêmes (cf. notre dossier, réinventer la programmation). Leurs concepteurs ne les contrôlent pas vraiment et ce d’autant plus qu’ils font appellent à des bases de données, à des bibliothèques de programmes distants, à d’autres algorithmes qui évoluent également.
  • Mais désormais, les algorithmes désignent des systèmes logiciels de prise de décision complexes, avec un nombre de règles et de critères volumineux, souvent interreliés et interdépendants. Or, ils nous ont été toujours présentés comme des promesses d’objectivité, d’où le fait qu’ils se soient étendus à nombre de décisions de la vie courante : octroi de prêts, de prestations, de places… Pourtant, ces décisions ne sont pas sans biais, du fait de la manière même dont ces relations sont conçues par les ingénieurs.
  • Le problème, c’est que quand l’algorithme apprend, nous ne savons plus quels sont les règles et les paramètres qu’il utilise puisqu’il les transforme. Ces algorithmes-là ne sont plus prévisibles et peuvent se mettre à produire des résultats erratiques. Pour Smith ce sont des « algorithmes Frankenstein », des machines qui créent leurs propres règles, comme ceux qui dominent désormais les marchés financiers via les transactions à haute fréquence. Pour Neil Johnson, physicien de la complexité à l’université George Washington, Facebook peut ainsi avoir des algorithmes simples pour reconnaître un visage dans une photo… Mais que se passe-t-il quand des milliers d’algorithmes travaillent ensemble sur des milliards de profils ? « Vous ne pouvez pas prédire le comportement global appris à partir de règles microscopiques ».
  • ...3 more annotations...
  • Pour la mathématicienne Cathy O’Neil (@mathbabedotorg), dans l’environnement algorithmique complexe actuel, il est difficile de définir les responsabilités des différents segments de codes imbriqués les uns aux autres. Les Flash Crash, ces krachs financiers éclair, n’ont pas lieu que sur les marchés financiers. La tarification algorithmique d’Amazon s’emballe aussi parfois en faisant grimper le prix de livres à des hauteurs folles. Or, comprendre où se situe la responsabilité de ces emballements n’est pas si simple. « Comme dans la finance, le déni est intégré au système ».
  • Éviter les conflits de code sur des millions de lignes de code alimentés par des flux d’information constants est extrêmement difficile. Pour l’historien des sciences George Dyson, le problème est que nous construisons des systèmes qui vont au-delà de nos moyens intellectuels pour les contrôler. Or, nous pensons que si un système est déterministe (c’est-à-dire qu’il agit selon des règles fixes), alors il est prévisible et que s’il est prévisible alors il peut être contrôlé. Mais ces deux hypothèses sont fausses, estime Dyson. « La loi d’Ashby dit qu’un système de contrôle doit être aussi complexe que le système qu’il contrôle ». Mais cela se révèle difficile. Nous ne savons pas tester cette complexité de manière exhaustive.
  • Une étude sur les attaques par drones au Pakistan entre 2003 et 2013 a ainsi montré que 2 % des personnes tuées par drones étaient des cibles présentant une menace. 20 % étaient considérés comme des non-combattants… Et 75 % étaient des cibles… « non identifiés ». Pour elle, nous sommes face à une technologie d’identification très grossière. Dans ce contexte, la perspective du développement d’armes autonomes laisse plus que perplexe. Pour Lilly Irani (@gleemie) de l’université de Californie, les choix des concepteurs d’algorithmes nous sont trop souvent présentés comme objectifs quand ils cachent des enjeux politiques.
  •  
    "On se souvient de la mort d'Elaine Herzberg, première humaine tuée par une voiture autonome en mars 2018 (voir l'enquête qu'en dressait l'écrivain Thierry Crouzet). Pour le Guardian, le journaliste Andrew Smith (@wiresmith) revient sur les hésitations de l'algorithme de la voiture à reconnaître ce qu'il se passait."
Aurialie Jublin

The Landlord Wants Facial Recognition in Its Rent-Stabilized Buildings. Why? - The New York Times - 0 views

  • The fact that the Atlantic complex already has 24-hour security in its lobbies as well as a clearly functioning camera system has only caused tenants to further question the necessity of facial recognition technology. The initiative is particularly dubious given the population of the buildings. Last year, a study out of M.I.T. and Stanford looked at the accuracy rates of some of the major facial-analysis programs on the market. It found that although the error rates for determining the gender of light-skinned men never surpassed 1 percent, the same programs failed to identify darker-skinned women up to one-third of the time.
  • The fear that marginalized groups will fall under increased surveillance as these technologies progress in the absence of laws to regulate them hardly seems like dystopian hysteria.
  • In November, the City of Detroit announced that it was introducing the use of real-time police cameras at two public-housing towers. The existing program is known as Project Greenlight, and it was designed to deter criminal behavior. But tower residents worried that relatives would be less likely to visit, given the constant stream of data collected by law enforcement.
  •  
    "Last fall, tenants at the Atlantic Plaza Towers, a rent-stabilized apartment complex in Brooklyn, received an alarming letter in the mail. Their landlord was planning to do away with the key-fob system that allowed them entry into their buildings on the theory that lost fobs could wind up in the wrong hands and were now also relatively easy to duplicate. Instead, property managers planned to install facial recognition technology as a means of access. It would feature "an encrypted reference file" that is "only usable in conjunction with the proprietary algorithm software of the system," the letter explained, in a predictably failed effort to mitigate concerns about privacy. As it happened, not every tenant was aware of these particular Orwellian developments. New mailboxes in the buildings required new keys, and to obtain a new key you had to submit to being photographed; some residents had refused to do this and so were not getting their mail."
Aurialie Jublin

Le CES de Las Vegas ou l'urgence de la sobriété numérique | Perspectives sur la transition énergétique... parfois numérique | Eric Vidalenc | Les blogs d'Alternatives Économiques - 0 views

  • Le numérique, c’est surement là où les logiques de surconsommation, de renouvellement accéléré des équipements, d’options ubuesques, et des traitements "chaotiques" des déchets sont les plus fortes. C’est donc pour tout cela que la sobriété doit pénétrer pleinement désormais le numérique. Il ne semble pas que ce soit le chemin pris aujourd’hui, même si plusieurs acteurs notables tentent quelques propositions en ce sens : La Fing avec une journée Agenda pour le futur sur la « sobriété numérique » en 2018 ou son appel Reset en 2019 pour réinventer le numérique, le think-tank The Shift Projet présidé par Jean-Marc Jancovici avec un conséquent et solide rapport « Lean ICT – pour une sobriété numérique » publié en octobre 2018.
  • Le constat de départ est simple, c'est « le grand gâchis énergétique » comme le CNRS le résume. Le numérique c’est de l’ordre de 10% de la consommation d’électricité mondiale. Pour comprendre ces consommations énergétiques qui plombent l’imaginaire immatériel derrière le « cloud », il faut avoir en tête la consommation énergétique (et de matière ensuite) associée aux objets connectés, écrans, mais aussi réseaux et data-center de plus en plus nombreux.
  • Anne-Cécile Orgeri chercheuse de l’Irisa le rappelle, les terminaux entre nos mains ne consomment que 30% de cette énergie, les 70% restants étant consommés dans les data-centers, routeurs, et infrastructures cachés pour l’usager. Et comme toujours, les infrastructures sont dimensionnées pour la pointe. En gros, c’est le pic de streaming du soir qui détermine l’infrastructure, comme les heures de sortie de travail déterminent les périphériques routiers ou les consommations de chauffage le système électrique avec ses centrales d’extrême pointe. Tout cela concoure donc à un surdimensionnement, très consommateur d'énergie et de ressources, et dont la majorité des impacts sont occultés, ou invisibles pour l’utilisateur. Et on ne parle même pas à ce stade des limites même du recyclage, et des filières défaillantes des déchets numériques.
  • ...5 more annotations...
  • L’énergie grise, ou embarquée, est telle que les équipements numériques doivent incontestablement augmenter leur durée de vie puis réduire leur nombre. Il n’est pas du tout certain que l’Internet des Objets (IoT) présente un quelconque intérêt environnemental, par contre, il viendra indubitablement rajouter quelques équipements à des foyers déjà suréquipés (une dizaine d'équipements pour les citoyens américains par exemple). Mais avec les poubelles ou toilettes connectées, on voit bien qu'il n'y a guère de limites.
  • Sur le design, mais aussi le code et les logiciels, aujourd’hui parfois écrits à la va-vite et surconsommant ressources et énergie, des principes d’efficacité et de sobriété doivent aussi être mis en oeuvre. Cela n’est évidemment pas qu’une question technique mais aussi économique : quand pour consulter la météo, une vidéo publicitaire s’ouvre systématiquement avant de vous permettre l’accès à l’information, il va sans dire que 90% du volume de données n’a rien à voir avec la demande initiale…
  • Un numérique sobre, c’est aussi et surtout un numérique qui s'intéresse à « sa périphérie ». Plus largement, tant dans le hard que le soft, des équipements aux logiciels, c’est un numérique au service de la transition énergétique. Pas un numérique qui « connecte » notre poubelle, nos toilettes, ou notre réfrigérateur, mais un numérique qui aide à consommer moins de ressources.
  • Il faudrait donc développer des d’outils numériques qui, plutôt que de cacher (et repousser) leurs impacts, rendent visible à l’utilisateur tout ce poids, cette énergie grise ou ce « sac-à-dos matières ». Les formes de restitution pour l’utilisateur sont nombreuses à imaginer : de l’étiquette énergie/environnement lors de l’achat, l’indice de réparabilité en préparation, aux applications adaptées dans le quotidien et le paysage urbain, en passant par les indicateurs à penser pour les différents usages (un voyant, box, écran ou autre dispositif « rouge » pour du streaming à l'heure de pointe par exemple), voire une fiscalité environnementale incitative sur les équipements (type bonus/malus)…
  • Là où le pouvoir du numérique est encore grand, c’est par exemple dans la mise en visibilité d’alternatives existantes. Par exemple des itinéraires cyclables ou "marchables". Les collectivités sont tellement en retard sur ces liaisons douces sur de très nombreux territoires, notamment en milieu rural, que la mise en visibilité d’une pratique, d’une demande, peut être le premier pas pour mettre dans le débat public un besoin. Et là, la puissance d’un Maps, Google map, ou encore Openstreetmap est intéressant. Redécouvrir cette cartographie au profit de mobilité douce ou active est une perspective réjouissante pour la sobriété numérique. Il faudra ensuite bien sûr le relais des collectivités pour équiper durablement, éclairer la nuit, nettoyer l’automne et l’hiver, sécuriser les chemins de halage… mais le point de départ peut être la cartographie numérique des pratiques.
  •  
    "A la lecture du compte rendu du Consumer Electronics Show de ce début 2019 faite par Bernard Le Moullec dans l'Usine Nouvelle, l'urgence de la sobriété numérique vous saute aux yeux. Un tel déluge d'innovations inutiles fait surement bien plus que tout le travail de fond de think-tanks ou chercheurs pour prendre conscience de l'absurdité de la voie empruntée."
Cécile Christodoulou

Minimal : le plugin qui préserve le temps de cerveau disponible - 0 views

  •  
    "Tim Krief (@timkrief), étudiant ingénieur à l'initiative du plugin, déclare avoir voulu s'affranchir de la manipulation permise par les design trompeurs ou addictifs (dits aussi « dark patterns »). En cause, les techniques dites « captologiques » qui orientent les utilisateurs malgré eux sur un service et les amènent à l'utiliser plus que ce qui ne leur est réellement utile." "Son extension permet de modifier considérablement les interfaces des services suivants : YouTube, Facebook, Twitter, Google ou encore Amazon. Concrètement, Minimal change les couleurs du service (interfaces, boutons, etc.), le système de recommandations ou encore l'auto-play qui permet à une vidéo de se lancer toute seule sur YouTube."
Aurialie Jublin

Society in the loop : vers un intelligence artificielle plus démocratique ? - Mais où va le Web - 0 views

  • Mais l’intelligence artificielle se diffuse également dans des sphères qui concernent plus directement la vie publique, et donc la société. Pour ne citer qu’eux : le classement de lycéens après leurs bacs[4], l’automatisation de procédures judiciaires[5] ou des horaires de ramassage scolaire[6], la dérégulation du flux automobile dans les villes dus à l’utilisation d’un service de GPS comme Waze[7], l’utilisation de la reconnaissance faciale dans des lieux publics[8] et privés[9], l’usage de « détecteurs de mensonges » aux frontières[10], la police prédictive[11], ou même plus simplement l’usage de systèmes reposant sur la captation de l’attention de l’utilisateur[12].  A leurs échelles, ces sujets touchent la vie sociale dans des dimensions qui pourraient légitimement demander à ce que des discussions plus démocratiques aient lieu. Ils entrent certes, plus ou moins directement dans la catégorie « intelligence artificielle » mais participent de la numérisation du monde à travers des algorithmes, et feront tous le pas vers l’IA si ce n’est déjà fait.
  • C’est là qu’intervient le passage qualitatif du « human in the loop » (HITL) au « society in the loop » (SITL). Pour le dire simplement, le SITL devient nécessaire lorsqu’un système utilisant l’intelligence artificielle a des implications importantes sur la sphère sociale. Iyad Rahwan explique : « alors que le HITL utilise le jugement d’un individu ou d’un groupe pour optimiser un système pensé trop étroitement, SITL embarque le jugement et les valeurs d’une société vue comme un tout, dans la définition la gouvernance algorithmique[13] de questions sociétales ». En résumé, le SITL est une forme de contrat social entre ceux qui doivent obéir aux règles et ceux qui écrivent les règles.
  • Coupons court au débat qui concerne les bulles de filtres : leur émergence et leurs effets dépendent du paramétrage des algorithmes de Facebook, de Google et des autres services susceptibles de créer ces bulles. Par conséquent, elles restent à leur main, notamment à travers leurs Conditions générales d’utilisation (CGU) et le secret d’affaires qui protègent ces systèmes (et les modèles d’affaires de captation du « temps de cerveau disponible » qui y sont directement liés). Pas de démocratie à cet endroit, quand bien même les impacts sur la démocratie pourraient être réels, même s’ils sont encore mal mesurés. C’est une des premières limites du modèle « Society in the loop ».
  • ...11 more annotations...
  • Dans le cas des véhicules autonomes en revanche, une vaste étude a été réalisée sur plusieurs années par le MIT Lab. Elle a concerné des millions de personne dans 233 pays (à travers le petit jeu http://moralmachine.mit.edu/) et a montré à quel point le traitement des questions éthique est variable, même lorsqu’on parle de conduite automobile ! Comme le relate Hubert Guillaud : « la question éthique diverge selon la culture, le niveau économique et la localisation géographique ; bien plus que selon des préférences individuelles (…) les Japonais ont plutôt tendance à préférer des véhicules qui épargnent les piétons alors que d’autres cultures, comme la culture chinoise, préfèrent des véhicules qui épargnent les passagers. » L’objectif d’une telle étude est d’apporter l’éclairage de la société toute entière afin que le système technique réponde au « bien commun ».
  • A l’initiative de Grégoire Japiot (@gregoire) et Matteo Mazzeri (@matemaz), le projet GEnIAL (voir le site internet) est « Une plateforme qui utilise les interfaces conversationnelles et l’intelligence artificielle afin de permettre à la population d’un territoire de mieux vivre dans sa ville à l’ère de la Smart City en offrant des moyens simples pour accéder aux services des administrations et des autres acteurs de la région. » Le projet, qui se revendique de « Society in the loop », est d’utilité publique et censé resté « la propriété des citoyens », contrairement aux services d’assistants proposés par les géants d’internet. Les données collectées ne sont pas commercialisées et la vie privée reste préservée. Grégoire, le fondateur, précise que les concertations citoyennes sont au cœur du projet. L’idée : intégrer dans le service les retours de la société (citoyens, administrations/institutions publiques, chercheurs et acteurs économiques) en vue d’élaborer des modèles d’apprentissage utilisés pour construire une « intelligence artificielle concertée ».
  • Concrètement, GEnIAL Bot, est une « solution qui vise à permettre aux utilisateurs d’interagir avec l’ensemble des informations d’un territoire via des interfaces conversationnelles de type chatbot et assistant vocal. » Au lieu de devoir utiliser des moteurs de recherche pour identifier les différents sites où se trouvent les informations recherchées ou bien de devoir téléphoner aux services concernés, les utilisateurs peuvent interroger GEnIAL Bot en s’adressant en langage naturel et se laisser guider sous forme de conversations vers l’information. Pour la partie technologique, GEnIAL « dispose d’une convention de partenariat avec le CERN qui lui permet de concevoir avec les équipes les plus pointues, une intelligence artificielle éthique et explicable, dont les modèles d’apprentissage sont pensés de manière à refléter l’identité du territoire et intégrer un processus de concertation continue avec ses habitants. »
  • A une échelle très locale, le projet GEnIAL pourrait entrer dans ce qu’il convient d’appeler la « démocratie technique ». La formule que j’emprunte ici à Callon, Barthes et Lascoumes dans l’ouvrage fondateur Agir dans un monde incertain, Essai sur la démocratie technique (Seuil, 2011) désigne notamment les dispositifs par lesquels des profanes peuvent peser sur les modes de conception et de diffusion des sciences et des techniques. A l’évocation de la démocratie technique, on pense souvent aux grandes polémiques et controverses qui ont agité des sujets technoscientifiques comme les OGM, l’enfouissement des déchets nucléaires, ou encore les traitements contre le SIDA. Ce dernier cas a montré que l’intrusion des malades parmi les experts a pu conduire à améliorer les protocoles des laboratoires pharmaceutiques, alors très éloignés de leurs vies.
  • Si ces exemples peuvent paraître éloignés des questions relatives à l’intelligence artificielle, ils permettent d’entrouvrir une autre dimension de la démocratie technique. Par-delà la pure contestation ou modification a posteriori d’une technique existante, Callon, Barthes et Lascoumes décrivent un modèle de « co-production des savoirs ». Ce modèle postule que les non-spécialistes peuvent produire des connaissances à partir de leurs intérêts propres. Ils sont les plus à même d’entrevoir les risques d’un projet et de les faire reconnaître comme légitimes lors d’une étape de conception commune. Ce faisant, ils participent pleinement à la production des sciences et des techniques. Ce modèle suscite des critiques : on pointe le fait que des profanes ne seraient pas capables de s’exprimer sur un sujet technique, et que par conséquent, l’avis des experts serait toujours supérieur, de meilleure qualité, et devrait être pris en compte en priorité.
  • De nombreux contre-exemples viennent infirmer ces thèses. L’expérience prouve que si les conditions sont réunies, des personnes éloignées d’un sujet technique ou scientifique peuvent tout à fait construire des rapports de grande qualité et reconnus comme tels par les experts eux-mêmes. Ce fut le cas lors des controverses concernant les OGM il y a de cela une vingtaine d’années. Callon, Barthes et Lascoumes racontent également comment les amateurs contribuent à améliorer la connaissance scientifique dans de nombreux domaines, comme par exemple l’astronomie.
  • pourquoi ce traitement démocratique si spécial devrait-il se limiter à l’intelligence artificielle ? Une des raisons est sans doute que l’on pressent que son déploiement va changer le monde et susciter des controverses qu’il vaut mieux anticiper. N’oublions pas cependant que de nombreuses technologies numériques (ou non) changent le monde plus insidieusement et suivant des échelles temporelles qui nous les rendent « invisibles à l’œil nu ». Légitimement, on pourrait aussi poser la question démocratique à leur endroit[20].
  • Ce que la démocratie technique questionne, c’est non seulement l’aménagement du progrès, mais aussi sa définition. C’est-à-dire la direction donnée à la civilisation. Entraîner une intelligence artificielle – même avec la méthodologie Society in the loop – c’est déjà faire le choix d’une intelligence artificielle. Ce qui ne veut pas dire que ce choix soit mauvais. Pas plus qu’il n’est naturellement bon. Disons que c’est un choix parmi d’autres. Ce point chaud qui concerne la définition du progrès est et sera de plus en plus au centre de toutes les questions liant technosciences et démocratie.
  • Parallèlement, l’Université de Montréal a bâti une « Déclaration pour un développement responsable de l’intelligence artificielle[23] ». Cette déclaration décrit dix principes phares pour guider le développement de l’IA, parmi lesquels un « principe de bien être » ou encore un « principe d’inclusion de la diversité » (
  • Toutes les controverses techniques n’ont pas vocation à passer sous les fourches caudines de la démocratie, il existe une multitude d’autres échelons pour co-construire, réguler, interdire ou favoriser des systèmes. En témoignent les nombreuses villes qui se « défendent » contre AirBnb ou Uber puis qui finissent par utiliser les données que ces sociétés récoltent, à d’autres fins (des « arrangements » a posteriori[25]). Par ailleurs, c’est aussi dans les écoles qui forment les ingénieurs, designers et entrepreneurs de demain et bien sûr dans les entreprises elles-mêmes, dont certaines décident d’être plus soucieuses des effets générés par leurs activités, que l’avenir se joue
  • Bien sûr, ces quelques pages souffrent de nombreuses limites et à de multiples niveaux. A mon sens néanmoins, le fond de la question consiste (aussi) à savoir quelle « dose » de démocratie nous sommes prêts à mettre dans nos ambitions technologiques. Et en retour, dans quelle mesure les technologies que nous produirons permettront ou non à la démocratie de continuer d’exister[26].
  •  
    "En 2017, Iyad Rahwan (@iyadrahwan), responsable du groupe des coopérations évolutives au MIT posait avec Joi Ito (@Joi) du MIT Medialab le concept de « Society in the loop » (SITL), une méthode pour impliquer différentes parties-prenantes dans la conception d'un système d'apprentissage automatique[1] (ou machine learning), à la base des intelligences artificielles (IA) qui jalonnent le quotidien. L'idée : co-construire plutôt qu'imposer les solutions au grand public, en faisant intervenir dès la phase de conception une diversité d'acteurs. J'en retrace ici un court historique, une illustration et les quelques perspectives et limites qu'il me paraît intéressant de pointer, notamment au regard des questions relatives à ce qu'on appelle la « démocratie technique »."
Aurialie Jublin

[Internet]MIT research scientist David Clark has a 17-point wish list for how to fix the internet - Quartz - 0 views

  • In Designing an Internet, he presents a 17-point wish list for a better internet compiled from policy papers, speeches, and manifestos:Catalog of Aspirations The Internet should reach every person by some means. (Reach) The Internet should be available to us everywhere. (Ubiquity) The Internet should continue to evolve to match the pace and direction of the larger IT sector. (Evolution) The Internet should be used by more of the population. (Uptake) Cost should not be a barrier to the use of the Internet. (Affordable) The Internet should provide experiences that are sufficiently free of frustration, fears, and unpleasant experiences that people are not deterred from using it. (Trustworthy) The Internet should not be an effective space for lawbreakers. (Lawful) The Internet should not raise concerns about national security. (National Security) The Internet should be a platform for vigorous innovation and thus a driver of the economy. (Innovation) The Internet should support a wide range of services and applications. (Generality) Internet content should be accessible to all without blocking or censorship. (Unblocked) The consumer should have choices in their Internet experience. (Choice) The Internet should serve as a mechanism for the distribution of wealth among different sectors and countries. (Redistribution) The Internet (and Internet technology, whether in the public network or not) should become a unified technology platform for communication. (Unification) For any region of the globe, the behavior of the Internet should be consistent with and reflect its core cultural/political values. (Local values) The Internet should be a tool to promote social, cultural, and political values, especially universal ones. (Universal values) The Internet should be a means of communication between citizens of the world. (Global)
  • He categorizes the aspirations into three pragmatic buckets: utility, economics, and security. But the subtext of each aspiration is a longing for structures that would entice users to be better humans—an internet that is moral.
  • The notion of shutting down the internet to start anew is a fairytale. Any improvement will be incremental, hard-fought and deliberate. Clark notes that even the US Federal Communications Commission which regulates the country’s telecommunications and broadcast media industries isn’t interested in shaping the public character of the internet. Its solution is to encourage competition and hope for the best, as stated in its latest strategic plan. Clearly, the laissez-faire attitude hasn’t exactly worked out for the country.
  • ...2 more annotations...
  • The problem—or the “fundamental tussle,” as Clark puts it—lies in the fact that private companies, not governments control the internet today, and relying on the good conscience of profit-driven technocrats offers little assurance. “That’s a pretty inconsistent hope to lean on,” he says. “Remember, on Facebook, you’re not the customer. You’re the product served to advertisers.”
  • Ultimately, improving the internet hinges on seeing it as public service first, instead of a money-making venture. Barring one global entity with the will and the resources to enforce this, fixing it will be a kind of community project, and one of the most urgent kind.
  •  
    "This refrain echoes across all corners of the internet, and has become a general, all-purpose complaint for all of the bad things we encounter online. Trolling, fake news, dark patterns, identity theft, cyber bulling, nasty 4Chan threads are just some of the symptoms of this corruption. But the first step to fixing the internet requires an understanding of what it actually is."
Aurialie Jublin

[Écologie] Le monde du logiciel est en train de se détruire... Manifeste pour un développement plus durable - GREENSPECTOR - 0 views

  • Tout est lent, et cela ne va pas dans le bon sens. Certaines voix s’élèvent. Je vous invite notamment à lire “Le désenchantement du logiciel”. Tout est insupportablement lent, tout est ÉNORME, tout finit par devenir obsolète… La taille des sites web explose. Un site web est aussi gros que le jeu Doom. Le phénomène ne touche pas que le Web mais aussi l’IoT, le mobile… Le saviez-vous ? Il faut 13% de CPU pour faire clignoter un curseur…
  • Tout grossit : la taille des applications, les données stockées, la taille des pages web, la mémoire des téléphones… Les téléphones ont maintenant 2 Go de mémoire, échanger une photo de 10 Mo par mail est maintenant classique… À la limite, cela ne serait peut-être pas un problème si tous les logiciels étaient utilisés, efficaces et performants… Mais cela n’est pas le cas,
  • Alors tout le monde se cale sur une lenteur. Tout est uniformément lent. On se cale sur cela et tout va bien. Être performant aujourd’hui, c’est arriver à atteindre un ressenti utilisateur qui correspond à cette lenteur uniforme. On élague les choses qui pourraient être trop visibles. Une page qui met plus de 20 secondes à se charger, c’est trop lent. Par contre, 3 secondes c’est bien. 3 secondes ? Avec les multicoeurs de nos téléphones/PC et les data centers partout dans le monde, le tout relié par des supers technologies de communication (4G, fibre…),c’est un peu bizarre non ? Si on regarde la débauche de ressources pour le résultat obtenu, 3 secondes, c’est énorme. D’autant plus que les bits circulent dans nos processeurs avec des unités de temps du niveau de la nanoseconde. Donc oui, tout est uniformément lent.
  • ...29 more annotations...
  • Il est nécessaire de revenir à plus d’efficience, de « challenger » les besoins en matériel, de redéfinir ce qu’est la performance. Tant que l’on se satisfera de cette lenteur uniforme avec des solutions pour ne pas ralentir plus (comme l’ajout de matériel), nous n’avancerons pas. La dette technique, notion largement assimilée par les équipes de développement, n’est malheureusement pas adaptée à ce problème (on y reviendra). Nous sommes sur une dette de ressources matérielles et de mauvaise adéquation entre le besoin utilisateur et la solution technique. On parle ici d’efficience et non pas uniquement de performance. L’efficience est une histoire de mesure du gaspillage. L’ISO définie l’efficience avec comme domaine : Time behaviour, Resource utilization et Capacity. Pourquoi ne pas pousser plus ces concepts ?
  • Développez du code Java pour un serveur J2EE ou pour un téléphone Android, ce n’est pas pareil. Des structures spécifiques existent par exemple pour traiter des données en Android mais les structures classiques sont toujours utilisées. Les développeurs ont perdu le lien avec le hardware. C’est malheureux car c’est passionnant (et utile) de savoir comment fonctionne un processeur. Pourquoi : abstraction et spécialisation (nous verrons cela plus loin). Car en perdant ce lien, on perd une des forces du développement. Ce lien est important chez les hackers ou chez les développeurs d’informatique embarquée mais malheureusement de moins en moins présent chez les autres développeurs.
  • Les pratiques devops pourraient répondre à cette perte de lien. Là, c’est pareil, nous n’allons pas jusqu’au au bout : généralement le devops va se focaliser à bien gérer le déploiement d’une solution logicielle sur une infrastructure mixte (matérielle et un peu logicielle). Il faudrait aller plus loin en remontant par exemple les métriques de consommation, en discutant sur les contraintes d’exécution… plutôt que de “scaler” juste parce que c’est plus simple.
  • Certaines technologies ont une utilité mais sont maintenant systématiquement utilisées. C’est le cas par exemple des ORM qui sont devenus systématiques. Aucune réflexion n’est faite sur son intérêt en début des projets. Résultat : on a rajouté une surcouche qui consomme, qu’il faut maintenir et des développeurs qui n’ont plus l’habitude d’effectuer des requêtes natives. Cela ne serait pas un problème si chaque développeur connaissait très bien le fonctionnement des couches d’abstraction : comment fonctionne HIBERNATE par exemple ? On s’appuie hélas de façon aveugle sur ces frameworks.
  • Le besoin d’abstraction est lié à un autre défaut: nous attendons toujours des outils miracles. La silver bullet qui améliorera encore plus nos pratiques. Le langage idéal, le framework pour aller plus vite, l’outil de gestion miracle des dépendances… C’est la promesse à chaque fois d’un nouveau framework : gagner du temps en développement, être plus performant… Et on y croit, on fonce. On abandonne les frameworks sur lesquels nous avions investi, sur lesquels on avait passé du temps… et on passe au nouveau. C’est le cas actuellement des frameworks JS. L’histoire du développement est pavé de framework oubliés, non maintenus, abandonnés… Nous sommes les champions pour réinventer ce qui existe déjà. Si on le gardait suffisamment longtemps, on aurait le temps de maîtriser un framework, de l’optimiser, de le comprendre. Mais ce n’est pas le cas. Et que l’on ne me dise pas que si on n’avait pas continuellement réinventé la roue, on aurait encore des roues en pierre… Innover serait d’améliorer les frameworks existants .
  • Sur les langages, c’est la même rengaine. Attention, je ne préconise pas de rester sur l’assembleur et sur le C… C’est le cas par exemple dans le monde Android, pendant plus de 10 ans les développeurs ont pu travailler sur des outils et des frameworks Java. Et comme cela, par magie, le nouveau Langage de la communauté est Kotlin. On imagine l’impact sur les applications existantes (si elles doivent changer), il faut recréer des outils, retrouver des bonnes pratiques… Pour quel gain?
  • Sincèrement, on ne voit aucun ralentissement sur les cycles de renouvellement des technologies. C’est toujours un rythme frénétique. Nous trouverons bien le Graal un jour. Le problème est ensuite l’empilement de ses technologies. Comme aucune ne meurt vraiment et que l’on en maintient toujours des parties, on développe d’autres couches pour s’adapter et continuer à maintenir ces bouts de code ou ces librairies. Le problèmen’est pas le code legacy,, c’est la glue que l’on développe autour qui pêche.
  • Au final, on passe du temps à résoudre des problèmes techniques internes, on recherche des outils pour résoudre les problèmes que l’on ajoute, on passe son temps à s’adapter à ses nouveaux outils, on ajoute des surcouches (voir chapitre précédent…) … et on n’a pas améliorer la qualité intrinsèque du logiciel ou les besoins auxquels on doit répondre.
  • Au final, le rythme frénétique des changements ne nous permet pas de nous stabiliser sur une technologie. J’avoue qu’en tant que vieux développeur que je suis, j’ai été découragé par le changement Java vers Kotlin pour Android. C’est peut-être pour certains de véritables challenges, mais quand je repense au temps que j’ai passé sur l’apprentissage, sur la mise en place d’outils
  • Ensuite, comme aucune solution ne meurt vraiment, que de nouvelles arrivent… on se retrouve avec des projets avec des multitudes de technologies à gérer avec les compétences associées aussi… On s’étonne ensuite que le marché du recrutement de développeur soit bouché. Pas étonnant.. Il y a énormément de développeurs mais il est difficile de trouver un développeur React avec 5 ans d’expérience qui connaîsse le Go. Le marché est fractionné, comme les technologies. C’est peut-être bon pour les développeurs car cela crée de la rareté et cela fait monter les prix, mais pas pour le projet !
  • Cependant, cet apprentissage continu des technologies pose le problème d’apprentissage de domaines transverses : accessibilité, agilité, performance… En effet, qu’est-ce qui nous prouve que les outils et les langages que nous allons choisir ne vont pas changer dans 4 ans ? Rust, Go… dans 2 ans ? Rien ne tend à donner une tendance.
  • On ne se remet pas en question car on veut s’amuser. Le fun est important, car si l’on s’ennuie dans son boulot, on va déprimer. Par contre, on ne peut pas, sous prétexte de vouloir du fun tout le temps, changer nos outils continuellement. Il y a un déséquilibre entre l’expérience du développeur et l’expérience de l’utilisateur. On veut du fun, mais qu’est-ce que cela va réellement apporter à l’utilisateur ? Un produit plus « joyeux » ? Non, nous ne sommes pas des acteurs.
  • On ne se pose pas de question sur l’éthique de notre domaine, sur sa durabilité… Cela vient peut-être du fait que notre domaine n’a pas réellement de code éthique (comme par exemple les médecins ou les avocats). Mais sommes-nous en tant que développeurs réellement libres si l’on ne peut pas avoir une autocritique ? Nous sommes peut être asservis à une cause portée par d’autres personnes ? Le problème n’est pas simple mais nous avons dans tous les cas une responsabilité. Sans code éthique, c’est le plus fort et le plus malhonnête qui est le plus fort. Le buzz et les pratiques pour manipuler les utilisateurs sont de plus en plus répandus. Sans Dark Pattern ton produit ne sera rien. Les plus gros (GAFA…) n’en sont pas arrivés là pour rien.
  • Est-ce que la solution est politique ? Il faut légiférer pour mieux gouverner le monde du logiciel. On le voit avec les dernières réponses législatives aux problèmes concrets : RGPD, notification des cookies… la source du problème n’est pas résolue. Peut-être parce que les politiques ne comprennent que très mal le monde du logiciel.
  • Car si cette structuration n’est pas faite, les développeurs vont perdre la main sur ce qu’ils font. Or le manque d’éthique de la profession est critiqué à l’extérieur. Rachel Coldicutt (@rachelcoldicutt) directrice de DotEveryOne, un think tank britannique qui promeut une technologie plus responsable, encourage à former des diplômés non-informaticiens qui traiteraient de ces problèmes (Voir plus précisément dans l’article d’Internet Actu). Pour poursuivre sur ce dernier article, cela serait dans la droite ligne de l’informatique, domaine issu du monde militaire où les ingénieurs et développeurs seraient formés à suivre des décisions et des commandements.
  • Le monde du logiciel s’intègre dans un système organisationnel classique. Grands groupes, sous-traitances via des ESN, web agencies… Tous suivent les mêmes techniques de gestion des projets informatiques. Et tout le monde va « dans le mur ». Aucune analyse sérieuse n’est faite sur le coût global d’un logiciel (TCO), sur son impact sur la société, sur son bénéfice, sa qualité… C’est la rapidité de release(Time to Market), la surcharge featurale (fonctionnelle), la productivité immédiate, qui comptent. Premièrement car les gens externes à ce monde ne connaissent que trop peu la technicité du logiciel et son monde. Il est virtuel donc simple (sic). Mais ce n’est pas le cas. Les écoles de commerce et autres usines de managers n’ont pas de cours de développement. Comment peuvent-ils bien diriger et piloter des projets ?
  • On continue a vouloir chiffrer des projets informatiques comme de simples projets alors que des mouvements comme le no estimate propose des approches innovantes. Les projets continuent d’échouer : le chaos report rapporte que simplement 30% des projets réussissent bien. Et face à cette mauvaise gouvernance, les équipes techniques continuent de se battre sur les technologies. Dommages collatéraux : la qualité, l’éthique, l’environnement… et au final l’utilisateur. Cela ne serait pas si critique si le logiciel n’avait pas un impact aussi fort sur le monde. Software eats the world… et oui, on le « bouffe »…
  • Si ces décisions absurdes arrivent, ce n’est pas uniquement la faute du développeur mais bien de l’organisation. Et qui dit organisation dit management (sous-différente forme). Si l’on revient au livre de Morel, il parle de piège cognitif dans lesquels les managers et les techniciens tombent souvent. C’est le cas de la navette Challenger qui a été quand même lancée malgré la connaissance du problème d’un joint défectueux. Les managers ont sous-évalué les risques et les ingénieurs ne les ont pas prouvés. Chacun a reproché à l’autre de ne pas fournir assez de preuves scientifiques. C’est souvent ce qui se passe dans les entreprises : des warnings sont levés par certains développeurs mais le management ne les prend pas assez au sérieux.
  • En même temps, on revient aux causes précédentes (silver bullet, on s’amuse…), il est nécessaire d’avoir une vraie ingénierie et une vraie analyse des technologies. Sans cela, les équipes techniques seront toujours non-écoutées par le management. Des outils et benchmark existent mais ils sont encore trop peu connus. Par exemple, Technologie Radar qui classe les technologies en terme d’adoption.
  • Ce phénomène de décision absurde est renforcé par le tissu complexe du développement logiciel : Les sociétés historiquement hors du numérique sous-traitent à des entreprises du numérique, les ESN sous-traitent aux freelances… Le partage de responsabilité technique / management est encore plus complexe et les décisions absurdes plus nombreuses.
  • Mais cela ne s’arrête pas là. On peut aussi voir l’usage de l’open-source comme une sorte de sous-traitance. Idem pour l’usage de framework. On est juste consommateur passif, on se déleste de plein de problématiques (qui ont un impact sur les ressources, la qualité…).
  • C’est d’autant plus facile que le domaine est passionnant et que la pratique des sides-projects, du temps passé sur les projets open-source hors des horaires de bureau est chose commune… La recherche de “fun” et le temps passé bénéficient alors plus aux organisations qu’aux développeurs. Difficile dans ce cas de chiffrer le coût réel d’un projet. Et pourtant, cela ne serait pas un problème si on arrivait à des logiciels « au top ».
  • Le développeur n’est ici plus un artisan du code, mais plutôt un pion dans un système critiquable du point de vue humain. Cela n’est pas visible, tout va bien et on s’amuse. En apparence seulement, car certains domaines du développement logiciel vont plus loin et rendent beaucoup plus visible cette exploitation : Le domaine du jeux-vidéo où les heures explosent.
  • Et donc, toutes ces maladresses (logiciel trop lourd, sans qualité…) se retrouvent chez les utilisateurs. Comme on doit releaser au plus vite les logiciels, que l’on ne tente pas de résoudre les inefficiences internes, et que l’on ne met pas plus de ressource pour faire de la qualité, on arrive à des logiciels médiocres. Mais on a tellement d’outils de monitoring et de suivi des utilisateurs pour détecter ce qui se passe directement chez eux qu’au final, on pense que ce n’est pas grave. Cela serait une bonne idée si les outils étaient bien utilisés. Or la multitude d’informations récoltées (en plus des bugs remontés par les utilisateurs) n’est que faiblement utilisée. Trop d’information, difficulté de cibler la vraie source du problème… on s’y perd et au final, c’est l’utilisateur qui trinque. Tous les logiciels sont maintenant en bêta-test. A quoi bon faire de la sur-qualité, autant attendre que l’utilisateur le demande. Et on revient ainsi au premier chapitre : un logiciel uniformément lent … et médiocre.
  • Heureusement, on est sauvé par la non-sensibilisation des utilisateurs au monde du logiciel. C’est un monde effectivement virtuel et magique qu’ils ont l’habitude d’utiliser. On leur a mis en main les outils mais sans notice explicative. Comment évaluer la qualité d’un logiciel, les risques sur l’environnement, les problèmes de sécurité… si l’on n’a pas des notions d’informatique, même rudimentaires ?
  • L’informatique du 21ème siècle est ce que l’agroalimentaire était pour les consommateurs au 20ème siècle. Pour des raisons de productivité, on a poussé des solutions médiocres avec un calcul court-termiste : mise sur le marché de plus en plus rapide, profit en hausse constante… agriculture intensive, malbouffe, pesticides… avec des impacts importants sur la santé, sur l’environnement… Les consommateurs savent maintenant (de plus en plus) les conséquences désastreuses de ces dérives, l’industrie agroalimentaire doit donc se réinventer, techniquement, commercialement et éthiquement. Pour le logiciel, quand les utilisateurs comprendront les tenants et les aboutissants des choix techniques, l’industrie du logiciel devra gérer les mêmes problèmes. En effet, le retour au bon sens et aux bonnes pratiques n’est pas une chose simple pour l’agroalimentaire. Dans l’IT, on commence à le voir avec ses conséquence sur la vie privée des utilisateurs (mais nous n’en sommes qu’aux balbutiements).
  • On va dans la mauvaise direction. L’industrie de l’informatique a déjà effectué dans les années 70 des erreurs avec des impacts non-négligeables. L’exclusion des femmes de l’informatique en fait partie. Non seulement cela a été fatal pour certaines industries mais on peut se poser la question de comment on peut maintenant adresser des réponses à seulement 50% de la population informatique, avec une représentativité très faible. Le chemin est maintenant difficile à retrouver.
  • Mais l’impact du monde IT ne s’arrête pas là. La source et le modèle d’une grosse partie de l’informatique sont issus de la Silicon valley. Si l’on écarte les gagnants de la Silicon Valley, les populations locales subissent la montée des prix, le déclassement, la pauvreté…
  • Dans sa lancée vers le progrès technique, le monde du logiciel crée aussi sa dette environnementale…
  •  
    "Le monde du logiciel va mal et si l'on n'agit pas, on risque de le regretter. Environnement, qualité, exclusion… Software Eats The World (Le logiciel mange le monde…) ? Oui un peu trop. "
Aurialie Jublin

Uberland : l'avenir du travail à l'heure des algorithmes | InternetActu.net - 0 views

  • Pour Alex Rosenblat, Uber a provoqué « un changement culturel fondamental sur ce que signifie avoir un emploi ». Uber a tiré un maximum de valeur des conducteurs en surfant sur les limites et ambiguïtés des normes culturelles et juridiques. Pour Adrian Chen, la gestion algorithmique d’Uber est moins une révolution qu’un affinage, à l’image des chauffeurs de taxi eux-mêmes, qui ont longtemps été dans une situation entre autonomie et dépendance, notamment avec nombre d’intermédiaires influant sur leurs possibilités de travail. Uber a simplement rendu cette sous-traitance plus efficace.
  • Adrian Chen pour Intelligencer explique que cette gestion algorithmique de la force de travail suppose une surveillance totale (jusqu’aux tremblements du téléphone pour s’assurer que le conducteur conduit en toute sécurité ! ce qui montre à nouveau, s’il en était besoin, que Uber n’est pas seulement un intermédiaire pour réaliser une transaction). Pourtant, de nombreux chauffeurs semblent satisfaits du travail qu’ils réalisent : ils apprécient la flexibilité et le complément de salaire que leur travail apporte. Même si les récits que Rosenblat a recueillis témoignent principalement d’une résignation épuisée. «Pour certains chauffeurs, ce travail est un véritable boulet, et pour d’autres, c’est un gilet de sauvetage».
  • Dans une interview pour CityLab, la chercheuse rappelle que malgré les efforts d’Uber, le taux de désengagement des chauffeurs est assez fort : 68 % d’entre eux quittent la plateforme dans les 6 mois. Elle pointe néanmoins que les outils d’Uber proposent des services que les collectivités ne savaient pas fournir, notamment en offrant des modalités de transports là où elles n’existaient pas (voir « Plateformes et métropoles » et « Vers une ville numérique ingouvernable »). Uber, derrière sa neutralité de façade, a surtout profité d’un Far West réglementaire pour s’imposer. Partout où elle s’est imposée, la firme a profondément déstabilisé la société (autour de la question du statut des chauffeurs), tout en offrant des avantages populaires (ouvrant de nouvelles dessertes et des prix bas notamment). Toute la question reste de trouver la balance entre les avantages et les inconvénients
  • ...10 more annotations...
  • Dans une tribune pour le New York Times, la chercheuse rappelait la difficulté de cette gestion algorithmique de la relation de travail (voir également « Qui des algorithmes ou des clients seront nos nouveaux patrons »). Une relation profondément asymétrique et qui se crispe notamment dès qu’il y a un problème. Elle souligne combien les informations que délivre Uber à ses chauffeurs comme à leurs passagers sont asymétriques. Un chauffeur de New York évoquait par exemple un échange avec un client qui montrait que celui-ci était facturé 40$ alors que pour le chauffeur, la course n’en coûtait que 28 !
  • Dans les années 70, le sociologue du travail britannique Michael Burawoy, dans son livre Produire le consentement (1979, traduit en français en 2015) constatait que si les travailleurs consentaient à leur propre exploitation, c’était en fait surtout par jeu. Burawoy expliquait que lorsque le travail prenait la forme d’un jeu, la principale source de tension n’était plus dans la relation des travailleurs avec les dirigeants, mais s’étendait aux autres travailleurs, aux machines et contre eux-mêmes. En proposant un sentiment d’autonomie et de contrôle relatifs, la ludification propose aux travailleurs de souscrire aux objectifs de l’entreprise. Lyft propose ainsi des défis à ses conducteurs en échange d’une prime supplémentaire : des défis assez difficiles à décrocher qui reposent sur le nombre de courses à réaliser à certains créneaux horaires.
  • 50 % des conducteurs de Uber cessent d’utiliser l’application au bout de deux mois. 4 % des conducteurs le sont encore après une année. Des rapports récents estiment que le revenu des chauffeurs à l’heure est souvent inférieur au salaire minimum.
  • Sur les forums de chauffeurs ou dans leurs discussions, ceux-ci spéculent sans cesse sur les algorithmes et les moyens de les déjouer, mais sans réellement ne jamais y parvenir. Ils tentent fréquemment de faire des déconnexions en masse de l’application pour faire monter les prix des courses, sans que l’effet n’ait jamais vraiment été assuré. Ces formes de déconnexion volontaires et organisées ressemblent à des microgrèves, à des microprotestations, sans jamais avoir permis de réelles émancipations.
  • Burawoy est à nouveau utile pour comprendre pourquoi. Le fait de « jouer » permet aux travailleurs d’exercer un contrôle limité sur le processus de travail. Mais les victoires qu’ils remportent renforcent leur engagement et leur consentement aux règles du jeu. À l’inverse, leurs échecs dirigent leur insatisfaction contre les obstacles du jeu, et non contre ceux qui en fixent les règles. Apprendre à utiliser intelligemment les paramètres du jeu, de l’algorithme, devient pour eux la seule option imaginable.
  • Après des semaines d’une conduite maniaque pour améliorer sa note… elle a constaté que cette amélioration était sans incidence directe (tant qu’elle restait au-dessus de 4,6/5) : cela ne générait ni réel bonus ni amélioration du niveau de rémunération. « En fait, je perdais de l’argent en essayant de flatter les clients avec des bonbons et de garder ma voiture scrupuleusement propre », simplement parce qu’elle souhaitait rester un pilote bien côté. « Ce qui est à la fois si brillant et affreux dans la ludification de Lyft et Uber, c’est qu’elle repose sur notre seul désir d’être utile, aimé et bon. Les semaines où je suis très bien noté, je suis plus motivé à conduire. Les semaines où je suis mal noté, je suis également plus motivé à conduire. » Une fois qu’on est pris dans la zone du jeu, il n’y a plus d’échappatoire !
  • Heureusement, la réaction à l’ubérisation s’est aussi peu à peu musclée. Pour Les Inrocks, Benoît Fabien revient sur le lancement de la Fédération transnationale des coursiers (FTC), qui a rassemblé fin octobre à Bruxelles des livreurs à domicile de toute l’Europe, à l’initiative du Groupe de recherche pour une stratégie économique alternative, de l’Alter Summit et du réseau ReAct, qui encourage les mobilisations transnationales face aux grandes entreprises. Un moyen de contrer la division et l’individualisation des plateformes de livraison pour rééquilibrer les relations de travail imposées par celles-ci. Les revendications sont nombreuses, mais s’organisent : salaire minimum, transparence des algorithmes, la liberté de se réunir en collectif…
  • les chauffeurs d’Uber s’informent des nouvelles fonctionnalités de la plateforme via ces outils, notamment quand Uber teste sur certains d’entre eux de nouvelles fonctionnalités. Le géographe Mark Graham a montré que plus de 50 % de travailleurs freelances qui utilisent des plateformes comme le Mechanical Turk d’Amazon ou Freelancer, sont en contact avec d’autres travailleurs de plateformes et échangent sur les tarifs, sur les tâches proposées et la qualité de ceux qui proposent du travail. Ces groupes servent souvent à des formes de coordination, comme l’a montré la grève des enseignants de Virginie-Occidentale, où 70 % des 35 000 enseignants de l’État étaient présents et ont permis d’articuler les revendications et d’organiser les protestations. Les groupes permettent également de fabriquer des hashtags, des gifs, des vidéos et des mêmes pour publiciser leurs actions. Si ces outils ne sont pas conçus pour soutenir le militantisme, le relai est assuré par des sites dédiés comme Coworker.org, permettant par exemple aux employés de Starbucks de faire pression sur la direction pour limiter le « clopening », le fait qu’un même employé soit chargé de la fermeture et de l’ouverture d’un magasin.
  • Reste que ces services ne sont pas toujours suffisamment en lien avec les syndicats existants : ils manquent d’assistance juridique, comme le proposent les syndicats, ou de fonds pour être maintenus. Les « startups du travail » ont assurément besoin de la force des syndicats pour se transformer. En Allemagne, IG Metal, l’un des plus importants syndicats, permet aux autoentrepreneurs de le rejoindre. Il a également lancé un site pour comparer les conditions de travail sur les plateformes baptisé Fair Crowd Work.
  • Pour Fredrik Soderqvist de Unionen, un syndicat suédois, les syndicats doivent apprendre également à mieux utiliser les données afin de permettre de créer des services adaptés aux transformations du monde… À l’exemple de Mystro, une application pour conducteurs, qui leur permet de basculer d’un service à l’autre, d’évaluer les demandes, de rejeter celles qui ne sont pas rentables, afin d’aider les conducteurs à prendre de meilleures décisions pour eux-mêmes. Assurément, s’emparer activement de la technologie pour les syndicats et les travailleurs peut leur permettre de contrer l’ubérisation… Ça ne remplace ni la lutte sociale ni la lutte légale, mais la lutte technologique peut permettre de faire des contre-propositions concrètes, de fournir des outils d’aide à la décision des travailleurs algorithmisés pour les aider à en comprendre le fonctionnement et à resymétriser la relation.
  •  
    "Dans Uberland : comment les algorithmes réécrivent les règles du travail (2018, Presse universitaire de Californie, non traduit), la chercheuse Alex Rosenblat (@mawnikr) a synthétisé quatre années de recherche ethnographique avec les conducteurs d'Uber. Un livre où transparaît une vision dystopique du travail où des millions de conducteurs sont gérés par un système technique qui combine à la fois l'autoritarisme du management scientifique à la Frederick Taylor et le leadership cynique d'un Michael Scott (le personnage incarné par Steve Carell dans la série The Office), rapporte Intelligencer."
Aurialie Jublin

Internet est mort, vive le Trinet ? - Usbek&Rica - 0 views

  • Mais le développeur brésilien a, lui, daté très précisément le « début de la fin » : le Web est mort en 2014.
  • « Facebook et Google ont désormais une influence directe sur 70 % du trafic Internet » - rappelons ici qu’Internet désigne le réseau et que le Web en est sa principale application, le partage de fichiers ou la messagerie instantanée étant quelques-uns de ses autres usages - et la domination est particulièrement flagrante sur les médias, avec un basculement notable de la suprématie de Google à celle de Facebook, comme nous l’évoquions déjà récemment : avec Facebook Paper, puis Facebook Instant Articles, le réseau social de Zuckerberg s’est imposé comme source de trafic n°1 pour les médias, et une forme de dépendance s’est très rapidement installée.
  • Chaque entreprise a misé pleinement sur ce qu’elle faisait le mieux : le social pour Facebook (qui a racheté Whatsapp, Instagram...), l’intelligence artificielle pour Google, et elles ont ainsi cessé d’être concurrentes directes. Quant à Amazon, sa montée en puissance spectaculaire a été bien expliquée par Scott Galloway et se traduit par un chiffre récent : aux Etats-Unis, sa part sur le marché du e-commerce doit atteindre 43,5 % en 2017, contre 38 % l'année précédente.
  • ...7 more annotations...
  • Se pose alors la question de la mort du Web. En quoi laisser ce triumvirat aux commandes met-il le Web en péril ? D’abord parce qu’in fine, les 30 % du Web qu’ils ne maîtrisent pas devraient finir par être écrasés, assure André Staltz. La diversité du Web a permis à de multiples entreprises d’innover et de prospérer, à des communautés de grandir, à des sites indépendants d’être hébergés un peu partout, puis « à partir de 2014, nous avons commencé à perdre les bénéfices de la diversité d’Internet, en termes d’infrastructures et d’économie ».
  • Le développeur extrapole ensuite « à partir des stratégies exprimées par les cadres de Google, Facebook et Amazon », et décrit une bataille pour la neutralité du Net « que nous avons toutes les chances de perdre ».
  • « À cause de la demande du marché, les fournisseurs d’accès à Internet fourniront un accès moins cher à Google, Facebook et Amazon, et l’offre sera plus chère pour un accès complet au Web ». Comme le souligne André Staltz, c’est déjà le cas : le Portugal vient de décider de laisser faire le marché et d’offrir des forfaits Internet à la carte, chacun étant libre de n’avoir accès qu’à des applications de messagerie ou des réseaux sociaux pour moins cher.
  • Dans un tel scénario, « les petites entreprises ne seraient plus incitées économiquement à avoir leurs propres sites, et migrer vers des pages Facebook pourrait avoir plus de sens. Les petits sites de e-commerce serait rachetés par Amazon ou feraient faillite. Et parce que la plupart des internautes ne pourraient pas avoir accès à l’ensemble des sites, Google n’aurait que peu d’intérêt à continuer d’être ce pont entre les utilisateurs et les sites ».
  • Plus facile à percevoir dès aujourd’hui, plus palpable, et plus fréquemment discuté, l’autre signe de la mort du World Wide Web, c’est que Facebook, Google et Amazon grandissent toujours plus en dehors des frontières du Web. Il suffit de voir les Amazon Echo ou Google Home pulluler, écouter Google expliquer que l’avenir du search est dans la recherche vocale et dans l'intelligence artificielle, ou voir comme la plus jeune génération se contente de communiquer sur mobile, sur les applications de messagerie, sans jamais passer par un navigateur web.
  • En suivant une trajectoire qu’André Staltz appelle une « Apple-ification » - parce qu'ils construisent des écosystèmes fermés, deviennent des entreprises de hardware et soignent le marketing de leur design - les trois géants vont de plus en plus contourner le Web et créer de  « nouveaux espaces virtuels où la data est créée et partagée ». C’est la stratégie que mène Facebook depuis dix ans en misant sur la réalité virtuelle et la réalité augmentée.
  • « Vingt-cinq ans de Web nous ont habitués à des libertés fondamentales que l’on croit acquises », tranche le développeur. Nous avons oublié combien l'anonymat est précieux, tout comme l'est la possibilité de contrôler ce que nous partageons, ou celle de lancer une start-up qui ait ses propre serveurs, indépendamment de Google. « Sur le Trinet, si vous êtes bannis de Google et Facebook, vous n'aurez pas d'alternative ». Plus personne ne garantira votre droit d'accès à Internet. Les entreprises privées n'auront aucune obligation de vous fournir ce qu'un pays comme l'Estonie est allé jusqu'à ériger en droit de l'Homme.
  •  
    "Google, Facebook et Amazon se sont accaparés le Web. Cette domination était loin d'être aussi écrasante il y a encore quatre ans, et semble non seulement bien partie pour durer, mais devrait signer la mort d'un Web fondé sur la diversité et la liberté, comme le démontre le développeur brésilien André Medeiros - dit André Staltz - dans un post publié sur Medium. Nous nous dirigeons, à ses yeux, vers l'avènement d'un « Trinet » aux allures de dystopie."
Aurialie Jublin

Demain, les nains… - Framablog - 0 views

  • Les géants du numérique, avec leurs « licornes » à plusieurs milliards de dollars, nous ont confisqué le potentiel d’Internet. Alimentée par la très courte vue et la rapacité du capital-risque et des start-ups, la vision utopique d’une ressource commune décentralisée et démocratique s’est transformée en l’autocratie dystopique des panopticons de la Silicon Valley que nous appelons le capitalisme de surveillance. Cette mutation menace non seulement nos démocraties, mais aussi l’intégrité même de notre personne à l’ère du numérique et des réseaux1.
  • Alors que la conception éthique décrit sans ambiguïté les critères et les caractéristiques des alternatives éthiques au capitalisme de surveillance, c’est l’éthique elle-même qui est annexée par les Big Tech dans des opérations de relations publiques qui détournent l’attention des questions systémiques centrales2 pour mettre sous les projecteurs des symptômes superficiels3.
  • Small Tech elle est conçue par des humains pour des humains 4 ; elle n’a pas de but lucratif 5 ; elle est créée par des individus et des organisations sans capitaux propres6 ; elle ne bénéficie d’aucun financement par le capitalisme de la surveillance des Big Tech7 ; elle respecte la vie privée par défaut8 ; elle fonctionne en pair à pair9 ; elle est copyleft10 ; elle favorise les petits plutôt que les grands, les simples plutôt que les complexes et tout ce qui est modulaire plutôt que monolithique11 ; elle respecte les droits humains, leurs efforts et leur expérience12 ; elle est à l’échelle humaine13.
  • ...6 more annotations...
  • Ces critères signifient que la Small Tech : est la propriété des individus qui la contrôlent, et non des entreprises ou des gouvernements ; respecte, protège et renforce l’intégrité de la personne humaine, des droits humains, de la justice sociale et de la démocratie à l’ère du numérique en réseau ; encourage une organisation politique non-hiérarchisée et où les décisions sont prises à l’échelle humaine ; alimente un bien commun sain ; est soutenable ; sera un jour financée par les communs, pour le bien commun. ne rapportera jamais des milliards à quiconque.
  • Des entreprises comme Google et Facebook sont des fermes industrielles pour les êtres humains. Leurs produits sont les machines agricoles. Ils doivent fournir une façade brillante pour garder notre attention et nous rendre dépendants afin que nous, le bétail, puissions volontairement nous autoriser à être exploités. Ces institutions ne peuvent être réformées. Les Big Tech ne peuvent être réglementées que de la même manière que la Big Tobacco pour réduire ses méfaits sur la société. Nous pouvons et devrions investir dans une alternative éthique : la Small Tech
  • Nous construisons la Small Tech principalement pour le bien commun, pas pour faire du profit. Cela ne signifie pas pour autant que nous ne tenons pas compte du système économique dans lequel nous nous trouvons actuellement enlisés ou du fait que les solutions de rechange que nous élaborons doivent être durables. Même si nous espérons qu’un jour Small Tech sera financé par les deniers publics, pour le bien commun, nous ne pouvons pas attendre que nos politiciens et nos décideurs politiques se réveillent et mettent en œuvre un tel changement social. Alors que nous devons survivre dans le capitalisme, nous pouvons vendre et faire des profits avec la Small Tech. Mais ce n’est pas notre but premier. Nos organisations se préoccupent avant tout des méthodes durables pour créer des outils qui donnent du pouvoir aux gens sans les exploiter, et non de faire du profit. Small Tech n’est pas une organisation caritative, mais une organisation à but non lucratif
  • La vie privée, c’est avoir le droit de décider de ce que vous gardez pour vous et de ce que vous partagez avec les autres. Par conséquent, la seule définition de la protection de la vie privée qui importe est celle de la vie privée par défaut. Cela signifie que nous concevons la Small Tech de sorte que les données des gens restent sur leurs appareils. S’il y a une raison légitime pour laquelle cela n’est pas possible (par exemple, nous avons besoin d’un nœud permanent dans un système de pair à pair pour garantir l’accessibilité et la disponibilité), nous nous assurons que les données sont chiffrées de bout en bout et que l’individu qui possède l’outil possède les clés des informations privées et puisse contrôler seul qui est à chacun des « bouts » (pour éviter le spectre du Ghosting)
  • La configuration de base de notre technologie est le pair à pair : un système a-centré dans lequel tous les nœuds sont égaux. Les nœuds sur lesquels les individus n’ont pas de contrôle direct (p. ex., le nœud toujours actif dans le système pair à pair mentionné dans la note précédente) sont des nœuds de relais non fiables et non privilégiés qui n’ont jamais d’accès aux informations personnelles des personnes.
  • La Small Tech est conçue par des humains, pour des humains ; c’est une approche résolument non-coloniale. Elle n’est pas créée par des humains plus intelligents pour des humains plus bêtes (par exemple, par des développeurs pour des utilisateurs – nous n’utilisons pas le terme utilisateur dans Small Tech. On appelle les personnes, des personnes.) Nous élaborons nos outils aussi simplement que possible pour qu’ils puissent être compris, maintenus et améliorés par le plus grand nombre. Nous n’avons pas l’arrogance de supposer que les gens feront des efforts excessifs pour apprendre nos outils. Nous nous efforçons de les rendre intuitifs et faciles à utiliser. Nous réalisons de belles fonctionnalités par défaut et nous arrondissons les angles.
  •  
    "Et si les géants de la technologie numérique étaient concurrencés et peut-être remplacés par les nains des technologies modestes et respectueuses des êtres humains ? Telle est l'utopie qu'expose Aral Balkan ci-dessous. Faut-il préciser que chez Framasoft, nous avons l'impression d'être en phase avec cette démarche et de cocher déjà des cases qui font de nous ce qu'Aral appelle une Small Tech (littéralement : les petites technologies) par opposition aux Big Tech, autrement dit les GAFAM et leurs successeurs déjà en embuscade pour leur disputer les positions hégémoniques. Article original sur le blog d'Aral Balkan : Small technology"
Aurialie Jublin

TRIBUNE. Comment la France s'est vendue aux Gafam - Le Point - 0 views

  • L'histoire du déclin du numérique français est une tragédie en trois actes. Il y eut d'abord les «  30 honteuses du numérique  », où une petite élite arrogante et dénuée de vision stratégique a démantelé notre industrie informatique et électronique grand public. Elle a débranché les travaux de recherches les plus intéressants et laissé nos meilleurs développeurs partir à l'étranger faute de pouvoir les associer à des projets ambitieux. Vient ensuite la capitulation vis-à-vis des grands acteurs américains. Ainsi, de nombreux politiques et hauts fonctionnaires français leur ont permis d'intégrer leurs technologies au cœur des prérogatives régaliennes de l'État : défense, renseignement, éducation, sécurité, mais aussi culture. Plusieurs d'entre eux quitteront leurs fonctions pour aller rejoindre ces sociétés. Le troisième acte se joue en ce moment. Alors que nos dirigeants se préparent à une vente à la découpe, il reste cependant un mince espoir d'inventer une autre manière d'utiliser le réseau plus en phase avec nos principes et nos valeurs. Mais pouvons-nous encore changer la doctrine des politiques numériques de la France  ? Quand on écoute nos hommes politiques, le déclassement de l'Europe vis-à-vis de l'Internet est présenté comme une fatalité. Un accident de l'Histoire à l'issue duquel les clés du monde de demain auraient été données aux États-Unis et à la Chine.
  • Nous aurions pu avoir un autre destin, car si les États-Unis avaient la vision et l'argent, c'est en Europe qu'ont été inventées deux des briques fondamentales de l'Internet : Linux et le Web. Mais à la différence du standard GSM, ces dernières ont eu le malheur d'être conçues par des individus talentueux hors des grandes institutions. Snobés chez nous, ces deux projets deviendront le moteur des plateformes numériques américaines et chinoises et l'instrument de leur domination mondiale.
  • Tout commence dans les années 70, avec l'abandon du réseau Cyclades de Louis Pouzin au profit du Minitel. Louis Pouzin en est le concepteur et il est l'inventeur de la segmentation des données en «  Datagramme  ». Il sera récompensé (avec Tim Berners-Lee et Vinton Cerf) par la reine d'Angleterre pour ses contributions essentielles à la création de l'Internet et il reste à ce jour un inconnu du grand public en France. Il faudra attendre 1994 pour que nos chercheurs acceptent enfin de s'intéresser à autre chose qu'à des technologies incompatibles avec l'Internet.
  • ...8 more annotations...
  • Quasiment au même moment, Alcatel décide de transférer ses usines vers la Chine. Son PDG veut appliquer la stratégie du «  fabless  », à savoir délocaliser la production tout en conservant le design en France. Ce sera une grossière erreur d'analyse. Lorsque les smartphones deviennent un succès international, la France n'a plus de capacités industrielles dans ce secteur, alors qu'elle était l'un des principaux fabricants dans le monde.
  • Alors que la Silicon Valley parie sur les talents et les start-up, la France préfère s'embourber dans des grands projets institutionnels sans avenir. Mais ces projets permettent aux politiques de faire des annonces et aux industriels déjà établis de bénéficier de la manne de l'argent public. Ainsi, le projet Quaero, qui visait à créer un «  Google Européen  », a été lancé par Jacques Chirac. Il terminera rapidement dans les oubliettes technologiques. Plus récemment, le Cloud souverain, qui se targuait d'être la réponse française à Amazon et Microsoft, sera abandonné en rase campagne puis revendu (et sans ironie aucune)… au chinois Huawei. Au final, beaucoup d'argent aura été dépensé soit pour concurrencer l'Internet lui-même soit pour contourner les start-up qui voulaient développer des solutions alternatives aux Gafam. C'est une génération entière d'entrepreneurs et de chercheurs que l'on a écartés pour redéfinir la politique industrielle du secteur. Tout récemment, le rapport sur l'intelligence artificielle de Cédric Villani n'a pas fait mention des deux meilleures solutions open sources dans le domaine : SciKit Learn et Keras qui se trouvent être… françaises.
  • L'acte deux commence avec le quinquennat Hollande. Un changement d'attitude va s'opérer vis-à-vis des grandes plateformes. La défaite est désormais entérinée en coulisses. Il ne s'agit plus d'exister au niveau mondial, mais de négocier avec les Gafam tout en faisant mine de s'indigner publiquement de leurs abus de position dominante.
  • Microsoft est devenue le partenaire de l'Éducation nationale, et Google le parrain de la Grande École du Numérique. La société de Big Data Palantir, proche des services secrets américains, a conclu un contrat avec la DGSI (et peut-être la DGSE  ?), et elle est également présente chez Airbus. Enfin, à l'échelon des collectivités territoriales, les régions vont s'appuyer sur Facebook pour «  la formation au numérique  ».Comment, dans ces conditions, se plaindre des conséquences des réseaux sociaux et de l'impact des Gafam sur notre démocratie quand nous leur avons ouvert si largement les portes de l'État  ?
  • En effet, ce gouvernement prend un risque inconsidéré en pariant notre avenir sur une hypothétique transformation numérique autour de «  l'intelligence artificielle  ». Si nous ne nous donnons pas les moyens de réguler la manière dont ses entreprises et ce type de technologies fonctionnent, nous pourrions détruire notre modèle social en tentant de copier ceux de la Chine ou des États-Unis. L'ironie du sort veut que, désormais, certains industriels et chercheurs américains s'appuient sur l'Europe et sa réglementation sur les données personnelles pour sortir d'un modèle numérique qui n'est pas «  durable  ». Aux États-Unis, le ministère de la Santé a ainsi lancé une grande étude sur l'impact des écrans et le Sénat a analysé, dans un rapport très détaillé, les manipulations des réseaux sociaux qui ont eu lieu lors de la dernière campagne présidentielle.
  • Il existe pourtant un scénario de sortie de crise. En effet, la meilleure réponse à la crise de confiance systémique vis-à-vis des Gafam est de soutenir les mouvements autour des technologies «  éthiques  ». Il s'agit d'un nouveau terrain de croissance industrielle pour l'Europe, comme le Bio l'a été pour l'agriculture. De nombreux entrepreneurs réfléchissent à d'autres façons de concevoir la technologie, s'appuyant beaucoup moins sur la donnée et créant moins d'intrusions vis-à-vis de leurs utilisateurs. C'est le mouvement autour des logiciels éthiques et du Slow Web. Ce mouvement, qui s'est réuni en septembre dernier à Copenhague, souhaite définir un meilleur équilibre entre usage numérique et monde réel pour ne pas rendre ces technologies aliénantes. Il prône notamment l'arrêt de certaines pratiques toxiques comme le profilage (micro targeting) ou la manipulation de nos émotions via des messages ciblés sur nos mobiles dont nous avons vu les conséquences désastreuses lors du référendum sur le Brexit ou l'élection américaine.
  • Nous devons désormais exiger que les choix technologiques faits par l'État (comme les décisions politiques dans ces domaines) soient lisibles et compréhensibles par l'ensemble des citoyens… Car s'il s'agit de faire de la France une colonie numérique des plateformes et qui ne profiterait qu'à une petite bourgeoisie d'Internet, alors il faudra le dire clairement  
  • Il est temps également de voir émerger une nouvelle forme de résistance citoyenne. Car l'usage de ces technologies n'est pas neutre, la substitution de l'action de l'État par des algorithmes rend caduque l'égalité de traitement entre chaque Français. Le remplacement de nos services publics par un «  État plateforme  » totalitaire (à l'instar du «  Crédit social  » qui voit chaque Chinois recevoir une note qui détermine leur capacité à se déplacer ou à obtenir un crédit) n'est pas la vision que nous souhaitons promouvoir. C'est pourtant ce qui se prépare dans certains cabinets ministériels lorsqu'il est question d'État plateforme…
  •  
    "Pour le pionnier du Web français Tariq Krim, l'histoire du déclin du numérique français est une tragédie en 3 actes. Il existe pourtant une sortie de crise."
Aurialie Jublin

Tout ce que dit Mark Zuckerberg sur Facebook dans sa tribune est vrai* - Numerama - 0 views

  • Dans ces lignes, tout est effectivement vrai : Le « produit Facebook » n’est pas son business model (Facebook est un service pour mettre en relation les particuliers entre eux et les particuliers avec des professionnels). Facebook ne vend pas vos données à des tiers (ce serait céder son trésor de guerre qui, du coup perdrait énormément de valeur). Facebook n’a pas d’intérêt à favoriser des contenus « appât à clic » sur sa plateforme (il n’est pas apprécié par ses utilisateurs et n’a qu’une durée de vie à court terme qui n’est pas rémunératrice) Facebook n’a pas intérêt à garder les contenus de haine sur sa plateforme (il n’est pas rémunéré, car les marques qui font de la pub ne s’y associent pas). Humains et algorithmes ont une tâche encore jamais vue dans l’histoire, pour modérer une quantité de données colossale et font encore des erreurs même s’ils cherchent à faire de leur mieux.
  • Par exemple, quand il est question de vendre des données pour la publicité, il est évident que Facebook ne les vend pas : il n’a aucun intérêt, en tant qu’entreprise, à faire sortir ce précieux trésor de son enclave. Si Facebook vendait vos données à une marque, pourquoi paierait-elle Facebook la fois d’après, pour vendre ses produits ? Et pourtant, une fois cette tournure exclue, on se rappelle que Facebook vend un droit d’utilisation de ces profils publicitaires ciblés. Ce qui, pour l’utilisateur, est exactement la même chose en termes d’expérience : il va être pressé par la publicité ciblée.
  • Oui, des données collectées par Facebook ont été sorties illégalement et utilisées illégalement — c’est toute l’affaire Cambridge Analytica. Oui, tout logiciel, même sur le web, contient des bugs, des failles de sécurité ou des problèmes de fonctionnement qui peuvent entraîner une perte de données — Facebook, comme Google, n’est pas épargné. La question est donc plutôt à reposer en ces termes : de quelles données a-t-on vraiment besoin pour faire tourner un business  ? Peut-on prendre le risque de collecter autant d’information, parce que l’on peut ? Et si Mark Zuckerberg semble croire que ce profilage permet un meilleur ciblage et une plus grande satisfaction des internautes, l’esprit du privacy by design qui semble prendre de l’ampleur dans le web dit tout au contraire qu’il n’y a aucun intérêt, ni économique ni pratique, à s’embarrasser de données inutiles.
  • ...1 more annotation...
  • La tribune de Mark Zuckerberg n’est donc pas fausse, mais elle parle d’un Facebook dans un best case scenario. Alors oui, si tout se passait bien, Facebook serait utilisé pour rapprocher les gens et se rémunérerait avec de la publicité tout juste ciblée qui rendrait tout le monde plus heureux. Mais les affaires à répétition, mises en évidence depuis que la presse s’intéresse sérieusement aux acteurs du web, montrent que ce scénario idéal n’existe pas. S’il veut grandir et être une meilleure version de lui-même pour ses 25 ans, au lieu de répéter qu’il n’est pas dangereux par essence, Facebook devrait au contraire mettre les deux pieds dans le plat et affronter son pire cauchemar : qu’est-ce qu’il se passe si tout va mal ?
  •  
    "*mais c'est ce qu'il ne dit pas qui nous intéresse. Pour la nouvelle année, Facebook a lancé en Europe et aux États-Unis un plan de communication articulée autour d'une tribune de son CEO, Mark Zuckerberg. En France, c'est le quotidien Le Monde qui a eu la primeur sur la parole du fondateur du réseau social - et a réservé la tribune à ses abonnés, comme d'autres médias. Une version gratuite en anglais est disponible à cette adresse pour qui souhaiterait se confronter directement à la prose de M. Zuckerberg."
Aurialie Jublin

The pregnancy-tracking app Ovia lets women record their most sensitive data for themselves - and their boss - The Washington Post - 0 views

  • But someone else was regularly checking in, too: her employer, which paid to gain access to the intimate details of its workers’ personal lives, from their trying-to-conceive months to early motherhood. Diller’s bosses could look up aggregate data on how many workers using Ovia’s fertility, pregnancy and parenting apps had faced high-risk pregnancies or gave birth prematurely; the top medical questions they had researched; and how soon the new moms planned to return to work.
  • “Maybe I’m naive, but I thought of it as positive reinforcement: They’re trying to help me take care of myself,” said Diller, 39, an event planner in Los Angeles for the video game company Activision Blizzard. The decision to track her pregnancy had been made easier by the $1 a day in gift cards the company paid her to use the app: That’s “diaper and formula money,” she said.
  • But Ovia also has become a powerful monitoring tool for employers and health insurers, which under the banner of corporate wellness have aggressively pushed to gather more data about their workers’ lives than ever before.
  • ...13 more annotations...
  • Employers who pay the apps’ developer, Ovia Health, can offer their workers a special version of the apps that relays their health data — in a “de-identified,” aggregated form — to an internal employer website accessible by human resources personnel. The companies offer it alongside other health benefits and incentivize workers to input as much about their bodies as they can, saying the data can help the companies minimize health-care spending, discover medical problems and better plan for the months ahead.
  • By giving counseling and feedback on mothers’ progress, executives said, Ovia has helped women conceive after months of infertility and even saved the lives of women who wouldn’t otherwise have realized they were at risk.
  • But health and privacy advocates say this new generation of “menstrual surveillance” tools is pushing the limits of what women will share about one of the most sensitive moments of their lives. The apps, they say, are designed largely to benefit not the women but their employers and insurers, who gain a sweeping new benchmark on which to assess their workers as they consider the next steps for their families and careers.
  • Experts worry that companies could use the data to bump up the cost or scale back the coverage of health-care benefits, or that women’s intimate information could be exposed in data breaches or security risks. And though the data is made anonymous, experts also fear that the companies could identify women based on information relayed in confidence, particularly in workplaces where few women are pregnant at any given time.
  • The rise of pregnancy-tracking apps shows how some companies increasingly view the human body as a technological gold mine, rich with a vast range of health data their algorithms can track and analyze. Women’s bodies have been portrayed as especially lucrative: The consulting firm Frost & Sullivan said the “femtech” market — including tracking apps for women’s menstruation, nutrition and sexual wellness — could be worth as much as $50 billion by 2025.
  • Companies pay for Ovia’s “family benefits solution” package on a per-employee basis, but Ovia also makes money off targeted in-app advertising, including from sellers of fertility-support supplements, life insurance, cord-blood banking and cleaning products.
  • In 2014, when the company rolled out incentives for workers who tracked their physical activity with a Fitbit, some employees voiced concerns over what they called a privacy-infringing overreach. But as the company offered more health tracking — including for mental health, sleep, diet, autism and cancer care — Ezzard said workers grew more comfortable with the trade-off and enticed by the financial benefits.
  • But a key element of Ovia’s sales pitch is how companies can cut back on medical costs and help usher women back to work. Pregnant women who track themselves, the company says, will live healthier, feel more in control and be less likely to give birth prematurely or via a C-section, both of which cost more in medical bills — for the family and the employer.
  • Women wanting to get pregnant are told they can rely on Ovia’s “fertility algorithms,” which analyze their menstrual data and suggest good times to try to conceive, potentially saving money on infertility treatments. “An average of 33 hours of productivity are lost for every round of treatment,” an Ovia marketing document says.
  • Ovia, in essence, promises companies a tantalizing offer: lower costs and fewer surprises. Wallace gave one example in which a woman had twins prematurely, received unneeded treatments and spent three months in intensive care. “It was a million-dollar birth … so the company comes to us: How can you help us with this?” he said.
  • “The fact that women’s pregnancies are being tracked that closely by employers is very disturbing,” said Deborah C. Peel, a psychiatrist and founder of the Texas nonprofit Patient Privacy Rights. “There’s so much discrimination against mothers and families in the workplace, and they can’t trust their employer to have their best interests at heart.” Federal law forbids companies from discriminating against pregnant women and mandates that pregnancy-related health-care expenses be covered in the same way as other medical conditions. Ovia said the data helps employers provide “better benefits, health coverage and support.”
  • Companies can also see which articles are most read in Ovia’s apps, offering them a potential road map to their workers’ personal questions or anxieties. The how-to guides touch on virtually every aspect of a woman’s changing body, mood, financial needs and lifestyle in hyper-intimate detail, including filing for disability, treating bodily aches and discharges, and suggestions for sex positions during pregnancy.
  • The coming years, however, will probably see companies pushing for more pregnancy data to come straight from the source. The Israeli start-up Nuvo advertises a sensor band strapped around a woman’s belly that can send real-time data on fetal heartbeat and uterine activity “across the home, the workplace, the doctor’s office and the hospital.” Nuvo executives said its “remote pregnancy monitoring platform” is undergoing U.S. Food and Drug Administration review.
  •  
    "As apps to help moms monitor their health proliferate, employers and insurers pay to keep tabs on the vast and valuable data"
Aurialie Jublin

It's Time to Break Up Facebook - The New York Times - 0 views

  • Mark’s influence is staggering, far beyond that of anyone else in the private sector or in government. He controls three core communications platforms — Facebook, Instagram and WhatsApp — that billions of people use every day. Facebook’s board works more like an advisory committee than an overseer, because Mark controls around 60 percent of voting shares. Mark alone can decide how to configure Facebook’s algorithms to determine what people see in their News Feeds, what privacy settings they can use and even which messages get delivered. He sets the rules for how to distinguish violent and incendiary speech from the merely offensive, and he can choose to shut down a competitor by acquiring, blocking or copying it.
  • Mark is a good, kind person. But I’m angry that his focus on growth led him to sacrifice security and civility for clicks. I’m disappointed in myself and the early Facebook team for not thinking more about how the News Feed algorithm could change our culture, influence elections and empower nationalist leaders. And I’m worried that Mark has surrounded himself with a team that reinforces his beliefs instead of challenging them.
  • We are a nation with a tradition of reining in monopolies, no matter how well intentioned the leaders of these companies may be. Mark’s power is unprecedented and un-American.It is time to break up Facebook.
  • ...26 more annotations...
  • We already have the tools we need to check the domination of Facebook. We just seem to have forgotten about them.America was built on the idea that power should not be concentrated in any one person, because we are all fallible. That’s why the founders created a system of checks and balances. They didn’t need to foresee the rise of Facebook to understand the threat that gargantuan companies would pose to democracy. Jefferson and Madison were voracious readers of Adam Smith, who believed that monopolies prevent the competition that spurs innovation and leads to economic growth.
  • The Sherman Antitrust Act of 1890 outlawed monopolies. More legislation followed in the 20th century, creating legal and regulatory structures to promote competition and hold the biggest companies accountable. The Department of Justice broke up monopolies like Standard Oil and AT&T.
  • For many people today, it’s hard to imagine government doing much of anything right, let alone breaking up a company like Facebook. This isn’t by coincidence. Starting in the 1970s, a small but dedicated group of economists, lawyers and policymakers sowed the seeds of our cynicism. Over the next 40 years, they financed a network of think tanks, journals, social clubs, academic centers and media outlets to teach an emerging generation that private interests should take precedence over public ones. Their gospel was simple: “Free” markets are dynamic and productive, while government is bureaucratic and ineffective. By the mid-1980s, they had largely managed to relegate energetic antitrust enforcement to the history books.
  • It was this drive to compete that led Mark to acquire, over the years, dozens of other companies, including Instagram and WhatsApp in 2012 and 2014. There was nothing unethical or suspicious, in my view, in these moves.
  • Over a decade later, Facebook has earned the prize of domination. It is worth half a trillion dollars and commands, by my estimate, more than 80 percent of the world’s social networking revenue. It is a powerful monopoly, eclipsing all of its rivals and erasing competition from the social networking category. This explains why, even during the annus horribilis of 2018, Facebook’s earnings per share increased by an astounding 40 percent compared with the year before. (I liquidated my Facebook shares in 2012, and I don’t invest directly in any social media companies.)
  • Facebook’s dominance is not an accident of history. The company’s strategy was to beat every competitor in plain view, and regulators and the government tacitly — and at times explicitly — approved. In one of the government’s few attempts to rein in the company, the F.T.C. in 2011 issued a consent decree that Facebook not share any private information beyond what users already agreed to. Facebook largely ignored the decree. Last month, the day after the company predicted in an earnings call that it would need to pay up to $5 billion as a penalty for its negligence — a slap on the wrist — Facebook’s shares surged 7 percent, adding $30 billion to its value, six times the size of the fine.
  • As markets become more concentrated, the number of new start-up businesses declines. This holds true in other high-tech areas dominated by single companies, like search (controlled by Google) and e-commerce (taken over by Amazon). Meanwhile, there has been plenty of innovation in areas where there is no monopolistic domination, such as in workplace productivity (Slack, Trello, Asana), urban transportation (Lyft, Uber, Lime, Bird) and cryptocurrency exchanges (Ripple, Coinbase, Circle).
  • Facebook’s business model is built on capturing as much of our attention as possible to encourage people to create and share more information about who they are and who they want to be. We pay for Facebook with our data and our attention, and by either measure it doesn’t come cheap.
  • The most problematic aspect of Facebook’s power is Mark’s unilateral control over speech. There is no precedent for his ability to monitor, organize and even censor the conversations of two billion people.Facebook engineers write algorithms that select which users’ comments or experiences end up displayed in the News Feeds of friends and family. These rules are proprietary and so complex that many Facebook employees themselves don’t understand them.
  • Facebook has responded to many of the criticisms of how it manages speech by hiring thousands of contractors to enforce the rules that Mark and senior executives develop. After a few weeks of training, these contractors decide which videos count as hate speech or free speech, which images are erotic and which are simply artistic, and which live streams are too violent to be broadcast. (The Verge reported that some of these moderators, working through a vendor in Arizona, were paid $28,800 a year, got limited breaks and faced significant mental health risks.)
  • As if Facebook’s opaque algorithms weren’t enough, last year we learned that Facebook executives had permanently deleted their own messages from the platform, erasing them from the inboxes of recipients; the justification was corporate security concerns. When I look at my years of Facebook messages with Mark now, it’s just a long stream of my own light-blue comments, clearly written in response to words he had once sent me. (Facebook now offers this as a feature to all users.)
  • Mark used to insist that Facebook was just a “social utility,” a neutral platform for people to communicate what they wished. Now he recognizes that Facebook is both a platform and a publisher and that it is inevitably making decisions about values. The company’s own lawyers have argued in court that Facebook is a publisher and thus entitled to First Amendment protection.
  • Mark knows that this is too much power and is pursuing a twofold strategy to mitigate it. He is pivoting Facebook’s focus toward encouraging more private, encrypted messaging that Facebook’s employees can’t see, let alone control. Second, he is hoping for friendly oversight from regulators and other industry executives.
  • In an op-ed essay in The Washington Post in March, he wrote, “Lawmakers often tell me we have too much power over speech, and I agree.” And he went even further than before, calling for more government regulation — not just on speech, but also on privacy and interoperability, the ability of consumers to seamlessly leave one network and transfer their profiles, friend connections, photos and other data to another.
  • Facebook isn’t afraid of a few more rules. It’s afraid of an antitrust case and of the kind of accountability that real government oversight would bring.
  • Mark may never have a boss, but he needs to have some check on his power. The American government needs to do two things: break up Facebook’s monopoly and regulate the company to make it more accountable to the American people.First, Facebook should be separated into multiple companies. The F.T.C., in conjunction with the Justice Department, should enforce antitrust laws by undoing the Instagram and WhatsApp acquisitions and banning future acquisitions for several years. The F.T.C. should have blocked these mergers, but it’s not too late to act. There is precedent for correcting bad decisions — as recently as 2009, Whole Foods settled antitrust complaints by selling off the Wild Oats brand and stores that it had bought a few years earlier.
  • Still others worry that the breakup of Facebook or other American tech companies could be a national security problem. Because advancements in artificial intelligence require immense amounts of data and computing power, only large companies like Facebook, Google and Amazon can afford these investments, they say. If American companies become smaller, the Chinese will outpace us.While serious, these concerns do not justify inaction. Even after a breakup, Facebook would be a hugely profitable business with billions to invest in new technologies — and a more competitive market would only encourage those investments. If the Chinese did pull ahead, our government could invest in research and development and pursue tactical trade policy, just as it is doing today to hold China’s 5G technology at bay.
  • The cost of breaking up Facebook would be next to zero for the government, and lots of people stand to gain economically. A ban on short-term acquisitions would ensure that competitors, and the investors who take a bet on them, would have the space to flourish. Digital advertisers would suddenly have multiple companies vying for their dollars.
  • But the biggest winners would be the American people. Imagine a competitive market in which they could choose among one network that offered higher privacy standards, another that cost a fee to join but had little advertising and another that would allow users to customize and tweak their feeds as they saw fit. No one knows exactly what Facebook’s competitors would offer to differentiate themselves. That’s exactly the point.
  • Just breaking up Facebook is not enough. We need a new agency, empowered by Congress to regulate tech companies. Its first mandate should be to protect privacy.The Europeans have made headway on privacy with the General Data Protection Regulation, a law that guarantees users a minimal level of protection. A landmark privacy bill in the United States should specify exactly what control Americans have over their digital information, require clearer disclosure to users and provide enough flexibility to the agency to exercise effective oversight over time. The agency should also be charged with guaranteeing basic interoperability across platforms.
  • Finally, the agency should create guidelines for acceptable speech on social media. This idea may seem un-American — we would never stand for a government agency censoring speech. But we already have limits on yelling “fire” in a crowded theater, child pornography, speech intended to provoke violence and false statements to manipulate stock prices. We will have to create similar standards that tech companies can use. These standards should of course be subject to the review of the courts, just as any other limits on speech are. But there is no constitutional right to harass others or live-stream violence.
  • These are difficult challenges. I worry that government regulators will not be able to keep up with the pace of digital innovation. I worry that more competition in social networking might lead to a conservative Facebook and a liberal one, or that newer social networks might be less secure if government regulation is weak. But sticking with the status quo would be worse: If we don’t have public servants shaping these policies, corporations will.
  • Similarly, the Justice Department’s 1970s suit accusing IBM of illegally maintaining its monopoly on personal computer sales ended in a stalemate. But along the way, IBM changed many of its behaviors. It stopped bundling its hardware and software, chose an extremely open design for the operating system in its personal computers and did not exercise undue control over its suppliers. Professor Wu has written that this “policeman at the elbow” led IBM to steer clear “of anything close to anticompetitive conduct, for fear of adding to the case against it.”
  • Finally, an aggressive case against Facebook would persuade other behemoths like Google and Amazon to think twice about stifling competition in their own sectors, out of fear that they could be next. If the government were to use this moment to resurrect an effective competition standard that takes a broader view of the full cost of “free” products, it could affect a whole host of industries.
  • I take responsibility for not sounding the alarm earlier. Don Graham, a former Facebook board member, has accused those who criticize the company now as having “all the courage of the last man leaping on the pile at a football game.” The financial rewards I reaped from working at Facebook radically changed the trajectory of my life, and even after I cashed out, I watched in awe as the company grew. It took the 2016 election fallout and Cambridge Analytica to awaken me to the dangers of Facebook’s monopoly. But anyone suggesting that Facebook is akin to a pinned football player misrepresents its resilience and power.
  • This movement of public servants, scholars and activists deserves our support. Mark Zuckerberg cannot fix Facebook, but our government can.
  •  
    "Since then, Mark's personal reputation and the reputation of Facebook have taken a nose-dive. The company's mistakes - the sloppy privacy practices that dropped tens of millions of users' data into a political consulting firm's lap; the slow response to Russian agents, violent rhetoric and fake news; and the unbounded drive to capture ever more of our time and attention - dominate the headlines. It's been 15 years since I co-founded Facebook at Harvard, and I haven't worked at the company in a decade. But I feel a sense of anger and responsibility."
‹ Previous 21 - 35 of 35
Showing 20 items per page