Skip to main content

Home/ QN2019/ Group items tagged facebook

Rss Feed Group items tagged

Aurialie Jublin

L'internet des familles modestes : les usages sont-ils les mêmes du haut au b... - 0 views

  • Le plus étonnant finalement, c’est de constater que pour des gens qui se sont équipés sur le tard, combien ces usages sont devenus aisés et rituels. Je m’attendais à trouver plus de difficultés, plus d’angoisses… Mais cela n’a pas été le cas. Les familles modestes se sont emparées d’internet à toute vitesse. Ils font certes des usages plutôt utilitaristes de ces outils polymorphes. Ils ont peu de pratiques créatives. Participent peu. Mais n’en ont pas particulièrement besoin. L’outil s’est glissé dans leurs pratiques quotidiennes, d’une manière très pragmatique. Les gens ont de bonnes raisons de faire ce qu’ils font de la manière dont ils le font.
  • Oui, internet est une seconde école. Et ce constat n’est pas sans vertus pour des populations qui bien souvent ne sont pas allées à l’école ou qui n’ont pas le bac. Internet leur propose des manières d’apprendre qui leur correspondent mieux, sans hiérarchie ni sanction. On pourrait croire par exemple qu’en matière d’information ils ne recherchent pas des choses importantes, mais si. Ils cherchent à comprendre les termes qu’emploient le professeur de leurs enfants ou le médecin qu’ils consultent. Quelque chose s’est ouvert. L’enjeu n’est pas pour eux de devenir experts à la place des experts, mais de parvenir à mieux argumenter ou à poser des questions. D’être mieux armés.
  • La dématérialisation de l’administration est inhumaine et brutale. Les familles modestes utilisent peu le mail. Leurs adresses servent principalement aux achats et aux relations avec les administrations. Mais les courriers de l’administration se perdent dans le spam qu’ils reçoivent des sites d’achat. Pour eux, le mail est un instrument de torture et ce d’autant plus qu’il est l’outil de l’injonction administrative.
  • ...10 more annotations...
  • Pour les familles modestes, le mail n’est pas un outil de conversation agréable. Il est asynchrone et écrit. Envoyer et attendre une réponse ne correspond pas aux valeurs du face à face dans l’échange, qui reste très fort dans les milieux populaires. Il demeure de l’ordre du courrier, ce qui en fait un dispositif formellement distant.
  • Les usagers ne sont pas contre la dématérialisation pourtant. Le public que j’ai rencontré utilise quotidiennement les applications bancaires par exemple, matins et soirs. Ils n’ont pas de mal à gérer leurs factures en ligne. Mais les relations avec les institutions sociales, en ligne, sont particulièrement difficiles.
  • Les familles disposent bien souvent d’une seule adresse mail partagée. C’est un moyen de tenir un principe de transparence familial… (et de surveillance : une femme ne peut pas recevoir de courrier personnel). Ce principe de transparence se retrouve également dans les comptes Facebook, dans les SMS,… La famille intervient sur les comptes de ses membres, on regarde les téléphones mobiles des uns et des autres. On surveille ce qu’il se dit. Les familles modestes ne voient pas de raison à avoir des outils individuels.
  • Effectivement, l’internet n’est jamais vu comme un moyen de contribution. J’ai demandé ainsi à une femme qui souhaitait se remarier et qui me confiait avoir beaucoup consulté de forums pour se décider à franchir le pas de la famille recomposée… si elle posait des questions sur ces forums. Elle m’a clairement répondu non, comme si c’était impensable. Ce qui l’intéressait c’était la réponse aux questions qu’elle aurait pu poser.
  • Ces partages se font avec des gens qu’on connaît. On ne cherche pas à étendre sa sociabilité.
  • Les gens que j’ai vus ne sortent pas de leur monde, sauf en ce qui concerne les connaissances, mais pas en matière de culture ni de sociabilité. Ils utilisent internet pour apprendre des choses qu’ils ne connaissent pas ou perfectionner des pratiques, comme le tricot, la cuisine, le jardinage… Mais ce n’est pas une ouverture sur des nouveaux goûts culturels. Il n’y en a pas du tout dans mon public. Les liens partagés servent aussi beaucoup à rappeler le passé, à le célébrer ensemble une nostalgie. Leur fonction consiste plus à évoquer une culture commune et à renforcer le consensus qu’à une ouverture culturelle. Mais ces résultats auraient certainement été très différents si j’avais regardé les pratiques de leurs enfants.
  • « Sur le Bon Coin, chacun garde sa fierté ». Y vendre ou y acheter des produits, même très peu chers – et beaucoup des produits qu’on y échange le sont pour quelques euros -, c’est un moyen de conserver sa fierté, d’affirmer qu’on n’est pas des assistés. Il faut entendre l’omniprésence de la peur du déclassement dans ces populations, limites financièrement.
  • En tout cas, il n’y a plus ce qu’observait Olivier Schwartz, à savoir que les femmes trouvaient leur épanouissement dans la tenue du foyer. Il faut dire que contrairement aux enquêtes qu’il a réalisées dans les familles de mineurs, ces femmes travaillent. C’est sans doute la transformation du marché du travail qui fait bouger les lignes à la maison.
  • Pour autant, ce n’est pas la guerre non plus. On trouve plus d’endroits où on échange des maximes célébrant le couple que le contraire. C’est moins vrai pour les hommes célibataires. Dans les milieux populaires, les hommes sans qualification (comme les femmes trop qualifiées) ont du mal à entrer en couples. D’où l’expression d’un vif ressentiment.
  • Les mères, qui se sont mises au jeu et qui ont compris qu’elles étaient accros à leur tour, ont une meilleure compréhension de ce qu’il se passe quand on ne peut pas s’arrêter. Les disputes sur le temps d’écran sont moins présentes. Reste qu’une grande partie de la vie des enfants échappe au périmètre familial et c’est difficile à vivre pour les parents. Ils ont l’impression parfois de contrôler ce que font leurs enfants en ligne, mais ils se trompent.
  •  
    "Alors qu'il n'y a pas si longtemps, la fracture numérique semblait ne pouvoir se résorber, les usagers les plus modestes semblent finalement avoir adopté les outils numériques très rapidement, à l'image de l'introduction de la photographie au début du XXe siècle dans les sociétés rurales traditionnelles qu'évoquait Pierre Bourdieu dans Un art moyen. L'internet des classes dominantes et urbaines a colonisé la société, rapporte Dominique Pasquier dans son étude où elle s'est intéressée aux employées (majoritairement des femmes) travaillant principalement dans le secteur des services à la personne et vivant dans des zones rurales. En matière de temps, d'utilisation des services en lignes, les usages d'internet des plus modestes ont rejoint les taux d'usages des classes supérieures. Reste à savoir si les usages sont les mêmes du haut au bas de l'échelle sociale. Interview."
Aurialie Jublin

De l'imbrication algorithmique | InternetActu.net - 0 views

  • Pour la programmeuse et essayiste Ellen Ullman, le problème est que la programmation est de plus en plus éloignée de la compréhension humaine du fait de l’intrication des programmes, algorithmes et données. Les gens pensent souvent que les algorithmes peuvent être modifiés, mais le plus souvent, ils s’exécutent et évoluent par eux-mêmes (cf. notre dossier, réinventer la programmation). Leurs concepteurs ne les contrôlent pas vraiment et ce d’autant plus qu’ils font appellent à des bases de données, à des bibliothèques de programmes distants, à d’autres algorithmes qui évoluent également.
  • Mais désormais, les algorithmes désignent des systèmes logiciels de prise de décision complexes, avec un nombre de règles et de critères volumineux, souvent interreliés et interdépendants. Or, ils nous ont été toujours présentés comme des promesses d’objectivité, d’où le fait qu’ils se soient étendus à nombre de décisions de la vie courante : octroi de prêts, de prestations, de places… Pourtant, ces décisions ne sont pas sans biais, du fait de la manière même dont ces relations sont conçues par les ingénieurs.
  • Le problème, c’est que quand l’algorithme apprend, nous ne savons plus quels sont les règles et les paramètres qu’il utilise puisqu’il les transforme. Ces algorithmes-là ne sont plus prévisibles et peuvent se mettre à produire des résultats erratiques. Pour Smith ce sont des « algorithmes Frankenstein », des machines qui créent leurs propres règles, comme ceux qui dominent désormais les marchés financiers via les transactions à haute fréquence. Pour Neil Johnson, physicien de la complexité à l’université George Washington, Facebook peut ainsi avoir des algorithmes simples pour reconnaître un visage dans une photo… Mais que se passe-t-il quand des milliers d’algorithmes travaillent ensemble sur des milliards de profils ? « Vous ne pouvez pas prédire le comportement global appris à partir de règles microscopiques ».
  • ...3 more annotations...
  • Pour la mathématicienne Cathy O’Neil (@mathbabedotorg), dans l’environnement algorithmique complexe actuel, il est difficile de définir les responsabilités des différents segments de codes imbriqués les uns aux autres. Les Flash Crash, ces krachs financiers éclair, n’ont pas lieu que sur les marchés financiers. La tarification algorithmique d’Amazon s’emballe aussi parfois en faisant grimper le prix de livres à des hauteurs folles. Or, comprendre où se situe la responsabilité de ces emballements n’est pas si simple. « Comme dans la finance, le déni est intégré au système ».
  • Éviter les conflits de code sur des millions de lignes de code alimentés par des flux d’information constants est extrêmement difficile. Pour l’historien des sciences George Dyson, le problème est que nous construisons des systèmes qui vont au-delà de nos moyens intellectuels pour les contrôler. Or, nous pensons que si un système est déterministe (c’est-à-dire qu’il agit selon des règles fixes), alors il est prévisible et que s’il est prévisible alors il peut être contrôlé. Mais ces deux hypothèses sont fausses, estime Dyson. « La loi d’Ashby dit qu’un système de contrôle doit être aussi complexe que le système qu’il contrôle ». Mais cela se révèle difficile. Nous ne savons pas tester cette complexité de manière exhaustive.
  • Une étude sur les attaques par drones au Pakistan entre 2003 et 2013 a ainsi montré que 2 % des personnes tuées par drones étaient des cibles présentant une menace. 20 % étaient considérés comme des non-combattants… Et 75 % étaient des cibles… « non identifiés ». Pour elle, nous sommes face à une technologie d’identification très grossière. Dans ce contexte, la perspective du développement d’armes autonomes laisse plus que perplexe. Pour Lilly Irani (@gleemie) de l’université de Californie, les choix des concepteurs d’algorithmes nous sont trop souvent présentés comme objectifs quand ils cachent des enjeux politiques.
  •  
    "On se souvient de la mort d'Elaine Herzberg, première humaine tuée par une voiture autonome en mars 2018 (voir l'enquête qu'en dressait l'écrivain Thierry Crouzet). Pour le Guardian, le journaliste Andrew Smith (@wiresmith) revient sur les hésitations de l'algorithme de la voiture à reconnaître ce qu'il se passait."
Aurialie Jublin

Appel aux ingénieurs face à l'urgence climatique - C'est maintenant. - 0 views

  • Comme cette remarque d’un collègue « Tu te rends compte, cette génération d’ingénieurs brillants qui dédient leur temps à faire cliquer des gens sur des pubs… » Pourquoi ?Google Apple Facebook Amazon, façonnent notre quotidien, dépassent les états et sont maintenant des forces qui ébranlent nos sociétés : évasion fiscale, contrôle des données personnelles, bouleversement de l’information, incitation à la consommation à renfort de publicité et d’obsolescence programmée. Pourquoi ?
  • La Charte d’Éthique de l’Ingénieur lit entre autres :« L’ingénieur est […] moteur de progrès. »« [il] fait prendre conscience de l’impact des réalisations techniques sur l’environnement. »« L’ingénieur cherche à atteindre le meilleur résultat […] en intégrant les dimensions […] économique, […], sociale et environnementale. »« [il] sait admettre ses erreurs, […] et en tirer des leçons pour l’avenir. »
  • Internet a 30 ans. Mais pour son inventeur, « sa créature lui a échappé ».Aujourd’hui, la data et l’intelligence artificielle sont annoncées comme le pétrole du 21e siècle et son moteur. Peut-être plus juste qu’on ne croit : le numérique génère déjà plus d’émissions que l’aviation civile. Pensons bien à ces questions pour que cette nouvelle créature-là ne nous échappe pas.
  • ...4 more annotations...
  • Préservons-nous du temps, pour nous informer.Rappelons-nous de lever le nez du guidon, questionnons, interrogeons nos fascinations, discutons, gardons le doigt sur le pouls du monde. N’attendons pas d’avoir 30 ans. C’est maintenant.
  • Et avec éthique et conscience, agissons, collectivement.Il y a un monde à réinventer, si nous apprenons du passé et avons le courage d’oser au présent. C’est maintenant.
  • Project Drawdown, un comité d’experts et de scientifiques a aussi évalué les initiatives les plus prometteuses pour réduire massivement les émissions de gaz à effet de serre. Une mine d’idées assez précises à y trouver parmi les 100 initiatives les plus impactantes.
  • Nous pouvons également imaginer de nouveaux modèles pour une économie durable :Développer l’économie circulaire et le marché de l’occasion par exemple. Connaissez-vous la Blue Economy ?Repensez les services et infrastructures que nous utilisons comme plateformes en commun, au service de l’intérêt collectif et non d’intérêts privés.
  •  
    "Il y a quelques semaines, j'ai été contactée par les alumni de mon école d'ingénieur - Télécom Paristech - pour venir témoigner de mon expérience lors de la cérémonie de remise des diplômes de la promotion 2018, et donner quelques conseils aux jeunes diplômés à l'aube de leur carrière. Alors moi-même en pleine transition professionnelle suite à ma prise de conscience accélérée de l'urgence climatique, je me suis dit que décidément oui, j'avais quelques messages qui me semblaient potentiellement utiles, et que j'aurais sûrement aimé entendre à la cérémonie de remise de diplôme que je n'ai pas vécue il y a 13 ans de cela."
Aurialie Jublin

Les solutions de Tim Berners-Lee pour sauver le web - Le Temps - 0 views

  • Le scientifique a identifié trois problèmes principaux qui minent le web. D’abord, les appels à la haine, les trolls et les fausses informations qui se multiplient sur les réseaux. Ensuite, l’ensemble des actions de piratage, issues d’acteurs privés ou publics. Enfin, comme il l’écrit dans une tribune parue lundi soir, «une conception de système qui crée des incitations perverses dans lesquelles la valeur des utilisateurs est sacrifiée, comme des modèles de revenus basés sur la publicité qui récompensent commercialement les pièges à clics et la propagation virale de la désinformation».
  • A la tête de la Web Foundation, Tim Berners-Lee a présenté fin 2018 un «Contrat pour le web», sorte de charte des droits et devoirs des gouvernements, entreprises et particuliers. Mais pour le chercheur, qui n’appelle pas forcément à davantage de lois, ce document théorique ne suffit pas. Il faut agir sur les données. «Il y a la nécessité très forte, aujourd’hui, de séparer les applications des données, affirme-t-il. Ces programmes peuvent accéder et traiter vos photos, vos informations, vos contacts, etc., il n’y a pas de problème à cela. Mais vous devez avoir un contrôle permanent et total sur vos informations. C’est vous qui devez autoriser tel ou tel service à y accéder.»
  • Tim Berners-Lee a pour ce faire lancé sa propre entreprise, Inrupt, qui collabore avec le Massachusetts Institute of Technology (MIT). Le physicien développe actuellement le projet Solid, qui vise à stocker les données personnelles des internautes dans des serveurs cloud ou physiquement chez soi. Le particulier décide ensuite quel service (LinkedIn, Facebook, Flickr, etc.) a accès à quelles données. «Le concept est simple, mais il s’agit d’un renversement total par rapport à la logique actuelle, avance Tim Berners-Lee. Nous créons des logiciels en open source pour Solid et nous appelons tous les développeurs intéressés à nous rejoindre.» Le physicien n’avance pas de date pour le lancement de Solid, qui vise selon lui à revenir au web originel, lorsque beaucoup de personnes connectées avaient leur propre site web.
  •  
    "Trente ans après l'invention du web, son créateur Tim Berners-Lee s'inquiète des dérives du réseau. De passage mardi au CERN, à Genève, il a présenté plusieurs pistes pour réparer un système qui a changé le monde"
Cécile Christodoulou

Minimal : le plugin qui préserve le temps de cerveau disponible - 0 views

  •  
    "Tim Krief (@timkrief), étudiant ingénieur à l'initiative du plugin, déclare avoir voulu s'affranchir de la manipulation permise par les design trompeurs ou addictifs (dits aussi « dark patterns »). En cause, les techniques dites « captologiques » qui orientent les utilisateurs malgré eux sur un service et les amènent à l'utiliser plus que ce qui ne leur est réellement utile." "Son extension permet de modifier considérablement les interfaces des services suivants : YouTube, Facebook, Twitter, Google ou encore Amazon. Concrètement, Minimal change les couleurs du service (interfaces, boutons, etc.), le système de recommandations ou encore l'auto-play qui permet à une vidéo de se lancer toute seule sur YouTube."
Aurialie Jublin

Amazon promet de rendre la moitié de ses livraisons neutres en carbone d'ici ... - 0 views

  • Après une année 2018 et un début d'année 2019 marqués par une succession d'annonces et de révélations très polémiques (optimisation fiscale, conditions de travail « critiques », « destruction massive » des invendus), le temps des bonnes résolutions a sonné pour Amazon. Lundi 18 février, l'entreprise a fait part sur son blog de sa nouvelle « vision » : « Nous croyons que baisser les coûts va de pair avec une réduction de l’impact sur l’environnement dans lequel nous vivons et travaillons tous au quotidien ».
  • Cette annonce fait suite à un rapport de Greenpeace publié le 13 février, soit cinq jours plus tôt, accusant AWS (Amazon Web Services) et d’autres géants du cloud computing installés dans la « data center alley », en Virginie, de ne pas alimenter leurs infrastructures à 100 % avec des énergies renouvelables.
  • Selon l’ONG, AWS dispose d’une cinquantaine de data centers de Virginie, et figure parmi les plus grands consommateurs d’électricité de l’État. Or ses centres de traitement des données ne reposeraient qu’à 12 % sur une énergie d'origine renouvelable. C’est beaucoup moins que Facebook (37 %) et Microsoft (34 %), qui se sont, comme Apple et Google, engagés à atteindre 100% d'énergies renouvelables.
  • ...2 more annotations...
  • Amazon a cependant démenti les chiffres avancés par Greenpeace. « En décembre 2018, Amazon et AWS ont réalisé des investissements dans 53 projets d’énergies renouvelables (dont 6 en Virginie) », s’est-elle défendue. « AWS reste fermement engagé à reposer à 100 % sur les énergies renouvelables : elle en était à 50 % en 2018 ».
  • Le géant du e-commerce en a donc profité pour annoncer de nouveaux engagements, cette fois-ci concernant ses émissions de dioxyde de carbone : « Avec les innovations actuelles concernant les véhicules électriques, les carburants bio pour l’aviation, les emballages réutilisables et les énergies renouvelables, pour la première fois, nous voyons se dessiner clairement la voie vers des livraisons neutres en carbone ». 
  •  
    "Le géant de la vente en ligne a annoncé, lundi 18 février, son intention d'atteindre la neutralité carbone pour la moitié de ses livraisons d'ici 2030, dans le cadre d'un programme baptisé « Shipment zero »."
Aurialie Jublin

Règlement terroriste - La Quadrature du Net - 0 views

  • Délégation de la censure aux géants du Web D’un point de vue technique, économique et humain, seule une poignée d’acteurs – les géants du Web – pourront respecter des obligations aussi strictes. Les autres acteurs (commerciaux ou non) n’auront d’autre choix que de cesser leurs activités ou de se soumettre aux outils de modération (filtrage automatique et listes de blocage) développés par Facebook et Google depuis 2015 avec le soutien de la Commission européenne. Ces multinationales deviendront donc les juges de ce qui peut être dit sur Internet. La structure riche, variée et décentralisée du Web est vouée à disparaître.
  • Une loi inutile Ce règlement « anti-terroriste » ne permettra même pas d’atteindre son objectif affiché : empêcher que DAESH ou Al Qaeda diffusent leur propagande auprès des personnes déjà séduites par leurs discours. Il semble absurde de devoir encore le répéter : sur Internet, n’importe quelle loi de blocage peut être contournée par les personnes qui souhaitent accéder aux informations censurées. Les seuls effets de cette loi seront ses dommages collatéraux : le grand public n’aura certes plus à subir les contenus terroristes, mais il n’aura plus connaissance non plus des informations censurées abusivement.
  •  
    "En septembre 2018, sous l'influence de la France et de l'Allemagne, la Commission européenne a proposé un règlement « relatif à la prévention de la diffusion en ligne de contenus à caractère terroriste ». Ce nouveau règlement imposera à tout acteur du Web (hébergeurs de blog ou de vidéos, sites de presse, petits forums ou grands réseaux sociaux) de : Bloquer en une heure n'importe quel contenu signalé comme « terroriste » par la police (sans l'autorisation préalable d'un juge), et donc se tenir à sa disposition 24h/24 et 7j/7. Devancer les demandes de la police en détectant lui-même les contenus illicites à l'aide d'outils de filtrage automatisé. Si un site ne respecte pas ces règles, il risque une amende jusqu'à 4 % de son chiffre d'affaires."
Aurialie Jublin

Society in the loop : vers un intelligence artificielle plus démocratique ? -... - 0 views

  • Mais l’intelligence artificielle se diffuse également dans des sphères qui concernent plus directement la vie publique, et donc la société. Pour ne citer qu’eux : le classement de lycéens après leurs bacs[4], l’automatisation de procédures judiciaires[5] ou des horaires de ramassage scolaire[6], la dérégulation du flux automobile dans les villes dus à l’utilisation d’un service de GPS comme Waze[7], l’utilisation de la reconnaissance faciale dans des lieux publics[8] et privés[9], l’usage de « détecteurs de mensonges » aux frontières[10], la police prédictive[11], ou même plus simplement l’usage de systèmes reposant sur la captation de l’attention de l’utilisateur[12].  A leurs échelles, ces sujets touchent la vie sociale dans des dimensions qui pourraient légitimement demander à ce que des discussions plus démocratiques aient lieu. Ils entrent certes, plus ou moins directement dans la catégorie « intelligence artificielle » mais participent de la numérisation du monde à travers des algorithmes, et feront tous le pas vers l’IA si ce n’est déjà fait.
  • C’est là qu’intervient le passage qualitatif du « human in the loop » (HITL) au « society in the loop » (SITL). Pour le dire simplement, le SITL devient nécessaire lorsqu’un système utilisant l’intelligence artificielle a des implications importantes sur la sphère sociale. Iyad Rahwan explique : « alors que le HITL utilise le jugement d’un individu ou d’un groupe pour optimiser un système pensé trop étroitement, SITL embarque le jugement et les valeurs d’une société vue comme un tout, dans la définition la gouvernance algorithmique[13] de questions sociétales ». En résumé, le SITL est une forme de contrat social entre ceux qui doivent obéir aux règles et ceux qui écrivent les règles.
  • Coupons court au débat qui concerne les bulles de filtres : leur émergence et leurs effets dépendent du paramétrage des algorithmes de Facebook, de Google et des autres services susceptibles de créer ces bulles. Par conséquent, elles restent à leur main, notamment à travers leurs Conditions générales d’utilisation (CGU) et le secret d’affaires qui protègent ces systèmes (et les modèles d’affaires de captation du « temps de cerveau disponible » qui y sont directement liés). Pas de démocratie à cet endroit, quand bien même les impacts sur la démocratie pourraient être réels, même s’ils sont encore mal mesurés. C’est une des premières limites du modèle « Society in the loop ».
  • ...11 more annotations...
  • Dans le cas des véhicules autonomes en revanche, une vaste étude a été réalisée sur plusieurs années par le MIT Lab. Elle a concerné des millions de personne dans 233 pays (à travers le petit jeu http://moralmachine.mit.edu/) et a montré à quel point le traitement des questions éthique est variable, même lorsqu’on parle de conduite automobile ! Comme le relate Hubert Guillaud : « la question éthique diverge selon la culture, le niveau économique et la localisation géographique ; bien plus que selon des préférences individuelles (…) les Japonais ont plutôt tendance à préférer des véhicules qui épargnent les piétons alors que d’autres cultures, comme la culture chinoise, préfèrent des véhicules qui épargnent les passagers. » L’objectif d’une telle étude est d’apporter l’éclairage de la société toute entière afin que le système technique réponde au « bien commun ».
  • A l’initiative de Grégoire Japiot (@gregoire) et Matteo Mazzeri (@matemaz), le projet GEnIAL (voir le site internet) est « Une plateforme qui utilise les interfaces conversationnelles et l’intelligence artificielle afin de permettre à la population d’un territoire de mieux vivre dans sa ville à l’ère de la Smart City en offrant des moyens simples pour accéder aux services des administrations et des autres acteurs de la région. » Le projet, qui se revendique de « Society in the loop », est d’utilité publique et censé resté « la propriété des citoyens », contrairement aux services d’assistants proposés par les géants d’internet. Les données collectées ne sont pas commercialisées et la vie privée reste préservée. Grégoire, le fondateur, précise que les concertations citoyennes sont au cœur du projet. L’idée : intégrer dans le service les retours de la société (citoyens, administrations/institutions publiques, chercheurs et acteurs économiques) en vue d’élaborer des modèles d’apprentissage utilisés pour construire une « intelligence artificielle concertée ».
  • Concrètement, GEnIAL Bot, est une « solution qui vise à permettre aux utilisateurs d’interagir avec l’ensemble des informations d’un territoire via des interfaces conversationnelles de type chatbot et assistant vocal. » Au lieu de devoir utiliser des moteurs de recherche pour identifier les différents sites où se trouvent les informations recherchées ou bien de devoir téléphoner aux services concernés, les utilisateurs peuvent interroger GEnIAL Bot en s’adressant en langage naturel et se laisser guider sous forme de conversations vers l’information. Pour la partie technologique, GEnIAL « dispose d’une convention de partenariat avec le CERN qui lui permet de concevoir avec les équipes les plus pointues, une intelligence artificielle éthique et explicable, dont les modèles d’apprentissage sont pensés de manière à refléter l’identité du territoire et intégrer un processus de concertation continue avec ses habitants. »
  • A une échelle très locale, le projet GEnIAL pourrait entrer dans ce qu’il convient d’appeler la « démocratie technique ». La formule que j’emprunte ici à Callon, Barthes et Lascoumes dans l’ouvrage fondateur Agir dans un monde incertain, Essai sur la démocratie technique (Seuil, 2011) désigne notamment les dispositifs par lesquels des profanes peuvent peser sur les modes de conception et de diffusion des sciences et des techniques. A l’évocation de la démocratie technique, on pense souvent aux grandes polémiques et controverses qui ont agité des sujets technoscientifiques comme les OGM, l’enfouissement des déchets nucléaires, ou encore les traitements contre le SIDA. Ce dernier cas a montré que l’intrusion des malades parmi les experts a pu conduire à améliorer les protocoles des laboratoires pharmaceutiques, alors très éloignés de leurs vies.
  • Si ces exemples peuvent paraître éloignés des questions relatives à l’intelligence artificielle, ils permettent d’entrouvrir une autre dimension de la démocratie technique. Par-delà la pure contestation ou modification a posteriori d’une technique existante, Callon, Barthes et Lascoumes décrivent un modèle de « co-production des savoirs ». Ce modèle postule que les non-spécialistes peuvent produire des connaissances à partir de leurs intérêts propres. Ils sont les plus à même d’entrevoir les risques d’un projet et de les faire reconnaître comme légitimes lors d’une étape de conception commune. Ce faisant, ils participent pleinement à la production des sciences et des techniques. Ce modèle suscite des critiques : on pointe le fait que des profanes ne seraient pas capables de s’exprimer sur un sujet technique, et que par conséquent, l’avis des experts serait toujours supérieur, de meilleure qualité, et devrait être pris en compte en priorité.
  • De nombreux contre-exemples viennent infirmer ces thèses. L’expérience prouve que si les conditions sont réunies, des personnes éloignées d’un sujet technique ou scientifique peuvent tout à fait construire des rapports de grande qualité et reconnus comme tels par les experts eux-mêmes. Ce fut le cas lors des controverses concernant les OGM il y a de cela une vingtaine d’années. Callon, Barthes et Lascoumes racontent également comment les amateurs contribuent à améliorer la connaissance scientifique dans de nombreux domaines, comme par exemple l’astronomie.
  • pourquoi ce traitement démocratique si spécial devrait-il se limiter à l’intelligence artificielle ? Une des raisons est sans doute que l’on pressent que son déploiement va changer le monde et susciter des controverses qu’il vaut mieux anticiper. N’oublions pas cependant que de nombreuses technologies numériques (ou non) changent le monde plus insidieusement et suivant des échelles temporelles qui nous les rendent « invisibles à l’œil nu ». Légitimement, on pourrait aussi poser la question démocratique à leur endroit[20].
  • Ce que la démocratie technique questionne, c’est non seulement l’aménagement du progrès, mais aussi sa définition. C’est-à-dire la direction donnée à la civilisation. Entraîner une intelligence artificielle – même avec la méthodologie Society in the loop – c’est déjà faire le choix d’une intelligence artificielle. Ce qui ne veut pas dire que ce choix soit mauvais. Pas plus qu’il n’est naturellement bon. Disons que c’est un choix parmi d’autres. Ce point chaud qui concerne la définition du progrès est et sera de plus en plus au centre de toutes les questions liant technosciences et démocratie.
  • Parallèlement, l’Université de Montréal a bâti une « Déclaration pour un développement responsable de l’intelligence artificielle[23] ». Cette déclaration décrit dix principes phares pour guider le développement de l’IA, parmi lesquels un « principe de bien être » ou encore un « principe d’inclusion de la diversité » (
  • Toutes les controverses techniques n’ont pas vocation à passer sous les fourches caudines de la démocratie, il existe une multitude d’autres échelons pour co-construire, réguler, interdire ou favoriser des systèmes. En témoignent les nombreuses villes qui se « défendent » contre AirBnb ou Uber puis qui finissent par utiliser les données que ces sociétés récoltent, à d’autres fins (des « arrangements » a posteriori[25]). Par ailleurs, c’est aussi dans les écoles qui forment les ingénieurs, designers et entrepreneurs de demain et bien sûr dans les entreprises elles-mêmes, dont certaines décident d’être plus soucieuses des effets générés par leurs activités, que l’avenir se joue
  • Bien sûr, ces quelques pages souffrent de nombreuses limites et à de multiples niveaux. A mon sens néanmoins, le fond de la question consiste (aussi) à savoir quelle « dose » de démocratie nous sommes prêts à mettre dans nos ambitions technologiques. Et en retour, dans quelle mesure les technologies que nous produirons permettront ou non à la démocratie de continuer d’exister[26].
  •  
    "En 2017, Iyad Rahwan (@iyadrahwan), responsable du groupe des coopérations évolutives au MIT posait avec Joi Ito (@Joi) du MIT Medialab le concept de « Society in the loop » (SITL), une méthode pour impliquer différentes parties-prenantes dans la conception d'un système d'apprentissage automatique[1] (ou machine learning), à la base des intelligences artificielles (IA) qui jalonnent le quotidien. L'idée : co-construire plutôt qu'imposer les solutions au grand public, en faisant intervenir dès la phase de conception une diversité d'acteurs. J'en retrace ici un court historique, une illustration et les quelques perspectives et limites qu'il me paraît intéressant de pointer, notamment au regard des questions relatives à ce qu'on appelle la « démocratie technique »."
Aurialie Jublin

[Internet]MIT research scientist David Clark has a 17-point wish list for how to fix th... - 0 views

  • In Designing an Internet, he presents a 17-point wish list for a better internet compiled from policy papers, speeches, and manifestos:Catalog of Aspirations The Internet should reach every person by some means. (Reach) The Internet should be available to us everywhere. (Ubiquity) The Internet should continue to evolve to match the pace and direction of the larger IT sector. (Evolution) The Internet should be used by more of the population. (Uptake) Cost should not be a barrier to the use of the Internet. (Affordable) The Internet should provide experiences that are sufficiently free of frustration, fears, and unpleasant experiences that people are not deterred from using it. (Trustworthy) The Internet should not be an effective space for lawbreakers. (Lawful) The Internet should not raise concerns about national security. (National Security) The Internet should be a platform for vigorous innovation and thus a driver of the economy. (Innovation) The Internet should support a wide range of services and applications. (Generality) Internet content should be accessible to all without blocking or censorship. (Unblocked) The consumer should have choices in their Internet experience. (Choice) The Internet should serve as a mechanism for the distribution of wealth among different sectors and countries. (Redistribution) The Internet (and Internet technology, whether in the public network or not) should become a unified technology platform for communication. (Unification) For any region of the globe, the behavior of the Internet should be consistent with and reflect its core cultural/political values. (Local values) The Internet should be a tool to promote social, cultural, and political values, especially universal ones. (Universal values) The Internet should be a means of communication between citizens of the world. (Global)
  • He categorizes the aspirations into three pragmatic buckets: utility, economics, and security. But the subtext of each aspiration is a longing for structures that would entice users to be better humans—an internet that is moral.
  • The notion of shutting down the internet to start anew is a fairytale. Any improvement will be incremental, hard-fought and deliberate. Clark notes that even the US Federal Communications Commission which regulates the country’s telecommunications and broadcast media industries isn’t interested in shaping the public character of the internet. Its solution is to encourage competition and hope for the best, as stated in its latest strategic plan. Clearly, the laissez-faire attitude hasn’t exactly worked out for the country.
  • ...2 more annotations...
  • The problem—or the “fundamental tussle,” as Clark puts it—lies in the fact that private companies, not governments control the internet today, and relying on the good conscience of profit-driven technocrats offers little assurance. “That’s a pretty inconsistent hope to lean on,” he says. “Remember, on Facebook, you’re not the customer. You’re the product served to advertisers.”
  • Ultimately, improving the internet hinges on seeing it as public service first, instead of a money-making venture. Barring one global entity with the will and the resources to enforce this, fixing it will be a kind of community project, and one of the most urgent kind.
  •  
    "This refrain echoes across all corners of the internet, and has become a general, all-purpose complaint for all of the bad things we encounter online. Trolling, fake news, dark patterns, identity theft, cyber bulling, nasty 4Chan threads are just some of the symptoms of this corruption. But the first step to fixing the internet requires an understanding of what it actually is."
Aurialie Jublin

[Tribune] Haine en ligne : pour en finir avec des décennies d'indigence des p... - 0 views

  • Notre droit est déjà outillé pour pouvoir identifier et juger des internautes qui abusent de la liberté d’expression, même sous pseudonyme. L’anonymat n’existe pas depuis la LCEN de 2004, et l’article A-43-9 du Code de procédure pénale offre aux enquêteurs un vaste ensemble de possibilités pour identifier le titulaire d’une adresse IP à partir d’un tweet, d’un post Facebook, d’un commentaire sous un article de presse en ligne tel que Next INpact.
  • Mais en pratique, les victimes doivent remuer ciel et terre, le plus souvent avec l’assistance d’un avocat, pour parvenir à un jugement et une condamnation. S’il est indispensable de rappeler aux géants du numérique que tirer un profit de leur activité depuis le territoire national emporte des responsabilités comme celle de collaborer avec la Justice, toute mesure en ce sens restera de l’incantation sans effet si l’État ne donne pas lui aussi l’exemple en gagnant en efficacité. Depuis plusieurs décennies la France se complaît dans le bas de classement en matière de budget de la Justice par habitant. Selon les chiffres publiés par Bercy à l’occasion du Grand Débat, pour 100 euros de dépense publique, la justice, service régalien par essence, est reléguée au dernier rang et ne récolte que… 40 centimes, soit 0,4 %.
  • Trop souvent de nombreuses réquisitions omettent des éléments essentiels (comme le port source ou un horodatage fiable) pour orienter les plateformes et FAI sur l'identification des auteurs d'actes délictueux en ligne. Cet exemple est loin d’être anecdotique, car il explique le faible taux de retour aux réquisitions judiciaires adressées aux plateformes comme l’établissent leurs rapports de transparence : alors que le Royaume-Uni obtient 91 % de réponses positives, la France (qui part de très loin, car il y a peu c'était 30 %) doit se contenter de 69 %.
  • ...2 more annotations...
  • Car la chaîne de lancement des poursuites n’est pas du tout adaptée aux enjeux du numérique. L’accueil des plaignants dans les commissariats est clairement défaillant, et lorsqu’une plainte est enregistrée, le circuit de traitement n’est pas optimal.
  • Pour faire efficacement l’interface avec les géants du numérique et obtenir des délais de réponse rapides, d’autres pays se sont engagés sur la voie d’un parquet spécialisé de compétence nationale, à l’image de ce qu’on a su faire pour le terrorisme et le financier avec les succès que l’on connaît. Ainsi, à Madrid en Espagne, plus de 70 magistrats sont affectés pour instruire exclusivement les sujets de délinquance numérique.
  •  
    "Me Alexandre Archambault publie dans nos colonnes une tribune sur la haine en ligne. Sujet épineux qui suscite toutes les attentions, au groupe LR comme au sein de la majorité. Or, selon l'ex-responsable des affaires règlementaires de Free, notre droit est déjà suffisamment outillé. Il souffre toutefois de trop d'obstacles, pas seulement financiers."
Aurialie Jublin

Demain, les nains… - Framablog - 0 views

  • Les géants du numérique, avec leurs « licornes » à plusieurs milliards de dollars, nous ont confisqué le potentiel d’Internet. Alimentée par la très courte vue et la rapacité du capital-risque et des start-ups, la vision utopique d’une ressource commune décentralisée et démocratique s’est transformée en l’autocratie dystopique des panopticons de la Silicon Valley que nous appelons le capitalisme de surveillance. Cette mutation menace non seulement nos démocraties, mais aussi l’intégrité même de notre personne à l’ère du numérique et des réseaux1.
  • Alors que la conception éthique décrit sans ambiguïté les critères et les caractéristiques des alternatives éthiques au capitalisme de surveillance, c’est l’éthique elle-même qui est annexée par les Big Tech dans des opérations de relations publiques qui détournent l’attention des questions systémiques centrales2 pour mettre sous les projecteurs des symptômes superficiels3.
  • Small Tech elle est conçue par des humains pour des humains 4 ; elle n’a pas de but lucratif 5 ; elle est créée par des individus et des organisations sans capitaux propres6 ; elle ne bénéficie d’aucun financement par le capitalisme de la surveillance des Big Tech7 ; elle respecte la vie privée par défaut8 ; elle fonctionne en pair à pair9 ; elle est copyleft10 ; elle favorise les petits plutôt que les grands, les simples plutôt que les complexes et tout ce qui est modulaire plutôt que monolithique11 ; elle respecte les droits humains, leurs efforts et leur expérience12 ; elle est à l’échelle humaine13.
  • ...6 more annotations...
  • Ces critères signifient que la Small Tech : est la propriété des individus qui la contrôlent, et non des entreprises ou des gouvernements ; respecte, protège et renforce l’intégrité de la personne humaine, des droits humains, de la justice sociale et de la démocratie à l’ère du numérique en réseau ; encourage une organisation politique non-hiérarchisée et où les décisions sont prises à l’échelle humaine ; alimente un bien commun sain ; est soutenable ; sera un jour financée par les communs, pour le bien commun. ne rapportera jamais des milliards à quiconque.
  • Des entreprises comme Google et Facebook sont des fermes industrielles pour les êtres humains. Leurs produits sont les machines agricoles. Ils doivent fournir une façade brillante pour garder notre attention et nous rendre dépendants afin que nous, le bétail, puissions volontairement nous autoriser à être exploités. Ces institutions ne peuvent être réformées. Les Big Tech ne peuvent être réglementées que de la même manière que la Big Tobacco pour réduire ses méfaits sur la société. Nous pouvons et devrions investir dans une alternative éthique : la Small Tech
  • Nous construisons la Small Tech principalement pour le bien commun, pas pour faire du profit. Cela ne signifie pas pour autant que nous ne tenons pas compte du système économique dans lequel nous nous trouvons actuellement enlisés ou du fait que les solutions de rechange que nous élaborons doivent être durables. Même si nous espérons qu’un jour Small Tech sera financé par les deniers publics, pour le bien commun, nous ne pouvons pas attendre que nos politiciens et nos décideurs politiques se réveillent et mettent en œuvre un tel changement social. Alors que nous devons survivre dans le capitalisme, nous pouvons vendre et faire des profits avec la Small Tech. Mais ce n’est pas notre but premier. Nos organisations se préoccupent avant tout des méthodes durables pour créer des outils qui donnent du pouvoir aux gens sans les exploiter, et non de faire du profit. Small Tech n’est pas une organisation caritative, mais une organisation à but non lucratif
  • La vie privée, c’est avoir le droit de décider de ce que vous gardez pour vous et de ce que vous partagez avec les autres. Par conséquent, la seule définition de la protection de la vie privée qui importe est celle de la vie privée par défaut. Cela signifie que nous concevons la Small Tech de sorte que les données des gens restent sur leurs appareils. S’il y a une raison légitime pour laquelle cela n’est pas possible (par exemple, nous avons besoin d’un nœud permanent dans un système de pair à pair pour garantir l’accessibilité et la disponibilité), nous nous assurons que les données sont chiffrées de bout en bout et que l’individu qui possède l’outil possède les clés des informations privées et puisse contrôler seul qui est à chacun des « bouts » (pour éviter le spectre du Ghosting)
  • La configuration de base de notre technologie est le pair à pair : un système a-centré dans lequel tous les nœuds sont égaux. Les nœuds sur lesquels les individus n’ont pas de contrôle direct (p. ex., le nœud toujours actif dans le système pair à pair mentionné dans la note précédente) sont des nœuds de relais non fiables et non privilégiés qui n’ont jamais d’accès aux informations personnelles des personnes.
  • La Small Tech est conçue par des humains, pour des humains ; c’est une approche résolument non-coloniale. Elle n’est pas créée par des humains plus intelligents pour des humains plus bêtes (par exemple, par des développeurs pour des utilisateurs – nous n’utilisons pas le terme utilisateur dans Small Tech. On appelle les personnes, des personnes.) Nous élaborons nos outils aussi simplement que possible pour qu’ils puissent être compris, maintenus et améliorés par le plus grand nombre. Nous n’avons pas l’arrogance de supposer que les gens feront des efforts excessifs pour apprendre nos outils. Nous nous efforçons de les rendre intuitifs et faciles à utiliser. Nous réalisons de belles fonctionnalités par défaut et nous arrondissons les angles.
  •  
    "Et si les géants de la technologie numérique étaient concurrencés et peut-être remplacés par les nains des technologies modestes et respectueuses des êtres humains ? Telle est l'utopie qu'expose Aral Balkan ci-dessous. Faut-il préciser que chez Framasoft, nous avons l'impression d'être en phase avec cette démarche et de cocher déjà des cases qui font de nous ce qu'Aral appelle une Small Tech (littéralement : les petites technologies) par opposition aux Big Tech, autrement dit les GAFAM et leurs successeurs déjà en embuscade pour leur disputer les positions hégémoniques. Article original sur le blog d'Aral Balkan : Small technology"
Aurialie Jublin

Derrière les promesses de l'intelligence artificielle, le cauchemar du "digit... - 0 views

  • En l’absence de régulation, le digital labor préfigure le pire du travail : un monde de travailleurs isolés, privés de droits sociaux et iolés les uns des autres, livrés aux conditions léonines des employeurs — et accomplissant des tâches standardisées, fragmentées, peu qualifiées et dépourvues de sens global. Ici et là, des tentatives de régulation ou de création de plateformes équitables sont en cours. Il est urgent de les soutenir, si l’on ne veut pas que le développement croissant de l’automatisation ne soit synonyme non d’une disparition du travail, mais de sa dégradation irrémédiable.
  • Cet imaginaire largement libertarien irrigue profondément la culture du web depuis ses débuts et s’incarne, par exemple, dans la figure du hacker ou de l’entrepreneur nomade, du passionné qui s’accomplit dans un « projet professionnel qui est aussi existentiel ». Mais Antonio Casilli note combien cette vision est élitiste et ne prend pas en compte l’asymétrie des forces dans un marché du travail en berne où le chômage est élevé et l’ascenseur social en panne,
  • « Ce ne sont pas les machines qui font le travail des hommes, mais les hommes qui sont poussés à réaliser un digital labor pour les machines en les accompagnant, en les invitant, en les entraînant », résume le chercheur. Les intelligences artificielles doivent toujours être paramétrées, entraînées et encore très largement supervisées par des humains, malgré les progrès des méthodes d’apprentissage non supervisés. Les progrès fulgurants des IA ces dernières années sont surtout dus à l’explosion des quantités de données d’entraînement : or celles-ci doivent être triées, annotées, préparées par des humains. Et enfin, ces programmes doivent être évalués et corrigés pour pouvoir s’améliorer. Ainsi, les utilisateurs vont utiliser pendant plusieurs années une version beta du service Gmail de Google, pour l’améliorer, ou tagger leurs amis sur des photos et contribuer ainsi sans nécessairement en avoir conscience à l’affinement du service de reconnaissance faciale de Facebook : « C’est un travail humble et discret, qui fait de nous, contemporains, à la fois les dresseurs, les manouvriers et les agents d’entretien de ces équipements. » La question que pose l’intelligence artificielle et l’automatisation, ce n’est donc pas celle de la menace sur l’emploi – mais celle de la transformation profonde du travail pour répondre aux besoins de la machine.
  •  
    "Un spectre hante l'intelligence artificielle, c'est le digital labor. Le dernier livre du sociologue Antonio Casilli , spécialiste des réseaux sociaux et des mutations du travail à l'ère numérique, dresse un panorama sombre des nouvelles formes de travail déconsidéré ou invisible apparues avec l'essor des plateformes et de l'automatisation."
Aurialie Jublin

TRIBUNE. Comment la France s'est vendue aux Gafam - Le Point - 0 views

  • L'histoire du déclin du numérique français est une tragédie en trois actes. Il y eut d'abord les «  30 honteuses du numérique  », où une petite élite arrogante et dénuée de vision stratégique a démantelé notre industrie informatique et électronique grand public. Elle a débranché les travaux de recherches les plus intéressants et laissé nos meilleurs développeurs partir à l'étranger faute de pouvoir les associer à des projets ambitieux. Vient ensuite la capitulation vis-à-vis des grands acteurs américains. Ainsi, de nombreux politiques et hauts fonctionnaires français leur ont permis d'intégrer leurs technologies au cœur des prérogatives régaliennes de l'État : défense, renseignement, éducation, sécurité, mais aussi culture. Plusieurs d'entre eux quitteront leurs fonctions pour aller rejoindre ces sociétés. Le troisième acte se joue en ce moment. Alors que nos dirigeants se préparent à une vente à la découpe, il reste cependant un mince espoir d'inventer une autre manière d'utiliser le réseau plus en phase avec nos principes et nos valeurs. Mais pouvons-nous encore changer la doctrine des politiques numériques de la France  ? Quand on écoute nos hommes politiques, le déclassement de l'Europe vis-à-vis de l'Internet est présenté comme une fatalité. Un accident de l'Histoire à l'issue duquel les clés du monde de demain auraient été données aux États-Unis et à la Chine.
  • Nous aurions pu avoir un autre destin, car si les États-Unis avaient la vision et l'argent, c'est en Europe qu'ont été inventées deux des briques fondamentales de l'Internet : Linux et le Web. Mais à la différence du standard GSM, ces dernières ont eu le malheur d'être conçues par des individus talentueux hors des grandes institutions. Snobés chez nous, ces deux projets deviendront le moteur des plateformes numériques américaines et chinoises et l'instrument de leur domination mondiale.
  • Tout commence dans les années 70, avec l'abandon du réseau Cyclades de Louis Pouzin au profit du Minitel. Louis Pouzin en est le concepteur et il est l'inventeur de la segmentation des données en «  Datagramme  ». Il sera récompensé (avec Tim Berners-Lee et Vinton Cerf) par la reine d'Angleterre pour ses contributions essentielles à la création de l'Internet et il reste à ce jour un inconnu du grand public en France. Il faudra attendre 1994 pour que nos chercheurs acceptent enfin de s'intéresser à autre chose qu'à des technologies incompatibles avec l'Internet.
  • ...8 more annotations...
  • Quasiment au même moment, Alcatel décide de transférer ses usines vers la Chine. Son PDG veut appliquer la stratégie du «  fabless  », à savoir délocaliser la production tout en conservant le design en France. Ce sera une grossière erreur d'analyse. Lorsque les smartphones deviennent un succès international, la France n'a plus de capacités industrielles dans ce secteur, alors qu'elle était l'un des principaux fabricants dans le monde.
  • Alors que la Silicon Valley parie sur les talents et les start-up, la France préfère s'embourber dans des grands projets institutionnels sans avenir. Mais ces projets permettent aux politiques de faire des annonces et aux industriels déjà établis de bénéficier de la manne de l'argent public. Ainsi, le projet Quaero, qui visait à créer un «  Google Européen  », a été lancé par Jacques Chirac. Il terminera rapidement dans les oubliettes technologiques. Plus récemment, le Cloud souverain, qui se targuait d'être la réponse française à Amazon et Microsoft, sera abandonné en rase campagne puis revendu (et sans ironie aucune)… au chinois Huawei. Au final, beaucoup d'argent aura été dépensé soit pour concurrencer l'Internet lui-même soit pour contourner les start-up qui voulaient développer des solutions alternatives aux Gafam. C'est une génération entière d'entrepreneurs et de chercheurs que l'on a écartés pour redéfinir la politique industrielle du secteur. Tout récemment, le rapport sur l'intelligence artificielle de Cédric Villani n'a pas fait mention des deux meilleures solutions open sources dans le domaine : SciKit Learn et Keras qui se trouvent être… françaises.
  • L'acte deux commence avec le quinquennat Hollande. Un changement d'attitude va s'opérer vis-à-vis des grandes plateformes. La défaite est désormais entérinée en coulisses. Il ne s'agit plus d'exister au niveau mondial, mais de négocier avec les Gafam tout en faisant mine de s'indigner publiquement de leurs abus de position dominante.
  • Microsoft est devenue le partenaire de l'Éducation nationale, et Google le parrain de la Grande École du Numérique. La société de Big Data Palantir, proche des services secrets américains, a conclu un contrat avec la DGSI (et peut-être la DGSE  ?), et elle est également présente chez Airbus. Enfin, à l'échelon des collectivités territoriales, les régions vont s'appuyer sur Facebook pour «  la formation au numérique  ».Comment, dans ces conditions, se plaindre des conséquences des réseaux sociaux et de l'impact des Gafam sur notre démocratie quand nous leur avons ouvert si largement les portes de l'État  ?
  • En effet, ce gouvernement prend un risque inconsidéré en pariant notre avenir sur une hypothétique transformation numérique autour de «  l'intelligence artificielle  ». Si nous ne nous donnons pas les moyens de réguler la manière dont ses entreprises et ce type de technologies fonctionnent, nous pourrions détruire notre modèle social en tentant de copier ceux de la Chine ou des États-Unis. L'ironie du sort veut que, désormais, certains industriels et chercheurs américains s'appuient sur l'Europe et sa réglementation sur les données personnelles pour sortir d'un modèle numérique qui n'est pas «  durable  ». Aux États-Unis, le ministère de la Santé a ainsi lancé une grande étude sur l'impact des écrans et le Sénat a analysé, dans un rapport très détaillé, les manipulations des réseaux sociaux qui ont eu lieu lors de la dernière campagne présidentielle.
  • Il existe pourtant un scénario de sortie de crise. En effet, la meilleure réponse à la crise de confiance systémique vis-à-vis des Gafam est de soutenir les mouvements autour des technologies «  éthiques  ». Il s'agit d'un nouveau terrain de croissance industrielle pour l'Europe, comme le Bio l'a été pour l'agriculture. De nombreux entrepreneurs réfléchissent à d'autres façons de concevoir la technologie, s'appuyant beaucoup moins sur la donnée et créant moins d'intrusions vis-à-vis de leurs utilisateurs. C'est le mouvement autour des logiciels éthiques et du Slow Web. Ce mouvement, qui s'est réuni en septembre dernier à Copenhague, souhaite définir un meilleur équilibre entre usage numérique et monde réel pour ne pas rendre ces technologies aliénantes. Il prône notamment l'arrêt de certaines pratiques toxiques comme le profilage (micro targeting) ou la manipulation de nos émotions via des messages ciblés sur nos mobiles dont nous avons vu les conséquences désastreuses lors du référendum sur le Brexit ou l'élection américaine.
  • Nous devons désormais exiger que les choix technologiques faits par l'État (comme les décisions politiques dans ces domaines) soient lisibles et compréhensibles par l'ensemble des citoyens… Car s'il s'agit de faire de la France une colonie numérique des plateformes et qui ne profiterait qu'à une petite bourgeoisie d'Internet, alors il faudra le dire clairement  
  • Il est temps également de voir émerger une nouvelle forme de résistance citoyenne. Car l'usage de ces technologies n'est pas neutre, la substitution de l'action de l'État par des algorithmes rend caduque l'égalité de traitement entre chaque Français. Le remplacement de nos services publics par un «  État plateforme  » totalitaire (à l'instar du «  Crédit social  » qui voit chaque Chinois recevoir une note qui détermine leur capacité à se déplacer ou à obtenir un crédit) n'est pas la vision que nous souhaitons promouvoir. C'est pourtant ce qui se prépare dans certains cabinets ministériels lorsqu'il est question d'État plateforme…
  •  
    "Pour le pionnier du Web français Tariq Krim, l'histoire du déclin du numérique français est une tragédie en 3 actes. Il existe pourtant une sortie de crise."
Aurialie Jublin

The next billion users : une immersion dans l'internet des pauvres - Digital Society Forum - 0 views

  • Rien n’y fait : équipés d’Internet, les pauvres ne font pas du tout ce qu’on attend d’eux, à savoir se sortir de la pauvreté. Les cabines numériques disposées dans les villages indiens deviennent des bornes d’arcade et, surprise, les cent millions d’ordinateurs de l’opération « One laptop per child » (financée par des entreprises, notamment AMD, Brightstar Corporation, eBay, Google, Marvell, etc.) n’ont pas réduit le fossé éducatif, sans doute parce qu’ils avaient été distribués à des enfants ne sachant parfois ni lire ni écrire. Des absurdités de ce type, l’autrice en dresse une longue liste, comme ces smartphones que l’on distribue à de jeunes femmes n’ayant le droit de s’en servir que pour passer des appels d’urgence. A New Delhi, d’autres jeunes femmes (les « computer girls ») deviennent des craques de l’informatique, mais restent assignées à leur statut traditionnel, système de castes oblige. Le constat est sans ambiguïté : non seulement la technologie tombe du ciel sans être intégrée dans une quelconque stratégie sociale, mais toute tentative de réappropriation est méprisée et découragée.
  • Histoire similaire en Chine, où l’on craignait que les cybercafés populaires ne favorisent les activités anti-régime. Ils furent rapidement interdits aux mineurs et on y généralisa le tracking, une pratique désormais monnaie courante dans l’Empire du Milieu. D’exemple en exemple, Payal Arora démontre que les décisions prises par les pouvoirs en place n’ont eu de cesse de réduire l’accès à Internet et à la culture aux personnes les moins dotées, sous prétexte que l’usage qui en serait fait n’entrerait pas dans les bons standards de moralité. Comme souvent, les pauvres font l’objet de politiques paternalistes : on leur demande d’être vertueux et le moindre faux pas les condamne.
  • A l’inverse, la débrouille des quartiers défavorisés est érigée en exemple à suivre. La mode de l’innovation frugale (ou « Jugaad innovation » ) qui consiste à innover avec des ressources limitées, en témoigne. En Inde par exemple, la customisation des véhicules afin de transporter plus de passagers est souvent mise en avant. Cependant, elle augmente sensiblement le nombre d’accidents : « la frugalité a un coût, celui de la sécurité », écrit Arora. Les Nano cars de Tata – des petites voitures accessibles au plus grand nombre – quant à elles, sont certes pratiques mais occasionnent de lourds dégâts environnementaux : rien ne dit aujourd’hui que ces innovations améliorent réellement la vie des pauvres, affirme la chercheuse
  • ...9 more annotations...
  • Plus grave encore, il y a fort à parier qu’elles freinent les solutions de plus long terme comme par exemple le développement de transports publics accessibles à tous. Côté mobile, une application comme AquaSift permet de détecter la toxicité de l’eau mais ne résout en rien le fait que dans beaucoup de communautés pauvres, y accéder reste difficile. On ne change pas le gouvernement avec une application. Si l’innovation frugale rencontre un succès fulgurant en Occident, ce n’est que parce que nous en avons totalement romantisé l’image.
  • En somme, la frugalité (Jugaad en Inde, « Shan-zaï » en Chine, « Gambiarra », « Bacalhau » ou « Jeitinho » au Brésil) est aussi une forme de solutionnisme technologique qui repose, une fois encore, sur la confortable conviction que les pauvres ont toutes les ressources en eux pour s’en sortir, pourvu qu’ils articulent habilement leurs problèmes aux dernières technologies disponibles.
  • Payal Arora n’a pas de mots assez durs pour dénoncer la vaste supercherie du système. Non seulement aucune relation de causalité n’a prouvé son efficacité, mais en plus, il structure l’éducation dans un sens qui pose une multitude de questions d’ordre éthiques et politiques. Ainsi, ces appareils et les programmes soi-disant éducatifs avec lesquels ils fonctionnent restent des boîtes noires, indisponibles à tout audit sérieux. L’expérimentation, qui dure 75 jours, nécessite la présence d’un ou plusieurs adultes dont on ne connaît pas la rémunération et le protocole de suivi des enfants est tout sauf rigoureux scientifiquement. Des études plus sérieuses ont rapporté que la plupart des machines ne fonctionnaient pas, faute de connexion Internet. Et quand elles marchaient, elles étaient souvent monopolisés par de jeunes garçons devant des jeux vidéos. Enfin, les contenus pédagogiques, souvent en anglais, présentent un danger pour la pérennité des langues traditionnelles. Pour le professeur Mark Warschauer (University of California), cité par Arora, ces dispositifs sont un échec total. Pourtant, Mitra a bien récolté un million d’euros grâce au Ted Prize pour cette « école dans le cloud » résolument inefficace… Pour Arora, cette triste histoire trouve ses racines dans la foi encore trop peu contestée dans le constructivisme , une théorie qui stipule que l’enfant peut apprendre seul et sans professeur.
  • En prenant un peu de hauteur, la chercheuse critique plus largement une certaine forme de philanthropie très à la mode dans les milieux technologiques. Elle l’accuse ouvertement d’être contre-productive et de servir les intérêts de grandes corporations plus que des populations pauvres : « la technologie est devenue une institution en soi, la pauvreté une opportunité. La croyance néolibérale en l’efficacité absolue du marché transforme n’importe quelle inégalité en actif pour l’innovation. » Pour Arora, cette idéologie vient justifier la nécessité de tester sur les moins aisés de nouvelles solutions qu’un riche Occidental n’imaginerait même pas pour ses propres enfants. Les pauvres n’ont pas besoin de plus d’innovation, mais de moins d’innovation, affirme-telle : « Si l’innovation est une courroie de transmission pour des projets pilote, alors les pauvres seront mieux sans. Ils ne devraient pas servir de rats de laboratoires pour les nouvelles technologies. Le simple fait qu’une technologie est nouvelle ne devrait pas justifier en soi qu’on l’expérimente sur des pauvres ».
  • Sa dénonciation englobe aussi le projet « AltSchool » largement financé par Mark Zuckerberg et Priscilla Chan, une sorte de « classe Ikea », où les enfants terminent seuls devant des écrans, pour un prix conséquent et sans que son efficacité réelle soit démontrée. Le plus grand problème selon elle, reste que le marché pardonne plus facilement les défaillances technologiques qu’humaines : la Silicon Valley peut réinjecter des millions de dollars pour trouver une nouvelle solution technique à un problème ancien, mais elle refuse de réfléchir aux problèmes de fond, comme le manque de professeurs ou l’état désastreux des écoles dans certains quartiers.
  • En dernière partie d’ouvrage, Payal Arora attaque les questions liant surveillance et vie privée. On le savait déjà, les pauvres en ont toujours été surveillés. Le « social credit system » chinois et son cousin indien « Unique Digital Number » (UID) sont ainsi connus pour conforter les hiérarchies sociales en place et agir par contagion : en Chine, fréquenter une personne dont le score est bas revient à prendre le risque de voir baisser son propre score. On en déduirait un peu rapidement que dans les pays pauvres, et plus généralement en dehors de l’Occident, la vie privée aurait moins de valeur aux yeux des individus. A y regarder de près, cela semble un peu plus compliqué. En interrogeant plus largement les usages quotidiens des réseaux sociaux dans les favelas et autres bidonvilles, Arora montre qu’ici comme là-bas, la vie privée n’est pas sans valeur ni abstraite, mais un concept avant tout lié à des particularités culturelles. Au Brésil par exemple, une jeune femme déclare ne pas en vouloir à sa mère de la « stalker » en ligne (c’est-à-dire à suivre ces déplacements, fouiller ses messages et autres réseaux d’amis)
  • En Inde, Facebook est pour de nombreux jeunes l’occasion de parler au sexe opposé, chose difficile dans la vie réelle. Le Chat est à ce titre tout à fait adapté à la romance, à travers des poèmes et autres conversations romantiques. Cependant, à l’échelle mondiale, un tiers de ces échanges se font anonymement, avant tout pour protéger les données personnelles et par souci de réputation, notamment en Asie.
  • Arora en profite pour démonter les profonds préjugés qui tendent nous à faire croire que parce que l’on est pauvre, parce que l’on vit dans une communauté étroitement liée, parfois à plusieurs dans une même pièce, on ne valoriserait pas la vie privée. En réalité, les pauvres, dans les pays étudiés par Arora, ne sont pas moins attachés à la confidentialité que les Occidentaux, même si celle-ci prend différentes significations en fonction des pays, des cultures et des genres. Dans un village en Jordanie, la confidentialité sert avant tout à protéger la vertu féminine et l’honneur masculin (préserver son image dans la communauté, ne pas s’exposer publiquement pour les femmes). Dans une famille aisée du Royaume-Uni, elle préserve l’innocence des jeunes (notamment à travers le filtrage des contenus). Plus encore qu’en Occident, préserver sa confidentialité dans les pays pauvres relève de la lutte car le succès immense des réseaux amène aussi son lot de danger : « revenge porn » et harcèlement peuvent ruiner la réputation d’un individu, conduire à l’exil et même au suicide.
  • The Next Billion Users, Digital Life Beyond the West est, en résumé, une étude inestimable, formidablement documentée et regorgeant d’illustrations plus pertinentes les unes que els autres. Loin des théories globalisantes qui tendent à mettre dans un même sac « Les Chinois », « Les Indiens », quitte à les opposer à l’Occident dans une lutte pour la puissance technologique, cette enquête de terrain vient au contraire contredire nos préjugés sur ce monde que nous jugeons bien souvent à l’emporte-pièce et sans nous embarrasser de détails. A travers son étude et notamment ses entretiens et anecdotes, la chercheuse met en lumière les relents colonialistes qui ponctuent les relations Nord-Sud, notamment en matière numérique. Arora brise notre propension à romantiser la pauvreté, à ne l’envisager qu’à travers nos lunettes postcoloniales, comme une tribu de bons sauvages qu’il faudrait éduquer à notre mode de vie. Enfin, elle réduit en poussière le fantasme du pauvre débrouillard, entrepreneur par nature, auto-organisé et vertueux. Cette vision, biaisée, n’a pour objet que d’asseoir les projets technocratiques de l’Occident, qui ne regarde que ses intérêts propres et surtout pas ceux des populations « à civiliser ».
  •  
    "A quoi ressemble l'Internet des pauvres ? Pas à l'image romantique forgée par la philanthropie occidentale, explique l'anthropologue Payal Arora. Pourtant, cette conception paternaliste de la pauvreté informe toujours nombre d'initiatives de développement par la technologie, qui s'apparentent à une nouvelle forme de solutionnisme."
« First ‹ Previous 61 - 75 of 75
Showing 20 items per page