Skip to main content

Home/ QN2019/ Group items tagged temps

Rss Feed Group items tagged

Aurialie Jublin

Les données de Google sont devenues une mine d'or pour la police américaine -... - 0 views

  • Le recours à cette technique d’investigation, utilisée pour la première fois en 2016, a « fortement augmenté » ces six derniers mois, assurent les employés de Google interrogés par le New York Times. Un salarié parle d’un record de 180 requêtes comptabilisées en une seule semaine. Google refuse de commenter ces chiffres. Que lui demande exactement la police ? Un mandat pour avoir accès à une gigantesque base de données qui contient la position géographique précise de plusieurs centaines de millions d’appareils dans le monde depuis près de dix ans. Google, l'appelle, en interne, « Sensorvault ».
  • La police indique une zone géographique et une période de temps, Google lui fournit la liste de tous les appareils présents au moment et au lieu indiqués. Une fois que la police a enquêté et réduit son champ de recherches à quelques appareils, Google révèle les noms et adresses mail de leurs propriétaires. Et ce au risque d’arrêter des innocents, s’inquiète le New York Times. 
  • Ces recherches posent par ailleurs une question constitutionnelle, car le quatrième amendement stipule qu’un mandat doit avoir une portée limitée et établir des motifs probables et suffisants. Or, le mandat demandé à Google peut parfois concerner des zones et des plages horaires étendues, ou même s’éloigner de la demande initiale jusqu’à « offrir un portrait précis des habitudes d’un individu ». Enfin, Google ne dispose pas des données de tous les appareils - les données de géolocalisation peuvent être désactivées - sa vue est donc biaisée, et incomplète.
  • ...2 more annotations...
  • Les révélations du New York Times sur Sensorvault rappellent les nombreuses questions éthiques et légales posées par les requêtes de la police ou de la justice, toujours plus nombreuses, faites aux entreprises de la tech. On se souvient d’Amazon qui, en 2016, s’était refusée à donner à la justice américaine les enregistrements de l’enceinte connectée d’un homme accusé d’avoir tué un de ses amis. L’homme avait finalement clamé son innocence et autorisé Amazon à fournir les données réclamées, et les charges contre lui avaient été abandonnées.
  • Les entreprises de la tech ne sont pas les seules à intéresser la police. Les bases de données des plateformes proposant des tests ADN dits « récréatifs » suscitent également la convoitise du FBI. Pendant l’été 2018, les quatre entreprises dominant le secteur avaient toutes promis qu’elle ne laisseraient pas la police entrer dans leurs bases de données sans mandat, mais quelques semaines plus tard, « Family Tree DNA autorisait déjà le FBI à télécharger l’ADN récupéré sur des cadavres et des tâches de sang et à naviguer dans la base de données comme n’importe quel client, en regardant les noms et les relations entre les utilisateurs. »
  •  
    "La police américaine adresse de plus en plus de requêtes à Google pour géolocaliser des suspects en accédant à une base de données qui contient les positions géographiques de centaines de millions de téléphones dans le monde, a révélé le New York Times. La méthode est critiquée. "
Aurialie Jublin

Amazon promet de rendre la moitié de ses livraisons neutres en carbone d'ici ... - 0 views

  • Après une année 2018 et un début d'année 2019 marqués par une succession d'annonces et de révélations très polémiques (optimisation fiscale, conditions de travail « critiques », « destruction massive » des invendus), le temps des bonnes résolutions a sonné pour Amazon. Lundi 18 février, l'entreprise a fait part sur son blog de sa nouvelle « vision » : « Nous croyons que baisser les coûts va de pair avec une réduction de l’impact sur l’environnement dans lequel nous vivons et travaillons tous au quotidien ».
  • Cette annonce fait suite à un rapport de Greenpeace publié le 13 février, soit cinq jours plus tôt, accusant AWS (Amazon Web Services) et d’autres géants du cloud computing installés dans la « data center alley », en Virginie, de ne pas alimenter leurs infrastructures à 100 % avec des énergies renouvelables.
  • Selon l’ONG, AWS dispose d’une cinquantaine de data centers de Virginie, et figure parmi les plus grands consommateurs d’électricité de l’État. Or ses centres de traitement des données ne reposeraient qu’à 12 % sur une énergie d'origine renouvelable. C’est beaucoup moins que Facebook (37 %) et Microsoft (34 %), qui se sont, comme Apple et Google, engagés à atteindre 100% d'énergies renouvelables.
  • ...2 more annotations...
  • Amazon a cependant démenti les chiffres avancés par Greenpeace. « En décembre 2018, Amazon et AWS ont réalisé des investissements dans 53 projets d’énergies renouvelables (dont 6 en Virginie) », s’est-elle défendue. « AWS reste fermement engagé à reposer à 100 % sur les énergies renouvelables : elle en était à 50 % en 2018 ».
  • Le géant du e-commerce en a donc profité pour annoncer de nouveaux engagements, cette fois-ci concernant ses émissions de dioxyde de carbone : « Avec les innovations actuelles concernant les véhicules électriques, les carburants bio pour l’aviation, les emballages réutilisables et les énergies renouvelables, pour la première fois, nous voyons se dessiner clairement la voie vers des livraisons neutres en carbone ». 
  •  
    "Le géant de la vente en ligne a annoncé, lundi 18 février, son intention d'atteindre la neutralité carbone pour la moitié de ses livraisons d'ici 2030, dans le cadre d'un programme baptisé « Shipment zero »."
Aurialie Jublin

Society in the loop : vers un intelligence artificielle plus démocratique ? -... - 0 views

  • Mais l’intelligence artificielle se diffuse également dans des sphères qui concernent plus directement la vie publique, et donc la société. Pour ne citer qu’eux : le classement de lycéens après leurs bacs[4], l’automatisation de procédures judiciaires[5] ou des horaires de ramassage scolaire[6], la dérégulation du flux automobile dans les villes dus à l’utilisation d’un service de GPS comme Waze[7], l’utilisation de la reconnaissance faciale dans des lieux publics[8] et privés[9], l’usage de « détecteurs de mensonges » aux frontières[10], la police prédictive[11], ou même plus simplement l’usage de systèmes reposant sur la captation de l’attention de l’utilisateur[12].  A leurs échelles, ces sujets touchent la vie sociale dans des dimensions qui pourraient légitimement demander à ce que des discussions plus démocratiques aient lieu. Ils entrent certes, plus ou moins directement dans la catégorie « intelligence artificielle » mais participent de la numérisation du monde à travers des algorithmes, et feront tous le pas vers l’IA si ce n’est déjà fait.
  • C’est là qu’intervient le passage qualitatif du « human in the loop » (HITL) au « society in the loop » (SITL). Pour le dire simplement, le SITL devient nécessaire lorsqu’un système utilisant l’intelligence artificielle a des implications importantes sur la sphère sociale. Iyad Rahwan explique : « alors que le HITL utilise le jugement d’un individu ou d’un groupe pour optimiser un système pensé trop étroitement, SITL embarque le jugement et les valeurs d’une société vue comme un tout, dans la définition la gouvernance algorithmique[13] de questions sociétales ». En résumé, le SITL est une forme de contrat social entre ceux qui doivent obéir aux règles et ceux qui écrivent les règles.
  • Coupons court au débat qui concerne les bulles de filtres : leur émergence et leurs effets dépendent du paramétrage des algorithmes de Facebook, de Google et des autres services susceptibles de créer ces bulles. Par conséquent, elles restent à leur main, notamment à travers leurs Conditions générales d’utilisation (CGU) et le secret d’affaires qui protègent ces systèmes (et les modèles d’affaires de captation du « temps de cerveau disponible » qui y sont directement liés). Pas de démocratie à cet endroit, quand bien même les impacts sur la démocratie pourraient être réels, même s’ils sont encore mal mesurés. C’est une des premières limites du modèle « Society in the loop ».
  • ...11 more annotations...
  • Dans le cas des véhicules autonomes en revanche, une vaste étude a été réalisée sur plusieurs années par le MIT Lab. Elle a concerné des millions de personne dans 233 pays (à travers le petit jeu http://moralmachine.mit.edu/) et a montré à quel point le traitement des questions éthique est variable, même lorsqu’on parle de conduite automobile ! Comme le relate Hubert Guillaud : « la question éthique diverge selon la culture, le niveau économique et la localisation géographique ; bien plus que selon des préférences individuelles (…) les Japonais ont plutôt tendance à préférer des véhicules qui épargnent les piétons alors que d’autres cultures, comme la culture chinoise, préfèrent des véhicules qui épargnent les passagers. » L’objectif d’une telle étude est d’apporter l’éclairage de la société toute entière afin que le système technique réponde au « bien commun ».
  • A l’initiative de Grégoire Japiot (@gregoire) et Matteo Mazzeri (@matemaz), le projet GEnIAL (voir le site internet) est « Une plateforme qui utilise les interfaces conversationnelles et l’intelligence artificielle afin de permettre à la population d’un territoire de mieux vivre dans sa ville à l’ère de la Smart City en offrant des moyens simples pour accéder aux services des administrations et des autres acteurs de la région. » Le projet, qui se revendique de « Society in the loop », est d’utilité publique et censé resté « la propriété des citoyens », contrairement aux services d’assistants proposés par les géants d’internet. Les données collectées ne sont pas commercialisées et la vie privée reste préservée. Grégoire, le fondateur, précise que les concertations citoyennes sont au cœur du projet. L’idée : intégrer dans le service les retours de la société (citoyens, administrations/institutions publiques, chercheurs et acteurs économiques) en vue d’élaborer des modèles d’apprentissage utilisés pour construire une « intelligence artificielle concertée ».
  • Concrètement, GEnIAL Bot, est une « solution qui vise à permettre aux utilisateurs d’interagir avec l’ensemble des informations d’un territoire via des interfaces conversationnelles de type chatbot et assistant vocal. » Au lieu de devoir utiliser des moteurs de recherche pour identifier les différents sites où se trouvent les informations recherchées ou bien de devoir téléphoner aux services concernés, les utilisateurs peuvent interroger GEnIAL Bot en s’adressant en langage naturel et se laisser guider sous forme de conversations vers l’information. Pour la partie technologique, GEnIAL « dispose d’une convention de partenariat avec le CERN qui lui permet de concevoir avec les équipes les plus pointues, une intelligence artificielle éthique et explicable, dont les modèles d’apprentissage sont pensés de manière à refléter l’identité du territoire et intégrer un processus de concertation continue avec ses habitants. »
  • A une échelle très locale, le projet GEnIAL pourrait entrer dans ce qu’il convient d’appeler la « démocratie technique ». La formule que j’emprunte ici à Callon, Barthes et Lascoumes dans l’ouvrage fondateur Agir dans un monde incertain, Essai sur la démocratie technique (Seuil, 2011) désigne notamment les dispositifs par lesquels des profanes peuvent peser sur les modes de conception et de diffusion des sciences et des techniques. A l’évocation de la démocratie technique, on pense souvent aux grandes polémiques et controverses qui ont agité des sujets technoscientifiques comme les OGM, l’enfouissement des déchets nucléaires, ou encore les traitements contre le SIDA. Ce dernier cas a montré que l’intrusion des malades parmi les experts a pu conduire à améliorer les protocoles des laboratoires pharmaceutiques, alors très éloignés de leurs vies.
  • Si ces exemples peuvent paraître éloignés des questions relatives à l’intelligence artificielle, ils permettent d’entrouvrir une autre dimension de la démocratie technique. Par-delà la pure contestation ou modification a posteriori d’une technique existante, Callon, Barthes et Lascoumes décrivent un modèle de « co-production des savoirs ». Ce modèle postule que les non-spécialistes peuvent produire des connaissances à partir de leurs intérêts propres. Ils sont les plus à même d’entrevoir les risques d’un projet et de les faire reconnaître comme légitimes lors d’une étape de conception commune. Ce faisant, ils participent pleinement à la production des sciences et des techniques. Ce modèle suscite des critiques : on pointe le fait que des profanes ne seraient pas capables de s’exprimer sur un sujet technique, et que par conséquent, l’avis des experts serait toujours supérieur, de meilleure qualité, et devrait être pris en compte en priorité.
  • De nombreux contre-exemples viennent infirmer ces thèses. L’expérience prouve que si les conditions sont réunies, des personnes éloignées d’un sujet technique ou scientifique peuvent tout à fait construire des rapports de grande qualité et reconnus comme tels par les experts eux-mêmes. Ce fut le cas lors des controverses concernant les OGM il y a de cela une vingtaine d’années. Callon, Barthes et Lascoumes racontent également comment les amateurs contribuent à améliorer la connaissance scientifique dans de nombreux domaines, comme par exemple l’astronomie.
  • pourquoi ce traitement démocratique si spécial devrait-il se limiter à l’intelligence artificielle ? Une des raisons est sans doute que l’on pressent que son déploiement va changer le monde et susciter des controverses qu’il vaut mieux anticiper. N’oublions pas cependant que de nombreuses technologies numériques (ou non) changent le monde plus insidieusement et suivant des échelles temporelles qui nous les rendent « invisibles à l’œil nu ». Légitimement, on pourrait aussi poser la question démocratique à leur endroit[20].
  • Ce que la démocratie technique questionne, c’est non seulement l’aménagement du progrès, mais aussi sa définition. C’est-à-dire la direction donnée à la civilisation. Entraîner une intelligence artificielle – même avec la méthodologie Society in the loop – c’est déjà faire le choix d’une intelligence artificielle. Ce qui ne veut pas dire que ce choix soit mauvais. Pas plus qu’il n’est naturellement bon. Disons que c’est un choix parmi d’autres. Ce point chaud qui concerne la définition du progrès est et sera de plus en plus au centre de toutes les questions liant technosciences et démocratie.
  • Parallèlement, l’Université de Montréal a bâti une « Déclaration pour un développement responsable de l’intelligence artificielle[23] ». Cette déclaration décrit dix principes phares pour guider le développement de l’IA, parmi lesquels un « principe de bien être » ou encore un « principe d’inclusion de la diversité » (
  • Toutes les controverses techniques n’ont pas vocation à passer sous les fourches caudines de la démocratie, il existe une multitude d’autres échelons pour co-construire, réguler, interdire ou favoriser des systèmes. En témoignent les nombreuses villes qui se « défendent » contre AirBnb ou Uber puis qui finissent par utiliser les données que ces sociétés récoltent, à d’autres fins (des « arrangements » a posteriori[25]). Par ailleurs, c’est aussi dans les écoles qui forment les ingénieurs, designers et entrepreneurs de demain et bien sûr dans les entreprises elles-mêmes, dont certaines décident d’être plus soucieuses des effets générés par leurs activités, que l’avenir se joue
  • Bien sûr, ces quelques pages souffrent de nombreuses limites et à de multiples niveaux. A mon sens néanmoins, le fond de la question consiste (aussi) à savoir quelle « dose » de démocratie nous sommes prêts à mettre dans nos ambitions technologiques. Et en retour, dans quelle mesure les technologies que nous produirons permettront ou non à la démocratie de continuer d’exister[26].
  •  
    "En 2017, Iyad Rahwan (@iyadrahwan), responsable du groupe des coopérations évolutives au MIT posait avec Joi Ito (@Joi) du MIT Medialab le concept de « Society in the loop » (SITL), une méthode pour impliquer différentes parties-prenantes dans la conception d'un système d'apprentissage automatique[1] (ou machine learning), à la base des intelligences artificielles (IA) qui jalonnent le quotidien. L'idée : co-construire plutôt qu'imposer les solutions au grand public, en faisant intervenir dès la phase de conception une diversité d'acteurs. J'en retrace ici un court historique, une illustration et les quelques perspectives et limites qu'il me paraît intéressant de pointer, notamment au regard des questions relatives à ce qu'on appelle la « démocratie technique »."
Aurialie Jublin

[GAFA] Facebook est aussi néfaste pour la démocratie que fumer l'est pour la ... - 0 views

  • "Pour inciter à manipuler l'attention, il s'agit avant tout de s'attaquer aux éléments les plus faibles de la psychologie humaine. Il ne suffit plus de savoir beaucoup de choses sur nous. L'objectif est maintenant de changer ce que nous pensons et ce que nous faisons."
  • Jim Steyer a ajouté: "À mon avis, la comparaison avec les cigarettes était impressionnante parce que tout le monde la comprend... Il faut une conversation mondiale à ce sujet et une réglementation sensée des entreprises du secteur de la technologie".
  • Le PDG de Common Sense Media a participé à l'élaboration de nouvelles lois sur la protection de la vie privée en Californie et était à Bruxelles la semaine dernière pour discuter avec les législateurs de la loi européenne sur la protection de la vie privée, du RGPD, ainsi que d'autres réglementations relatives aux technologies.
  • ...1 more annotation...
  • Roger McNamee pense que le pouvoir d'entreprises telles que Facebook, Google et Amazon devrait être limité. Dans un article du magazine Time avant la sortie de son livre le mois prochain, il a suggéré de les empêcher de faire des acquisitions et d'empêcher le partage de données entre filiales.
  •  
    "Lors de la réunion annuelle du forum économique mondial à Davos, certains experts tech ont évoqué la comparaison entre Facebook et le tabagisme faite par le patron de Salesforce, Marc Benioff.  "Les incitations à manipuler l'attention concernent uniquement les éléments les plus faibles de la psychologie humaine", a déclaré Roger McNamee, ancien mentor de Mark Zuckerberg, à Business Insider. McNamee et Jim Steyer, fondateur de Common Sense Media, estiment qu'il est temps de réglementer de manière stricte - et même de démanteler Facebook."
Aurialie Jublin

Nouvelles formes d'emploi et retraite : quels enjeux ? quelles réponses adapt... - 0 views

  • Dans cette perspective, il est essentiel de réfléchir aux moyens de tenir compte des transformations actuelles en matière de parcours professionnels. ainsi, quels sont les mécanismes de solidarité à mettre en œuvre pour prendre en compte les trajectoires d’emploi à temps partiel, avec des revenus du travail limités et/ou variables ? Quel équilibre trouver entre l’équité, liée aux cotisations payées par chacun, et la solidarité vis-à-vis des actifs qui ont travaillé mais perçu des revenus durablement faibles ? Dans quelle mesure le système de retraite peut-il aujourd’hui et demain favoriser ou freiner les mobilités tout au long de la carrière ? en quoi les « nouveaux indépendants » se distinguent-ils des autres travailleurs et des indépendants des générations précédentes ? Quel est l’effort de contribution adapté à ces formes d’emploi ?
  •  
    "Le 16 octobre 2018, France Stratégie et le réseau Sharers & Workers (co-animé par l'ires et astrees) ont organisé une matinée d'ateliers visant à discuter et préciser les enjeux des nouvelles formes d'emploi pour le système de retraite, ainsi qu'à susciter un échange sur les réponses à leur apporter."
Aurialie Jublin

« La small tech sera le poison de la Silicon Valley » - Usbek&Rica - 0 views

  • Votre existence numérique est une extension de vous-même, de votre esprit. Et c’est quelque chose de précieux car, si j'ai des informations sur vous, je peux les utiliser pour manipuler votre comportement. Écoutez les mots que j’utilise : je regarde ce que vous faites, j’en fais la liste, j’essaie de comprendre votre psychologie et de vous manipuler pour que vous fassiez ce que je veux. C’est horrible, c’est de l’abus, non ? C’est une relation de pouvoir. Pourtant, c’est ce que font Google et Facebook, que vous utilisez quotidiennement.
  • Quand Tim Berners Lee l’a imaginé, il l’a voulu en Read-Write (lecture-écriture), c’est-à-dire que vous pouviez écrire sur le web, et pas simplement lire. Mais ce qui est arrivé, c'est le capitalisme : les États-Unis ont perçu le potentiel du Web non pas en tant que média en lecture-écriture, mais en tant que média de diffusion. Et le capital-risque est entré dans la partie. Si vous avez un système basé sur des nœuds (nodes) avec des privilèges inégaux, que vous ajoutez du capital-risque, ces nœuds grandissent et deviennent les monopoles que sont Google et Facebook.
  • La conception du web n’a jamais été décentralisée, seule sa philosophie l’était. Nous savons maintenant qu’une centralisation du pouvoir est insoutenable, que ça détruit littéralement notre habitat. La technologie joue le rôle d'amplificateur : peut-être que toutes ces inégalités existaient avant, mais nous n’avions pas la technologie pour « détruire » le monde. Enfin pas le monde, pardon, plutôt notre habitat : la bactérie va survivre quoi qu'il arrive.
  • ...6 more annotations...
  • Deux choses : nous devons d’abord réglementer les abus du capitalisme de surveillance auxquels se livrent Google et Facebook, puis nous devons financer des alternatives. Nous ne pouvons pas attendre des alternatives qu’elles poussent sur des arbres : ça n’arrivera pas.
  • Il faut se demander quels sont les aspects du problème que vous pouvez changer. J’ai retiré Google de ma vie très facilement : vous n’avez pas besoin d’utiliser Gmail, vous pouvez utiliser Fastmail, qui ne vend pas vos informations personnelles. Et les gens peuvent toujours vous envoyer un email. Framasoft est un bel exemple d’organisation qui œuvre pour la bonne cause : protéger l’être humain et sa dignité à l’ère numérique. C’est une organisation fantastique mais, comparé à Google, ils ne sont qu'une poignée de personnes. Framasoft n'est financé par personne. Le réseau social décentralisé Mastodon est un autre exemple qui va dans ce sens. Et pourtant, le système de taxe de la Commission Européenne bénéficie à des start-up qui construisent la même technologie de surveillance que Google. Mais nous ne finançons pas Mastodon, ni Framasoft, ni Indie, notre minuscule organisme à but non lucratif. Nous n’obtenons aucun fonds de qui que ce soit, si ce n’est parfois de particuliers.
  • Si nous voulons une alternative, nous devons la financer alternativement. Elle ne pourra pas être financée par le capital-risque made in Silicon Valley. Ils ont financé les Google et les Facebook, et ils vont financer le prochain Google et le prochain Facebook, car ils chassent des licornes, des entreprises valant des milliards de dollars.
  • Le Danemark, par exemple, a été le premier pays au monde à nommer un ambassadeur auprès de ses entreprises, un ambassadeur pour la Silicon Valley. C’est la chose la plus absurde qui puisse être faite. Le seul pouvoir que le gouvernement danois a sur ces entreprises, c’est la démocratie. Via son mandat, le gouvernement danois devrait protéger les personnes de Facebook. Au lieu de cela, il élève les entreprises au même niveau que lui. Alors oui, un dispositif comme celui du Grand Barouf a du potentiel.
  • La plupart du temps, lorsque les gens parlent de « décentralisation » du pouvoir, ils disent que la solution, c'est la blockchain. Mais vous avez dit que « la blockchain est un fantasme de masturbation libertaire » : qu’est-ce que vous avez voulu dire par là ? Voilà un bon guide : si vous voyez dans la Silicon Valley des investisseurs en capital-risque investir dans quelque chose, ce n’est pas pour la justice sociale, ce n’est pas pour améliorer les choses. C’est pour enrichir un petit groupe d’hommes riches. Pourquoi parle-t-on aujourd’hui à ce point de la blockchain ? À cause du Bitcoin et des crypto-monnaies, à cause de la possibilité pour certaines personnes de gagner des millions ou des milliards avec ça... Les personnes qui veulent généralement un système totalement digne de confiance sont de vrais libertaires, ils ne veulent pas de justice sociale, ils veulent être ceux qui détiennent les rouages du système.
  • Ce projet, que vous appelez Hypha ou Peer-Web, est-ce une nouvelle version du Web ? Comment cela fonctionne-t-il ? Déjà, la différence avec la blockchain, c’est que nous n’essayons pas d’avoir des milliards de copies de la même base de données, mais de donner à un milliard de personnes leurs propres bases de données, toutes séparées, toutes différentes, à notre image. Avec Hypha, nous faisons une chose simple : nous vous donnons un espace que vous possédez et contrôlez. Vous pouvez ensuite définir ce qui est public de ce qui est privé. Vous avez ce choix initial car vous partez d’un espace que vous possédez.
  •  
    "À l'heure où Facebook essaie de se dépêtrer de ses affaires de chiffrement et où Google se prend les pieds dans un bug qui a rendu publique la vie privée des utilisateurs d'Android TV, l'activiste Aral Balkan revient sur les origines de ce qu'il appelle « le capitalisme de surveillance », en amont de sa venue à Lille le 21 mars à l'occasion du Grand Barouf Numérique."
Aurialie Jublin

Bienvenue dans le «World Wide Fake» - Libération - 0 views

  • Le Web existe officiellement depuis le mois de mars 1989. Il s’est construit sur différentes strates, dont la rétro-archéologie pourrait être la suivante. D’abord, le «World Wide Web». Le Web des documents : ses utilisateurs, ses ingénieurs, ses interfaces et ses intérêts économiques, tout sur la planète web tourne autour de l’axe documentaire. Il faut indexer, classer, donner accès à ce qui va très vite devenir une quasi-infinité de documents d’abord disponibles sous forme de texte, puis d’images, dans des pages et des sites.
  • Ensuite, un «World Live Web» car tout s’accélère, de la production des contenus à leur mise à disposition quasi instantanée dans les architectures de moteurs de recherche qui se font désormais fort d’indexer toute l’actualité et ce en temps réel.
  • uis, le «World Life Web». L’axe autour duquel tourne toute la planète web n’est plus celui des documents mais celui des «profils». Ce qui change tout, tant sur le plan trivial de l’ergonomie que sur celui - crucial - de l’économie.
  • ...8 more annotations...
  • Enfin, avec l’Internet des objets vient alors le règne du «World Wide Wear». Les interfaces sont désormais celles de nos vêtements, elles siègent sous la forme d’enceintes connectées au milieu même de nos maisons. Des technologies littéralement «prêtes à porter» autant qu’elles sont prêtes et toujours «à portée». Et, avec elles, l’anecdotisation des régimes de surveillance qui conduit tout droit au «World Wide Orwell».
  • Nous sommes aujourd’hui à l’étape d’après. Celle du «World Wide Fake». Un environnement, un écosystème dont l’essentiel des interactions est artificiellement fabriqué sur la base d’une spéculation qui n’a d’autre but que de s’entretenir elle-même. Issue d’une forme de capitalisme linguistique se déclinant en un capitalisme de surveillance, cette spéculation avait initialement pour but de nous maintenir le plus attentionnellement captifs possible, nous rappelant sans cesse qu’il fallait interagir, notamment par le biais de ces contremaîtres cognitifs que sont les notifications. Mais aujourd’hui le «faux» se déploie au sein des architectures techniques toxiques de plateformes prédatrices qui ont presque totalement phagocyté tout ce qui fut l’espace public du Web, et contraint nos usages à prendre place dans ces espaces privés et privatifs.
  • Aujourd’hui, «de faux internautes avec de faux cookies et de faux comptes sur des réseaux sociaux effectuent de faux mouvements de souris, activent de faux clics vers de faux sites webs [….], créant un simulacre d’Internet dans lequel la seule chose encore réelle ce sont les publicités», écrit Max Read dans un papier pour le New York Magazine.
  • Nous y sommes et dans des proportions encore plus ahurissantes : presque 52 % du trafic internet mondial en 2016 a été généré par des bots. De faux utilisateurs donc.
  • Le faux est souvent l’autre nom du «mensonge». Et on semble découvrir que tout le monde ment sur le Web. Puisque chacun est seul à disposer de ses propres chiffres au service de ses propres certitudes ou de ses propres intérêts comment pourrait-il en être autrement ? On a découvert, presque étonnés, que Facebook avait menti sur les chiffres d’audience de ses vidéos, qu’il mentait également sur les métriques liées à «l’engagement». On a découvert que Google mentait si on lui posait la question de savoir si l’Holocauste avait vraiment existé. On a compris qu’en plus de leurs architectures techniques toxiques, les grandes plateformes disposaient chacune de leur propre régime de vérité - celui de la popularité pour Google et celui de l’engagement pour Facebook - qui rendait encore plus difficile la construction d’un espace culturel commun permettant de faire société
  • Au niveau géopolitique même, de faux comptes utilisant de fausses publicités ont permis d’influencer le résultat de vraies élections. Les technologies de l’artefact, les «Deep Fakes», qui permettent à moindre coût de truquer le réel avec un effet de vraisemblance quasi indétectable, sont aujourd’hui en passe de devenir des technologies «grand public» : on peut grâce à elles remplacer le visage d’un acteur par celui d’un autre dans un film mais également modifier la vocalisation du discours tenu par un homme politique pour lui faire dire ce que l’on veut.
  • Ce faisant, c’est tout ce qui dans notre société permettait d’établir la valeur de preuve d’une image, d’un discours, d’un témoignage ou d’un fait, qui vole en éclats et qu’il nous faut réapprendre à définir et à construire. Voilà des années qu’avec d’autres, je milite pour une prise en compte et une intervention sur la dimension non pas économique mais simplement politique des grandes plateformes.
  • Hannah Arendt est morte en 1975 et n’a donc jamais connu Internet. Dans un entretien de 1974 sur la question du totalitarisme, elle écrivait ceci : «Quand tout le monde vous ment en permanence, le résultat n’est pas que vous croyez ces mensonges, mais que plus personne ne croit plus rien. Un peuple qui ne peut plus rien croire ne peut se faire une opinion. Il est privé non seulement de sa capacité d’agir mais aussi de sa capacité de penser et de juger. Et, avec un tel peuple, vous pouvez faire ce qu’il vous plaît.» C’est très exactement cela, le risque et la promesse du World Wide Fake si nous n’y faisons rien : la conjugaison d’un emballement spéculatif autour d’une industrie publicitaire de la falsification et de l’altération et l’annonce d’un effondrement de notre capacité collective à faire société dans un espace public commun. Et, avec un tel peuple, vous pouvez faire ce qu’il vous plaît
  •  
    "Aujourd'hui, plus de la moitié du trafic internet mondial est généré par des bots, c'est-à-dire des faux utilisateurs, qui manipulent les audiences et orientent les débats. Et c'est notre capacité collective à faire société qui est en jeu."
Aurialie Jublin

TRIBUNE. Comment la France s'est vendue aux Gafam - Le Point - 0 views

  • L'histoire du déclin du numérique français est une tragédie en trois actes. Il y eut d'abord les «  30 honteuses du numérique  », où une petite élite arrogante et dénuée de vision stratégique a démantelé notre industrie informatique et électronique grand public. Elle a débranché les travaux de recherches les plus intéressants et laissé nos meilleurs développeurs partir à l'étranger faute de pouvoir les associer à des projets ambitieux. Vient ensuite la capitulation vis-à-vis des grands acteurs américains. Ainsi, de nombreux politiques et hauts fonctionnaires français leur ont permis d'intégrer leurs technologies au cœur des prérogatives régaliennes de l'État : défense, renseignement, éducation, sécurité, mais aussi culture. Plusieurs d'entre eux quitteront leurs fonctions pour aller rejoindre ces sociétés. Le troisième acte se joue en ce moment. Alors que nos dirigeants se préparent à une vente à la découpe, il reste cependant un mince espoir d'inventer une autre manière d'utiliser le réseau plus en phase avec nos principes et nos valeurs. Mais pouvons-nous encore changer la doctrine des politiques numériques de la France  ? Quand on écoute nos hommes politiques, le déclassement de l'Europe vis-à-vis de l'Internet est présenté comme une fatalité. Un accident de l'Histoire à l'issue duquel les clés du monde de demain auraient été données aux États-Unis et à la Chine.
  • Nous aurions pu avoir un autre destin, car si les États-Unis avaient la vision et l'argent, c'est en Europe qu'ont été inventées deux des briques fondamentales de l'Internet : Linux et le Web. Mais à la différence du standard GSM, ces dernières ont eu le malheur d'être conçues par des individus talentueux hors des grandes institutions. Snobés chez nous, ces deux projets deviendront le moteur des plateformes numériques américaines et chinoises et l'instrument de leur domination mondiale.
  • Tout commence dans les années 70, avec l'abandon du réseau Cyclades de Louis Pouzin au profit du Minitel. Louis Pouzin en est le concepteur et il est l'inventeur de la segmentation des données en «  Datagramme  ». Il sera récompensé (avec Tim Berners-Lee et Vinton Cerf) par la reine d'Angleterre pour ses contributions essentielles à la création de l'Internet et il reste à ce jour un inconnu du grand public en France. Il faudra attendre 1994 pour que nos chercheurs acceptent enfin de s'intéresser à autre chose qu'à des technologies incompatibles avec l'Internet.
  • ...8 more annotations...
  • Quasiment au même moment, Alcatel décide de transférer ses usines vers la Chine. Son PDG veut appliquer la stratégie du «  fabless  », à savoir délocaliser la production tout en conservant le design en France. Ce sera une grossière erreur d'analyse. Lorsque les smartphones deviennent un succès international, la France n'a plus de capacités industrielles dans ce secteur, alors qu'elle était l'un des principaux fabricants dans le monde.
  • Alors que la Silicon Valley parie sur les talents et les start-up, la France préfère s'embourber dans des grands projets institutionnels sans avenir. Mais ces projets permettent aux politiques de faire des annonces et aux industriels déjà établis de bénéficier de la manne de l'argent public. Ainsi, le projet Quaero, qui visait à créer un «  Google Européen  », a été lancé par Jacques Chirac. Il terminera rapidement dans les oubliettes technologiques. Plus récemment, le Cloud souverain, qui se targuait d'être la réponse française à Amazon et Microsoft, sera abandonné en rase campagne puis revendu (et sans ironie aucune)… au chinois Huawei. Au final, beaucoup d'argent aura été dépensé soit pour concurrencer l'Internet lui-même soit pour contourner les start-up qui voulaient développer des solutions alternatives aux Gafam. C'est une génération entière d'entrepreneurs et de chercheurs que l'on a écartés pour redéfinir la politique industrielle du secteur. Tout récemment, le rapport sur l'intelligence artificielle de Cédric Villani n'a pas fait mention des deux meilleures solutions open sources dans le domaine : SciKit Learn et Keras qui se trouvent être… françaises.
  • L'acte deux commence avec le quinquennat Hollande. Un changement d'attitude va s'opérer vis-à-vis des grandes plateformes. La défaite est désormais entérinée en coulisses. Il ne s'agit plus d'exister au niveau mondial, mais de négocier avec les Gafam tout en faisant mine de s'indigner publiquement de leurs abus de position dominante.
  • Microsoft est devenue le partenaire de l'Éducation nationale, et Google le parrain de la Grande École du Numérique. La société de Big Data Palantir, proche des services secrets américains, a conclu un contrat avec la DGSI (et peut-être la DGSE  ?), et elle est également présente chez Airbus. Enfin, à l'échelon des collectivités territoriales, les régions vont s'appuyer sur Facebook pour «  la formation au numérique  ».Comment, dans ces conditions, se plaindre des conséquences des réseaux sociaux et de l'impact des Gafam sur notre démocratie quand nous leur avons ouvert si largement les portes de l'État  ?
  • En effet, ce gouvernement prend un risque inconsidéré en pariant notre avenir sur une hypothétique transformation numérique autour de «  l'intelligence artificielle  ». Si nous ne nous donnons pas les moyens de réguler la manière dont ses entreprises et ce type de technologies fonctionnent, nous pourrions détruire notre modèle social en tentant de copier ceux de la Chine ou des États-Unis. L'ironie du sort veut que, désormais, certains industriels et chercheurs américains s'appuient sur l'Europe et sa réglementation sur les données personnelles pour sortir d'un modèle numérique qui n'est pas «  durable  ». Aux États-Unis, le ministère de la Santé a ainsi lancé une grande étude sur l'impact des écrans et le Sénat a analysé, dans un rapport très détaillé, les manipulations des réseaux sociaux qui ont eu lieu lors de la dernière campagne présidentielle.
  • Il existe pourtant un scénario de sortie de crise. En effet, la meilleure réponse à la crise de confiance systémique vis-à-vis des Gafam est de soutenir les mouvements autour des technologies «  éthiques  ». Il s'agit d'un nouveau terrain de croissance industrielle pour l'Europe, comme le Bio l'a été pour l'agriculture. De nombreux entrepreneurs réfléchissent à d'autres façons de concevoir la technologie, s'appuyant beaucoup moins sur la donnée et créant moins d'intrusions vis-à-vis de leurs utilisateurs. C'est le mouvement autour des logiciels éthiques et du Slow Web. Ce mouvement, qui s'est réuni en septembre dernier à Copenhague, souhaite définir un meilleur équilibre entre usage numérique et monde réel pour ne pas rendre ces technologies aliénantes. Il prône notamment l'arrêt de certaines pratiques toxiques comme le profilage (micro targeting) ou la manipulation de nos émotions via des messages ciblés sur nos mobiles dont nous avons vu les conséquences désastreuses lors du référendum sur le Brexit ou l'élection américaine.
  • Nous devons désormais exiger que les choix technologiques faits par l'État (comme les décisions politiques dans ces domaines) soient lisibles et compréhensibles par l'ensemble des citoyens… Car s'il s'agit de faire de la France une colonie numérique des plateformes et qui ne profiterait qu'à une petite bourgeoisie d'Internet, alors il faudra le dire clairement  
  • Il est temps également de voir émerger une nouvelle forme de résistance citoyenne. Car l'usage de ces technologies n'est pas neutre, la substitution de l'action de l'État par des algorithmes rend caduque l'égalité de traitement entre chaque Français. Le remplacement de nos services publics par un «  État plateforme  » totalitaire (à l'instar du «  Crédit social  » qui voit chaque Chinois recevoir une note qui détermine leur capacité à se déplacer ou à obtenir un crédit) n'est pas la vision que nous souhaitons promouvoir. C'est pourtant ce qui se prépare dans certains cabinets ministériels lorsqu'il est question d'État plateforme…
  •  
    "Pour le pionnier du Web français Tariq Krim, l'histoire du déclin du numérique français est une tragédie en 3 actes. Il existe pourtant une sortie de crise."
Aurialie Jublin

Si c'est pourri c'est que t'es pas le bon produit (ma réponse à Mark Zuckerbe... - 0 views

  • D'abord il indique qu'il ne changera pas de modèle économique. Et que la publicité continuera donc d'être l'alpha et l'oméga. Sur cette base il est évident que Facebook ne peut que continuer de s'enfoncer dans une série de scandales qui finiront probablement par avoir la peau de la plateforme
  • sur la base du modèle économique actuel et de l'architecture technique qui le sert, toutes les logiques d'exposition et de circulation de contenus sont biaisées et entretiennent et maximisent les effets de polarisation et autres Fake News. Je reste donc convaincu que la seule issue - pour Facebook - est de basculer dans un modèle payant. Comme le font d'ailleurs de plus en plus les grosses plateformes (Youtube Red par exemple). Et qu'il finira par le faire mais qu'il a encore besoin d'un ou deux scandales planétaires pour s'en convaincre.
  • Ensuite il explique que si c'est pourri c'est que tu n'es pas le bon produit. Plus précisément ce que dit Zuckerberg c'est que si l'expérience utilisateur est pourrie (publicités inappropriées, contenus viraux, promiscuités toxiques, etc.) c'est que l'utilisateur fait mal son boulot.
  • ...2 more annotations...
  • "Sur nos services, vous pouvez gérer les informations que nous utilisons pour vous montrer des publicités, et vous pouvez empêcher n’importe quel annonceur de vous atteindre. Vous pouvez savoir pourquoi vous voyez une réclame, et modifier vos préférences pour voir celles qui vous intéressent. Vous pouvez également utiliser nos outils de transparence pour voir les différentes publicités qu’un annonceur diffuse auprès d’autres personnes."
  • C'est quand même surtout la faute de ces débiles d'utilisateurs qui ne se servent pas des toutes ces potentialités que la plateforme met à leur disposition. Comme résolution pour l'année prochaine je suggère à Mark Zuckerberg d'apprendre le français et, dans la foulée, d'aller lire "Dans l'internet des familles modestes" de Dominique Pasquier. Il y apprendra plein de choses. Parce que bien sûr "Yes we can" Mark. C'est vrai. "Yes we can" mais "No we won't do it mostly and you know it perfectly". On peut "gérer des trucs", "empêcher d'autres trucs", "savoir des trucs", on peut le faire. Mais la plupart du temps on ne le fait pas. J'ai déjà traité mille fois sur ce blog la question du "pourquoi on ne le fait pas" (ou alors pas régulièrement, ou pas complètement) et j'insiste encore une fois sur le fait que Dominique Pasquier démontre remarquablement pourquoi certains d'entre nous le feront encore moins que d'autres au regard de la sociologie et d'une approche "de classe" des usages du web.
  •  
    "Mark Zuckerberg vient de se lancer dans une grosse campagne de communication en publiant une tribune simultanément dans plusieurs très grands journaux dont Le Monde ou le Wall Street Journal. Elle est intitulée : "Je souhaite clarifier la manière dont Facebook fonctionne." Il y rappelle avec raison une première vérité qui est que le métier de Facebook n'est pas de vendre des données personnelles à des annonceurs mais de permettre à des annonceurs d'accéder à un ciblage très fin d'audience pour l'affichage de leurs publicités. La nuance est de taille et je le dis sans aucune ironie.  Mais pour le reste, comment dire ... "
Aurialie Jublin

Modération, tri des données: l'ONU s'inquiète des conditions de travail des «... - 0 views

  • La majeure partie des tâches proposées consiste à compléter des questionnaires, souvent à des fins de recherche scientifique. La collecte de données arrive en second: il peut s'agir par exemple de trouver les adresses mails de tous les podologues d'une ville, moyennant 10 centimes par adresse mail trouvée. Une part non négligeable repose sur la transcription d'images ou d'extraits sonores. C'est grâce à ce type de travaux que les géants du Web entraînent leurs intelligences artificielles. Enfin, la modération de contenus est extrêmement fréquente. Pour l'ONU, toutes ces tâches «ne correspondent pas au niveau d'éducation des travailleurs», qui sont 37% à être titulaire d'un diplôme universitaire.
  • Pire, certains de ces travaux sont extrêmement difficiles sur le plan psychologique: beaucoup de modérateurs souffrent ainsi de syndromes de stress post-traumatiques à force d'être exposés aux contenus les plus sombres du Web (images de torture, de pédopornographie, de massacres...).
  • Pour couronner le tout, les rythmes de travail sont particulièrement soutenus: 43% des sondés travaillent la nuit, 68% travaillent entre 20h et 22h, souvent car ils exercent en parallèle une autre activité professionnelle, les revenus du digital labor ne permettant pas d'en faire une activité à temps plein. Les salaires sont, à l'échelle mondiale, ramenés à la moyenne de 3,31 dollars de l'heure en fourchette basse, 4,43 dollars en fourchette haute (soit entre 2,81 et 3,76 euros). L'enquête démontre qu'une proportion substantielle de travailleurs gagne moins que le salaire minimum de leur lieu de résidence. L'ONU ajoute qu'une part non négligeable de «para-travail» n'est pas payée: pour chaque heure travaillée, au moins 20 minutes sont consacrées à des tâches comme la connexion sur les plateformes, les démarches administratives, chercher de nouvelles tâches, comprendre les énoncés des instructions... À noter également, 90% des répondants affirment avoir déjà été non payés pour des tâches accomplies.
  • ...1 more annotation...
  • Malgré les conditions de travail difficiles, 88% des sondés aimeraient se voir proposer plus de microtâches en ligne afin d'accroître leurs revenus. L'ONU observe que le secteur du digital labor est voué à continuer de se développer étant donné les besoins croissants en main d'œuvre de l'économie numérique. Pour cette raison, l'enquête appelle à une régulation plus ferme des conditions de travail. La majeure partie des travailleurs n'est ainsi couverte par aucune assurance maladie ou civile, ne cotise pas pour la retraite et le revenu gagné échappe souvent au radar des autorités fiscales.
  •  
    "Ces petites mains invisibles sont indispensables pour nettoyer les bases de données, entraîner les intelligences artificielles ou encore assurer la modération des contenus sur le Web. Pour la première fois, une étude de grande ampleur de l'ONU se penche sur ce travail qu'on appelle le «digital labor», et dresse un constat alarmant."
Aurialie Jublin

Christchurch : les pyromanes appelés à éteindre l'incendie - La Quadrature du... - 0 views

  • Facebook fait mine de prendre conscience du problème de viralité lié à la plateforme en promettant aussi de « renforcer ses intelligences artificielles », encore une fois… Comme si, précisément, la « solution magique » de ses filtres automatisés ne venait pas d’être définitivement décrédibilisée, il y a deux mois, par une poignée d’internautes complices du tueur de Christchurch parvenant à les contourner pendant des jours, manifestement sans grand soucis. D’après Facebook, la première journée, 300 000 copies seraient passé au travers de ses filtres automatisés, n’étant traitées que pas son armée de modérateurs sous-payées et exposés aux pires conditions de travail.
  • Surtout, Facebook sait très bien que sa plateforme ne peut pas être corrigée, à moins de renoncer à son modèle économique, tout comme Google ou Twitter, véritable cœur du problème. La raison d’être de ces plateformes est de réunir le plus de personnes possibles en un seul endroit, pour les surveiller et leur proposer la publicité qui les influencera le plus.
  • Il est techniquement et humainement impossible de modérer d’aussi grosses plateformes pour éviter qu’elles ne deviennent des outils de harcèlement, de haine et de mort. Pire, pour maintenir tous nos cerveaux disponibles, leurs « intelligences artificielles » (qui ne se montrent efficaces qu’ici) entretiennent autant que possible la culture du buzz et, par là, le conflit, la caricature, la peur – tout ce qu’il faut pour éviter l’entraide et la cohésion. C’est le prix à payer pour capter plusieurs milliards de cerveaux en même temps, et ils ne renonceront jamais à nous le faire payer (c’est pourquoi nous luttons pour le développement d’un Web décentralisé et à taille humaine).
  • ...3 more annotations...
  • Et, bien sûr, leur emprise s’exerce en marchant sur nos libertés fondamentales, exploitant nos données personnelles et violant le RGPD pour mieux nous contrôler (voir nos plaintes devant la CNIL et la première sanction de celle-ci en réponse contre Google).
  • Il y a 2 mois, le Parlement européen a adopté en première lecture le règlement terroriste, dont l’objectif principal est de généraliser les filtres automatisés de Google et Facebook à l’ensemble du Web – oui, ces mêmes filtres qui viennent de démontrer toute leur inefficacité. Pour imposer ces filtres à tout le monde, le gouvernement français, qui est à l’initiative de ce texte avec l’Allemagne, n’a pas peur de détruire le Web européen composé d’une multitude de petits acteurs et, ainsi, de laisser les GAFAM en maîtres. En vrai, ces géants s’étant montrés particulièrement coopératifs dans l’ambition de Macron de « civiliser » Internet, ils apparaissent comme des alliés de choix qu’il vaudrait mieux laisser régner (voir notre premier bilan sur le règlement terroriste).
  • En ce moment, c’est la proposition de loi LREM « contre la haine en ligne » qui reprend cette entente Macron-GAFAM : les géants s’engagent à faire le travail de la police et de la justice sur Internet et, en échange, le gouvernement les présente en « solutions », légitime leur toute puissance, les laisse tranquille et les invite à tous ses événements sur « comment la technologie sauvera le monde ». Comme on l’a vu dans notre dernier article, cette alliance risque aussi de conduire à la censure de critiques anti-Macron ou de mouvements sociaux un peu trop dérangeants…
  •  
    "Facebook, qui participait au lancement de la campagne aux côtés de Google, a aussitôt répondu : il empêchera désormais ses utilisateurs les plus suspects de diffuser des vidéos en direct - outil qu'avait utilisé le tueur de Christchurch. Cette réponse de Facebook est bien à la hauteur des attentes du gouvernement Macron, qui recevait précisément Mark Zuckerberg la semaine dernière : de la poudre aux yeux pour que surtout rien ne change, au mépris de la gravité des événements. "
Aurialie Jublin

L'écoconception des services numériques comme filière d'excellence, Transform... - 1 views

  • A l'heure où le numérique représenterait 10 % de la consommation mondiale d'électricité et autant d'émissions de gaz à effet de serre que l'aviation civile, il est temps de réduire son empreinte environnementale.  Parmi les leviers d'action, l'écoconception des services numériques est fondamentale . L'enjeu est aussi social car l'absence d'écoconception accentue la fracture numérique. Le phénomène d'« obésiciel » rend certains services numériques trop lents ou inutilisables, notamment sur de vieux équipements et dans les territoires où la connexion et le pouvoir d'achat sont faibles. Il est enfin économique : c'est une promesse d'activité, d'emplois et de réduction de coûts pour nos entreprises.
  • Pour faire émerger la filière d'écoconception de service numérique, nous proposons trois actions. Un, rendre obligatoire la formation à l'écoconception de services numériques dans les formations aux métiers du numérique certifiées par l'Etat. Deux, établir un référentiel de conformité de l'écoconception de service numérique  _ en commençant par les sites Web _ à l'image du référentiel de conformité RGAA (Référentiel général d'accessibilité pour les administrations) pour les personnes en situation de handicap. Trois, inscrire l'obligation d'écoconception des services numériques dans le cadre législatif français (en commençant par les sites Web).
  • Certaines idées reçues nous détournent d'une hiérarchisation des actions. Certes, les centres informatiques consomment beaucoup d'énergie. Il convient d'augmenter encore leur efficience énergétique et de les alimenter en électricité issue d'une énergie renouvelable. Certes, les écogestes numériques sont un levier d'action. L'Ademe publie régulièrement des guides de bonnes pratiques. Mais c'est la fabrication et le renouvellement accéléré de nos 22 milliards de terminaux qui concentre l'essentiel de l'empreinte écologique et des gaz à effet de serre.
  • ...6 more annotations...
  • A l'échelle de l'internet mondial, les terminaux concentrent 65 % du bilan énergétique, 67 % des émissions de gaz à effet de serre, 73 % du potentiel d'épuisement des ressources naturelles non renouvelables et 82 % de la consommation d'eau.
  • Il faut donc en priorité fabriquer moins d'équipements et allonger leur durée de vie. Pour y parvenir, d'une part développons le réemploi de ces produits. D'autre part, déployons l'écoconception des services numériques.
  • Lorsque la mémoire était comptée, les informaticiens étaient plus enclins à concevoir des logiciels à l'architecture et au code synthétiques. Songeons que l'ordinateur, qui a emmené l'homme sur la Lune, disposait d'une mémoire d'environ 70 kilo-octets, soit environ le poids d'un e-mail. Aujourd'hui, les contraintes informatiques étant moindres, il y a inflation de logiciels, plus gourmands en puissance informatique. En vingt ans, de 1995 à 2015, le poids des pages Web a été multiplié par 115, passant de 14 Ko à 1.600 Ko.
  • Les applications de smartphones, conçues et développées en hâte, consomment d'autant plus d'énergie qu'elles sont grasses et actives jour et nuit. Les systèmes d'exploitation de nos ordinateurs ou smartphones imposent des mises à jour évolutives de plus en plus lourdes.
  • Grâce à l'écoconception des services numériques, les retours d'expérience du Collectif conception numérique responsable montrent, sur des cas concrets en France et en Europe, des réductions d'impact environnemental d'un facteur 2 à 70 (changement climatique, épuisement des ressources rares, etc.).
  • Concepteurs d'applications mobiles, de sites Web, d'intelligence artificielle ou tout autre service numérique, les pionniers seront demain, en France, ambassadeurs d'une conception visionnaire des services numériques. En Europe et au-delà, ils seront ces lanternes qui éclairent une troisième voie.
  •  
    " Le numérique français, par la voix de son secrétariat d'Etat, a dessiné une troisième voie entre la Silicon Valley et le modèle chinois en la matière. Lettre à Monsieur Cédric O, nouveau secrétaire d'Etat au numérique"
Aurialie Jublin

Libra : « Jamais aucune société n'a eu autant de pouvoir que Facebook » | Les... - 0 views

  • Cette  monnaie numérique est le dernier étage de la fusée pour l'entreprise américaine. Facebook est déjà un géant médiatique et social d'une puissance inédite, avec plus de 2,4 milliards d'utilisateurs sur sa plateforme. Le fait de créer sa propre monnaie la positionne comme une puissante étatique.A l'échelle de l'humanité, aucune banque ni même un Etat n'a, une fois, été en mesure de proposer une monnaie à plus de 2 milliards d'individus. Le sentiment est, lui, mitigé, car il existe un risque évident en termes d'ingérence envers les activités originellement dévolues à l'Etat et de nombreuses questions relatives à la vie privée. Même si Facebook  promet comme d'habitude de forts standards de confidentialité .
  • Facebook a toujours dit que son prochain milliard d'utilisateurs se trouvait sur les marchés émergents, c'est-à-dire en Amérique du Sud, en Afrique, mais aussi en Inde (la Chine et la Russie n'étant pas accessibles, politiquement parlant). Avec cette monnaie numérique, Facebook vise avant tout à fournir des accès bancaires en ligne aux habitants des pays en développement et leur permettre d'effectuer des opérations monétaires élémentaires.
  • Aucune entreprise n'a jamais possédé un tel pouvoir, étant en mesure de toucher autant de gens quotidiennement et en possédant autant de données individualisées sur eux. Le faire en 15 ans, c'est totalement inédit.Les enjeux de la création d'une monnaie sont énormes, tant en matière de confidentialité, que de commerce et de libre concurrence. Or, Facebook, on l'a vu avec la gestion des discours de haine et de la  désinformation sur sa plateforme , s'est montré incapable de faire sa propre régulation. Celle-ci doit être prise en charge notamment par l'Etat.
  • ...5 more annotations...
  • Aux Etats-Unis comme en Europe, de nombreuses voix réclament le démantèlement de l'entreprise. Quelle est votre opinion ?Le lancement de cette monnaie ne fait que me conforter dans cette idée. C'était un discours très marginal il y a cinq ans. Je milite pour une gestion commune de Facebook, qui s'apparente à une forme de démantèlement. On pourrait s'orienter sur une forme de « commonisation » où on imposerait une gestion plus collaborative, sur le modèle de Wikipédia par exemple.
  • Tout le monde est conscient, aujourd'hui, de la valeur collective et individuelle que peut apporter l'infrastructure qu'a créée Facebook. On rêverait que cette entreprise soit éloignée de toutes ces polémiques. Mais il faut pour cela rompre avec la logique économique, ce qui ne viendra jamais de la firme elle-même.
  • On parle de scinder Facebook en plusieurs entités, chacune avec un objet différent, ou imposer à la société de nouvelles règles faute de quoi elle n'aura plus accès à certains marchés. Mais il faudrait pour cela faire évoluer la doctrine antitrust, qui n'est pas adaptée à l'économie numérique. Il faut en revanche prendre des mesures dans un avenir très proche, sinon il sera trop tard pour le faire. Car une fois que la monnaie sera installée, il sera très difficile que le régulateur la défasse.
  • D'un autre côté, certains analystes avancent que Facebook est en train de se planter un couteau dans le ventre. Le fait de lancer sa propre monnaie risque de déplaire à nombre de régulateurs et de convaincre les indécis qui jugeaient jusqu'ici que Facebook n'était qu'une entreprise commerciale privée comme les autres.
  • Le philosophe Bernard Stiegler expliquait il y a peu que la disruption était une stratégie de tétanisation de l'adversaire, où on le prend en permanence de vitesse, de sorte qu'il n'ait pas le temps de réfléchir à des modes de régulations. C'est un peu ce qui se passe avec Facebook.
  •  
    "Olivier Ertzscheid est maître de conférences et chercheur en sciences de l'information à l'Université de Nantes. Le lancement par Facebook de sa propre monnaie numérique positionne, selon lui, l'entreprise comme une puissance étatique. Un pouvoir qui pose la question de son démantèlement."
Aurialie Jublin

Illectronisme : quelles solutions pour les exclus du numérique ? - U&R - 0 views

  • Le Livre Blanc appelle ainsi les concepteurs à améliorer la simplicité d’accès, estimant qu’une « grande part de responsabilité » incombe aux designers d’interface (UX designers) dans l’intégration des problématiques d’accessibilité aux outils du numérique. « Les concepteurs de sites ont tendance à créer des sites pour eux-mêmes, commente Olivier Sauvage, entrepreneur et fondateur de Wexperience, société de conseil en UX Design. C’est aussi un problème de formation : pendant leurs études, pratiquement aucun UX designer n’entend parler d’illectronisme. Il faut absolument former ceux qui font le web à ces questions-là ».
  • À moins que les personnes concernées par l'illectronisme ne soient aidées par les interfaces vocales. C’est le pari d’Olivier Mejean, directeur de demain.ai, un cabinet de conseil en stratégie spécialisé dans l'intelligence artificielle, et également contributeur du rapport. À ses yeux, la solution peut résider en deux lettres désormais bien connues : IA. « Pour apporter un service à ceux qui ne sont pas capables de communiquer via des interfaces, la meilleure solution n’est-elle pas de créer une interface sans interface ?  », explique-t-il, estimant qu’on peut « récupérer une partie des gens par la voix ».
  • L’apprentissage machine pourrait également permettre d’identifier les « abandonnistes », soit les 19% des Français qui, au cours des douze derniers mois, ont renoncé plus d’une fois à faire quelque chose parce qu’il fallait utiliser Internet. « La machine est capable de déceler les comportements anormaux, et donc d’identifier la personne qui est sur le point d’abandonner et de la rattraper, en lui proposant soit d’appeler un numéro, soit de prendre un rendez-vous, soit d'échanger avec un chatbot ». Soit exactement les stratégies déployées par les sites de e-commerce pour vous rattraper quand vous avez déguerpi avant de « valider votre panier » - leur hantise ultime.
  • ...1 more annotation...
  • Alors que rien ne semble pouvoir arrêter la dématérialisation, le « cyberminimalisme » et l'émergence d'un « droit à la non-connexion qui donnerait le droit, par exemple, d’accéder aux services publics sans passer par un écran, en allant trouver un humain à un guichet » ne semblent donc toujours pas être des options pour notre futur. 
  •  
    "Le Syndicat de la Presse sociale (SPS) publie un Livre Blanc contre l'illectronisme. Un phénomène qui concerne 23% de la population française."
Aurialie Jublin

« Les opérateurs télécom sont devenus les prolétaires du web » - U&R - 0 views

  • Nous sommes en voie de babélisation : Facebook est une tour de Babel, Google en est une autre. La Chine est à ce jour le seul « État plateforme » complet, avec l'imbrication du politique coercitif et du numérique via ces autres silos que sont les BATX (Baidu, Alibaba, Tencent, Xiaomi). Les choix technologiques asymétriques qui ont été faits ne pouvaient que conduire à l'émergence de ces silos. Et dans ces silos, nous passons notre temps à émettre des signaux pour gagner de l'attention. Mais on peut échapper au darwinisme numérique, qui amène les IA à nous remplacer progressivement pour toutes sortes de tâches, des plus fastidieuses aux plus artistiques, comme nous le vantent ceux qui en ont la maitrise, à savoir les gourous de la Silicon Valley. Les opérateurs télécom sont devenus les prolétaires du web alors qu'ils en étaient les maîtres.
  • Existe-t-il une lueur d'espoir, quand même, dans votre vision du futur d'Internet ? Oui, car les protocoles symétriques d'origine, comme la norme IPV6, sont toujours là. Et ça permet la distribution par chacun d'entre nous, au lieu de la confier à ces silos géants, dont le modèle économique repose sur les données que nous leur offrons gratuitement en échange de notre capacité à émettre ces signaux d'attention dont je parlais plus tô. Le péché originel, ce sont les protocoles asymétriques qui nous ont privé de notre singularité. Mais on peut encore croire à un âge de raison des réseaux. Il faudra peut-être 2, 3 ou 4 générations, et ça passera peut-être par des contractions violentes, mais c'est encore possible. C'est nous qui devons agir ! Les États n'agiront pas car agir serait contraire aux intérêts de la surveillance. Et les plateformes n'agiront pas non plus, car ce serait contraire aux intérêts de leurs actionnaires. Nous devons tous aspirer à l'émergence de cet être en réseau, qu'on ne peut décrire mais qui est là, et que la sonde poéitique permet de deviner par moments. Ce sera une révolution copernicienne.
  • Quand Mark Zuckerberg poste une photo de son chien, qui s'appelle Beast, des centaines de milliers de personnes s'intéressent à ce chien, qui n'aurait aucun intérêt si ce n'était pas celui du patron de Facebook. Elle est là, l'asymétrie de l'attention. C'est un changement de perspective dont on a besoin. Et justement, avant Filippo Brunelleschi, vers 1420, il n'y avait pas de perspective dans les tableaux, tout était à plat. Grâce à son bricolage avec un cadre et un miroir, il a donné à voir le monde via les tableaux (qui sont les ancêtres de nos écrans) avec la perspective optique, qui n'existait pas avant lui.
  • ...1 more annotation...
  • Et nous aurons peut-être un jour un grand espace de partage, avec tout le monde à égalité, dans lequel chacun est libre de prendre sa part ou pas, et dans lequel tout le monde sera traité de la même façon s'il décide d'en être. Un tel espace permettrait l'éclosion de communs. Nous sommes aujourd'hui quelques chercheurs à commencer à définir ce nouveau champ de recherche qui n'en est qu'à ses débuts.
  •  
    "« On peut encore croire à un âge de raison des réseaux », nous dit le chercheur Olivier Auber, qui dans son nouveau livre, Anoptikon (FYP éditions, 2019), plaide pour un changement de perspective afin de faire d'Internet le grand espace de partage qu'il promettait d'être à ses débuts."
« First ‹ Previous 61 - 75 of 75
Showing 20 items per page