Skip to main content

Home/ Groups/ QN2019
Aurialie Jublin

Le Défenseur des droits appelle le Gouvernement à respecter les droits des us... - 0 views

  •  
    "Or la responsabilité de l'État est de ne pas dématérialiser un service sans mettre à disposition une alternative papier ou humaine faute de quoi l'usager perd toute possibilité d'échanger avec l'administration lorsqu'un bug informatique se produit ou lorsqu'un dossier est perdu. Nombreux sont les usagers qui ont perdu leur permis et donc leur emploi. Le Défenseur des droits recommande notamment que les services préfectoraux et les centres d'expertise et de ressources des titres (CERT) cessent d'orienter les usagers vers des prestataires privés pour la réalisation de leurs démarches et recommande à l'État de faire en sorte que le site de l'ANTS apparaisse avant les sites privés dans les résultats des moteurs de recherche afin que l'usager ne soit pas amené à payer, par erreur, des prestations qui sont gratuites. Prenant en considération les objectifs du gouvernement de dématérialiser l'ensemble des démarches administratives d'ici 2022, le Défenseur des droits recommande également d'introduire dans la loi une clause de protection des usagers, prévoyant l'obligation d'offrir une voie alternative au service numérique lors de la dématérialisation d'un service public ou d'une procédure administrative. En effet, l'enjeu est celui du maintien de la cohésion sociale : une dématérialisation trop rapide des services publics entraîne des risques d'exclusion et une augmentation du non-recours aux droits, mettant en péril l'égalité de toutes et tous devant le service public qui constitue un principe fondamental de la République. "
Aurialie Jublin

« Il existe deux Internets : celui des « précurseurs » et celui des classes p... - 0 views

  • Ce qui est frappant, c’est que les milieux populaires participent très peu en ligne. Sur Internet, la prise de parole est très fortement associée au niveau de diplôme. Des enquêtes comme celle menée par Trevor Pinch et Filip Kesler montre ainsi que la plupart des top reviewers d’Amazon sont des hommes, très diplômés… Aujourd’hui la vraie fracture est ici, au niveau de la participation et de la production en ligne. C’est comme si maintenant tout le monde avait Internet, mais que certains s’en servaient pour faire des choses que les autres n’osent pas faire. J
  • Il existe ainsi deux Internets : celui des gens qui innovent, produisent, sont créatifs etc. et l’Internet des classes populaires, qui est un Internet à bas bruit, où l’on communique avec les gens de sa famille et qui est très présent dans la vie, très central – mais qui n’est pas le même que l’autre. Et il n’y a pas d’échanges entre l’internet « précurseur » et l’internet à bas bruit, qui est très très important pour ceux qui l’ont, mais n’est pas ouvert sur autre chose.
  • Le hasard heureux, la « sérendipité » en ligne… arrivent plutôt à des gens qui sont très, très diplômés. Ceux que j’ai étudié ne font que recopier ce que les autres ont déjà dit ! Ils communiquent beaucoup avec des images, des textes écrits par d’autres… Cela s’explique relativement bien : beaucoup de ces personnes ne sont pas allés longtemps à l’école. Même si Internet permet d’écrire avec des fautes, elles préfèrent passer par des images et des phrases déjà conçues.
  • ...6 more annotations...
  • Je m’attendais à voir des gens qui n’arrivaient pas à trouver ce qu’ils cherchaient, or ce n’était pas du tout le cas. Ils utilisaient tout le temps Internet pour faire des recherches et pour apprendre. Ils cherchent souvent des savoirs très spécialisés, pratiques : apprendre à jongler, danser telle danse, construire sa maison… Internet fonctionne alors comme une deuxième école, où acquérir des savoirs non certifiés par le système scolaire. Et ça représente des enjeux très forts pour de petites mobilités sociales, pour des gens qui ne sont pas allés à l’école. Je pense par exemple à cet homme qui va très tôt sur le marché de Caen acheter des sacs Chanel, qui a appris en ligne à estimer leur valeur, à rédiger des notices sur son compte Ebay, et qui correspond désormais avec un client anglais et un japonais : il ne parle aucune de ces langues mais il utilise Google Traduction. Ou encore à ce pâtissier qui confectionne des « wedding cakes » et des recettes inspirées par des chefs américains ou japonais dans un tout petit village…
  • En quoi peut-on parler de « petites mobilités sociales » ? Avec Internet, ces gens peuvent, sans changer nécessairement de métier, changer leur manière d’être au monde. Maintenant on peut très facilement récupérer des informations qui étaient auparavant complètement inaccessibles, faute d’interlocuteurs, de ressources... Des femmes employées dans des maisons de retraite, dans des positions très subalternes, des agents de service par exemple, me racontaient qu’elles rentraient chez elles le soir et cherchaient des mots employés par les médecins dans la journée. Le lendemain, elles avaient repris un peu de « pouvoir », comme diraient les gens qui travaillent avec le concept d’empowerment. Il y a indéniablement une ouverture sur des zones de connaissance et de façon d’être moins, à défaut d’un autre mot, démunie — Internet ouvre des façons d’être au monde en n’étant pas subalterne du côté du savoir.
  • Facebook propose un même dispositif à tout le monde, mais si vous êtes cadre supérieur vous y mettrez tous vos contacts professionnels et si vous êtes manœuvre en usine, vous posterez des clips de Johnny, des bandes annonces de Sophie Marceau et des nouvelles de la famille. Ces outils sont des dispositifs plastiques, dont les gens peuvent s’emparer de manière très différente.
  • Le mail n’est pas aimé. C’est de l’écrit, qui n’est pas censé être complètement phonétique (contrairement à Facebook), c’est asynchrone… Le mail est assimilé à une non-relation. Il n’est pas utilisé pour la correspondance personnelle mais les achats et les contacts avec l’administration. J’ai ainsi rencontré des gens qui ont 500 mails non ouverts… Ceci pose un problème majeur dans la communication avec Pôle Emploi, la CAF : tout ceci fonctionne largement par mail, or ces mails sont perdus dans un océan de pub venant des sites d’achats.
  • Personne ne m’en a parlé. Lors des entretiens, les aspects néfastes d’Internet apparaissaient sous l’angle de la perte de la communication en face à face, des problèmes de l’anonymat… Mais pas de la collecte de données. Est-ce que ça veut dire que c’est une inquiétude qui n’a pas traversé cette zone sociale ? C’est possible. Il faudrait peut-être des campagnes d’information auprès des milieux populaires. Car c’est une question qui n’est jamais sortie en entretien. Comme s’il n’y avait pas les mêmes problèmes publics dans tous les milieux sociaux.
  • L’échec du contact dématérialisé avec les services sociaux est majeur – tout comme l’est le succès des applications bancaires. Ce qui montre bien que cet échec n’est pas lié à une méfiance de la dématérialisation. J’ai rencontré une femme qui consulte son appli bancaire avant de faire chaque course. On voit bien que ces dispositifs sont entrés dans les habitudes, parce qu’ils rendent un service énorme, qu’ils sont désangoissants : on sait quand arrivent les virements, les prélèvements, on sait exactement ce qui reste… Mais ce n’est pas utilisé de la même manière dans les classes supérieures, qui ne s’en servent pas comme d’un fil continu.
  •  
    "Sociologue, Dominique Pasquier a mené une recherche de plusieurs années sur les usages numériques des familles modestes. Avec des entretiens qualitatifs et l'examen de comptes Facebook, elle a dessiné une cartographie, sensible et précise, des usages des Français des « classes populaires ». Elle décrit un « autre Internet », bien différent de celui des classes supérieures, mais qu'elle refuse de décrire comme plus pauvre."
Aurialie Jublin

« Mise en cause par les grandes entreprises, l'idée même d'intérêt général et... - 0 views

  •  
    "Amazon et Starbucks ont refusé de payer la nouvelle taxe que voulait leur imposer Seattle, et fait plier la municipalité. « Une défaite morale et économique pour le politique », estime dans sa chronique Philippe Escande, éditorialiste économique au « Monde »."
Aurialie Jublin

affordance.info: Les algorithmes du Dr Frankenstein (ou pourquoi faut pas pou... - 0 views

  • néo-fascisme documentaire distinguant une humanité sur-documentée d'une humanité sous-documentée, néo-fascisme nourri d'un fétichisme du fichier (et du fichage). Et je milite et alerte comme je peux sur l'impérieuse nécessité et urgence de nourrir une réflexion politique radicale visant à une forme de "nationalisation" des grandes plateformes et du code informatique, et à réinstaurer des formes légitimes de "communs" (dont un index indépendant du web entre autres). 
  • Le problème n'est plus tant de se demander comment construire des technologies avec des sciences comportementales que de voir s'il est encore possible, pour en limiter l'impact politique et démocratique, de déconstruire la logique qui a mené quelques grandes plateformes à construire et à normer des comportements avec des technologies opérant dans le cadre d'architectures techniques toxiques.  
  • En gros le pitch de l'article du Guardian est, à partir notamment des travaux de Cathy O'Neil (les algorithmes comme "armes de destruction matheuse") et Neil Johnson, et en remobilisant des exemples issus du Trading Haute-fréquence ou du récent fait-divers sur le premier décès "accidentel" causé par une voiture autonome (dont je vous avais moi-même longuement parlé), de revenir en détail sur ces nouvelles "approches algorithmiques" ou "l'algorithme" ne désigne plus simplement la trivialité d'une série d'instructions logico-mathématiques mais un environnement complexe d'automatismes décisionnels sur la base de gigantesques jeux de données (Datasets) que plus personne n'est en mesure de comprendre ou d'englober dans leur totalité, à commencer par ceux-là mêmes qui développent lesdits algorithmes et jeux de données**.
  • ...6 more annotations...
  • Et l'article du Guardian évoque donc ces "Franken-algorithms" : ces algorithmes semblables à la créature du Dr Frankenstein, des Franken-algorithmes qui deviennent totalement imprévisibles (et donc potentiellement très dangereux) non seulement au travers de leur mode opératoire "auto-apprenant" (on parle aussi d'algorithmes "génétiques" et "d'apprentissage renforcé" - Reinforced Learning) mais aussi et surtout au travers de ce que leur marge d'incertitude et d'imprévisibilité intrinsèque peut donner lorsqu'elle entre en interaction avec d'autres algorithmes, avec des comportements sociaux individuels ou collectifs, ou avec le monde - et les objets - physique(s).
  • Voilà ce qui, sur mon petit schéma donne naissance au "SPA", une sorte de "Service Public de l'Algorithmie" que mon côté Marxiste idéalise peut-être mais que je crois nécessaire et urgent de bâtir si nous voulons éviter de prendre le risque d'un Hiroshima technologique désormais plus que probable à l'échelle de nos formes démocratiques de gouvernance qui ont déjà en partie basculé dans les formes assumées et délétères de surveillance.
  • Au-delà de la seule transmission de connaissances ou d'informations, l'enjeu de l'apprentissage est de permettre à "celui qui apprend" de pouvoir un jour s'affranchir de la dépendance à "celui qui lui enseigne" certaines règles et certains codes sociaux. Et d'être en capacité de pouvoir à son tour "faire", "transmettre", "produire", "jouer" mais aussi "tricher" ou "faire semblant". Le souci, me semble-t-il, est que nous sommes aujourd'hui majoritairement et collectivement incapables de formuler clairement la raison pour laquelle nous voulons que ces algorithmes apprennent et nous échappent autrement.
  • Voilà pourquoi sans aller vers un radicalisme luddite dont Eric Sadin et quelques autres sont les opportunistes ténors, il nous faut construire une alternative politique qui, après le temps numérique de la "désintermédiation", soit celui de formes de remédiations respectueuses du corps social et partant de sa partie la plus fragile, la plus pauvre, et la plus exposée.
  • La vie de la cité aujourd'hui (c'est à dire "le" politique au sens étymologique), notre vie, est prise entre des techno-craties qui organisent l'espace économique et des techno-structures qui organisent l'espace social. Les plateformes comme Facebook, Google ou Amazon ont comme point commun d'être les premières techno-craties algorithmiques dans lesquelles les données ont fonction d'infrastructure et qui organisent l'espace social pour satisfaire à des impératifs d'organisation économique. 
  • Dans la montée partout en Europe (et ailleurs) des néo-fascismes qu'une pudibonderie tout à fait déplacée nous désigne sous l'euphémisme de "droites extrêmes", au moment où chacun est conscient de l'impact que jouent les architectures techniques toxiques dans la polarisation de l'opinion, alors même qu'il est établi, comme le rappelait récemment Cory Doctorow que  "le problème de Facebook n'est pas un problème de contrôle des esprits mais un problème de corruption : Cambridge Analytica n'a pas convaincu des gens ordinaires de devenir racistes mais ils ont convaincu des racistes d'aller voter", il ne faudrait pas qu'aux algorithmes du Dr Frankenstein s'ajoutent les ambitions politiques d'Anénoïd Hynkel.
Aurialie Jublin

L'ouverture des données publiques : un bien commun en devenir ? - 0 views

  • La mise à disposition des données publiques : une logique du don Les traitements préalables à la mise à disposition des données : un investissement de la collectivité Conditions et limites à l’ouverture des données publiques comme bien commun Les licences comme garantie de préservation de la ressource commune Les flux de données comme ressource collective Commun et ré-utilisateurs des open data : un point d’achoppement Le rôle des ré-utilisateurs dans la gouvernance des données Communs urbains et open data : le cas de Bologne
  •  
    "Cet article interroge les données ouvertes en tant que bien commun. Le traitement préalable effectué sur les données à mettre à disposition permet de créer une ressource partagée et, à première vue, possède le potentiel pour être un bien commun. L'article relève plusieurs points d'achoppement qui nuancent cette affirmation. Le premier argument provient des licences qui n'exigent pas du fournisseur de données en temps réel une continuité du service. Le deuxième argument pointe le rôle du ré-utilisateur de la donnée qui ne participe pas à la gouvernance de la donnée. Enfin, le dernier argument souligne le fait que les collectivités impliquées dans les communs urbains ne présentent pas l'open data comme tel. Nos justifications sont le fruit d'analyses de portails de villes et d'entretiens menés auprès de ré-utilisateurs de données ouvertes."
Aurialie Jublin

Ouvrir, ce n'est pas juste partager des données : simple, basique - 0 views

  • Les cas d’Airbnb ou d’Uber qui proclament faire de l’open data alors que les données ne répondent pas aux principes essentiels de l’open data ne créent aucun usage réel. Cela revient à faire de l’open washing (inspiré du «greenwashing» ou éco-blanchiment) : les producteurs proclament leurs données ouvertes, même si dans les faits, l’accès et la réutilisation des données sont trop limités.
  • Lorsque les données sont disponibles uniquement à travers une API demandant inscription, l’usager des données n’a aucune garantie que la base de données pourra être téléchargée et n’est pas assuré d’avoir effectivement accès aux données. Pour l’usager, cela crée une incertitude sur la pérennité des services réutilisant des données : l’organisation qui partage ses données reste libre d’exclure l’usager si elle considère que le service ne va pas dans le sens de ses intérêts. Ce n’est donc qu’un partage contrôlé là où l’ouverture consiste à laisser place à l’inattendu et à laisser libre cours à chacun de créer des services auquel nous n’aurions pas pensé quitte à parfois concurrencer les services développés par l’organisation qui a ouvert des données.
  • Distinguer l’ouverture du partage de données permet aussi de souligner l’essence même des principes de l’open data qui consiste à réduire les asymétries d’information et à créer une situation équitable entre tous les acteurs.
  •  
    "Durant l'été, Frédéric Charles, directeur Stratégie & Innovation chez SUEZ Smart Solutions, lançait sur Twitter une polémique sur la définition de l'open data qui a abouti sur un billet sur son blog sur ZDNet. Ce billet demande, rien de moins, que de redéfinir les principes de l'open data. Il nous paraît essentiel d'y répondre et de clarifier un point : ouvrir et partager des données sont deux choses différentes."
Aurialie Jublin

« À l'ère post-Snowden, on ne peut plus se voiler la face» - 0 views

  •  
    "L'universitaire américain Yochai Benkler fait partie de ces intellectuels qui pensent l'impact d'Internet sur nos sociétés depuis les années 1990. Le professeur d'études juridiques entrepreneuriales à Harvard est aujourd'hui membre d'une commission lancée le 11 septembre 2018 par l'ONG Reporters sans frontières et chargée de travailler à la rédaction d'une future « déclaration sur l'information et la démocratie ». Nous avons à cette occasion pu échanger avec l'auteur de The Wealth of Networks (La Richesse des Réseaux) autour de ses thèmatiques de prédilection : les communs, le rôle du domaine public informationnel et de la collaboration décentralisée dans l'innovation et la place de la liberté dans une économie et une société en réseau. Sans oublier de faire le point sur les évolutions récentes du Web, et ce qu'elles impliquent sur nos démocraties et nos sociétés. "
Aurialie Jublin

Farmer Lobbying Group Sells Out Farmers, Helps Enshrine John Deere's Tractor Repair Mon... - 0 views

  •  
    "Farmers have been some of the strongest allies in the ongoing battle to make it easier for everyone to fix their electronics. This week, though, a powerful organization that's supposed to lobby on behalf of farmers in California has sold them out by reaching a watered-down agreement that will allow companies like John Deere to further cement their repair monopolies."
Aurialie Jublin

Technologie : l'âge sombre | InternetActu.net - 0 views

  • Pire, la technologie s’est fait la complice de tous les défis auxquels nous sommes confrontés : à la fois d’un système économique hors de contrôle qui ne cesse d’élargir les inégalités, la polarisation politique comme le réchauffement climatique. Pour Bridle, la technologie n’est pas la solution à ces défis, elle est devenue le problème. Il nous faut la comprendre plus que jamais, dans sa complexité, ses interconnexions et ses interactions : mais cette compréhension fonctionnelle ne suffit pas, il faut en saisir le contexte, les conséquences, les limites, le langage et le métalangage.
  • Trop souvent, on nous propose de résoudre ce manque de compréhension de la technologie par un peu plus d’éducation ou son corollaire, par la formation d’un peu plus de programmeurs. Mais ces deux solutions se limitent bien souvent en une compréhension procédurale des systèmes. Et cette compréhension procédurale vise surtout à renforcer la « pensée computationnelle », c’est-à-dire la pensée des ingénieurs et des informaticiens qui n’est rien d’autre que le métalangage du solutionnisme technologique 
  • Les systèmes techniques sont devenus de plus en plus complexes. Trop critiques et interconnectés pour être compris, pensés ou conçus. Leur compréhension n’est disponible plus que pour quelques-uns et le problème est que ces quelques-uns sont les mêmes que ceux qui sont au sommet des structures de pouvoir. Pour James Bridle, il y a une relation causale entre la complexité des systèmes, leur opacité, et les violences et inégalités qu’ils propagent.
  • ...32 more annotations...
  • Le cloud (l’informatique en nuage) n’est plus une métaphore du réseau, c’est l’incarnation de ce système global et surpuissant qu’aucun d’entre nous ne peut désormais attraper. Ce nuage est pourtant une bien mauvaise métaphore. Rien de ce qu’il recèle n’y est sans poids, rien n’y est amorphe ou invisible. Le cloud cache une infrastructure physique complexe faite de lignes téléphoniques, de fibre optique, de satellite, de vastes entrepôts d’ordinateurs, qui consomment d’énormes quantités d’énergie et qui influent sur de multiples juridictions. Le cloud est l’incarnation d’une nouvelle industrie.
  • De la sécurité nationale aux secrets industriels, il y a beaucoup de raisons à obscurcir ce que recouvre ce nuage. Mais ce qui s’en évapore est assurément notre propriété (dans les nuages, tout appartient à d’autres) et notre agentivité, c’est-à-dire notre capacité à faire.
  • Le réseau donne l’impression d’être à la fois l’idéal de progrès le plus abouti et l’idéal de base de notre culture tout en paraissant avoir émergé inconsciemment, poursuivant son but d’interconnexion sans fin pour lui-même et par lui-même… « Nous présumons que l’interconnexion est inhérente et inévitable. Le réseau semble être devenu le résultat du progrès, son accomplissement ultime », à l’image de machines qui accompliraient ainsi leurs propres désirs. Internet semble avoir accompli l’idéal des Lumières, l’idéal du progrès : celui que plus de connaissance et plus d’information conduit toujours à prendre de meilleures décisions.
  • Mais n’est-ce pas plutôt le contraire auquel nous assistons ? « Ce qui était censé éclairer le monde l’a obscurci. L’abondance d’information et la pluralité d’opinion accessible à tous n’ont pas produit un consensus cohérent, mais au contraire a déchiré la réalité en narrations simplistes, en théories fumeuses et en politique d’opinion. Contrairement au Moyen Âge, où l’âge sombre était lié à une perte de connaissance antique, l’âge sombre moderne est lié à une abondance de connaissance dont nous ne savons plus démêler collectivement l’apport. »
  • L’obscurité dont parle Bridle c’est notre incapacité à voir clairement ce qui est devant nous, avec capacité et justice. Pour Bridle pourtant, ce constat ne doit pas être lu comme une condamnation de la technologie. Au contraire. Pour relever l’âge sombre qui s’annonce, il nous faut nous engager plus avant dans la technologie, avec elle, mais avec une compréhension radicalement différente de ce qu’il est possible d’en faire, en retrouver un sens que la seule recherche d’efficacité nous a fait perdre. Tout comme le changement climatique, les effets de la technologie s’étendent sur le globe et affectent tous les aspects de nos vies. Mais comme le changement climatique, ses effets sont potentiellement catastrophiques et résultent de notre incapacité à comprendre les conséquences de nos propres inventions. Nous devons changer de manière de voir et penser le monde, nous invite Bridle, un peu facilement ou naïvement.
  • « En rapprochant la simulation de l’approximation, les grands prêtres de la pensée computationnelle pensent remplacer le monde par des modèles biaisés de lui-même ; et en le faisant, les modeleurs s’assurent du contrôle du monde. » James Bridle s’inscrit dans la continuité des constats de l’historien des sciences David Noble qui, dans Le progrès sans le peuple notamment, soulignait combien la pensée des ingénieurs avait contribué à donner du pouvoir aux puissants plutôt que favoriser l’équité ou la démocratie ; comme dans celle de Richard Sclove du Loka Institute, qui dans Choix technologiques, choix de société, soulignait combien les enjeux démocratiques restaient le parent pauvre de la question technologique.
  • La pensée computationnelle s’infiltre partout : elle devient notre culture. Elle nous conditionne à la fois parce qu’elle nous est illisible et à la fois parce que nous la percevons comme neutre émotionnellement et politiquement. Les réponses automatisées nous semblent plus dignes de confiance que celles qui ne le sont pas. Dans la pensée computationnelle, nous sommes victimes du biais d’automatisation : « nous avons plus confiance dans l’information automatisée que dans notre propre expérience, même si elle est en conflit avec ce qu’on observe ». Les conducteurs de voitures comme les pilotes d’avion ont plus tendance à croire leurs instruments que leur expérience, même si celle-ci n’est pas alignée.
  • Pour Bridle, l’informatique, en ce sens, est un piratage de notre capacité cognitive, de notre capacité attentionnelle, qui renvoie toute responsabilité sur la machine. « À mesure que la vie s’accélère, les machines ne cessent de prendre en main de plus en plus de tâches cognitives, renforçant par là leur autorité – sans regarder les conséquences ». « Nous nous accommodons de mieux en mieux et de plus en plus aux confortables raccourcis cognitifs que nous proposent nos machines. L’informatique remplace la pensée consciente. Nous pensons de plus en plus comme des machines, ou plutôt nous ne pensons plus du tout ! ».
  • « Ce qui est difficile à modéliser, à calculer, à quantifier, ce qui est incertain ou ambigu, est désormais exclu du futur possible. » L’informatique projette un futur qui ressemble au passé (« Les algorithmes ne prédisent pas le futur, ils codifient le passé », disait déjà Cathy O’Neil). La pensée computationnelle est paresseuse. Elle propose finalement des réponses faciles. Elle nous fait croire qu’il y a toujours des réponses.
  • les réseaux souffrent d’une gouvernance fragmentée, sans responsabilités claires, peu cartographiés et sous-financés ; des infrastructures en silos ; des investissements privés comme publics insuffisants et plus encore un manque de compréhension de la complexité de leur fonctionnement… expliquent leur fragilité intrinsèque et la difficulté de leur maintenance. Ajoutez à cela les impacts du changement climatique sur leur maintenance et leur évolution et vous comprendrez que les réseaux ne sont pas dimensionnés pour faire face au futur. Bref, non seulement l’informatique contribue largement au réchauffement climatique, mais elle risque d’en être l’une des principales victimes.
  • Mais les grands volumes de données ne produisent pas de la connaissance automatiquement. Dans la recherche pharmacologique par exemple, les dépenses et investissements n’ont jamais été aussi forts alors que les découvertes, elles, n’ont jamais produit aussi peu de nouveaux traitements. On appelle cela la loi d’Eroom : l’exact inverse de la loi de Moore. Le nombre de résultats de recherche chute et ces résultats sont de moins en moins dignes de confiance. Si les publications scientifiques n’ont jamais été aussi volumineuses (au détriment de leur qualité), les rétractions ont augmenté et le nombre de recherches ayant un impact significatif, elles, ont diminué proportionnellement. La science connaît une crise de réplicabilité majeure.
  • Plusieurs facteurs expliquent ce revirement de la loi du progrès. La première est que les choses les plus évidentes à découvrir ont été exploitées. La régulation est également devenue plus exigeante et la société moins tolérante aux risques. Mais le problème principal relève certainement des méthodes désormais employées. Historiquement, la découverte de médicament était le fait de petites équipes de chercheurs qui se concentrait intensément sur de petits groupes de molécules. Mais depuis 20 ans, ces processus ont été largement automatisés, sous la forme de ce qu’on appelle le HTS (High-throughput screening pour criblage à haut débit) qui consiste en des recherches automatisées de réactions potentielles via de vastes bibliothèques de composants. Le HTS a priorisé le volume sur la profondeur. Ce qui a marché dans d’autres industries a colonisé la recherche pharmaceutique : automatisation, systématisation et mesures… Certains commencent à douter de l’efficacité de ces méthodes et voudraient revenir à l’empirisme humain, au hasard, au bordel, au jeu… À nouveau, « la façon dont nous pensons le monde est façonnée par les outils à notre disposition ». Nos instruments déterminent ce qui peut être fait et donc, ce qui peut être pensé. À mesure que la science est de plus en plus technologisée, tous les domaines de la pensée humaine le sont à leur tour. Les vastes quantités de données ne nous aident qu’à voir les problèmes des vastes quantités de données.
  • Les bourses et places de marchés d’antan ont été remplacées par des entrepôts, des data centers, anonymes, dans des banlieues d’affaires impersonnelles. La dérégulation et la numérisation ont transformé en profondeur les marchés financiers. La vitesse des échanges s’est accélérée avec la technologie. Les transactions à haute fréquence (HFT, High-frequency trading) reposent sur la latence et la visibilité. La latence, c’est-à-dire la rapidité d’échange où des millions peuvent s’échanger en quelques millisecondes et la visibilité (sauf pour les non-initiés), c’est-à-dire le fait que les échanges sont visibles de tous les participants, instantanément. Les échanges reposent sur des algorithmes capables de calculer des variations éclair et de masquer les mouvements de fonds. Les échanges sont plus opaques que jamais : ils s’imposent sur des forums privés, les « dark pools » (en 2015, la SEC, l’organisme américain de réglementation et de contrôle des marchés financiers, estimait que les échanges privés représentaient 1/5e du total des échanges)… Les échanges financiers ont été rendus obscurs et plus inégaux que jamais, rappelle Bridle.
  • Pour Bridle, l’une des clefs qui expliquent que les inégalités se renforcent avec la technologie est intrinsèquement liée à l’opacité des systèmes. Comme les robots des entrepôts d’Amazon et ses employés commandés par des commandes vocales émanant de robots, nous sommes en train d’arranger le monde pour rendre les machines toujours plus efficaces, quitte à ce que le monde devienne incompréhensible et inadapté aux humains. Les travailleurs deviennent le carburant des algorithmes, utiles seulement pour leurs capacités à se déplacer et à suivre des ordres. Pour Bridle, les startups et les Gafam signent le retour des barons voleurs, ces tyrans industriels du XIXe siècle. La technologie est venue couvrir d’un voile d’opacité la prédation : l’avidité s’est habillée de la logique inhumaine des machines. Amazon ou Uber cachent derrière des pixels lumineux un système d’exploitation sans faille
  • Pour la sociologue Deborah Cowen (@debcowen), nous sommes entrés dans la tyrannie de la techne explique-t-elle dans The Deadly Life of Logistics (2014) : l’efficacité est devenu primordiale sur tous les autres objectifs, sur toutes les autres valeurs
  • Autre exemple avec How-Old.net un outil de reconnaissance faciale qui tente de prédire l’âge d’une personne, et qui a été utilisée pour deviner l’âge de migrants arrivants au Royaume-Uni. Microsoft, qui a développé cette application, s’est défendu et a dénoncé cette utilisation… comme les 2 chercheurs chinois. Ceux-ci expliquaient néanmoins dans leur défense que leur système était « sans préjugé » (sic). Comme souvent, on nous explique que la technologie, et plus encore l’apprentissage automatisé, est neutre. Mais « la technologie n’émerge pas de nulle part. Elle est toujours la réification de croyances et de désirs, notamment de ses créateurs. Leurs biais sont encodés dans les machines et les bases de données ou les images que nous prenons du monde. »
  • Pour Bridle, le problème n’est pas tant que les machines puissent réécrire la réalité, mais que la réalité, le passé comme le futur, ne puissent plus être correctement racontés. DeepDream de Google illustre parfaitement cela. L’enjeu n’est pas pour nous de comprendre ce qu’est l’image, mais de nous demander ce que le réseau de neurones veut y voir ?
  • Pour Bridle, nous devrions ajouter une 4e loi aux trois lois de la robotique d’Asimov. Les machines intelligentes devraient être capables de s’expliquer aux humains. Ce devrait être une loi première, car éthique. Mais le fait que ce garde-fou ait déjà été brisé laisse peu d’espoir quant au fait que les autres règles le soient à leur tour. « Nous allons devoir affronter un monde où nous ne comprendrons plus nos propres créations et le résultat d’une telle opacité sera toujours et inévitablement violent ».
  • Pour Bridle, l’alliance entre l’humain et la machine peut encore fonctionner, comme l’a montré Garry Kasparov avec les échecs avancés, consistant à ce qu’une IA et qu’un humain jouent ensemble plutôt qu’ils ne s’affrontent. C’est dans la perspective d’associer les talents des humains et des machines, d’associer leurs différences d’une manière coopérative plutôt que compétitive que nous parviendrons à réduire l’opacité computationnelle. La perspective que l’intelligence des machines nous dépasse dans nombre de disciplines est une perspective destructrice. Nous devons trouver la voie d’une éthique de la coopération avec les machines, plutôt qu’un affrontement.
  • Bridle s’en prend également longuement à la surveillance et notamment à la surveillance d’Etat pour souligner combien elle nous est masquée et continue à l’être, malgré les révélations d’Edward Snowden. Vous pouvez lire n’importe quel e-mail dans le monde d’une personne dont vous avez l’adresse. Vous pouvez regarder le trafic de tout site web. Vous pouvez suivre les mouvements de tout ordinateur portable à travers le monde. Pour Bridle, cela nous a montré qu’il n’y a pas de restriction possible à la capacité de surveillance du réseau. L’échelle et la taille de la surveillance a excédé ce que nous pensions comme étant techniquement possible.
  • En opposition au secret, nous demandons de la transparence, mais elle n’est peut-être pas le bon levier. La NSA et Wikileaks partagent la même vision du monde avec des finalités différentes, rappelle Bridle. Les deux pensent qu’il y a des secrets au coeur du monde qui, s’ils étaient connus, pourraient rendre le monde meilleur. Wikileaks veut la transparence pour tous. La NSA veut la transparence pour elle. Les deux fonctionnent sur une même vision du monde. Wikileaks ne voulait pas devenir le miroir de la NSA, mais voulait briser la machine de surveillance. En 2006, Assange a écrit « Conspiracy as Governance » (.pdf). Pour lui, tout système autoritaire repose sur des conspirations, car leur pouvoir repose sur le secret. Les leaks minent leur pouvoir, pas par ce qui fuite, mais parce que la peur et la paranoïa dégradent la capacité du système autoritaire à conspirer. Mais les fuites de données ne suffisent pas à remettre en cause ou à abattre l’autorité. Les révélations ne font pas bouger l’opinion, sinon, nous aurions réagi bien avant les révélations de Snowden. Tant que les organisations de surveillance ne changent pas de l’intérieur, ceux qui sont en dehors de ces organisations, comme les lanceurs d’alertes, n’ont pas de capacité d’action. Ils attendent que des fonctionnaires ou que la justice confirment ce qu’ils avancent.
  • Mais la lumière du calcul nous dépossède de pouvoir, car elle nous fait crouler sous l’information et nous donne un faux sens de la sécurité. C’est là encore une conséquence de la pensée computationnelle. « Notre vision est devenue universelle, mais notre capacité d’action, elle, s’est réduite plus que jamais. » A l’image du réchauffement climatique, à nouveau, « nous savons de plus en plus de choses sur le monde, mais nous sommes de moins en moins capable d’agir sur lui ». Au final, nous nous sentons plus démunis que jamais. Plutôt que de reconsidérer nos hypothèses, nous nous enfonçons dans la paranoïa et la désintégration sociale.
  • Le monde est devenu trop complexe pour des histoires simples. En fait, « la démultiplication de l’information ne produit pas plus de clarté, mais plus de confusion ». L’un des symptômes de la paranoïa consiste à croire que quelqu’un vous surveille. Mais cette croyance est désormais devenue raisonnable, s’amuse Bridle en évoquant la surveillance d’Etat comme la surveillance des services numériques. Nous sommes entièrement sous contrôle, tant et si bien qu’on peut se demander qui est paranoïaque désormais ?
  • « Les théories conspirationnistes sont le dernier ressort des sans pouvoirs, imaginant ce que serait que d’être puissant », avance Bridle. Pour le spécialiste de la postmodernité, Frederic Jameson, les théories conspirationnistes sont « la cartographie cognitive des plus démunis dans un âge postmoderne ». C’est la figure dégradée de la logique par ceux qui ont le moins de capital culturel, une tentative désespérée de se représenter un système qu’ils ne comprennent pas. Encerclé par l’évidence de la complexité, l’individu a recours à un récit simpliste pour tenter de regagner un peu de contrôle sur la situation. À mesure que la technologie augmente et accélère le monde, celui-ci devient plus complexe. Les théories conspirationnistes deviennent alors des réponses, étranges, intriquées et violentes, pour s’en accommoder.
  • Ainsi, si vous cherchez de l’information sur les vaccins, vous tomberez invariablement sur de l’information contre les vaccins. Si vous cherchez de l’information sur la rotondité de la terre, vous tomberez inexorablement sur ceux qui pensent qu’elle est plate. Ces opinions divergentes semblent devenir la majorité tant elles sont exprimées et répétées avec force. « Ce qui se passe quand vous désirez en savoir de plus en plus sur le monde entre en collision avec un système qui va continuer à assortir ses réponses à n’importe quelle question, sans résolution ». Vous trouverez toujours quelqu’un pour rejoindre vos points de vue. Et toujours un flux pour les valider. Voici l’âge de la radicalisation algorithmique (à l’image de ce que disait Zeynep Tufekci de YouTube). Les théories conspirationnistes sont devenues la narration dominante. Elles expliquent tout. Dans la zone grise des connaissances, tout prend un sens.
  • Les failles des algorithmes sont les dernières failles du capitalisme où certains s’infiltrent non pas pour le renverser, mais pour tenter de gratter un peu d’argent que les plus gros systèmes s’accaparent. Au final, des vidéos automatisées finissent par être vues par des enfants. Leurs personnages préférés y font n’importe quoi, parfois suggèrent des scènes de meurtre ou de viols. Ces effets de réseaux causent des problèmes réels. Les algorithmes de YouTube ont besoin d’exploitation pour produire leurs revenus. Derrière leurs aspects séduisants, ils encodent les pires aspects du marché, notamment l’avidité. « La capacité à exploiter l’autre est encodée dans les systèmes que nous construisons », pointe très justement James Bridle, puisque leur efficacité repose sur leur capacité à extraire de l’argent de nos comportements.
  • À défaut d’une solution, Google annonçait en avril que l’application YouTube Kids allait devenir « non-algorithmique »… À croire, comme le pointait très justement le chercheur Olivier Ertzscheid, que l’algorithimsation n’est pas une solution sans limites.
  • Pour Bridle, les humains sont dégradés des deux côtés de l’équation : à la fois dans l’exploitation qui est faite de leur attention et à la fois dans l’exploitation de leur travail. Ces nouvelles formes de violence sont inhérentes aux systèmes numériques et à leur motivation capitaliste. Le système favorise l’abus et ceux qui le produisent sont complices, accuse-t-il. L’architecture qu’ils ont construite pour extraire le maximum de revenus des vidéos en ligne a été hackée par d’autres systèmes pour abuser d’enfants à une échelle massive. Les propriétaires de ces plateformes ont une responsabilité forte dans l’exploitation qu’ils ont mise en place. « C’est profondément un âge sombre quand les structures qu’on a construites pour étendre la sphère de communications sont utilisées contre nous d’une manière systématique et automatique. »
  • Pour Bridle, les fausses nouvelles ne sont pas le produit de l’internet. Elles sont le produit de la cupidité et de la démocratisation de la propagande où tout a chacun peut devenir un propagandiste. Elles sont un amplificateur de la division qui existe déjà dans la société, comme les sites conspirationnistes amplifient la schizophrénie.
  • Mais ce qu’il y a de commun avec le Brexit, les élections américaines ou les profondeurs de YouTube, c’est que malgré tous les soupçons, il reste impossible de savoir qui fait ça, qu’elles sont leurs motivations, leurs intentions. On peut regarder sans fin ces flux vidéos, on peut parcourir sans fin les murs de mises à jour de statuts ou de tweets… cela ne permet pas de discerner clairement ce qui est généré algorithmiquement ou ce qui est construit délibérément et soigneusement pour générer des revenus publicitaires. On ne peut pas discerner clairement la fiction paranoïaque, l’action d’États, la propagande du spam… Ces confusions servent les manipulateurs quels qu’ils soient bien sûr, mais cela les dépasse aussi. C’est la manière dont le monde est. Personne ne semble réellement décider de son évolution… « Personne ne veut d’un âge sombre, mais nous le construisons quand même et nous allons devoir y vivre. »
  • Exploiter plus de données pour construire de meilleurs systèmes est une erreur. Cette méthode ne parviendra pas à prendre en compte la complexité humaine ni à la résoudre. Le développement de l’information n’a pas conduit à une meilleure compréhension du monde, mais au développement de points de vue alternatifs et concurrents. Nous devons changer nos façons de penser comme nous y invitait Lovecraft. Nous ne survivrons pas plus à l’information brute qu’à la bombe atomique. Le nouvel âge sombre est un lieu où le futur devient radicalement incertain et où le passé devient irrévocablement contesté. Mais c’est le présent dans lequel nous devons vivre et penser. Nous ne sommes pas sans pouvoir ni capacités. Mais pour cela nous devons nous défaire des promesses illusoires de la pensée computationnelle. Penser le monde autre, c’est ce à quoi nous invite James Bridle dans le nouvel âge sombre.
  • Reste à savoir si cet âge sombre des technologies est vraiment notre avenir. L’âge sombre du Moyen Âge n’a jamais vraiment existé ailleurs que dans les lacunes des historiens. On peut douter également de cette nouvelle obscurité ou regretter le titre faussement prophétique. Reste que la complexité et l’intrication du monde que décrit James Bridle, montrent combien il nous faut, plus que jamais, nous défaire justement d’une vision simple et manichéenne de la technologie.
  •  
    "Ce New Dark Age porte un titre prophétique et apocalyptique. Un peu trop peut-être. C'est effectivement un livre très critique sur notre rapport à la technologie, très éloigné du rapport souvent curieux et amusé que Bridle portait aux technologies avec la nouvelle esthétique. En une dizaine de chapitres, Bridle explore les glitchs qui sont désormais devenus des schismes, des scissions, des ruptures… comme s'ils n'étaient plus aussi distrayants. Dans son livre, il montre combien les bugs se cristallisent en caractéristiques. Combien la complexité technique que nous avons construite s'entremêle pour produire des effets en réseau, complexes, profonds, intriqués que nous ne parvenons plus vraiment à démêler. Son constat principal consiste à dire que ces dysfonctionnements ne sont pas amenés à être corrigés. Ils sont au contraire intrinsèques à la nature même des technologies qui se déploient aujourd'hui. Contrairement à ce que nous annonçaient les pionniers et les prophètes des technologies, pour Bridle, la technologie n'annonce pas de nouvelles Lumières ou une Renaissance, mais, comme Jules Michelet parlait du Moyen Âge, un âge sombre, une ère d'obscurité pour ne pas dire d'obscurantisme. Ni les réseaux sociaux, ni l'intelligence artificielle, ni les systèmes techniques ne vont nous aider à faire monde commun. Au contraire."
Cécile Christodoulou

Qwant et Brave s'associent pour venir au secours d'un "Internet cassé" - 1 views

  •  
    « Il y a toute une part d'Internet qui est cassée. Le Web a été inventé pour donner plus de libertés aux hommes. Aujourd'hui, il les asservit. » Tristan Nitot
Aurialie Jublin

Qwant et Brave s'associent pour venir au secours d'un « Internet cassé » - 0 views

  •  
    Le moteur de recherche Qwant sera proposé par défaut aux utilisateurs français et allemands de Brave.
manonmolins

Technology May Seek To Flatten The World, But The Digital South Will Chart Its Own Course - 1 views

  •  
    L'article donne les résultats de "The Digital Planet" - une étude comparatives des usages des technologies entre Nord et Sud de "The Fletcher School/Mastercard". L'auteur invite les acteurs majeurs du numérique qui souhaitent "reinventer le web" à sortir de leur visions centrées sur les problématiques du Nord. "Overall, the energy, attitudes and pace of digital transformation in the Digital South are very different from that in the North. In many ways, tech innovators, investors and policymakers are in the process of re-inventing the digital value proposition given our collective reckoning of the risks of these technologies. As they do so they must examine the digital development of the South and evaluate it by its own measures and rules and not assume it will follow the historical precedent of the North.
Aurialie Jublin

Aucun algorithme, jamais, ne pourra défendre la démocratie - Libération - 0 views

  • Comment avons-nous pu nous retrouver au début du XXIe siècle dans une situation où Mark Zuckerberg – et quelques autres patrons de plateformes numériques – se fixent comme objectif récurrent de «protéger la démocratie», principalement à grands coups «d’algorithmes» et «d’intelligence artificielle» et affirment que cela sera une de leurs principales «missions» au sein de leur entreprise et à l’échelle du monde ?
  • En 2011, deux théoriciens de l’intelligence artificielle traitant des problèmes éthiques qu’allaient poser les algorithmes écrivaient que «les algorithmes de plus en plus complexes de prise de décision sont à la fois souhaitables et inévitables, tant qu’ils restent transparents à l’inspection, prévisibles pour ceux qu’ils gouvernent, et robustes contre toute manipulation» (Bostrom et Yudowski, «The Ethics of Artificial Intelligence»).
  • Aujourd’hui, «les algorithmes» dont nous parlons se déploient au sein d’architectures techniques toxiques englobant des millions ou des milliards d’utilisateurs. Aujourd’hui, «les algorithmes» dont nous parlons reposent sur des jeux de données propriétaires et donc totalement opaques. Aujourd’hui, «les algorithmes» dont nous parlons sont explicitement développés pour se doter d’un niveau d’autonomie (ou «d’apprentissage») qui rend leur «comportement» et leurs décisions souvent imprévisibles pour leurs créateurs eux-mêmes. Aujourd’hui, «les algorithmes» dont nous parlons interagissent en permanence avec d’autres algorithmes, d’autres jeux de données et d’autres architectures techniques toxiques ; et ils le font à des échelles toujours plus vastes et dans des environnements toujours plus contraints qui augmentent encore le niveau de risque et d’incertitude.
  • ...5 more annotations...
  • Pendant les dix dernières années, le combat principal d’activistes, de journalistes, de défenseurs des libertés numériques fut celui visant à limiter l’impact de l’empreinte algorithmique sur nos vies privées et intimes. Ce combat-là est terminé, obsolète et, pour l’essentiel, perdu. C’est un autre combat qu’il nous faut aujourd’hui mener, sur un tout autre front, avec une tout autre urgence et à une tout autre échelle. C’est le combat pour limiter l’impact de l’empreinte algorithmique décisionnelle sur notre vie publique, sur nos infrastructures sociales communes et sur notre destin collectif
  • Il est urgent et impératif que toute forme, ambition ou projet de gouvernance algorithmique, dès lors qu’il touche à des secteurs régaliens (transport, éducation, santé, justice, sécurité) soit, obligatoirement et par contrainte législative, développé sur le modèle des licences GNU GPL du logiciel libre pour garantir a minima l’auditabilité complète et pérenne des processus à l’œuvre.
  • Il est urgent et impératif que le développement d’un modèle universel de portabilité de l’ensemble de nos données (1) soit une priorité des Etats, et qu’il soit imposé à l’ensemble des acteurs du monde économique en lien avec la conservation ou le dépôt de données numériques, et ce quels qu’en soient la nature, le volume et l’usage.
  • Il est urgent et impératif que les entreprises qui captent aujourd’hui l’essentiel des données et des flux numériques (en gros les Gafam, Natu et autres Batx) soient taxées à la hauteur réelle de leur volume d’affaire et que cet impôt finance directement les actions précitées, ce processus de redistribution devant impérativement rester hors du contrôle desdites sociétés. Car le processus inverse a déjà commencé, celui dans lequel quelques entreprises omnipotentes s’arrogent le droit de défier la puissance publique et l’intérêt général dans la levée de l’impôt, comme Amazon et Starbucks en ont encore récemment fait la démonstration à Seattle.
  • L’enjeu est de savoir si nous serons capables à très court terme de construire une alternative qui, après le temps numérique de la «désintermédiation» des vingt dernières années, sera celle de formes de remédiations algorithmiques respectueuses du corps social et partant de sa partie la plus fragile, la plus pauvre, et la plus exposée. Alors peut-être, et alors seulement, les questions de gouvernance algorithmique pourront commencer d’être envisagées sereinement.
  •  
    "Nous avons perdu la bataille contre les algorithmes en ce qui concerne la vie privée. Il faut aujourd'hui se battre pour limiter leur impact sur nos vies publiques et notre destin collectif. "
Aurialie Jublin

Amazon Investigates Employees Leaking Data for Bribes - WSJ - 0 views

  •  
    "Employees, through intermediaries, are offering internal data to help merchants increase their sales on the website"
Aurialie Jublin

Linux : Linus Torvalds fait une pause pour corriger son attitude - 0 views

  •  
    "Open Source : Le créateur de Linux se retire de son travail sur le noyau Linux. Linus Torvalds annonce qu'il doit changer de comportement vis-à-vis des autres développeurs et s'excuse pour ceux qu'il a pu heurter."
Aurialie Jublin

Les objets connectés sont de plus en plus utilisés pour le harcèlement et l'i... - 0 views

  •  
    "Lors de son entretien avec les agents de centres d'appel, une femme rapportait par exemple qu'elle avait allumé son climatiseur, mais celui-ci s'est éteint sans qu'elle y touche. Une autre expliquait que les numéros de code de la serrure numérique de sa porte d'entrée changeaient tous les jours et elle n'arrivait pas à comprendre pourquoi. Une autre femme encore expliquait qu'elle entendait toujours la sonnerie de la porte se déclencher, mais personne n'était à la porte. Selon le New York Times, ces histoires font partie d'un nouveau modèle de menaces ou de violences qui s'est invité dans les maisons avec la montée en puissance des objets connectés. Ces objets connectés sont de plus en plus utilisés par des personnes malveillantes pour harceler, surveiller, contrôler ou se venger sur d'autres personnes, souligne le New York Times. Graciela Rodriguez, qui gère un refuge d'urgence de 30 lits au Centre for Domestic Peace à San Rafael, en Californie, aurait déclaré au New York Times que certaines personnes sont déjà venues la voir avec des histoires de « ;trucs fous ;» comme des thermostats connectés allant soudainement jusqu'à 100 degrés ou des haut-parleurs intelligents qui se mettaient à jouer la musique à fond. Sans explication sur ce problème qui pourrait ressembler à un mauvais film d'exorcisme, ces personnes ont déclaré qu'elles commençaient à perdre le contrôle de leur maison et à devenir folles. Il faut préciser que les personnes malveillantes utilisant ces objets connectés à mauvais escient ne sont pas forcément des personnes hors de la vie des maisons ciblées. Quelques fois, il s'agirait d'un conjoint ayant mal digéré une rupture et disposant toujours des mots de passe des objets intelligents installés dans la maison. Une négligence donc de la part des victimes qui serait aggravée par le manque de connaissance sur le fonctionnement de ces appareils, soutient le New York Tim
« First ‹ Previous 401 - 416
Showing 20 items per page