Skip to main content

Home/ QN2019/ Group items tagged recherche

Rss Feed Group items tagged

Aurialie Jublin

Les données de Google sont devenues une mine d'or pour la police américaine -... - 0 views

  • Le recours à cette technique d’investigation, utilisée pour la première fois en 2016, a « fortement augmenté » ces six derniers mois, assurent les employés de Google interrogés par le New York Times. Un salarié parle d’un record de 180 requêtes comptabilisées en une seule semaine. Google refuse de commenter ces chiffres. Que lui demande exactement la police ? Un mandat pour avoir accès à une gigantesque base de données qui contient la position géographique précise de plusieurs centaines de millions d’appareils dans le monde depuis près de dix ans. Google, l'appelle, en interne, « Sensorvault ».
  • La police indique une zone géographique et une période de temps, Google lui fournit la liste de tous les appareils présents au moment et au lieu indiqués. Une fois que la police a enquêté et réduit son champ de recherches à quelques appareils, Google révèle les noms et adresses mail de leurs propriétaires. Et ce au risque d’arrêter des innocents, s’inquiète le New York Times. 
  • Ces recherches posent par ailleurs une question constitutionnelle, car le quatrième amendement stipule qu’un mandat doit avoir une portée limitée et établir des motifs probables et suffisants. Or, le mandat demandé à Google peut parfois concerner des zones et des plages horaires étendues, ou même s’éloigner de la demande initiale jusqu’à « offrir un portrait précis des habitudes d’un individu ». Enfin, Google ne dispose pas des données de tous les appareils - les données de géolocalisation peuvent être désactivées - sa vue est donc biaisée, et incomplète.
  • ...2 more annotations...
  • Les révélations du New York Times sur Sensorvault rappellent les nombreuses questions éthiques et légales posées par les requêtes de la police ou de la justice, toujours plus nombreuses, faites aux entreprises de la tech. On se souvient d’Amazon qui, en 2016, s’était refusée à donner à la justice américaine les enregistrements de l’enceinte connectée d’un homme accusé d’avoir tué un de ses amis. L’homme avait finalement clamé son innocence et autorisé Amazon à fournir les données réclamées, et les charges contre lui avaient été abandonnées.
  • Les entreprises de la tech ne sont pas les seules à intéresser la police. Les bases de données des plateformes proposant des tests ADN dits « récréatifs » suscitent également la convoitise du FBI. Pendant l’été 2018, les quatre entreprises dominant le secteur avaient toutes promis qu’elle ne laisseraient pas la police entrer dans leurs bases de données sans mandat, mais quelques semaines plus tard, « Family Tree DNA autorisait déjà le FBI à télécharger l’ADN récupéré sur des cadavres et des tâches de sang et à naviguer dans la base de données comme n’importe quel client, en regardant les noms et les relations entre les utilisateurs. »
  •  
    "La police américaine adresse de plus en plus de requêtes à Google pour géolocaliser des suspects en accédant à une base de données qui contient les positions géographiques de centaines de millions de téléphones dans le monde, a révélé le New York Times. La méthode est critiquée. "
Aurialie Jublin

Gauthier Roussilhe | Guide de conversion numérique au low tech - 0 views

  •  
    "En mars 2019 j'ai mis en ligne mon nouveau site web en suivant des principes de conception "low tech". Je me suis décidé à faire cela car, premièrement, j'ai été impressionné par la refonte de solar.lowtechmagazine.com. Leur site est devenu extrêmement léger grâce à une approche esthétique et technique sensée. De plus ils ont pensé au système énergétique : le serveur est alimenté par un panneau solaire et une batterie, ce qui veut dire que si la batterie est à plat et si le temps est mauvais alors le site n'est plus en ligne. Deuxièmement, depuis 2 ans je m'intéresse au concept d'Anthropocène, aux politiques de transition sociale et écologique et à l'impact du numérique sur les écosystèmes. Ces recherches et travaux de terrain m'ont permis de refonder complètement ma pratique et j'avais envie de développer un outil qui pourrait démontrer ce changement dans ma pratique de designer et inspirer d'autres personnes à faire de même."
Aurialie Jublin

[Internet] Internet : vive le prétendu anonymat ! - Libération - 0 views

  • Sale temps pour la privacy, comme on dit dans le monde des nouvelles technologies, c’est-à-dire pour notre intimité - le mot français est sans doute plus parlant. Elle était déjà menacée par les grandes plateformes numériques qui vivent de la prédation de nos données personnelles, et qui en savent parfois plus que nous sur nous-mêmes. Elle est désormais attaquée sur un deuxième front, politique cette fois, avec le retour sur le devant de la scène d’un serpent de mer aussi inutile que dangereux : l’appel à en finir avec «l’anonymat sur Internet».
  • «Forçons chacun à publier avec son vrai nom, et alors Internet redeviendra une agora paisible et constructive !» Le mantra est repris jusqu’au sommet de l’Etat. Tant pis si la recherche universitaire ne démontre pas de lien nécessaire entre «anonymat» et comportement haineux ou manipulateur sur les médias sociaux. Tant pis si le concept même d’anonymat numérique veut tout, et surtout rien dire - on laisse quasiment toujours des traces sur Internet, sauf efforts et technicité hors normes. Tant pis donc si «l’anonymat» n’existe pas et est à proprement parler, dans la grande majorité des cas, un pseudonymat, c’est-à-dire l’utilisation d’un identifiant qui ne renvoie pas directement à son nom, prénom. Tant pis si la justice, en France, a déjà les moyens techniques et légaux d’identifier qui se cache derrière une identité fictive, en cas de comportement délictueux et si elle est saisie. Au diable la nuance, transformons le Web en un gigantesque LinkedIn, et tout ira mieux !
  • Fait significatif, les contempteurs de l’anonymat - qui-est-en-fait-un-pseudonymat - ne font jamais l’effort de se demander à quels usages il renvoie concrètement, par delà le fantasme de l’immonde troll téléguidé par une puissance étrangère qui viendrait tourmenter l’honnête internaute à coups de théories du complot et de harcèlement organisé. S’ils faisaient cet effort, ils comprendraient, je l’espère, que l’horrible «anonymat» recouvre autant de libertés, et de possibilités, qu’il est en réalité urgent de défendre et de sanctuariser.
  • ...10 more annotations...
  • La liberté d’exprimer des idées qui soient jugées pour elles-mêmes, et non pour l’identité de la personne qui les profère.
  • La liberté de dire ce que l’on pense, d’affirmer ou de discuter convictions politiques, religieuses, philosophiques, passions et centres d’intérêt personnels, sans avoir à affronter le qu’en-dira-t-on de ses voisins, de ses collègues, de son milieu.
  • La liberté de dire, tout court, quand son emploi ne le permet pas, que l’on ait un devoir de réserve - comme les fonctionnaires - ou une fonction sensible dans une entreprise.
  • La liberté de faire savoir ce qui se passe à son travail, en bien comme en mal, sans avoir à en référer à son patron, ni courir de risque professionnel.
  • La liberté de se dévoiler quand ce qu’on vit ou ce qu’on est peut attirer critiques, moqueries, menaces, opprobre sociale - quand on appartient à une population discriminée, et même si on n’a aucune honte à en avoir.
  • La liberté de changer, de ne pas être prisonnier de positions tenues ou d’erreurs commises des mois ou des années plus tôt, et que n’importe qui pourrait venir inspecter à tout moment, en passant au crible un nom sur tous les moteurs de recherche.
  • La liberté de ne pas tout partager avec tout le monde, d’avoir une vie compartimentée, une identité complexe, multiple, et de choisir comment, à et qui, on veut la dévoiler. Parce que tout le monde n’a pas fait le choix d’être une célébrité ou un «influenceur» vivant du voyeurisme institutionnalisé.
  • La liberté de créer, de tenter des choses, des expressions, des façons de faire - faut-il rappeler la place des pseudonymes dans l’histoire de la littérature ?
  • La liberté, en résumé et paradoxalement, d’être soi-même, sans passer son temps à s’autocensurer.
  • L’appel à cette transparence totalitaire, mais à sens unique - on aimerait que les politiciens qui la défendent s’astreignent à la même règle sur leurs rapports avec lobbys et financeurs - a, enfin, un ultime effet pervers : il fait peser le poids des problèmes actuels d’Internet, que nul ne conteste, sur l’utilisateur final, plutôt que sur leurs principaux coupables. Si vous voulez vraiment «civiliser» le Web, mesdames et messieurs les législateurs, portez plutôt votre attention sur le modèle économique et l’architecture technique des plateformes quasi monopolistiques qui le dominent et le façonnent. Donnez à la justice les moyens financiers et humains de poursuivre et de punir ceux qui abusent des canaux numériques pour menacer, insulter, harceler. Interrogez-vous sur les pratiques de vos propres partis, dont les militants ne sont pas les derniers à «ensauvager» ces nouveaux espaces de débat et d’expression. Votre responsabilité est immense. Notre vigilance la sera aussi.
  •  
    "On n'est jamais totalement incognito sur les réseaux sociaux, on laisse toujours des traces. C'est donc une fausse bonne idée de supprimer ce relatif anonymat. Il recouvre en fait autant de libertés que de possibilités d'agir qu'il faut conserver."
Aurialie Jublin

Une IA concertée et open source comme outil éducatif pour les citoyens et les... - 0 views

  • Un autre aspect particulier du projet est d'explorer le concept de "privacy by using" et de faire du projet un outil de sensibilisation et d'éducation aux problématiques d'éthique et de protection de la vie privée dans les services intégrant de l'IA. 
  • Dans ce sens, nous travaillons sur des contenus et des formats (ateliers et rencontres de type barcamp) spécifiquement pensés de manière ludique pour les écoles afin de sensibiliser dès le plus jeune âge aux problématiques liées aux biais et à l'économie de l'attention, problématiques inhérentes à la "vie numérique" de l'époque actuelle et qui vont s'avérer toujours plus critiques avec le développement de l'IA (de plus en plus d'enfants sont confrontés très tôt à des services potentiellement problématiques, en particulier avec le boom des assistants vocaux).
  • Ainsi, en combinant la méthode "society in the loop" et l'approche "privacy by using", le projet permet de constituer de façon concertée une base de connaissances libre et ouverte tout en participant à l'éducation de la société sur les enjeux et les bonnes pratiques d'une intelligence artificielle d'intérêt général éthique et responsable.
  •  
    "Je travaille depuis quelques temps avec Matteo Mazzeri sur un projet de recherche appliquée en partenariat avec le CERN (cf. https://twitter.com/Genial_Project) qui propose une approche assez singulière de l'articulation entre intelligence artificielle (IA) et service public. Il s'agit de concevoir une "IA concertée" et open source qui permette de développer des services d'intérêt général / à vocation de service public. L'originalité de notre approche est d'appliquer le concept de "society in the loop" exposé par le MIT Medialab (concept très bien expliqué en français par Irénée Régnauld dans cet article) de manière à proposer une méthodologie, un travail humain sur les données et des modèles d'apprentissage qui permettent de refléter au plus près les besoins de "la société" et d'aboutir à une IA éthique et responsable."
Aurialie Jublin

[Écologie] Le monde du logiciel est en train de se détruire... Manifeste pour... - 0 views

  • Tout est lent, et cela ne va pas dans le bon sens. Certaines voix s’élèvent. Je vous invite notamment à lire “Le désenchantement du logiciel”. Tout est insupportablement lent, tout est ÉNORME, tout finit par devenir obsolète… La taille des sites web explose. Un site web est aussi gros que le jeu Doom. Le phénomène ne touche pas que le Web mais aussi l’IoT, le mobile… Le saviez-vous ? Il faut 13% de CPU pour faire clignoter un curseur…
  • Tout grossit : la taille des applications, les données stockées, la taille des pages web, la mémoire des téléphones… Les téléphones ont maintenant 2 Go de mémoire, échanger une photo de 10 Mo par mail est maintenant classique… À la limite, cela ne serait peut-être pas un problème si tous les logiciels étaient utilisés, efficaces et performants… Mais cela n’est pas le cas,
  • Alors tout le monde se cale sur une lenteur. Tout est uniformément lent. On se cale sur cela et tout va bien. Être performant aujourd’hui, c’est arriver à atteindre un ressenti utilisateur qui correspond à cette lenteur uniforme. On élague les choses qui pourraient être trop visibles. Une page qui met plus de 20 secondes à se charger, c’est trop lent. Par contre, 3 secondes c’est bien. 3 secondes ? Avec les multicoeurs de nos téléphones/PC et les data centers partout dans le monde, le tout relié par des supers technologies de communication (4G, fibre…),c’est un peu bizarre non ? Si on regarde la débauche de ressources pour le résultat obtenu, 3 secondes, c’est énorme. D’autant plus que les bits circulent dans nos processeurs avec des unités de temps du niveau de la nanoseconde. Donc oui, tout est uniformément lent.
  • ...29 more annotations...
  • Il est nécessaire de revenir à plus d’efficience, de « challenger » les besoins en matériel, de redéfinir ce qu’est la performance. Tant que l’on se satisfera de cette lenteur uniforme avec des solutions pour ne pas ralentir plus (comme l’ajout de matériel), nous n’avancerons pas. La dette technique, notion largement assimilée par les équipes de développement, n’est malheureusement pas adaptée à ce problème (on y reviendra). Nous sommes sur une dette de ressources matérielles et de mauvaise adéquation entre le besoin utilisateur et la solution technique. On parle ici d’efficience et non pas uniquement de performance. L’efficience est une histoire de mesure du gaspillage. L’ISO définie l’efficience avec comme domaine : Time behaviour, Resource utilization et Capacity. Pourquoi ne pas pousser plus ces concepts ?
  • Développez du code Java pour un serveur J2EE ou pour un téléphone Android, ce n’est pas pareil. Des structures spécifiques existent par exemple pour traiter des données en Android mais les structures classiques sont toujours utilisées. Les développeurs ont perdu le lien avec le hardware. C’est malheureux car c’est passionnant (et utile) de savoir comment fonctionne un processeur. Pourquoi : abstraction et spécialisation (nous verrons cela plus loin). Car en perdant ce lien, on perd une des forces du développement. Ce lien est important chez les hackers ou chez les développeurs d’informatique embarquée mais malheureusement de moins en moins présent chez les autres développeurs.
  • Les pratiques devops pourraient répondre à cette perte de lien. Là, c’est pareil, nous n’allons pas jusqu’au au bout : généralement le devops va se focaliser à bien gérer le déploiement d’une solution logicielle sur une infrastructure mixte (matérielle et un peu logicielle). Il faudrait aller plus loin en remontant par exemple les métriques de consommation, en discutant sur les contraintes d’exécution… plutôt que de “scaler” juste parce que c’est plus simple.
  • Certaines technologies ont une utilité mais sont maintenant systématiquement utilisées. C’est le cas par exemple des ORM qui sont devenus systématiques. Aucune réflexion n’est faite sur son intérêt en début des projets. Résultat : on a rajouté une surcouche qui consomme, qu’il faut maintenir et des développeurs qui n’ont plus l’habitude d’effectuer des requêtes natives. Cela ne serait pas un problème si chaque développeur connaissait très bien le fonctionnement des couches d’abstraction : comment fonctionne HIBERNATE par exemple ? On s’appuie hélas de façon aveugle sur ces frameworks.
  • Le besoin d’abstraction est lié à un autre défaut: nous attendons toujours des outils miracles. La silver bullet qui améliorera encore plus nos pratiques. Le langage idéal, le framework pour aller plus vite, l’outil de gestion miracle des dépendances… C’est la promesse à chaque fois d’un nouveau framework : gagner du temps en développement, être plus performant… Et on y croit, on fonce. On abandonne les frameworks sur lesquels nous avions investi, sur lesquels on avait passé du temps… et on passe au nouveau. C’est le cas actuellement des frameworks JS. L’histoire du développement est pavé de framework oubliés, non maintenus, abandonnés… Nous sommes les champions pour réinventer ce qui existe déjà. Si on le gardait suffisamment longtemps, on aurait le temps de maîtriser un framework, de l’optimiser, de le comprendre. Mais ce n’est pas le cas. Et que l’on ne me dise pas que si on n’avait pas continuellement réinventé la roue, on aurait encore des roues en pierre… Innover serait d’améliorer les frameworks existants .
  • Sur les langages, c’est la même rengaine. Attention, je ne préconise pas de rester sur l’assembleur et sur le C… C’est le cas par exemple dans le monde Android, pendant plus de 10 ans les développeurs ont pu travailler sur des outils et des frameworks Java. Et comme cela, par magie, le nouveau Langage de la communauté est Kotlin. On imagine l’impact sur les applications existantes (si elles doivent changer), il faut recréer des outils, retrouver des bonnes pratiques… Pour quel gain?
  • Sincèrement, on ne voit aucun ralentissement sur les cycles de renouvellement des technologies. C’est toujours un rythme frénétique. Nous trouverons bien le Graal un jour. Le problème est ensuite l’empilement de ses technologies. Comme aucune ne meurt vraiment et que l’on en maintient toujours des parties, on développe d’autres couches pour s’adapter et continuer à maintenir ces bouts de code ou ces librairies. Le problèmen’est pas le code legacy,, c’est la glue que l’on développe autour qui pêche.
  • Au final, on passe du temps à résoudre des problèmes techniques internes, on recherche des outils pour résoudre les problèmes que l’on ajoute, on passe son temps à s’adapter à ses nouveaux outils, on ajoute des surcouches (voir chapitre précédent…) … et on n’a pas améliorer la qualité intrinsèque du logiciel ou les besoins auxquels on doit répondre.
  • Au final, le rythme frénétique des changements ne nous permet pas de nous stabiliser sur une technologie. J’avoue qu’en tant que vieux développeur que je suis, j’ai été découragé par le changement Java vers Kotlin pour Android. C’est peut-être pour certains de véritables challenges, mais quand je repense au temps que j’ai passé sur l’apprentissage, sur la mise en place d’outils
  • Ensuite, comme aucune solution ne meurt vraiment, que de nouvelles arrivent… on se retrouve avec des projets avec des multitudes de technologies à gérer avec les compétences associées aussi… On s’étonne ensuite que le marché du recrutement de développeur soit bouché. Pas étonnant.. Il y a énormément de développeurs mais il est difficile de trouver un développeur React avec 5 ans d’expérience qui connaîsse le Go. Le marché est fractionné, comme les technologies. C’est peut-être bon pour les développeurs car cela crée de la rareté et cela fait monter les prix, mais pas pour le projet !
  • Cependant, cet apprentissage continu des technologies pose le problème d’apprentissage de domaines transverses : accessibilité, agilité, performance… En effet, qu’est-ce qui nous prouve que les outils et les langages que nous allons choisir ne vont pas changer dans 4 ans ? Rust, Go… dans 2 ans ? Rien ne tend à donner une tendance.
  • On ne se remet pas en question car on veut s’amuser. Le fun est important, car si l’on s’ennuie dans son boulot, on va déprimer. Par contre, on ne peut pas, sous prétexte de vouloir du fun tout le temps, changer nos outils continuellement. Il y a un déséquilibre entre l’expérience du développeur et l’expérience de l’utilisateur. On veut du fun, mais qu’est-ce que cela va réellement apporter à l’utilisateur ? Un produit plus « joyeux » ? Non, nous ne sommes pas des acteurs.
  • On ne se pose pas de question sur l’éthique de notre domaine, sur sa durabilité… Cela vient peut-être du fait que notre domaine n’a pas réellement de code éthique (comme par exemple les médecins ou les avocats). Mais sommes-nous en tant que développeurs réellement libres si l’on ne peut pas avoir une autocritique ? Nous sommes peut être asservis à une cause portée par d’autres personnes ? Le problème n’est pas simple mais nous avons dans tous les cas une responsabilité. Sans code éthique, c’est le plus fort et le plus malhonnête qui est le plus fort. Le buzz et les pratiques pour manipuler les utilisateurs sont de plus en plus répandus. Sans Dark Pattern ton produit ne sera rien. Les plus gros (GAFA…) n’en sont pas arrivés là pour rien.
  • Est-ce que la solution est politique ? Il faut légiférer pour mieux gouverner le monde du logiciel. On le voit avec les dernières réponses législatives aux problèmes concrets : RGPD, notification des cookies… la source du problème n’est pas résolue. Peut-être parce que les politiques ne comprennent que très mal le monde du logiciel.
  • Car si cette structuration n’est pas faite, les développeurs vont perdre la main sur ce qu’ils font. Or le manque d’éthique de la profession est critiqué à l’extérieur. Rachel Coldicutt (@rachelcoldicutt) directrice de DotEveryOne, un think tank britannique qui promeut une technologie plus responsable, encourage à former des diplômés non-informaticiens qui traiteraient de ces problèmes (Voir plus précisément dans l’article d’Internet Actu). Pour poursuivre sur ce dernier article, cela serait dans la droite ligne de l’informatique, domaine issu du monde militaire où les ingénieurs et développeurs seraient formés à suivre des décisions et des commandements.
  • Le monde du logiciel s’intègre dans un système organisationnel classique. Grands groupes, sous-traitances via des ESN, web agencies… Tous suivent les mêmes techniques de gestion des projets informatiques. Et tout le monde va « dans le mur ». Aucune analyse sérieuse n’est faite sur le coût global d’un logiciel (TCO), sur son impact sur la société, sur son bénéfice, sa qualité… C’est la rapidité de release(Time to Market), la surcharge featurale (fonctionnelle), la productivité immédiate, qui comptent. Premièrement car les gens externes à ce monde ne connaissent que trop peu la technicité du logiciel et son monde. Il est virtuel donc simple (sic). Mais ce n’est pas le cas. Les écoles de commerce et autres usines de managers n’ont pas de cours de développement. Comment peuvent-ils bien diriger et piloter des projets ?
  • On continue a vouloir chiffrer des projets informatiques comme de simples projets alors que des mouvements comme le no estimate propose des approches innovantes. Les projets continuent d’échouer : le chaos report rapporte que simplement 30% des projets réussissent bien. Et face à cette mauvaise gouvernance, les équipes techniques continuent de se battre sur les technologies. Dommages collatéraux : la qualité, l’éthique, l’environnement… et au final l’utilisateur. Cela ne serait pas si critique si le logiciel n’avait pas un impact aussi fort sur le monde. Software eats the world… et oui, on le « bouffe »…
  • Si ces décisions absurdes arrivent, ce n’est pas uniquement la faute du développeur mais bien de l’organisation. Et qui dit organisation dit management (sous-différente forme). Si l’on revient au livre de Morel, il parle de piège cognitif dans lesquels les managers et les techniciens tombent souvent. C’est le cas de la navette Challenger qui a été quand même lancée malgré la connaissance du problème d’un joint défectueux. Les managers ont sous-évalué les risques et les ingénieurs ne les ont pas prouvés. Chacun a reproché à l’autre de ne pas fournir assez de preuves scientifiques. C’est souvent ce qui se passe dans les entreprises : des warnings sont levés par certains développeurs mais le management ne les prend pas assez au sérieux.
  • En même temps, on revient aux causes précédentes (silver bullet, on s’amuse…), il est nécessaire d’avoir une vraie ingénierie et une vraie analyse des technologies. Sans cela, les équipes techniques seront toujours non-écoutées par le management. Des outils et benchmark existent mais ils sont encore trop peu connus. Par exemple, Technologie Radar qui classe les technologies en terme d’adoption.
  • Ce phénomène de décision absurde est renforcé par le tissu complexe du développement logiciel : Les sociétés historiquement hors du numérique sous-traitent à des entreprises du numérique, les ESN sous-traitent aux freelances… Le partage de responsabilité technique / management est encore plus complexe et les décisions absurdes plus nombreuses.
  • Mais cela ne s’arrête pas là. On peut aussi voir l’usage de l’open-source comme une sorte de sous-traitance. Idem pour l’usage de framework. On est juste consommateur passif, on se déleste de plein de problématiques (qui ont un impact sur les ressources, la qualité…).
  • C’est d’autant plus facile que le domaine est passionnant et que la pratique des sides-projects, du temps passé sur les projets open-source hors des horaires de bureau est chose commune… La recherche de “fun” et le temps passé bénéficient alors plus aux organisations qu’aux développeurs. Difficile dans ce cas de chiffrer le coût réel d’un projet. Et pourtant, cela ne serait pas un problème si on arrivait à des logiciels « au top ».
  • Le développeur n’est ici plus un artisan du code, mais plutôt un pion dans un système critiquable du point de vue humain. Cela n’est pas visible, tout va bien et on s’amuse. En apparence seulement, car certains domaines du développement logiciel vont plus loin et rendent beaucoup plus visible cette exploitation : Le domaine du jeux-vidéo où les heures explosent.
  • Et donc, toutes ces maladresses (logiciel trop lourd, sans qualité…) se retrouvent chez les utilisateurs. Comme on doit releaser au plus vite les logiciels, que l’on ne tente pas de résoudre les inefficiences internes, et que l’on ne met pas plus de ressource pour faire de la qualité, on arrive à des logiciels médiocres. Mais on a tellement d’outils de monitoring et de suivi des utilisateurs pour détecter ce qui se passe directement chez eux qu’au final, on pense que ce n’est pas grave. Cela serait une bonne idée si les outils étaient bien utilisés. Or la multitude d’informations récoltées (en plus des bugs remontés par les utilisateurs) n’est que faiblement utilisée. Trop d’information, difficulté de cibler la vraie source du problème… on s’y perd et au final, c’est l’utilisateur qui trinque. Tous les logiciels sont maintenant en bêta-test. A quoi bon faire de la sur-qualité, autant attendre que l’utilisateur le demande. Et on revient ainsi au premier chapitre : un logiciel uniformément lent … et médiocre.
  • Heureusement, on est sauvé par la non-sensibilisation des utilisateurs au monde du logiciel. C’est un monde effectivement virtuel et magique qu’ils ont l’habitude d’utiliser. On leur a mis en main les outils mais sans notice explicative. Comment évaluer la qualité d’un logiciel, les risques sur l’environnement, les problèmes de sécurité… si l’on n’a pas des notions d’informatique, même rudimentaires ?
  • L’informatique du 21ème siècle est ce que l’agroalimentaire était pour les consommateurs au 20ème siècle. Pour des raisons de productivité, on a poussé des solutions médiocres avec un calcul court-termiste : mise sur le marché de plus en plus rapide, profit en hausse constante… agriculture intensive, malbouffe, pesticides… avec des impacts importants sur la santé, sur l’environnement… Les consommateurs savent maintenant (de plus en plus) les conséquences désastreuses de ces dérives, l’industrie agroalimentaire doit donc se réinventer, techniquement, commercialement et éthiquement. Pour le logiciel, quand les utilisateurs comprendront les tenants et les aboutissants des choix techniques, l’industrie du logiciel devra gérer les mêmes problèmes. En effet, le retour au bon sens et aux bonnes pratiques n’est pas une chose simple pour l’agroalimentaire. Dans l’IT, on commence à le voir avec ses conséquence sur la vie privée des utilisateurs (mais nous n’en sommes qu’aux balbutiements).
  • On va dans la mauvaise direction. L’industrie de l’informatique a déjà effectué dans les années 70 des erreurs avec des impacts non-négligeables. L’exclusion des femmes de l’informatique en fait partie. Non seulement cela a été fatal pour certaines industries mais on peut se poser la question de comment on peut maintenant adresser des réponses à seulement 50% de la population informatique, avec une représentativité très faible. Le chemin est maintenant difficile à retrouver.
  • Mais l’impact du monde IT ne s’arrête pas là. La source et le modèle d’une grosse partie de l’informatique sont issus de la Silicon valley. Si l’on écarte les gagnants de la Silicon Valley, les populations locales subissent la montée des prix, le déclassement, la pauvreté…
  • Dans sa lancée vers le progrès technique, le monde du logiciel crée aussi sa dette environnementale…
  •  
    "Le monde du logiciel va mal et si l'on n'agit pas, on risque de le regretter. Environnement, qualité, exclusion… Software Eats The World (Le logiciel mange le monde…) ? Oui un peu trop. "
Aurialie Jublin

Safiya Umoja Noble : «Avec Google, nous utilisons des technologies qui censur... - 0 views

  •  
    Si on tape «filles noires», «Juifs» ou «belles» dans le moteur de recherche, qu'obtient-on ? Dans son dernier ouvrage, la chercheuse américaine, dénonce le sexisme, les discriminations et le racisme des résultats affichés par la plateforme. Antidémocratique et à visées publicitaires, Google bénéficie d'un excès de confiance de la part des internautes.
Aurialie Jublin

La plupart des applis pour les réfugiés ne sont pas utilisées - Digital Socie... - 0 views

  • avec la généralisation du mobile. Celle-ci a instauré un mode d’existence différent, fondé sur la joignabilité permanente. Les nouvelles technologies ont apporté des réponses immédiates à certains besoins des migrants : rester proche de la famille, rendre la migration supportable. À mesure que ces technologies se sont développées, elles ont envahi tous les aspects de la vie des migrants. Elles ont aussi amené de nouvelles contraintes : les smart borders , le tracking, la question de la privacy, ainsi que des contraintes sociales nouvelles comme l’obligation d’être présent même à distance, d’envoyer de l’argent…
  • Tout s’accélère en 2015, quand les médias mettent en lumière le migrant connecté. De tous côtés activistes et hackers se mettent à créer des applications pour les réfugiés. Il y a une vague d’idées, une sorte de « technophorie ». Avec une expertise technique sur le sujet, beaucoup d’élan et d’initiative, mais sans vraiment avoir étudié la chose avant, sans avoir réellement regardé les usages.
  • Toutes les associations doivent soudain s’y mettre, le Haut Commissariat aux Réfugiés de l’ONU se lance aussi là-dedans, Techfugees naît et la presse encourage beaucoup ces initiatives. Il y a de l’argent, public et privé, pour développer des prototypes, mais pas assez pour accompagner ces applications vers leur maturation, les phases de testing, le développement d’un business model.
  • ...6 more annotations...
  • Avec mes collègues Léa Macias et Samuel Huron, nous avons inventorié une centaine d’applications et de plateformes construites ces 8 dernières années. Celles-ci proposent des services très variés : Information-service, mise en relation, recherche d’emploi, hébergement, traduction, apprentissage des langues, éducation et formation, identité, santé… Nous avons constaté que ces applications ont une vie de comète : ainsi en juin 2018, 27 % des applications recensées précédemment avaient disparu (13 sur les 48 recensées). En septembre 2018, 29 % avaient disparu (soit 10 sur les 35 recensées).
  • Nous avons aussi testé ces applications avec des réfugiés inscrits à l’école Simplon, dans le programme Refugeek qui les forme à être programmeurs en France. Ce sont des gens habitués au code, aux applications. Dans leur téléphone, nous n’avons trouvé aucune application destinée aux réfugiés. Ils utilisent Facebook, WhatsApp, Google, comme tout le monde
  • Nous avons aussi constaté que toutes les applications, même les plus simples, demandaient des informations personnelles. Toutes ont l’idée de faire reposer leur modèle économique sur les data. C’est classique dans le champ des applications. Mais quand on travaille avec des réfugiés, c’est délicat. Car ces personnes ne sont pas réfugiées par hasard : elles fuient des dangers et il faut faire très attention avec ces données.
  • Les applications qui marchent, comme CALM (Comme à la Maison, application qui met en lien des réfugiés avec des particuliers qui peuvent les héberger pour des durées variables, ndlr), c’est parce qu’elles mettent en pratique une idée longuement mûrie, dans le cas de CALM celle de favoriser l’intégration par l’immersion.
  • CALM, développé par le mouvement citoyen Singa , repose sur l’idée de l’intégration par l’immersion. je crois aussi que c’est très efficace. Les codes d’une société s’acquièrent plus facilement lorsqu’on est immergé dans un environnement, on approche l’altérité différemment. Surtout, des sentiments naissent de cette mise en relation de reconnaissance, de satisfaction... Cela crée une énergie très positive. Parfois ces relations durent quelques semaines, parfois toute une vie. Quand les migrants racontent des trajectoires migratoires réussies, il y a toujours une personne, à un moment donné, qui les a tiré vers la société. Singa a essayé de capter ce moment, de l’investir de manière numérique et je pense que c’est une bonne chose.
  • Ensuite, nous avons vu que l’hospitalité ne pouvait pas être déléguée à des techniques de matching. L’hospitalité, ce n’est pas Tinder. Nous avons essayé d’utiliser le matching pour organiser des rencontres, par exemple, sur la base d’intérêts communs. Mais ça ne marchait pas. Ou bien, quand ça prenait, les gens passaient sur Facebook, qui donne un aperçu plus complet de l’environnement social de la personne... Mais CALM reste une plateforme importante. Elle a été beaucoup médiatisée et a permis d’ouvrir les esprits, de faire parler de l’hébergement chez soi. Je pense qu’elle n’est pas étrangère à l’amendement adopté en octobre 2018 par l’Assemblée Nationale, instaurant un crédit d’impôt pour les personnes hébergeant des réfugiés chez elles .
  •  
    "Depuis le début de la crise migratoire en 2015, de nombreuses applications pour les réfugiés ont vu le jour. Si elles naissent de bonnes intentions, elles sont rarement utiles. C'est ce qu'explique la sociologue Dana Diminescu , enseignante-chercheuse à Télécom Paris-Tech, qui étudie depuis longtemps les usages des TIC chez les migrants (elle avait d'ailleurs coordonné le dossier consacré aux diasporas connectées sur notre site )."
Aurialie Jublin

Le contrôle des données numériques personnelles est un enjeu de liberté colle... - 0 views

  • Il serait commode de penser que l’humain du XXIe siècle a renoncé à sa vie privée. Mais il ne s’agit pourtant pas d’indifférence. Les sondages montrent avec insistance et sans ambiguïté que les internautes la chérissent encore à l’heure des réseaux sociaux et des smartphones. Comment, alors, expliquer cette apathie ?
  • Pendant des décennies, à raison, défendre la vie privée revenait à protéger l’individu. Aujourd’hui encore, on s’obstine à rechercher et mesurer les conséquences individuelles de cette collecte effrénée de données personnelles et de ces piratages à répétition. Mais le paradigme a changé : la question des données personnelle n’est pas un problème d’intimité. C’est un enjeu de liberté collective.
  • Prenez l’affaire Cambridge Analytica : le problème n’est pas que Donald Trump et son équipe de campagne ont consulté méthodiquement la liste d’amis de 87 millions d’utilisateurs de Facebook (dont plus de 200 000 Français). Mais qu’ils aient pu utiliser ces informations, agrégées à des millions d’autres, pour mener une campagne politique extrêmement personnalisée, quasi individualisée, en utilisant à plein l’invraisemblable machine à cibler des messages proposée par Facebook. L’impact de cette fuite de données personnelles n’est plus individuel, il est collectif. Il ne s’agit pas de l’intimité de son existence vis-à-vis d’une organisation politique, mais de la liberté collégiale de choisir en conscience son dirigeant politique ou ses conditions de vie commune.
  • ...2 more annotations...
  • Au bout du compte et si rien ne change, alors que ces entreprises s’immisceront de plus en plus dans nos activités quotidiennes, passant peu à peu de la « suggestion » à l’« injonction », nous serons sans doute pris au piège des données personnelles. On décidera à notre place, d’une manière qu’on nous présentera comme optimale puisque conçue sur l’analyse de données de millions de personnes dont la vie nous est similaire, et en nous confisquant une part de notre libre arbitre. Il ne s’agit pas d’intimité vis-à-vis d’une quelconque entreprise de la Silicon Valley, mais de liberté individuelle.
  • La seule solution est de limiter la dissémination aux quatre vents de nos données personnelles. Mais comment le faire sans se retirer des connexions, sociales et professionnelles, d’une société désormais numérisée ? Comment renoncer à tous ces avantages ? La solution se trouve quelque part entre le collectif (des règles politiques pour limiter la collecte et l’exploitation des données) et l’individuel (le recours à une technologie plus frugale et plus décentralisée).
  •  
    Les révélations des failles de sécurité touchant des services en ligne s'accumulent. Et la collecte de nos données fait peser un risque collectif d'envergure.
Aurialie Jublin

« Algorithmes, la bombe à retardement » : un cri d'alarme citoyen - 0 views

  • Pour comprendre la thèse du livre, il faut en lire l’envoi : « À tous ceux que l’on donne perdants ». « On », ce sont les dominants qui, sous couvert de discours méritocratique et exaltant l’égalité des chances, déploient des algorithmes qui traquent les dominés dans un grand nombre de domaines et leur infligent de sévères dommages. Comme à la guerre.
  • Pour nommer ces algorithmes malfaisants, elle parle d’« ADM » pour « Arme de destruction mathématique ». Ces armes sont conçues sans que les soldats ne s’en rendent compte, comme elle l’écrit dans des travaux de recherche en géométrie algébrique et mathématique au MIT.
  • Ainsi du monde du travail, où elle réalise que les recrutements se font de plus en plus sans passer par un jugement humain. Dans un grand nombre de postes où la réputation est en jeu, il y a ceux qui peuvent s’acheter un service d’achats de followers Twitter à 19,95 $ par mois et ceux qui restent bloqués à un nombre confidentiel de fans et qui n’auront jamais de community à manager. À l’autre bout de l’échelle sociale, un nombre croissant de demandeurs d’emplois dans des multinationales comme Home Depot, Lowe’s ou Walgreen voient leurs candidatures bloquées par des algos, pour cause d’antécédents psychiatriques. 
  • ...2 more annotations...
  • L’analyse de Cathy O’Neil sur la puissance de destruction de certains algorithmes mal intentionnés vaut aussi dans le secteur de l’éducation. Aux Etats-Unis, les étudiants les plus pauvres se retrouvent ainsi inondés de pubs pour des facs de seconde catégorie, qui misent tout là-dessus pour remplir leurs amphis, quand les bonnes facs jouent plus de la réputation de leurs profs
  • « Les ADM se nourrissent les unes les autres. Les gens pauvres ont tendance à présenter un mauvais score de crédit et à vivre dans des quartiers à forte criminalité, entourés d’autres individus pauvres. Une fois ces données digérées, le sordide univers des ADM les bombarde de publicités prédatrices pour des prêts hypothécaires de type subprime ou des écoles à but lucratif. Il déploie plus de policiers pour les arrêter et, lorsqu’ils sont condamnés, leur inflige des peines de prisons plus longues… ».
  •  
    "Attention, c'est du brutal. Algorithmes, la bombe à retardement (Novembre 2018, Les Arènes) nous plonge dans les cuisines peu ragoûtantes des fabricants d'algorithmes. L'auteure, Cathy O'Neil, est une mathématicienne américaine de haut vol passée de l'université aux banques puis aux analyses en big data avant de se reconvertir en lanceuse d'alerte. Elle pousse ici un cri d'alarme citoyen : nous ne pouvons pas rester spectateurs d'un monde où nous sommes de plus en plus tributaires d'outils conçus de façon opaque, utilisés à des fins commerciales ou sécuritaires et ayant pour conséquence d'exacerber les inégalités."
Aurialie Jublin

Pour les partenaires de Facebook, vos données personnelles, c'est open bar - 0 views

  • Entre 2010 et 2017 (au moins), c'était donc open bar sur les données personnelles des utilisateurs du réseau social pour les partenaires commerciaux de Facebook. Jugez plutôt : le moteur de recherche de Microsoft, Bing, pouvait accéder aux noms de tous les amis des utilisateurs, tandis que Netflix et Spotify pouvaient consulter les messages privés des individus inscrits sur le réseau social. Le tout via les applications de ses partenaires commerciaux et, évidemment, sans le consentement des individus concernés. Amazon pouvait, de son côté, obtenir le nom et les coordonnées des utilisateurs par l'intermédiaire de leurs amis, et Yahoo consulter des flux de messages d'amis.
  •  
    "Une nouvelle enquête du New York Times sur le réseau social le confirme : Facebook a autorisé de grandes entreprises comme Amazon, Netflix, Microsoft ou Spotify à se servir allègrement dans les données personnelles de ses utilisateurs."
Aurialie Jublin

Qui crée la valeur économique d'une nation ? - 0 views

  • Nous devons changer de cap, insiste-t-elle, dans ce livre stimulant. Entre autres choses, nous devons repenser la relation entre marchés et gouvernements ; faire une distinction claire entre créateurs de richesse et ceux qui ne font qu’en profiter ; avoir des ambitions collectives plus audacieuses, notamment passer à une économie plus écologique ; et investir pour l’avenir, au lieu de choisir une austérité stérile et contre-productive.
  • Ce livre vient après ‘The Entrepreneurial State’, dans lequel Mme Mazzucato a soutenu que le gouvernement a joué un rôle d’innovateur puissant dans l’économie moderne. L’argument principal de ce livre est qu’il est beaucoup trop facile pour ceux qui interviennent dans l’économie de marché de s’enrichir en profitant de la valeur économique créée par d’autres, au lieu d’en générer eux-mêmes.
  • La manière dont le secteur financier a généré une énorme augmentation de l’endettement des ménages au cours des années qui ont conduit à la crise financière de 2007-2009 en est un exemple évident. Cette concurrence stérile a financé l’achat du parc de logements existants à des prix très élevés. Cela a provoqué une crise importante, un surendettement, une faible croissance et un désenchantement politique. Ceci alors que, pour ceux qui ont créé, manipulé et vendu cette dette, c’était une mine d’or. C’était en fait de la valorisation accompagnée de destruction. Il en va de même pour la gestion d’actifs, avec ses pratiques abusives, ses frais exorbitants, son manque de transparence, sa mauvaise gestion et ses conflits d’intérêts. Ce secteur financier, ainsi que la “maximisation de la valeur pour les actionnaires” que les économistes ont défendu, a eu un effet néfaste sur l’ensemble des entreprises, soutient Mme Mazzucato, en encourageant les rémunérations exorbitantes ainsi que la manipulation des cours boursiers au détriment de l’investissement à long terme.
  • ...10 more annotations...
  • La finance n’est pas seule sur le banc des accusés. Mme Mazzucato s’attaque également à ce qui se passe dans des secteurs qui paraissent avoir un effet plus bénéfique, tels que les technologies de l’information ou les produits pharmaceutiques. Selon elle, l’un des problèmes est l’octroi de droits de propriété intellectuelle trop généreux ou simplement injustifiables, comme le fait de pouvoir breveter des richesses biologiques ou des processus commerciaux très basiques.
  • Elle souligne également l’importance d’un secteur trop souvent considéré comme ne créant aucune valeur économique : le gouvernement. Le gouvernement fait plus que faire respecter la justice et assurer la sécurité, selon elle. Il construit des infrastructures, éduque les jeunes, prend en charge la santé de la population, finance la recherche fondamentale, et a souvent favorisé directement le développement économique. C’est le gouvernement américain, et non des entreprises privées, qui a créé bon nombre des technologies les plus fondamentales et celles qui ont le plus d’impact d’aujourd’hui : l’Internet et le système mondial de positionnement GPS en sont deux exemples spectaculaires.
  • Une thèse fondamentale du livre est que la confusion entre la captation de valeur et la création de valeur, et vice versa, a ses racines dans les erreurs des économistes. Une longue partie du livre traite de l’histoire de la notion de valeur en économie, depuis les mercantilistes du XVIIe siècle jusqu’aux économistes classiques du XVIIIe et du début du XIXe siècle, puis aux marginaux (ou “économistes néoclassiques”) de la fin du XIXe et du XXe siècle.
  • Les économistes classiques, notamment Adam Smith, David Ricardo et Karl Marx, étaient préoccupés par la distinction entre ceux qui créent de la valeur, ceux qui ne font que la faire circuler, et ceux qui vivent du travail des autres comme des parasites (exemple : les aristocrates propriétaires des terres), souligne-t-elle. C’étaient des distinctions à la fois économiques et morales. Les économistes néoclassiques, tels que Léon Walras, Stanley Jevons et Alfred Marshall, avec leur révolution marginale et leur volonté d’équilibre, ont supprimé ces distinctions : selon la théorie subjective de la valeur, le prix est simplement la meilleure indication de la valeur (marginale) : ce qui est cher est, au moins à la marge, précieux. Les choix que font les gens sont les seuls déterminants de la valeur.
  • Le fait que les économistes se concentrent sur ce qui est produit et mis sur le marché a deux autres conséquences, affirme Mme Mazzucato : l’hypothèse de base est que le gouvernement est considéré comme improductif, voire parasitaire, et les activités domestiques deviennent invisibles. Ces hypothèses ont été reprises dans le nouveau système de comptabilité nationale élaboré dans les années 1930 et 1940, d’où est née notre mesure du “produit intérieur brut”.
  • Néanmoins, elle met en avant un point crucial : ce que nous valorisons est un choix social, et une partie de ce que nous valorisons aujourd’hui – l’ingénierie financière, par exemple – relève plus de la justification du fait de profiter de la valeur, que de la création de valeur ajoutée.
  • Ce qui n’est pas mesuré ne compte pas. Mais ce qui est mesuré compte. Mme Mazzucato montre au lecteur la manière dont on donne de la valeur aux activités bancaires. Cette valeur économique ajoutée est actuellement mesurée par le coût des “services d’intermédiation financière indirectement mesurés”, c’est-à-dire par l’écart entre le coût de l’emprunt et le taux d’intérêt des prêts. Plus l’écart est grand, par hypothèse, plus les banques sont censées créer de la valeur. Cela revient à confondre un coût avec un bénéfice.
  • Selon Mme Mazzucato, les évidentes défaillances de nos économies sont la conséquence de notre incapacité à distinguer entre les activités qui créent, redistribuent et détruisent la valeur. Ceci, ensuite, encourage les profiteurs de valeur (comme les compagnies pharmaceutiques qui fixent les prix en fonction de ce que le marché supporte) ; cela effraie les acteurs non marchands, y compris les bureaucrates, qui auraient pu aider à créer de la valeur ; et cela encourage les décideurs politiques à croire que les solutions de marché, comme la Private Finance Initiative (PFI, partenariat public-privé britannique), qui ne fonctionne pas correctement, sont nécessairement supérieures à celles qui sont proposées par les gouvernements.
  • Ce que j’aurais préféré lire, cependant, c’est une enquête approfondie sur quand et comment les gouvernements ajoutent de la valeur. Le gouvernement américain, par exemple, a joué un rôle extraordinaire en matière d’innovation, en particulier par l’intermédiaire du ministère de la Défense et des National Institutes of Health. Mais dans quelle mesure cela est-il vraiment pertinent pour les pays dont les ressources économiques et scientifiques sont plus limitées ? Comment s’assurer que les gouvernements ajoutent de la valeur plutôt que de simplement l’extraire, la prélever et la gaspiller ? Dans son enthousiasme sur le rôle potentiel de l’État, l’auteur sous-estime considérablement les importants dangers que représentent l’incompétence et la corruption gouvernementales.
  • Néanmoins, il y a trois points forts importants dans cet ouvrage. Premièrement, Mme Mazzucato nous pousse à nous éloigner du credo simpliste selon lequel les marchés sont toujours positifs et les gouvernements toujours négatifs. Deuxièmement, elle propose à la gauche un objectif positif de prospérité grâce à l’innovation, à la place d’une politique stérile et, finalement destructrice, de redistribution. Enfin, elle nous oblige à nous demander ce qui ajoute de la valeur à la société et comment créer un ordre économique et social qui favorise cela. En lui-même, ce livre crée de la valeur en nous forçant à nous confronter à ces points de vue.
  •  
    "Qui crée de la valeur ? Qui profite de la valeur ? Qui détruit de la valeur ? Si nous confondons ceux qui profitent de la valeur ou détruisent la valeur avec ceux qui la créent, nous finirons avec des sociétés appauvries et malheureuses, au sein desquelles règnent les pillards."
Aurialie Jublin

Éducation, gendarmerie... Ces services publics qui disent adieu à Google - 0 views

  • Dans le cadre de sa transformation numérique, l'État met "sur un pied d'égalité les logiciels libres et propriétaires au sein de l'administration" depuis septembre 2012. Et publie chaque année son socle logiciels libres, une liste préconisée pour les services de l'état et les particuliers, adaptée à chaque usage numérique : édition de documents, navigateur internet ou encore solution de stockage en ligne.
  • "Le gouvernement demande aux logiciels libres d'être une contre-offre, mais nous n'offrons pas de service de qualité professionnelle, nous aspirons à ce qu'ils utilisent nos logiciels de façon indépendante, témoigne "Pouhiou" porte-parole de l'association de logiciels libres Framasoft. L'État est engagé dans la consommation des GAFAM, pas du numérique libre."
  • Dans cette lutte contre le géant américain, une entreprise tire son épingle du jeu depuis quelques mois. Le moteur de recherche français Qwant, qui ne traque pas ses utilisateurs contrairement à Google, s'immisce un peu partout comme en témoigne le hashtag dédié #SwitchToQwant. L'éducation nationale, déjà engagée dans une démarche éthique avec l'utilisation des logiciels libres Framasoft, a adopté Qwant Junior depuis 2016 dans l'Académie de Versailles.
  •  
    "Petit à petit, le service public s'organise contre le monopole de Google. Des outils associatifs font leur apparition sur les sites internet des collectivités comme Framasoft ou OpenStreetMap, et certaines entreprises comme Qwant investissent l'éducation nationale."
Aurialie Jublin

affordance.info: Undocumented Men - 0 views

  • De fait nous semblons aujourd'hui n'avoir que deux choix fondés sur deux doctrines s'excluant mutuellement : Doctrine n°1 : La vie privée est une anomalie et si vous n'avez rien à vous reprocher vous n'avez rien à cacher. Soit le scénario d'une surveillance totale et globale de chacun de nos comportements par les grandes firmes tech en lien avec les états. Un projet au mieux de nature totalitaire et au pire de nature fasciste. Doctrine n°2 : La vie privée est un droit constitutionnel dont les états et les grandes firmes technologiques doivent être garants. Et là vous aurez toujours quelqu'un pour commencer à parler des exceptions, toujours un "oui mais" : "oui mais s'il s'agit de pédophilie ? De terrorisme ? D'empêcher un pilote d'avion mentalement déséquilibré de causer la mort de centaines de personnes ? A quel moment commence le "principe d'une surveillance de précaution" et quel aspect du droit fondamental à la vie privée doit-il fouler au pied ?" Et on ne s'en sort pas. 
  • Seul un troisième scénario pourra nous permettre d'éviter le pire. Il nécessite de passer par : la multiplication d'outils effectivement respectueux de notre vie privée dans le traitement technique des données qui y circulent (c'est la cas de DuckDuck Go, de Qwant, et de quelques autres) le déploiement de solutions alternatives à la toute puissance des GAFAM (comme l'initiative Dégooglisons internet le permet déjà, et comme le permettrait encore davantage la création d'un index indépendant du web combiné à la mutualisation déjà effective de ressources en Creative Commons) le soutien politique (et législatif) au déploiement du logiciel libre la formation à l'explicitation des enjeux de la surveillance ("Surveillance://" de Tristan Nitot en est un exemple magnifique) la prise de conscience que les données dont nous parlons sont avant tout celles de notre servitude volontaire
  • Demain peut-être, lorsque la dystopie se sera définitivement installée, ne nous faudra-t-il plus parler de "sans papiers" mais de "sans comptes". Des individus sans trace sociale numérique qui permette de les documenter. Ils ne seront plus "undocumented" mais "undigitized", non-numérisés. Et donc non-surveillables. Peut-être que ce sera une chance. Probablement même. De nouvelles formes de résistance documentaire émergeront, de nouvelles pédagogies contre la surveillance seront nécessaires. Et nous serons sans  peur, mais jamais sans reproche(s), car nous aurons compris que la doctrine selon laquelle "si nous n'avons rien à nous reprocher nous n'avons rien à cacher" est la source de tous les totalitarismes, que la vie privée est tout sauf une anomalie. Alors oui nous serons sans peur, dussions-nous pour cela rejoindre la cohorte de toutes celles et ceux qui sont, aujourd'hui, sans documents. Car cette humanité "undocumented" est bien plus qu'une humanité "sans papiers", elle est une humanité "non-documentée", en ce sens elle est aussi libre qu'elle permet de pointer et de mesurer notre propre asservissement aux nouveaux ordres documentaires. 
  •  
    "Deuxio, sa haine viscérale est adressée à des communautés et à des minorités (rien de nouveau sous le fascisme ordinaire ...) mais elle se caractérise en cela qu'elle stigmatise principalement ces communautés du fait de leur absence de papiers (les fameux "Undocumented Men") et qu'elle utilise, pour conduire et guider cette haine, les outils et les métriques ne pouvant s'appliquer qu'à une population "sur-documentable". C'est ainsi que Cambridge Analytica a joué un rôle majeur dans la construction de sa victoire ; c'est ainsi également que la toute puissance du discours totalitaire est d'autant plus efficiente qu'elle s'applique à des communautés ciblées parce que sur-documentées (et sur-documentables) ; c'est ainsi, enfin, qu'il faut voir la volonté affichée de récupérer à toute force les mots de passe de ces "undocumented men" car cela permet au discours totalitaire et au projet fasciste qui le sous-tend de faire entrer le monde dans les deux seules catégories binaires qu'il comprend et qui composent son horizon et son projet : d'un côté ceux qu'il est possible de contrôler et de manipuler (les "sur-documentés") et de l'autre ceux contre qui il faut diriger la haine des premiers (les "sous-documentés", les "undocumented")."
Aurialie Jublin

J'ai testé pour vous : 8 jours de data detox challenge - 0 views

  • « Pour adopter un lifestyle data équilibré, il est crucial de diversifier les services que vous utilisez ». Comme tout régime qui se respecte, le Data Détox Challenge rappelle l’importance diversifier les familles d’aliments. Cinq moteurs de recherche et navigateurs par jour ? Ca va être dur.
  • Mais comment m’alléger en data sans perdre mes courbes d’audience sur chaque plateforme ? Les défauts du Par défaut. Je commence par changer mon profil publicitaire sur Facebook : non, on ne pourra plus me cibler selon mon genre. J’enfile dans la foulée ma panoplie d’agent de propreté des temps modernes, et j’efface les tags sur mes photos et celles de mes amis. Désormais nous circulerons incognito, ou presque.
  • Dans une détox, chaque jour est un challenge : aujourd’hui la chasse au trackers est ouverte. Comme de vilains sucres, ils se nichent partout de manière invisible. Chasser les pixels espions de Facebook et Twitter (cachés dans les boutons Like et Share de très nombreuses pages) n’est pas si simple. Puisqu’il est impossible de les faire disparaître, c’est à nous de nous éclipser. J’active le mode privé par défaut dans mon navigateur, je bloque les trackers et je vérifie la sécurité de mes connexions avec l’aide de mes nouveaux compléments de navigateur préférés : Privacy Badger, Panopticlick et HTTPS Everywhere. Mon nouveau menu favori ? Pomme + Maj + N (pour la navigation privée).
  • ...4 more annotations...
  • Le challenge invite à télécharger l’application Architecture of radio, qui cartographie les ondes électromagnétiques émises par les antennes relais de téléphonie mobile, les routeurs Wi-Fi, les satellites et les rend visibles, le tout en temps réel. Ici pas de login pour l’utiliser, mais la CB comme passage obligé. La vidéo démo m’a convaincue et je m'acquitte des 2,49 € pour assouvir ma curiosité. Cette fois au moins, je ne paierai pas avec mes data.
  • Je me plie au calcul de mon Indice de Masse Informationnelle. L’équation est facile : pour connaître son exposition à la collecte de données, il suffit de compter ses applications.
  • Tout à coup je me demande quelle utilisation fait Data Selfie de mes données. C’est le métier qui rentre ! Je vérifie : le code est accessible de manière transparente sur GitHub, et les créateurs précisent bien que les données ne sont pas stockés ni utilisées ailleurs que dans Data Selfie.
  • l'extension gratuite open source Adnauseam qui noie l'activité de l'utilisateur en cliquant sur des pubs aléatoires en arrière plan.
  •  
    "Scandale Cambridge Analytica, Règlement Général sur la Protection des Données (RGPD)... La mode est à la diète des datas. Chacun y va de son petit écrémage électronique, de sa politique anti-cookie et tout le monde ne jure plus que par son indice de masse d'info personnelle. Sortez de la boulimie et relevez comme Millie Servant, en charge de la communication numérique pour Cap Digital & Futur.e.s Festival, le seul défi slim qui vaille : le Data Detox Challenge. Un parcours « détox » proposé sur 8 jours par la fondation Mozilla et le Tactical Technology Collective. "
Aurialie Jublin

Concrètement, comment rendre les algorithmes responsables et équitables ? | I... - 0 views

  • Et rappelle la difficulté à définir mathématiquement l’équité, comme l’a souligné l’informaticien Arvind Narayanan (@random_walker) lors de la dernière édition de la conférence FAT (la conférence annuelle sur l’équité, la responsabilité et la transparence). Outre les biais et déséquilibres statistiques, rappelle David Robinson (@drobinsonian), responsable des associations EqualFuture et Upturn (et qui a notamment publié un rapport sur la question de l’examen public des décisions automatisées (.pdf)), leur impact dépend surtout de la manière dont sont utilisés ces systèmes, avec le risque, que pointait Eubanks, que les plus discriminés soient encore plus surveillés par ces systèmes.
  • Pour remédier à ces problèmes, beaucoup d’agences américaines ont recours à des chercheurs extérieurs pour déjouer les biais de leurs systèmes. En avril, l’AI Now Institute a défini un cadre (voir le rapport (.pdf)) pour les organismes publics qui souhaitent mettre en place des outils de prise de décision algorithmique, recommandant notamment de mettre à contribution la communauté de la recherche et de permettre à ceux que le système calcul de faire appel des décisions prises à leur sujet.
  • Leurs recommandations invitent les systèmes à respecter le droit d’information du public, à recourir à des examens par des chercheurs indépendants, à améliorer l’expertise des organismes qui les conçoivent et à développer des modalités pour permettre au public de contester les décisions prises. L’initiative recommande aux agences publiques de répertorier et décrire les systèmes de décision automatisés, y compris d’évaluer leur portée et impact. Elle recommande également de mettre en place des modalités d’accès afin que des chercheurs, des experts indépendants, des associations ou des journalistes puissent accéder et évaluer ces systèmes et pour cela doivent s’assurer notamment que leurs fournisseurs privés de systèmes acceptent ces vérifications. Elle souligne également que les agences doivent monter en compétences pour être expertes des systèmes qu’elles mettent en place, notamment pour mieux informer le public, et invite les fournisseurs de solutions à privilégier l’équité, la responsabilité et la transparence dans leurs offres.
  • ...7 more annotations...
  • Mais ce n’est pas la seule piste qui permettrait d’interroger les biais des systèmes automatisés. Microsoft travaille à un outil de détection automatique des biais, Facebook également (notamment via le projet Fairness Flow annoncé par Isabel Kloumann du département d’IA de FB research à la dernière conférence de F8 Conference parmi une longue liste d’outils pour l’IA) rapporte la Technology Review.
  • La mathématicienne Cathy O’Neil (@mathbabedotorg, blog), qui s’est fait connaître en dénonçant les dangers de ces outils, a lancé une entreprise d’audit algorithmique. Visiblement, souligne Wired, ses premiers clients sont des entreprises qui ont besoin de certifier qu’elles sont équitables : comme cela a été le cas de Rentlogic, une entreprise qui évalue les immeubles automatiquement pour leur attribuer une note, ou comme Pymetrics, une entreprise qui utilise des tests de personnalité pour aider les entreprises à embaucher qui avait besoin d’assurer que ses logiciels n’étaient pas discriminants.
  • Dans son livre, Weapons of Math Destruction, Cathy O’Neil avait émis l’idée de créer un serment d’Hippocrate pour les datascientists, sous la forme d’un code de conduite édictant quelques principes moraux. Elle soulignait dans une remarquable interview pour Wired, que ce code de conduite n’était certes pas suffisant en soi, notamment parce que les datascientists ne sont pas seuls à décider de ce qui sera implémenté dans les services développés par les entreprises. Pour autant, ces techniciens ne peuvent pas seulement suivre « les recommandations des manuels d’optimisation qu’ils utilisent, sans tenir compte des conséquences plus larges de leur travail ».
  • Cathy O’Neil a proposé une matrice éthique, basée sur les travaux du philosophe Ben Mepham qui l’a utilisé en bioéthique, qui aide à saisir ce sur quoi ce que l’on développe a un impact, et de l’autre ce dont s’inquiète les gens qui sont impactés par ce que l’on développe. Cette grille confronte quelques notions (exactitude, cohérence, partialité, transparence, équité, rapidité) à leur impact sur chacune des parties prenantes. La matrice sert à créer une conversation. Chaque case propose des questions : « qui souffre si le système se trompe ? » Le but est de révéler des problèmes. Quand la réponse pose problème, la case est colorée de rouge.
  • Elle propose également de se poser plusieurs questions, comme « les algorithmes que nous déployons vont-ils améliorer les processus humains qu’ils remplacent ? » Bien souvent, on constate qu’ils fonctionnent beaucoup plus mal que les systèmes précédents. Pour elle, il est également nécessaire de se demander : « pour qui l’algorithme échoue-t-il ? » Un système de reconnaissance facial échoue-t-il plus souvent pour les femmes que pour les hommes, pour les gens de couleurs que pour les blancs, pour les personnes âgées que pour les jeunes ?… Enfin, elle invite à se poser une troisième catégorie de questions : « est-ce que cela fonctionne pour la société (donc à très large échelle) ? Est-ce que nous enregistrons les erreurs du système ? Peut-on les réintroduire dans l’algorithme pour l’améliorer ? Est-ce que le système a des conséquences non intentionnelles ?… » Et la chercheuse de rappeler qu’aucunes de ces questions ne mettent en danger les secrets des algorithmes que les entreprises veulent protéger.
  • Le militant pour la protection de la vie privée Aral Balkan (@aral) estime qu’un code d’éthique risque surtout d’être utilisé comme caution de vertu par les entreprises pour continuer à faire comme d’habitude. Appliquer le RGPD aux États-Unis aurait plus d’impact pour prévenir les dommages algorithmiques. Sur son blog, Virginia Eubanks a réagi en proposant plutôt un « serment de non-violence numérique », qui, dans la forme au moins, est plus impliquant pour celui amené à le prononcer que de signer à quelques grands principes vagues
  • Mais l’enjeu demeure de les mettre en pratique. « Tout code d’éthique des données vous indiquera que vous ne devez pas collecter des données de sujets expérimentaux sans leur consentement éclairé. Mais ce code de conduite ne vous dira pas comment implémenter ce consentement éclairé. Or, celui-ci est facile si vous interrogez quelques personnes pour une expérience de psychologie. Mais il signifie quelque chose de bien différent en ligne ». Et ce n’est pas la même chose bien sûr de demander la permission via une fenêtre pop-up par exemple ou que via une case précochée cachée… La mise en oeuvre de principes éthiques englobe des questions qui vont des choix dans l’interface utilisateur aux choix de structuration des données ou d’interrogation des données de connexion. Et pose la question de rendre néanmoins le service utilisable sans dégrader l’expérience utilisateur…
  •  
    "Face aux multiples biais inscrits dans la production même des données utilisées par les algorithmes et les outils d'apprentissage automatisés, le risque, rappelle la chercheuse Kate Crawford (@katecrowford), co-fondatrice de l'AI Now Institute (@AINowInstitute), est que « plutôt que de concevoir des systèmes censés résoudre les problèmes, nous les exacerbions »."
Aurialie Jublin

L'internet des familles modestes : les usages sont-ils les mêmes du haut au b... - 0 views

  • Le plus étonnant finalement, c’est de constater que pour des gens qui se sont équipés sur le tard, combien ces usages sont devenus aisés et rituels. Je m’attendais à trouver plus de difficultés, plus d’angoisses… Mais cela n’a pas été le cas. Les familles modestes se sont emparées d’internet à toute vitesse. Ils font certes des usages plutôt utilitaristes de ces outils polymorphes. Ils ont peu de pratiques créatives. Participent peu. Mais n’en ont pas particulièrement besoin. L’outil s’est glissé dans leurs pratiques quotidiennes, d’une manière très pragmatique. Les gens ont de bonnes raisons de faire ce qu’ils font de la manière dont ils le font.
  • Oui, internet est une seconde école. Et ce constat n’est pas sans vertus pour des populations qui bien souvent ne sont pas allées à l’école ou qui n’ont pas le bac. Internet leur propose des manières d’apprendre qui leur correspondent mieux, sans hiérarchie ni sanction. On pourrait croire par exemple qu’en matière d’information ils ne recherchent pas des choses importantes, mais si. Ils cherchent à comprendre les termes qu’emploient le professeur de leurs enfants ou le médecin qu’ils consultent. Quelque chose s’est ouvert. L’enjeu n’est pas pour eux de devenir experts à la place des experts, mais de parvenir à mieux argumenter ou à poser des questions. D’être mieux armés.
  • La dématérialisation de l’administration est inhumaine et brutale. Les familles modestes utilisent peu le mail. Leurs adresses servent principalement aux achats et aux relations avec les administrations. Mais les courriers de l’administration se perdent dans le spam qu’ils reçoivent des sites d’achat. Pour eux, le mail est un instrument de torture et ce d’autant plus qu’il est l’outil de l’injonction administrative.
  • ...10 more annotations...
  • Pour les familles modestes, le mail n’est pas un outil de conversation agréable. Il est asynchrone et écrit. Envoyer et attendre une réponse ne correspond pas aux valeurs du face à face dans l’échange, qui reste très fort dans les milieux populaires. Il demeure de l’ordre du courrier, ce qui en fait un dispositif formellement distant.
  • Les usagers ne sont pas contre la dématérialisation pourtant. Le public que j’ai rencontré utilise quotidiennement les applications bancaires par exemple, matins et soirs. Ils n’ont pas de mal à gérer leurs factures en ligne. Mais les relations avec les institutions sociales, en ligne, sont particulièrement difficiles.
  • Les familles disposent bien souvent d’une seule adresse mail partagée. C’est un moyen de tenir un principe de transparence familial… (et de surveillance : une femme ne peut pas recevoir de courrier personnel). Ce principe de transparence se retrouve également dans les comptes Facebook, dans les SMS,… La famille intervient sur les comptes de ses membres, on regarde les téléphones mobiles des uns et des autres. On surveille ce qu’il se dit. Les familles modestes ne voient pas de raison à avoir des outils individuels.
  • Effectivement, l’internet n’est jamais vu comme un moyen de contribution. J’ai demandé ainsi à une femme qui souhaitait se remarier et qui me confiait avoir beaucoup consulté de forums pour se décider à franchir le pas de la famille recomposée… si elle posait des questions sur ces forums. Elle m’a clairement répondu non, comme si c’était impensable. Ce qui l’intéressait c’était la réponse aux questions qu’elle aurait pu poser.
  • Ces partages se font avec des gens qu’on connaît. On ne cherche pas à étendre sa sociabilité.
  • Les gens que j’ai vus ne sortent pas de leur monde, sauf en ce qui concerne les connaissances, mais pas en matière de culture ni de sociabilité. Ils utilisent internet pour apprendre des choses qu’ils ne connaissent pas ou perfectionner des pratiques, comme le tricot, la cuisine, le jardinage… Mais ce n’est pas une ouverture sur des nouveaux goûts culturels. Il n’y en a pas du tout dans mon public. Les liens partagés servent aussi beaucoup à rappeler le passé, à le célébrer ensemble une nostalgie. Leur fonction consiste plus à évoquer une culture commune et à renforcer le consensus qu’à une ouverture culturelle. Mais ces résultats auraient certainement été très différents si j’avais regardé les pratiques de leurs enfants.
  • « Sur le Bon Coin, chacun garde sa fierté ». Y vendre ou y acheter des produits, même très peu chers – et beaucoup des produits qu’on y échange le sont pour quelques euros -, c’est un moyen de conserver sa fierté, d’affirmer qu’on n’est pas des assistés. Il faut entendre l’omniprésence de la peur du déclassement dans ces populations, limites financièrement.
  • En tout cas, il n’y a plus ce qu’observait Olivier Schwartz, à savoir que les femmes trouvaient leur épanouissement dans la tenue du foyer. Il faut dire que contrairement aux enquêtes qu’il a réalisées dans les familles de mineurs, ces femmes travaillent. C’est sans doute la transformation du marché du travail qui fait bouger les lignes à la maison.
  • Pour autant, ce n’est pas la guerre non plus. On trouve plus d’endroits où on échange des maximes célébrant le couple que le contraire. C’est moins vrai pour les hommes célibataires. Dans les milieux populaires, les hommes sans qualification (comme les femmes trop qualifiées) ont du mal à entrer en couples. D’où l’expression d’un vif ressentiment.
  • Les mères, qui se sont mises au jeu et qui ont compris qu’elles étaient accros à leur tour, ont une meilleure compréhension de ce qu’il se passe quand on ne peut pas s’arrêter. Les disputes sur le temps d’écran sont moins présentes. Reste qu’une grande partie de la vie des enfants échappe au périmètre familial et c’est difficile à vivre pour les parents. Ils ont l’impression parfois de contrôler ce que font leurs enfants en ligne, mais ils se trompent.
  •  
    "Alors qu'il n'y a pas si longtemps, la fracture numérique semblait ne pouvoir se résorber, les usagers les plus modestes semblent finalement avoir adopté les outils numériques très rapidement, à l'image de l'introduction de la photographie au début du XXe siècle dans les sociétés rurales traditionnelles qu'évoquait Pierre Bourdieu dans Un art moyen. L'internet des classes dominantes et urbaines a colonisé la société, rapporte Dominique Pasquier dans son étude où elle s'est intéressée aux employées (majoritairement des femmes) travaillant principalement dans le secteur des services à la personne et vivant dans des zones rurales. En matière de temps, d'utilisation des services en lignes, les usages d'internet des plus modestes ont rejoint les taux d'usages des classes supérieures. Reste à savoir si les usages sont les mêmes du haut au bas de l'échelle sociale. Interview."
Aurialie Jublin

Pour une pratique féministe de la visualisation de données - Catherine D'Igna... - 0 views

  • Et pourtant, il existe des façons de procéder à des représentations plus responsables. Il existe des moyens pour « situer » le regard et le localiser dans des corps et des géographies concrètes. Les cartographes critiques, les artistes de la contre-cartographie, les pratiquants de cartographie participative et d’autres développent des expérimentations et des méthodes pour cela depuis des années et ont beaucoup à nous apprendre.
  • Une manière de re-situer les visualisations de données pourrait être de les déstabiliser en rendant les désaccords possibles. Comment créer des manières de répondre aux données ? De mettre en question les faits ? De présenter des points de vue et des réalités alternatives ? De contester et même de saper les bases de l’existence de ces données et des méthodes par lesquelles elles ont été acquises ? Comment procéder ? Sachant que la plupart des gens qui travaillent sur les données sont des hommes blancs, il s’agit simplement d’inclure des gens différents, avec des points de vue différents, dans la production des visualisations. Ainsi par exemple, le Detroit Geographical Expedition and Institute était né, à la fin des années 1960, d’une collaboration entre des géographes universitaires, dont les responsables étaient des hommes blancs, et des jeunes du centre ville de Detroit conduits par Gwendolyn Warren, une militante de la communauté noire de 19 ans.
  • Cette carte, intitulée « Where Commuters Run Over Black Children on the Pointes-Downtown Track », était technologiquement en avance sur son temps. Peut-être est-elle assez conventionnelle (à nos yeux) dans sa stratégie visuelle. Mais ce qui donne à cette carte son caractère dissident, c’est le titre, formulé par les jeunes Noirs qui ont produit la carte. « Où les banlieusards qui rentrent du boulot écrasent les enfants noirs ». Un titre qui n’est pas neutre. On est loin de « Localisation des accidents de la route dans le centre de Detroit », titre qui aurait probablement été donné à la carte si elle avait été élaborée par des consultants extérieurs employés par la ville. Mais du point de vue des familles noires dont les enfants avaient été tués, il ne faisait aucun doute que les enfants étaient noirs, les banlieusards blancs, et les événements décrits comme des « meurtres » plutôt que des « accidents ».
  • ...4 more annotations...
  • ToxicSites.us, un site web géré par Brooke Singer, met en ligne un rapport sur chacun des sites « superfund » — ces lieux répertoriés par le CERCLA, l’agence américaine en charge des sites souillés par des déchets dangereux. Le site invite les contributeur·e·s à ajouter des reportages locaux, des images et des films qui documentent ces sites (et contredisent potentiellement les données), et cherche à faciliter l’organisation et le plaidoyer pour les efforts de nettoyage. Permettre de « répondre aux données » invite aussi à transformer la conversation en action.
  • Si les infographies — je ne parle pas ici des outils de recherche et d’exploration, mais des représentations publiques et populaires — excellent à présenter des mondes entièrement contenus, elles ne savent pas représenter visuellement leurs limites. Où sont les lieux où l’enquête n’est pas allée, qu’elle n’a pas pu atteindre ? Comment les indiquer ? Comment représente-t-on les données manquantes ? Andy Kirk a fait cet exposé remarquable sur le design du rien, qui recense diverses manières de représenter l’incertitude et d’intégrer le zéro, l’absent et le vide. Comment encourager plus de designers à prendre ces méthodes en considération ? Peut-on demander à nos données qu’elles montrent aussi ce qui constitue leur extérieur ?
  • Quelles sont les conditions matérielles qui ont rendu cette infographie possible ? Qui l’a financée ? Qui a collecté les informations ? Quel travail a été nécessaire en coulisses et comment la production de ce graphique s’est-elle déroulée ? Par exemple, le Public Laboratory for Open Technology and Science — un groupe de science citoyenne dont je fais partie — utilise une technique de cartographie consistant à suspendre une caméra à un cerf-volant où à un ballon pour collecter des photos aériennes. Un effet secondaire de cette méthode, adopté avec entrain par la communauté, est que la caméra capture aussi l’image des personnes qui collectent les images. On voit le corps des collecteurs des données, un objet généralement absent des représentations sous forme de produit fini.
  • Quel est le problème ? La théorie féministe du point de vue situé rappelle que toute connaissance est située socialement et que les perspectives des groupes opprimés — femmes, minorités et autres — sont exclues de manière systématique de la connaissance dite « générale ». La cartographie critique dirait que les cartes sont des sites du pouvoir et produisent des mondes qui sont intimement associés à ce pouvoir. Comme le soulignent Denis Wood et John Krygier, le choix de ce que l’on place sur la carte « fait inévitablement surgir le problème de la connaissance, tout comme les opérations de symbolisation, de généralisation et de classification ». Il faudra bien admettre l’existence de ce pouvoir d’inclure et d’exclure, apprendre à le dépister et développer un langage visuel pour le décrire. Dans l’immédiat, il importe de reconnaître que la visualisation de données est un des outils de pouvoir parmi les plus puissants et les plus biaisés.
  •  
    "La visualisation de données, ou infographie, est à la mode et chacun s'enthousiasme pour les nouveaux outils qui permettent d'en produire - nous en avons dénombré, avec mon collègue Rahul Bhargava, plus de cinq cents. Malgré cette richesse technique, on manque souvent d'outils permettant une réflexion critique sur la politique et l'éthique de la représentation. Et comme le grand public est plutôt facile à impressionner avec des graphiques, la « data visualization » acquiert un grand pouvoir rhétorique. Quand bien même nous savons rationnellement que ces images ne représentent pas « le monde entier », nous avons tendance à l'oublier, et à accepter les graphiques comme des faits car ils sont généralisés, scientifiques et semblent présenter un point de vue neutre et expert. Quel est le problème ? La théorie féministe du point de vue situé rappelle que toute connaissance est située socialement et que les perspectives des groupes opprimés - femmes, minorités et autres - sont exclues de manière systématique de la connaissance dite « générale ». La cartographie critique dirait que les cartes sont des sites du pouvoir et produisent des mondes qui sont intimement associés à ce pouvoir. Comme le soulignent Denis Wood et John Krygier, le choix de ce que l'on place sur la carte « fait inévitablement surgir le problème de la connaissance, tout comme les opérations de symbolisation, de généralisation et de classification ». Il faudra bien admettre l'existence de ce pouvoir d'inclure et d'exclure, apprendre à le dépister et développer un langage visuel pour le décrire. Dans l'immédiat, il importe de reconnaître que la visualisation de données est un des outils de pouvoir parmi les plus puissants et les plus biaisés."
Aurialie Jublin

Mouchards et drones à Saint-Etienne : le maire veut étouffer le débat - La Qu... - 0 views

  • Ces documents mettent en lumière les similitudes que nous commençons à percevoir entre ces différents projets : surveillance accrue et déshumanisation de l’espace public, transformation de la ville en un terrain d’expérimentation pour des sociétés privées (ici Verney-Carron, une société spécialisée dans l’armement), subventionnement public de ces nouvelles technologies sécuritaires (ici par l’intermédiaire surprenant de l’ANRU – « Agence nationale pour la rénovation urbaine »), caractère secret et volontairement opaque de leur mise en place…
  • Elle consisterait en la pose de « capteurs sonores » (le terme de micro est soigneusement évité tout au long des documents) dont l’ « intelligence » permettra de générer une alerte dès lors qu’ils détecteront certains types d’ « anormalités sonores » (la liste est impressionnante : coups de feu, cris, perceuse, meuleuse, klaxons, coups de sifflet, bombes aérosols, crépitements… – au point où on se demande quels bruits ne déclencheront pas d’événement). L’alerte sera remontée jusqu’à une plateforme centralisée à la disposition de la police qui pourra utiliser le système de vidéosurveillance et vérifier, par exemple, si le déplacement d’une patrouille est nécessaire ou non.
  • Les données collectées serviraient par ailleurs à alimenter la plateforme déjà mise en œuvre par Suez dans le cadre du projet « Digital Saint-Étienne » ; cela afin « d’expérimenter les conditions d’enregistrement et de mise en forme des évènements collectés en vue de la visualisation sur carte de ceux-ci pour constituer un outil d’aide à la décision concernant la tranquillité urbaine ».
  • ...6 more annotations...
  • La création d’une application de dénonciation citoyenne type « Reporty » permettant aux habitants la « signalisation de problème » avait également été envisagée. Ces deux dernières idées, drones et application, ont néanmoins finies par être abandonnées (pour l’instant ?) au vu des nombreuses contraintes techniques et juridiques qui se posaient (les documents parlent d’une législation trop stricte avec nécessité d’un certificat de pilote, d’autorisation de la Préfecture et d’aléas météorologiques…)
  • « Si les freins techniques doivent justement être résolus par l’innovation, il nous revient à nous, élus, de faire lever les freins administratifs et juridiques ». Un projet qui semble être soutenu par de nombreuses villes qui, s’appuyant notamment sur les propositions d’un rapport parlementaire, exigent des dérogations de survol au Ministère de l’Intérieur et réfléchissent, à l’image du maire de Saint-Étienne, à « la création d’un interlocuteur unique de lobbying sur cette question, de format associatif, [qui] pourrait représenter un levier intéressant s’agissait des échanges avec le gouvernement ». Une nouvelle association des maires de Safe Cities ?
  • Raison pour laquelle on assiste, au long des réunions, à la recherche d’un nom de projet rassembleur et tranquillisant : on ne parle pas de sécurité mais de « tranquillité urbaine », on ne parle pas de micros et de drones mais de « S.O.F.T. : Saint-Etienne Observatoire des Fréquences du Territoire ». Raison pour laquelle il est aussi explicitement déclaré que « il n’y aura pas de communication avec le grand public. Globalement, dans un premier temps l’objectif est l’expérimentation, puis dans un second temps, une communication adaptée sera mise en place ». Raison pour laquelle le premier communiqué de presse en novembre 2018 reste très flou, mentionnant une « expérimentation visant à tester des solutions numériques pour améliorer la qualité de vie des citoyens ». Il a d’ailleurs pour sous-titre « Vers un territoire bienveillant ». La novlangue n’a plus de limite.
  • Le sujet est évoqué rapidement tout au long du projet, plus comme un de ces « freins administratifs et juridiques » que pour tenter d’évaluer lucidement la légalité du projet. Après quelques notes et demandes faites à la CNIL, il est décidé de ne pas enregistrer les bruits captés et de se limiter à « la détection d’évènements sonores » : « seules les données d’évènement comprenant le numéro du capteur, la date et l’heure de l’évènement et l’identifiant de l’évènement seront transmises ». Ce qui justifierait que CNIL ait ensuite été écartée du projet.
  • C’est là qu’est tout le problème : une fois ces micros installés, par une société privée d’armement, qui contrôlera l’usage qui en sera fait ? Qui préviendra les habitants si l’on passe en « Phase 2 » et qu’on met un route un système d’enregistrement des conversations dans la ville ? Ou qu’on ne les utilisera pas un jour pour détecter des cibles par leur signature vocale ? Ce ne serait pas la première fois que ce type d’outils de détection sonore connaîtrait des dérives liberticides.
  • Pour résumer : – On assiste à l’alliance entre élus locaux et industriels de la sécurité et de l’armement qui dépense l’argent public en s’abritant de tout débat public ; – Pour mettre nos villes et nos vies sous surveillance — vieux fantasme du contrôle social par la technologie ; – L’innovation et l’ « attractivité urbaine » servent à masquer la sur-policiarisation et la discrimination, avec le concourt de l’Agence de la rénovation urbaine ; – Tandis que des autorités, comme la CNIL, laissent faire.
  •  
    "La Quadrature du Net publie et analyse les documents obtenus auprès de la mairie de Saint-Etienne sur son projet de « Safe City ». Micros couplés à la vidéosurveillance, drones automatisés, application de dénonciation citoyenne… Ils révèlent la ville sous-surveillance telle que fantasmée par son maire, Gaël Perdriau."
Aurialie Jublin

Society in the loop : vers un intelligence artificielle plus démocratique ? -... - 0 views

  • Mais l’intelligence artificielle se diffuse également dans des sphères qui concernent plus directement la vie publique, et donc la société. Pour ne citer qu’eux : le classement de lycéens après leurs bacs[4], l’automatisation de procédures judiciaires[5] ou des horaires de ramassage scolaire[6], la dérégulation du flux automobile dans les villes dus à l’utilisation d’un service de GPS comme Waze[7], l’utilisation de la reconnaissance faciale dans des lieux publics[8] et privés[9], l’usage de « détecteurs de mensonges » aux frontières[10], la police prédictive[11], ou même plus simplement l’usage de systèmes reposant sur la captation de l’attention de l’utilisateur[12].  A leurs échelles, ces sujets touchent la vie sociale dans des dimensions qui pourraient légitimement demander à ce que des discussions plus démocratiques aient lieu. Ils entrent certes, plus ou moins directement dans la catégorie « intelligence artificielle » mais participent de la numérisation du monde à travers des algorithmes, et feront tous le pas vers l’IA si ce n’est déjà fait.
  • C’est là qu’intervient le passage qualitatif du « human in the loop » (HITL) au « society in the loop » (SITL). Pour le dire simplement, le SITL devient nécessaire lorsqu’un système utilisant l’intelligence artificielle a des implications importantes sur la sphère sociale. Iyad Rahwan explique : « alors que le HITL utilise le jugement d’un individu ou d’un groupe pour optimiser un système pensé trop étroitement, SITL embarque le jugement et les valeurs d’une société vue comme un tout, dans la définition la gouvernance algorithmique[13] de questions sociétales ». En résumé, le SITL est une forme de contrat social entre ceux qui doivent obéir aux règles et ceux qui écrivent les règles.
  • Coupons court au débat qui concerne les bulles de filtres : leur émergence et leurs effets dépendent du paramétrage des algorithmes de Facebook, de Google et des autres services susceptibles de créer ces bulles. Par conséquent, elles restent à leur main, notamment à travers leurs Conditions générales d’utilisation (CGU) et le secret d’affaires qui protègent ces systèmes (et les modèles d’affaires de captation du « temps de cerveau disponible » qui y sont directement liés). Pas de démocratie à cet endroit, quand bien même les impacts sur la démocratie pourraient être réels, même s’ils sont encore mal mesurés. C’est une des premières limites du modèle « Society in the loop ».
  • ...11 more annotations...
  • Dans le cas des véhicules autonomes en revanche, une vaste étude a été réalisée sur plusieurs années par le MIT Lab. Elle a concerné des millions de personne dans 233 pays (à travers le petit jeu http://moralmachine.mit.edu/) et a montré à quel point le traitement des questions éthique est variable, même lorsqu’on parle de conduite automobile ! Comme le relate Hubert Guillaud : « la question éthique diverge selon la culture, le niveau économique et la localisation géographique ; bien plus que selon des préférences individuelles (…) les Japonais ont plutôt tendance à préférer des véhicules qui épargnent les piétons alors que d’autres cultures, comme la culture chinoise, préfèrent des véhicules qui épargnent les passagers. » L’objectif d’une telle étude est d’apporter l’éclairage de la société toute entière afin que le système technique réponde au « bien commun ».
  • A l’initiative de Grégoire Japiot (@gregoire) et Matteo Mazzeri (@matemaz), le projet GEnIAL (voir le site internet) est « Une plateforme qui utilise les interfaces conversationnelles et l’intelligence artificielle afin de permettre à la population d’un territoire de mieux vivre dans sa ville à l’ère de la Smart City en offrant des moyens simples pour accéder aux services des administrations et des autres acteurs de la région. » Le projet, qui se revendique de « Society in the loop », est d’utilité publique et censé resté « la propriété des citoyens », contrairement aux services d’assistants proposés par les géants d’internet. Les données collectées ne sont pas commercialisées et la vie privée reste préservée. Grégoire, le fondateur, précise que les concertations citoyennes sont au cœur du projet. L’idée : intégrer dans le service les retours de la société (citoyens, administrations/institutions publiques, chercheurs et acteurs économiques) en vue d’élaborer des modèles d’apprentissage utilisés pour construire une « intelligence artificielle concertée ».
  • Concrètement, GEnIAL Bot, est une « solution qui vise à permettre aux utilisateurs d’interagir avec l’ensemble des informations d’un territoire via des interfaces conversationnelles de type chatbot et assistant vocal. » Au lieu de devoir utiliser des moteurs de recherche pour identifier les différents sites où se trouvent les informations recherchées ou bien de devoir téléphoner aux services concernés, les utilisateurs peuvent interroger GEnIAL Bot en s’adressant en langage naturel et se laisser guider sous forme de conversations vers l’information. Pour la partie technologique, GEnIAL « dispose d’une convention de partenariat avec le CERN qui lui permet de concevoir avec les équipes les plus pointues, une intelligence artificielle éthique et explicable, dont les modèles d’apprentissage sont pensés de manière à refléter l’identité du territoire et intégrer un processus de concertation continue avec ses habitants. »
  • A une échelle très locale, le projet GEnIAL pourrait entrer dans ce qu’il convient d’appeler la « démocratie technique ». La formule que j’emprunte ici à Callon, Barthes et Lascoumes dans l’ouvrage fondateur Agir dans un monde incertain, Essai sur la démocratie technique (Seuil, 2011) désigne notamment les dispositifs par lesquels des profanes peuvent peser sur les modes de conception et de diffusion des sciences et des techniques. A l’évocation de la démocratie technique, on pense souvent aux grandes polémiques et controverses qui ont agité des sujets technoscientifiques comme les OGM, l’enfouissement des déchets nucléaires, ou encore les traitements contre le SIDA. Ce dernier cas a montré que l’intrusion des malades parmi les experts a pu conduire à améliorer les protocoles des laboratoires pharmaceutiques, alors très éloignés de leurs vies.
  • Si ces exemples peuvent paraître éloignés des questions relatives à l’intelligence artificielle, ils permettent d’entrouvrir une autre dimension de la démocratie technique. Par-delà la pure contestation ou modification a posteriori d’une technique existante, Callon, Barthes et Lascoumes décrivent un modèle de « co-production des savoirs ». Ce modèle postule que les non-spécialistes peuvent produire des connaissances à partir de leurs intérêts propres. Ils sont les plus à même d’entrevoir les risques d’un projet et de les faire reconnaître comme légitimes lors d’une étape de conception commune. Ce faisant, ils participent pleinement à la production des sciences et des techniques. Ce modèle suscite des critiques : on pointe le fait que des profanes ne seraient pas capables de s’exprimer sur un sujet technique, et que par conséquent, l’avis des experts serait toujours supérieur, de meilleure qualité, et devrait être pris en compte en priorité.
  • De nombreux contre-exemples viennent infirmer ces thèses. L’expérience prouve que si les conditions sont réunies, des personnes éloignées d’un sujet technique ou scientifique peuvent tout à fait construire des rapports de grande qualité et reconnus comme tels par les experts eux-mêmes. Ce fut le cas lors des controverses concernant les OGM il y a de cela une vingtaine d’années. Callon, Barthes et Lascoumes racontent également comment les amateurs contribuent à améliorer la connaissance scientifique dans de nombreux domaines, comme par exemple l’astronomie.
  • pourquoi ce traitement démocratique si spécial devrait-il se limiter à l’intelligence artificielle ? Une des raisons est sans doute que l’on pressent que son déploiement va changer le monde et susciter des controverses qu’il vaut mieux anticiper. N’oublions pas cependant que de nombreuses technologies numériques (ou non) changent le monde plus insidieusement et suivant des échelles temporelles qui nous les rendent « invisibles à l’œil nu ». Légitimement, on pourrait aussi poser la question démocratique à leur endroit[20].
  • Ce que la démocratie technique questionne, c’est non seulement l’aménagement du progrès, mais aussi sa définition. C’est-à-dire la direction donnée à la civilisation. Entraîner une intelligence artificielle – même avec la méthodologie Society in the loop – c’est déjà faire le choix d’une intelligence artificielle. Ce qui ne veut pas dire que ce choix soit mauvais. Pas plus qu’il n’est naturellement bon. Disons que c’est un choix parmi d’autres. Ce point chaud qui concerne la définition du progrès est et sera de plus en plus au centre de toutes les questions liant technosciences et démocratie.
  • Parallèlement, l’Université de Montréal a bâti une « Déclaration pour un développement responsable de l’intelligence artificielle[23] ». Cette déclaration décrit dix principes phares pour guider le développement de l’IA, parmi lesquels un « principe de bien être » ou encore un « principe d’inclusion de la diversité » (
  • Toutes les controverses techniques n’ont pas vocation à passer sous les fourches caudines de la démocratie, il existe une multitude d’autres échelons pour co-construire, réguler, interdire ou favoriser des systèmes. En témoignent les nombreuses villes qui se « défendent » contre AirBnb ou Uber puis qui finissent par utiliser les données que ces sociétés récoltent, à d’autres fins (des « arrangements » a posteriori[25]). Par ailleurs, c’est aussi dans les écoles qui forment les ingénieurs, designers et entrepreneurs de demain et bien sûr dans les entreprises elles-mêmes, dont certaines décident d’être plus soucieuses des effets générés par leurs activités, que l’avenir se joue
  • Bien sûr, ces quelques pages souffrent de nombreuses limites et à de multiples niveaux. A mon sens néanmoins, le fond de la question consiste (aussi) à savoir quelle « dose » de démocratie nous sommes prêts à mettre dans nos ambitions technologiques. Et en retour, dans quelle mesure les technologies que nous produirons permettront ou non à la démocratie de continuer d’exister[26].
  •  
    "En 2017, Iyad Rahwan (@iyadrahwan), responsable du groupe des coopérations évolutives au MIT posait avec Joi Ito (@Joi) du MIT Medialab le concept de « Society in the loop » (SITL), une méthode pour impliquer différentes parties-prenantes dans la conception d'un système d'apprentissage automatique[1] (ou machine learning), à la base des intelligences artificielles (IA) qui jalonnent le quotidien. L'idée : co-construire plutôt qu'imposer les solutions au grand public, en faisant intervenir dès la phase de conception une diversité d'acteurs. J'en retrace ici un court historique, une illustration et les quelques perspectives et limites qu'il me paraît intéressant de pointer, notamment au regard des questions relatives à ce qu'on appelle la « démocratie technique »."
Aurialie Jublin

Internet est mort, vive le Trinet ? - Usbek&Rica - 0 views

  • Mais le développeur brésilien a, lui, daté très précisément le « début de la fin » : le Web est mort en 2014.
  • « Facebook et Google ont désormais une influence directe sur 70 % du trafic Internet » - rappelons ici qu’Internet désigne le réseau et que le Web en est sa principale application, le partage de fichiers ou la messagerie instantanée étant quelques-uns de ses autres usages - et la domination est particulièrement flagrante sur les médias, avec un basculement notable de la suprématie de Google à celle de Facebook, comme nous l’évoquions déjà récemment : avec Facebook Paper, puis Facebook Instant Articles, le réseau social de Zuckerberg s’est imposé comme source de trafic n°1 pour les médias, et une forme de dépendance s’est très rapidement installée.
  • Chaque entreprise a misé pleinement sur ce qu’elle faisait le mieux : le social pour Facebook (qui a racheté Whatsapp, Instagram...), l’intelligence artificielle pour Google, et elles ont ainsi cessé d’être concurrentes directes. Quant à Amazon, sa montée en puissance spectaculaire a été bien expliquée par Scott Galloway et se traduit par un chiffre récent : aux Etats-Unis, sa part sur le marché du e-commerce doit atteindre 43,5 % en 2017, contre 38 % l'année précédente.
  • ...7 more annotations...
  • Se pose alors la question de la mort du Web. En quoi laisser ce triumvirat aux commandes met-il le Web en péril ? D’abord parce qu’in fine, les 30 % du Web qu’ils ne maîtrisent pas devraient finir par être écrasés, assure André Staltz. La diversité du Web a permis à de multiples entreprises d’innover et de prospérer, à des communautés de grandir, à des sites indépendants d’être hébergés un peu partout, puis « à partir de 2014, nous avons commencé à perdre les bénéfices de la diversité d’Internet, en termes d’infrastructures et d’économie ».
  • Le développeur extrapole ensuite « à partir des stratégies exprimées par les cadres de Google, Facebook et Amazon », et décrit une bataille pour la neutralité du Net « que nous avons toutes les chances de perdre ».
  • « À cause de la demande du marché, les fournisseurs d’accès à Internet fourniront un accès moins cher à Google, Facebook et Amazon, et l’offre sera plus chère pour un accès complet au Web ». Comme le souligne André Staltz, c’est déjà le cas : le Portugal vient de décider de laisser faire le marché et d’offrir des forfaits Internet à la carte, chacun étant libre de n’avoir accès qu’à des applications de messagerie ou des réseaux sociaux pour moins cher.
  • Dans un tel scénario, « les petites entreprises ne seraient plus incitées économiquement à avoir leurs propres sites, et migrer vers des pages Facebook pourrait avoir plus de sens. Les petits sites de e-commerce serait rachetés par Amazon ou feraient faillite. Et parce que la plupart des internautes ne pourraient pas avoir accès à l’ensemble des sites, Google n’aurait que peu d’intérêt à continuer d’être ce pont entre les utilisateurs et les sites ».
  • Plus facile à percevoir dès aujourd’hui, plus palpable, et plus fréquemment discuté, l’autre signe de la mort du World Wide Web, c’est que Facebook, Google et Amazon grandissent toujours plus en dehors des frontières du Web. Il suffit de voir les Amazon Echo ou Google Home pulluler, écouter Google expliquer que l’avenir du search est dans la recherche vocale et dans l'intelligence artificielle, ou voir comme la plus jeune génération se contente de communiquer sur mobile, sur les applications de messagerie, sans jamais passer par un navigateur web.
  • En suivant une trajectoire qu’André Staltz appelle une « Apple-ification » - parce qu'ils construisent des écosystèmes fermés, deviennent des entreprises de hardware et soignent le marketing de leur design - les trois géants vont de plus en plus contourner le Web et créer de  « nouveaux espaces virtuels où la data est créée et partagée ». C’est la stratégie que mène Facebook depuis dix ans en misant sur la réalité virtuelle et la réalité augmentée.
  • « Vingt-cinq ans de Web nous ont habitués à des libertés fondamentales que l’on croit acquises », tranche le développeur. Nous avons oublié combien l'anonymat est précieux, tout comme l'est la possibilité de contrôler ce que nous partageons, ou celle de lancer une start-up qui ait ses propre serveurs, indépendamment de Google. « Sur le Trinet, si vous êtes bannis de Google et Facebook, vous n'aurez pas d'alternative ». Plus personne ne garantira votre droit d'accès à Internet. Les entreprises privées n'auront aucune obligation de vous fournir ce qu'un pays comme l'Estonie est allé jusqu'à ériger en droit de l'Homme.
  •  
    "Google, Facebook et Amazon se sont accaparés le Web. Cette domination était loin d'être aussi écrasante il y a encore quatre ans, et semble non seulement bien partie pour durer, mais devrait signer la mort d'un Web fondé sur la diversité et la liberté, comme le démontre le développeur brésilien André Medeiros - dit André Staltz - dans un post publié sur Medium. Nous nous dirigeons, à ses yeux, vers l'avènement d'un « Trinet » aux allures de dystopie."
‹ Previous 21 - 40 of 49 Next ›
Showing 20 items per page