Skip to main content

Home/ QN2019/ Group items tagged décision

Rss Feed Group items tagged

Aurialie Jublin

Acrasie : l'intime désaccord - 0 views

  • Ce phénomène que nous essayons de mettre en lumière ici, qui fait que nous prenons des décisions qui vont à l’encontre de nos valeurs, est plus fréquent qu’on ne pourrait le croire. Il est même quasi-quotidien chez certains d’entre nous. En philo éthique, c’est ce qu’on appelle l’acrasie (du grec akrasia). « Je vois le bien, je l’approuve, et je fais le mal ». C’est ce que Médée explique à Jason dans Métamorphoses d’Ovide (non, ce n’est pas une sitcom). Et ça résume bien la situation dans laquelle beaucoup d’entre nous se trouvent quotidiennement : ils ne sont pas d’accord avec le fait d’être assis sur leur canapé devant Netflix, à s’empiffrer de chips et à scroller sur Instagram, cependant, ils sont confrontés à des choix qu’ils n’arrivent (apparemment) pas à résoudre.
  • Cette caractéristique du comportement, propre à pas mal d’entre nous, c’est ce que Alain Anquetil, auteur d’un travail de recherche sur la question, appelle « l’expression molle d’une préférence pour le statu quo ».
  • L’acrasie par contre, c’est bien cette incontinence, cette faiblesse de ne pas arriver à prendre la bonne décision, alors que précisément nous savons quelle est cette « bonne » décision. Parce que je ne reçois aucune gratification instantanée dans le fait d’utiliser Qwant à la place de Google. Cependant, si je suis d’accord avec les arguments énoncés un peu plus haut, je devrais opter pour un autre moteur de recherche.
  • ...7 more annotations...
  • Vous l’aurez compris : les pays avec le plus haut score d’acceptation étaient ceux dans lesquels les gens devaient faire un effort, et une démarche, afin de se désinscrire, alors que ceux dans lesquels il fallait tout simplement s’inscrire (ce qui semble, il est vrai, le plus logique) ont eu beaucoup de mal à fédérer plus de 10 % de réponses positives. Les conclusions de l’enquête ? Que ce soit en Suède, en Autriche ou même en France, les personnes interrogées ne sont certainement pas CONTRE le don d’organe, mais encore faudrait-il qu’elle fasse l’effort de le dire et d’exprimer leur choix. Nous sommes donc là en face d’un pur cas d’acrasie (les gens ont d’ailleurs souvent un vrai avis moral et éthique sur la question du don d’organe) : peu importe la raison, quand il s’agit de passer à l’action, l’incontinence reprend le dessus.
  • Comme le souligne Attali, l’engagement citoyen de façade est parfois doublé d’un égoïsme social présent lorsqu’il s’agit de nos intérêts personnels et de nos habitudes.
  • Le philosophe Ruwen Ogien pose la question de façon très ouverte dans La Faiblesse de la Volonté : « À quelles conditions un agent rationnel peut-il choisir le pire alors que le meilleur est accessible ? ». Quel est l’effet de dissonance cognitive qui est à l’œuvre, et qui nous fait penser que ces baskets, chèrement payées, valent l’argent que nous y mettons ? Le mimétisme ? La sensibilité aux histoires et aux émotions véhiculées par les marques ? 
  • Le « pré-engagement ». C’est la façon dont vous allez vous engager socialement par rapport à vos convictions, en les exprimant à vos proches, amis ou collègues. Reprenons l’exemple de la consommation de viande : une fois que vous avez dit à tous vos collègues que vous ne mangez plus de viande parce que vous êtes choqués par le traitement fait aux animaux dans l’élevage industriel, vous pourrez bien sur en reprendre, mais vous risquez quand même de passer pour quelqu’un de pas très « fiable ».
  • Les « intentions de mise en œuvre ». Contrairement au pré-engagement, les intentions de mise en œuvre s’adressent uniquement à vous même. Il s’agit tout simplement d’outils pour vous motiver et vous organiser de façon à mettre en œuvre ce que vous avez prévu. Un exemple très parlant, et pourtant totalement banal, est celui de la to-do list.
  • Les « embûches ». La légende dit que pour finaliser Notre-Dame de Paris dans le temps imparti, Victor Hugo s’est débarrassé de ses vêtements, afin de ne plus avoir de moyen de sortir de chez lui, et de s'obliger à rester assis devant son bureau – n’ayant plus rien d’autre à faire que d’écrire. Résultat : il a rendu son ouvrage plusieurs jours avant la date limite.
  • Si l’acrasie représente cette faiblesse de volonté, l’encrasie serait donc cette force de caractère nous permettant d’agir conformément à nos valeurs, à ce que nous pensons profondément être bon, et non à ce qui nous arrange ou ce qui peut arranger nos petites affaires sur le moment présent. C’est un long chemin, mais il ne faut pas le considérer comme hors d'atteinte pour autant. Au contraire.
  •  
    "Nous avons pris l'habitude de blâmer les géants du numérique pour tous les maux de la Terre. Serait-ce de leur faute si nos données personnelles sont revendues et utilisées contre notre gré ? Est-ce à cause d'eux que nous devenons de vraies loques humaines, incapables de faire autre chose de que scroller une quantité invraisemblable de contenu par jour, et d'emmagasiner des informations dont nous n'avons (en vrai) rien à faire ? Bonne nouvelle : les individus derrière l'excellente newsletter Tech Trash vous révèlent dans cet article initialement publié sur leur site le principal responsable de vos faits et gestes (qui ne sont pas, contrairement à ce que vous pensez peut-être, téléguidés par la Silicon Valley) : VOUS. Et un mécanisme de nos cerveaux baptisé acrasie : le fait de ne pas parvenir à prendre la bonne décision, alors que précisément nous savons quelle est cette « bonne » décision. "
Aurialie Jublin

Concrètement, comment rendre les algorithmes responsables et équitables ? | I... - 0 views

  • Et rappelle la difficulté à définir mathématiquement l’équité, comme l’a souligné l’informaticien Arvind Narayanan (@random_walker) lors de la dernière édition de la conférence FAT (la conférence annuelle sur l’équité, la responsabilité et la transparence). Outre les biais et déséquilibres statistiques, rappelle David Robinson (@drobinsonian), responsable des associations EqualFuture et Upturn (et qui a notamment publié un rapport sur la question de l’examen public des décisions automatisées (.pdf)), leur impact dépend surtout de la manière dont sont utilisés ces systèmes, avec le risque, que pointait Eubanks, que les plus discriminés soient encore plus surveillés par ces systèmes.
  • Pour remédier à ces problèmes, beaucoup d’agences américaines ont recours à des chercheurs extérieurs pour déjouer les biais de leurs systèmes. En avril, l’AI Now Institute a défini un cadre (voir le rapport (.pdf)) pour les organismes publics qui souhaitent mettre en place des outils de prise de décision algorithmique, recommandant notamment de mettre à contribution la communauté de la recherche et de permettre à ceux que le système calcul de faire appel des décisions prises à leur sujet.
  • Leurs recommandations invitent les systèmes à respecter le droit d’information du public, à recourir à des examens par des chercheurs indépendants, à améliorer l’expertise des organismes qui les conçoivent et à développer des modalités pour permettre au public de contester les décisions prises. L’initiative recommande aux agences publiques de répertorier et décrire les systèmes de décision automatisés, y compris d’évaluer leur portée et impact. Elle recommande également de mettre en place des modalités d’accès afin que des chercheurs, des experts indépendants, des associations ou des journalistes puissent accéder et évaluer ces systèmes et pour cela doivent s’assurer notamment que leurs fournisseurs privés de systèmes acceptent ces vérifications. Elle souligne également que les agences doivent monter en compétences pour être expertes des systèmes qu’elles mettent en place, notamment pour mieux informer le public, et invite les fournisseurs de solutions à privilégier l’équité, la responsabilité et la transparence dans leurs offres.
  • ...7 more annotations...
  • Mais ce n’est pas la seule piste qui permettrait d’interroger les biais des systèmes automatisés. Microsoft travaille à un outil de détection automatique des biais, Facebook également (notamment via le projet Fairness Flow annoncé par Isabel Kloumann du département d’IA de FB research à la dernière conférence de F8 Conference parmi une longue liste d’outils pour l’IA) rapporte la Technology Review.
  • La mathématicienne Cathy O’Neil (@mathbabedotorg, blog), qui s’est fait connaître en dénonçant les dangers de ces outils, a lancé une entreprise d’audit algorithmique. Visiblement, souligne Wired, ses premiers clients sont des entreprises qui ont besoin de certifier qu’elles sont équitables : comme cela a été le cas de Rentlogic, une entreprise qui évalue les immeubles automatiquement pour leur attribuer une note, ou comme Pymetrics, une entreprise qui utilise des tests de personnalité pour aider les entreprises à embaucher qui avait besoin d’assurer que ses logiciels n’étaient pas discriminants.
  • Dans son livre, Weapons of Math Destruction, Cathy O’Neil avait émis l’idée de créer un serment d’Hippocrate pour les datascientists, sous la forme d’un code de conduite édictant quelques principes moraux. Elle soulignait dans une remarquable interview pour Wired, que ce code de conduite n’était certes pas suffisant en soi, notamment parce que les datascientists ne sont pas seuls à décider de ce qui sera implémenté dans les services développés par les entreprises. Pour autant, ces techniciens ne peuvent pas seulement suivre « les recommandations des manuels d’optimisation qu’ils utilisent, sans tenir compte des conséquences plus larges de leur travail ».
  • Cathy O’Neil a proposé une matrice éthique, basée sur les travaux du philosophe Ben Mepham qui l’a utilisé en bioéthique, qui aide à saisir ce sur quoi ce que l’on développe a un impact, et de l’autre ce dont s’inquiète les gens qui sont impactés par ce que l’on développe. Cette grille confronte quelques notions (exactitude, cohérence, partialité, transparence, équité, rapidité) à leur impact sur chacune des parties prenantes. La matrice sert à créer une conversation. Chaque case propose des questions : « qui souffre si le système se trompe ? » Le but est de révéler des problèmes. Quand la réponse pose problème, la case est colorée de rouge.
  • Elle propose également de se poser plusieurs questions, comme « les algorithmes que nous déployons vont-ils améliorer les processus humains qu’ils remplacent ? » Bien souvent, on constate qu’ils fonctionnent beaucoup plus mal que les systèmes précédents. Pour elle, il est également nécessaire de se demander : « pour qui l’algorithme échoue-t-il ? » Un système de reconnaissance facial échoue-t-il plus souvent pour les femmes que pour les hommes, pour les gens de couleurs que pour les blancs, pour les personnes âgées que pour les jeunes ?… Enfin, elle invite à se poser une troisième catégorie de questions : « est-ce que cela fonctionne pour la société (donc à très large échelle) ? Est-ce que nous enregistrons les erreurs du système ? Peut-on les réintroduire dans l’algorithme pour l’améliorer ? Est-ce que le système a des conséquences non intentionnelles ?… » Et la chercheuse de rappeler qu’aucunes de ces questions ne mettent en danger les secrets des algorithmes que les entreprises veulent protéger.
  • Le militant pour la protection de la vie privée Aral Balkan (@aral) estime qu’un code d’éthique risque surtout d’être utilisé comme caution de vertu par les entreprises pour continuer à faire comme d’habitude. Appliquer le RGPD aux États-Unis aurait plus d’impact pour prévenir les dommages algorithmiques. Sur son blog, Virginia Eubanks a réagi en proposant plutôt un « serment de non-violence numérique », qui, dans la forme au moins, est plus impliquant pour celui amené à le prononcer que de signer à quelques grands principes vagues
  • Mais l’enjeu demeure de les mettre en pratique. « Tout code d’éthique des données vous indiquera que vous ne devez pas collecter des données de sujets expérimentaux sans leur consentement éclairé. Mais ce code de conduite ne vous dira pas comment implémenter ce consentement éclairé. Or, celui-ci est facile si vous interrogez quelques personnes pour une expérience de psychologie. Mais il signifie quelque chose de bien différent en ligne ». Et ce n’est pas la même chose bien sûr de demander la permission via une fenêtre pop-up par exemple ou que via une case précochée cachée… La mise en oeuvre de principes éthiques englobe des questions qui vont des choix dans l’interface utilisateur aux choix de structuration des données ou d’interrogation des données de connexion. Et pose la question de rendre néanmoins le service utilisable sans dégrader l’expérience utilisateur…
  •  
    "Face aux multiples biais inscrits dans la production même des données utilisées par les algorithmes et les outils d'apprentissage automatisés, le risque, rappelle la chercheuse Kate Crawford (@katecrowford), co-fondatrice de l'AI Now Institute (@AINowInstitute), est que « plutôt que de concevoir des systèmes censés résoudre les problèmes, nous les exacerbions »."
Aurialie Jublin

De l'imbrication algorithmique | InternetActu.net - 0 views

  • Pour la programmeuse et essayiste Ellen Ullman, le problème est que la programmation est de plus en plus éloignée de la compréhension humaine du fait de l’intrication des programmes, algorithmes et données. Les gens pensent souvent que les algorithmes peuvent être modifiés, mais le plus souvent, ils s’exécutent et évoluent par eux-mêmes (cf. notre dossier, réinventer la programmation). Leurs concepteurs ne les contrôlent pas vraiment et ce d’autant plus qu’ils font appellent à des bases de données, à des bibliothèques de programmes distants, à d’autres algorithmes qui évoluent également.
  • Mais désormais, les algorithmes désignent des systèmes logiciels de prise de décision complexes, avec un nombre de règles et de critères volumineux, souvent interreliés et interdépendants. Or, ils nous ont été toujours présentés comme des promesses d’objectivité, d’où le fait qu’ils se soient étendus à nombre de décisions de la vie courante : octroi de prêts, de prestations, de places… Pourtant, ces décisions ne sont pas sans biais, du fait de la manière même dont ces relations sont conçues par les ingénieurs.
  • Le problème, c’est que quand l’algorithme apprend, nous ne savons plus quels sont les règles et les paramètres qu’il utilise puisqu’il les transforme. Ces algorithmes-là ne sont plus prévisibles et peuvent se mettre à produire des résultats erratiques. Pour Smith ce sont des « algorithmes Frankenstein », des machines qui créent leurs propres règles, comme ceux qui dominent désormais les marchés financiers via les transactions à haute fréquence. Pour Neil Johnson, physicien de la complexité à l’université George Washington, Facebook peut ainsi avoir des algorithmes simples pour reconnaître un visage dans une photo… Mais que se passe-t-il quand des milliers d’algorithmes travaillent ensemble sur des milliards de profils ? « Vous ne pouvez pas prédire le comportement global appris à partir de règles microscopiques ».
  • ...3 more annotations...
  • Pour la mathématicienne Cathy O’Neil (@mathbabedotorg), dans l’environnement algorithmique complexe actuel, il est difficile de définir les responsabilités des différents segments de codes imbriqués les uns aux autres. Les Flash Crash, ces krachs financiers éclair, n’ont pas lieu que sur les marchés financiers. La tarification algorithmique d’Amazon s’emballe aussi parfois en faisant grimper le prix de livres à des hauteurs folles. Or, comprendre où se situe la responsabilité de ces emballements n’est pas si simple. « Comme dans la finance, le déni est intégré au système ».
  • Éviter les conflits de code sur des millions de lignes de code alimentés par des flux d’information constants est extrêmement difficile. Pour l’historien des sciences George Dyson, le problème est que nous construisons des systèmes qui vont au-delà de nos moyens intellectuels pour les contrôler. Or, nous pensons que si un système est déterministe (c’est-à-dire qu’il agit selon des règles fixes), alors il est prévisible et que s’il est prévisible alors il peut être contrôlé. Mais ces deux hypothèses sont fausses, estime Dyson. « La loi d’Ashby dit qu’un système de contrôle doit être aussi complexe que le système qu’il contrôle ». Mais cela se révèle difficile. Nous ne savons pas tester cette complexité de manière exhaustive.
  • Une étude sur les attaques par drones au Pakistan entre 2003 et 2013 a ainsi montré que 2 % des personnes tuées par drones étaient des cibles présentant une menace. 20 % étaient considérés comme des non-combattants… Et 75 % étaient des cibles… « non identifiés ». Pour elle, nous sommes face à une technologie d’identification très grossière. Dans ce contexte, la perspective du développement d’armes autonomes laisse plus que perplexe. Pour Lilly Irani (@gleemie) de l’université de Californie, les choix des concepteurs d’algorithmes nous sont trop souvent présentés comme objectifs quand ils cachent des enjeux politiques.
  •  
    "On se souvient de la mort d'Elaine Herzberg, première humaine tuée par une voiture autonome en mars 2018 (voir l'enquête qu'en dressait l'écrivain Thierry Crouzet). Pour le Guardian, le journaliste Andrew Smith (@wiresmith) revient sur les hésitations de l'algorithme de la voiture à reconnaître ce qu'il se passait."
Aurialie Jublin

[Écologie] Le monde du logiciel est en train de se détruire... Manifeste pour... - 0 views

  • Tout est lent, et cela ne va pas dans le bon sens. Certaines voix s’élèvent. Je vous invite notamment à lire “Le désenchantement du logiciel”. Tout est insupportablement lent, tout est ÉNORME, tout finit par devenir obsolète… La taille des sites web explose. Un site web est aussi gros que le jeu Doom. Le phénomène ne touche pas que le Web mais aussi l’IoT, le mobile… Le saviez-vous ? Il faut 13% de CPU pour faire clignoter un curseur…
  • Tout grossit : la taille des applications, les données stockées, la taille des pages web, la mémoire des téléphones… Les téléphones ont maintenant 2 Go de mémoire, échanger une photo de 10 Mo par mail est maintenant classique… À la limite, cela ne serait peut-être pas un problème si tous les logiciels étaient utilisés, efficaces et performants… Mais cela n’est pas le cas,
  • Alors tout le monde se cale sur une lenteur. Tout est uniformément lent. On se cale sur cela et tout va bien. Être performant aujourd’hui, c’est arriver à atteindre un ressenti utilisateur qui correspond à cette lenteur uniforme. On élague les choses qui pourraient être trop visibles. Une page qui met plus de 20 secondes à se charger, c’est trop lent. Par contre, 3 secondes c’est bien. 3 secondes ? Avec les multicoeurs de nos téléphones/PC et les data centers partout dans le monde, le tout relié par des supers technologies de communication (4G, fibre…),c’est un peu bizarre non ? Si on regarde la débauche de ressources pour le résultat obtenu, 3 secondes, c’est énorme. D’autant plus que les bits circulent dans nos processeurs avec des unités de temps du niveau de la nanoseconde. Donc oui, tout est uniformément lent.
  • ...29 more annotations...
  • Il est nécessaire de revenir à plus d’efficience, de « challenger » les besoins en matériel, de redéfinir ce qu’est la performance. Tant que l’on se satisfera de cette lenteur uniforme avec des solutions pour ne pas ralentir plus (comme l’ajout de matériel), nous n’avancerons pas. La dette technique, notion largement assimilée par les équipes de développement, n’est malheureusement pas adaptée à ce problème (on y reviendra). Nous sommes sur une dette de ressources matérielles et de mauvaise adéquation entre le besoin utilisateur et la solution technique. On parle ici d’efficience et non pas uniquement de performance. L’efficience est une histoire de mesure du gaspillage. L’ISO définie l’efficience avec comme domaine : Time behaviour, Resource utilization et Capacity. Pourquoi ne pas pousser plus ces concepts ?
  • Développez du code Java pour un serveur J2EE ou pour un téléphone Android, ce n’est pas pareil. Des structures spécifiques existent par exemple pour traiter des données en Android mais les structures classiques sont toujours utilisées. Les développeurs ont perdu le lien avec le hardware. C’est malheureux car c’est passionnant (et utile) de savoir comment fonctionne un processeur. Pourquoi : abstraction et spécialisation (nous verrons cela plus loin). Car en perdant ce lien, on perd une des forces du développement. Ce lien est important chez les hackers ou chez les développeurs d’informatique embarquée mais malheureusement de moins en moins présent chez les autres développeurs.
  • Les pratiques devops pourraient répondre à cette perte de lien. Là, c’est pareil, nous n’allons pas jusqu’au au bout : généralement le devops va se focaliser à bien gérer le déploiement d’une solution logicielle sur une infrastructure mixte (matérielle et un peu logicielle). Il faudrait aller plus loin en remontant par exemple les métriques de consommation, en discutant sur les contraintes d’exécution… plutôt que de “scaler” juste parce que c’est plus simple.
  • Certaines technologies ont une utilité mais sont maintenant systématiquement utilisées. C’est le cas par exemple des ORM qui sont devenus systématiques. Aucune réflexion n’est faite sur son intérêt en début des projets. Résultat : on a rajouté une surcouche qui consomme, qu’il faut maintenir et des développeurs qui n’ont plus l’habitude d’effectuer des requêtes natives. Cela ne serait pas un problème si chaque développeur connaissait très bien le fonctionnement des couches d’abstraction : comment fonctionne HIBERNATE par exemple ? On s’appuie hélas de façon aveugle sur ces frameworks.
  • Le besoin d’abstraction est lié à un autre défaut: nous attendons toujours des outils miracles. La silver bullet qui améliorera encore plus nos pratiques. Le langage idéal, le framework pour aller plus vite, l’outil de gestion miracle des dépendances… C’est la promesse à chaque fois d’un nouveau framework : gagner du temps en développement, être plus performant… Et on y croit, on fonce. On abandonne les frameworks sur lesquels nous avions investi, sur lesquels on avait passé du temps… et on passe au nouveau. C’est le cas actuellement des frameworks JS. L’histoire du développement est pavé de framework oubliés, non maintenus, abandonnés… Nous sommes les champions pour réinventer ce qui existe déjà. Si on le gardait suffisamment longtemps, on aurait le temps de maîtriser un framework, de l’optimiser, de le comprendre. Mais ce n’est pas le cas. Et que l’on ne me dise pas que si on n’avait pas continuellement réinventé la roue, on aurait encore des roues en pierre… Innover serait d’améliorer les frameworks existants .
  • Sur les langages, c’est la même rengaine. Attention, je ne préconise pas de rester sur l’assembleur et sur le C… C’est le cas par exemple dans le monde Android, pendant plus de 10 ans les développeurs ont pu travailler sur des outils et des frameworks Java. Et comme cela, par magie, le nouveau Langage de la communauté est Kotlin. On imagine l’impact sur les applications existantes (si elles doivent changer), il faut recréer des outils, retrouver des bonnes pratiques… Pour quel gain?
  • Sincèrement, on ne voit aucun ralentissement sur les cycles de renouvellement des technologies. C’est toujours un rythme frénétique. Nous trouverons bien le Graal un jour. Le problème est ensuite l’empilement de ses technologies. Comme aucune ne meurt vraiment et que l’on en maintient toujours des parties, on développe d’autres couches pour s’adapter et continuer à maintenir ces bouts de code ou ces librairies. Le problèmen’est pas le code legacy,, c’est la glue que l’on développe autour qui pêche.
  • Au final, on passe du temps à résoudre des problèmes techniques internes, on recherche des outils pour résoudre les problèmes que l’on ajoute, on passe son temps à s’adapter à ses nouveaux outils, on ajoute des surcouches (voir chapitre précédent…) … et on n’a pas améliorer la qualité intrinsèque du logiciel ou les besoins auxquels on doit répondre.
  • Au final, le rythme frénétique des changements ne nous permet pas de nous stabiliser sur une technologie. J’avoue qu’en tant que vieux développeur que je suis, j’ai été découragé par le changement Java vers Kotlin pour Android. C’est peut-être pour certains de véritables challenges, mais quand je repense au temps que j’ai passé sur l’apprentissage, sur la mise en place d’outils
  • Ensuite, comme aucune solution ne meurt vraiment, que de nouvelles arrivent… on se retrouve avec des projets avec des multitudes de technologies à gérer avec les compétences associées aussi… On s’étonne ensuite que le marché du recrutement de développeur soit bouché. Pas étonnant.. Il y a énormément de développeurs mais il est difficile de trouver un développeur React avec 5 ans d’expérience qui connaîsse le Go. Le marché est fractionné, comme les technologies. C’est peut-être bon pour les développeurs car cela crée de la rareté et cela fait monter les prix, mais pas pour le projet !
  • Cependant, cet apprentissage continu des technologies pose le problème d’apprentissage de domaines transverses : accessibilité, agilité, performance… En effet, qu’est-ce qui nous prouve que les outils et les langages que nous allons choisir ne vont pas changer dans 4 ans ? Rust, Go… dans 2 ans ? Rien ne tend à donner une tendance.
  • On ne se remet pas en question car on veut s’amuser. Le fun est important, car si l’on s’ennuie dans son boulot, on va déprimer. Par contre, on ne peut pas, sous prétexte de vouloir du fun tout le temps, changer nos outils continuellement. Il y a un déséquilibre entre l’expérience du développeur et l’expérience de l’utilisateur. On veut du fun, mais qu’est-ce que cela va réellement apporter à l’utilisateur ? Un produit plus « joyeux » ? Non, nous ne sommes pas des acteurs.
  • On ne se pose pas de question sur l’éthique de notre domaine, sur sa durabilité… Cela vient peut-être du fait que notre domaine n’a pas réellement de code éthique (comme par exemple les médecins ou les avocats). Mais sommes-nous en tant que développeurs réellement libres si l’on ne peut pas avoir une autocritique ? Nous sommes peut être asservis à une cause portée par d’autres personnes ? Le problème n’est pas simple mais nous avons dans tous les cas une responsabilité. Sans code éthique, c’est le plus fort et le plus malhonnête qui est le plus fort. Le buzz et les pratiques pour manipuler les utilisateurs sont de plus en plus répandus. Sans Dark Pattern ton produit ne sera rien. Les plus gros (GAFA…) n’en sont pas arrivés là pour rien.
  • Est-ce que la solution est politique ? Il faut légiférer pour mieux gouverner le monde du logiciel. On le voit avec les dernières réponses législatives aux problèmes concrets : RGPD, notification des cookies… la source du problème n’est pas résolue. Peut-être parce que les politiques ne comprennent que très mal le monde du logiciel.
  • Car si cette structuration n’est pas faite, les développeurs vont perdre la main sur ce qu’ils font. Or le manque d’éthique de la profession est critiqué à l’extérieur. Rachel Coldicutt (@rachelcoldicutt) directrice de DotEveryOne, un think tank britannique qui promeut une technologie plus responsable, encourage à former des diplômés non-informaticiens qui traiteraient de ces problèmes (Voir plus précisément dans l’article d’Internet Actu). Pour poursuivre sur ce dernier article, cela serait dans la droite ligne de l’informatique, domaine issu du monde militaire où les ingénieurs et développeurs seraient formés à suivre des décisions et des commandements.
  • Le monde du logiciel s’intègre dans un système organisationnel classique. Grands groupes, sous-traitances via des ESN, web agencies… Tous suivent les mêmes techniques de gestion des projets informatiques. Et tout le monde va « dans le mur ». Aucune analyse sérieuse n’est faite sur le coût global d’un logiciel (TCO), sur son impact sur la société, sur son bénéfice, sa qualité… C’est la rapidité de release(Time to Market), la surcharge featurale (fonctionnelle), la productivité immédiate, qui comptent. Premièrement car les gens externes à ce monde ne connaissent que trop peu la technicité du logiciel et son monde. Il est virtuel donc simple (sic). Mais ce n’est pas le cas. Les écoles de commerce et autres usines de managers n’ont pas de cours de développement. Comment peuvent-ils bien diriger et piloter des projets ?
  • On continue a vouloir chiffrer des projets informatiques comme de simples projets alors que des mouvements comme le no estimate propose des approches innovantes. Les projets continuent d’échouer : le chaos report rapporte que simplement 30% des projets réussissent bien. Et face à cette mauvaise gouvernance, les équipes techniques continuent de se battre sur les technologies. Dommages collatéraux : la qualité, l’éthique, l’environnement… et au final l’utilisateur. Cela ne serait pas si critique si le logiciel n’avait pas un impact aussi fort sur le monde. Software eats the world… et oui, on le « bouffe »…
  • Si ces décisions absurdes arrivent, ce n’est pas uniquement la faute du développeur mais bien de l’organisation. Et qui dit organisation dit management (sous-différente forme). Si l’on revient au livre de Morel, il parle de piège cognitif dans lesquels les managers et les techniciens tombent souvent. C’est le cas de la navette Challenger qui a été quand même lancée malgré la connaissance du problème d’un joint défectueux. Les managers ont sous-évalué les risques et les ingénieurs ne les ont pas prouvés. Chacun a reproché à l’autre de ne pas fournir assez de preuves scientifiques. C’est souvent ce qui se passe dans les entreprises : des warnings sont levés par certains développeurs mais le management ne les prend pas assez au sérieux.
  • En même temps, on revient aux causes précédentes (silver bullet, on s’amuse…), il est nécessaire d’avoir une vraie ingénierie et une vraie analyse des technologies. Sans cela, les équipes techniques seront toujours non-écoutées par le management. Des outils et benchmark existent mais ils sont encore trop peu connus. Par exemple, Technologie Radar qui classe les technologies en terme d’adoption.
  • Ce phénomène de décision absurde est renforcé par le tissu complexe du développement logiciel : Les sociétés historiquement hors du numérique sous-traitent à des entreprises du numérique, les ESN sous-traitent aux freelances… Le partage de responsabilité technique / management est encore plus complexe et les décisions absurdes plus nombreuses.
  • Mais cela ne s’arrête pas là. On peut aussi voir l’usage de l’open-source comme une sorte de sous-traitance. Idem pour l’usage de framework. On est juste consommateur passif, on se déleste de plein de problématiques (qui ont un impact sur les ressources, la qualité…).
  • C’est d’autant plus facile que le domaine est passionnant et que la pratique des sides-projects, du temps passé sur les projets open-source hors des horaires de bureau est chose commune… La recherche de “fun” et le temps passé bénéficient alors plus aux organisations qu’aux développeurs. Difficile dans ce cas de chiffrer le coût réel d’un projet. Et pourtant, cela ne serait pas un problème si on arrivait à des logiciels « au top ».
  • Le développeur n’est ici plus un artisan du code, mais plutôt un pion dans un système critiquable du point de vue humain. Cela n’est pas visible, tout va bien et on s’amuse. En apparence seulement, car certains domaines du développement logiciel vont plus loin et rendent beaucoup plus visible cette exploitation : Le domaine du jeux-vidéo où les heures explosent.
  • Et donc, toutes ces maladresses (logiciel trop lourd, sans qualité…) se retrouvent chez les utilisateurs. Comme on doit releaser au plus vite les logiciels, que l’on ne tente pas de résoudre les inefficiences internes, et que l’on ne met pas plus de ressource pour faire de la qualité, on arrive à des logiciels médiocres. Mais on a tellement d’outils de monitoring et de suivi des utilisateurs pour détecter ce qui se passe directement chez eux qu’au final, on pense que ce n’est pas grave. Cela serait une bonne idée si les outils étaient bien utilisés. Or la multitude d’informations récoltées (en plus des bugs remontés par les utilisateurs) n’est que faiblement utilisée. Trop d’information, difficulté de cibler la vraie source du problème… on s’y perd et au final, c’est l’utilisateur qui trinque. Tous les logiciels sont maintenant en bêta-test. A quoi bon faire de la sur-qualité, autant attendre que l’utilisateur le demande. Et on revient ainsi au premier chapitre : un logiciel uniformément lent … et médiocre.
  • Heureusement, on est sauvé par la non-sensibilisation des utilisateurs au monde du logiciel. C’est un monde effectivement virtuel et magique qu’ils ont l’habitude d’utiliser. On leur a mis en main les outils mais sans notice explicative. Comment évaluer la qualité d’un logiciel, les risques sur l’environnement, les problèmes de sécurité… si l’on n’a pas des notions d’informatique, même rudimentaires ?
  • L’informatique du 21ème siècle est ce que l’agroalimentaire était pour les consommateurs au 20ème siècle. Pour des raisons de productivité, on a poussé des solutions médiocres avec un calcul court-termiste : mise sur le marché de plus en plus rapide, profit en hausse constante… agriculture intensive, malbouffe, pesticides… avec des impacts importants sur la santé, sur l’environnement… Les consommateurs savent maintenant (de plus en plus) les conséquences désastreuses de ces dérives, l’industrie agroalimentaire doit donc se réinventer, techniquement, commercialement et éthiquement. Pour le logiciel, quand les utilisateurs comprendront les tenants et les aboutissants des choix techniques, l’industrie du logiciel devra gérer les mêmes problèmes. En effet, le retour au bon sens et aux bonnes pratiques n’est pas une chose simple pour l’agroalimentaire. Dans l’IT, on commence à le voir avec ses conséquence sur la vie privée des utilisateurs (mais nous n’en sommes qu’aux balbutiements).
  • On va dans la mauvaise direction. L’industrie de l’informatique a déjà effectué dans les années 70 des erreurs avec des impacts non-négligeables. L’exclusion des femmes de l’informatique en fait partie. Non seulement cela a été fatal pour certaines industries mais on peut se poser la question de comment on peut maintenant adresser des réponses à seulement 50% de la population informatique, avec une représentativité très faible. Le chemin est maintenant difficile à retrouver.
  • Mais l’impact du monde IT ne s’arrête pas là. La source et le modèle d’une grosse partie de l’informatique sont issus de la Silicon valley. Si l’on écarte les gagnants de la Silicon Valley, les populations locales subissent la montée des prix, le déclassement, la pauvreté…
  • Dans sa lancée vers le progrès technique, le monde du logiciel crée aussi sa dette environnementale…
  •  
    "Le monde du logiciel va mal et si l'on n'agit pas, on risque de le regretter. Environnement, qualité, exclusion… Software Eats The World (Le logiciel mange le monde…) ? Oui un peu trop. "
Aurialie Jublin

Retour sur MyData2018 : quelle(s) approche(s) collective(s) des données perso... - 0 views

  • L’entrée en vigueur du RGPD a clairement été l’événement marquant de 2018 et beaucoup d’intervenants s’y sont référés. Le principe d’équité y est affirmé. Or il s’agit d’un principe qui recouvre une dimension collective : l’équité suppose un groupe, contrairement aux autres principes (transparence, légalité, limitation de but, rétention, intégrité et confidentialité, minimisation des données, précision). Toutefois le texte ne donne pas de définition de l’équité dans le contexte de la gestion des données personnelles a fait remarquer Jussi Leppälä, Privacy Officer (Global) chez Valmet. Finalement, les intervenants s’accordaient à dire que le RGPD est un texte axé sur les besoins individuels plutôt que collectifs. Il protège l’individu, mais ne porte pas de vision véritablement collective des données personnelles.
  • Sur cette question de l’équité, l’exemple d’openSCHUFA donné par Walter Palmetshofer (Open Knowledge Allemagne) est inspirant : une campagne de collecte de données a été faite auprès de milliers d’individus pour comprendre l’algorithme de credit-scoring (pointage de crédit) de SCHUFA, bureau de crédit privé allemand. Cela a permis à des individus de pouvoir demander, preuves à l’appui, à corriger des décisions prises par l’algorithme. De manière générale, le biais algorithmique est un enjeu sociétal important, surtout pour les groupes les plus fragiles dont les données personnelles sont plus exposées et davantage victimes de biais algorithmiques (à ce sujet, lire Internet Actu).
  • D’autres intervenants ont insisté sur la nécessité d’accompagner les entreprises vers plus de prises en compte de leur responsabilité sociale. Le modèle de gouvernance qui domine actuellement étant l’hégémonie d’acteurs économiques (GAFA, BATX) raconte Bruno Carballa Smichowski, de Chronos, le rééquilibrage des pouvoirs doit venir des Etats. Ces derniers disposent de données personnelles, mais peuvent également demander des comptes et pousser les acteurs qui utilisent les données à être plus ouverts et actifs : littératie, infrastructure, open innovation, construire la confiance et faire reculer la peur, ou encore impliquer les personnes concernées (Hetan Shah et Jeni Tennison), sont autant d’actions que les pouvoirs publics peuvent mettre en place.
  • ...9 more annotations...
  • Depuis le lancement de MyData, la nécessité de développer les enjeux collectifs des données personnelles apparaît chaque année plus forte. En parallèle, les communs numériques apparaissent de plus en plus comme un modèle alternatif désirable face aux comportements abusifs des acteurs dominants. Les communs autorisent par nature une gestion transparente et au service de la communauté, car gérés par leurs membres.
  • Si sa remarque a donné naissance au track “OurData” en 2017 et en 2018,, le terme de “commun” était pourtant quasiment absent des discussions du track OurData, essentiellement tourné vers l’acteur public et la régulation. L’exemple d’OpenSCHUFA se rattache néanmoins au courant des communs en donnant un exemple concret.
  • L’idée derrière la coopérative de données qui s’intègrerait au modèle MyData/Self Data viserait plutôt à créer un commun : une association d’individus développant des outils et services (chat, moteur de recherche,…) leur permettant de gérer leurs données de A à Z. Il existe plusieurs coopératives de données de ce type : diglife.coop, schluss, open.coop,…
  • Laura James (doteveryone) a suggéré  cette session afin d’échanger avec les participants sur la faisabilité de créer une ou des coopératives “de masse”, appartenant à leurs membres et gérées par eux. L’objectif serait d’offrir aux gens de meilleurs services que les géants de la technologie et les entreprises de type Silicon Valley. Laura James constate que si le problème avec les géants numériques est leur modèle d’entreprise (capitalisme de surveillance) et le modèle de propriété (extraction de richesse au profit de quelques-uns), la “data coop” doit permettre d’offrir une technologie en laquelle nous pouvons avoir confiance – c’est-à-dire préservant notre vie privée, accessible, fiable, équitable, basée sur les sources ouvertes existantes, avec un meilleur support et une véritable durabilité.
  • Est-ce que le peu de succès de Digital Life Collective est dû à un manque d’intérêt de la part des consommateurs pour les questions liées aux données personnelles ? Ou bien est-ce que les enjeux ne sont pas encore bien compris par les gens ? Les porteurs de coopératives présents à la session échangent sur plusieurs éléments de réponse. D’abord, il n’y a pas une absence d’intérêt pour les questions de privacy mais une perception et un traitement différent selon les personnes (par les « millenials » par exemple). Ensuite, les consommateurs veulent-ils avoir à supporter la responsabilité qui va avec la reprise du contrôle sur leurs données ? Rien n’est moins sûr : comme les services gratuits d’aujourd’hui, cela doit être simple. Mais le contrôle implique nécessairement des responsabilités… Les consommateurs ont aussi besoin de services pratiques. Il faut travailler l’expérience utilisateur. Enfin, il faut une littératie des données pour créer un véritable intérêt et dissiper la peur et les malentendus autour de ce sujet.
  • Comment avoir une véritable gouvernance partagée tout en ayant une organisation suffisamment grande ? A peine 10 personnes sont vraiment actives au sein de Digital Life Collective. Schluss recherche une manière de faire participer davantage les membres. C’est un problème récurrent pour les coopératives, et toute organisation dont la gestion s’appuie sur l’ensemble de ses membres. Toutefois, l’un des participants soulignait que même si seul 1% s’implique dans la prise de décisions, tous reçoivent les bénéfices de la coopérative ! Ca n’est pas la gestion parfaitement partagée et idéale, mais cela fonctionne quand même. Avant de renoncer au modèle participatif, quelques modèles de gouvernance pourraient être expérimentés pour faciliter les prises de décision participatives au sein de la coopérative : les jurys citoyens, sociocracy 3.0 (utilisé par certaines entreprises télécom en Finlande), …
  • Dans les sessions de la thématique “OurData”, nous avons eu le plaisir d’entendre à chaque fois (ou presque) que la propriété appliquée aux données personnelles n’a aucun sens. Bien que ce track, plus qu’aucun autre, soit prédisposé à un tel constat,depuis quelques années, la position de la communauté MyData s’est éclaircie à ce sujet et on voit de moins en moins de personnes prôner ce modèle de propriété et de revente individuelle de ses données..
  • En découle un modèle collectif basé non pas sur des titres de propriété individuels mais sur des droits d’usage. Le RGPD en crée quelques-uns mais d’autres questions restent en suspens, comme le droit à la mémoire collective, notamment pour les catégories les plus défavorisées, ou encore l’équité, qui s’oppose à une régulation par les lois du marché.
  • La plupart des intervenants postulent que c’est l’acteur public qui doit agir : en créant de nouveaux droits associés aux données personnelles, en accompagnant les acteurs privés à fournir des solutions plus éthiques et transparentes, en s’engageant pour une culture et une littératie de la donnée pour tous, en actant juridiquement que les données personnelles sont le résultat d’un processus collectif qui appartient à la société qui l’a co-généré et qu’il ne peut y avoir de propriété associée (en France la CNIL est très claire sur ce dernier point, nous avons besoin d’une voie aussi claire au niveau européen !), en promouvant leur valeur sociale, et non commerciale, et enfin qu’il fasse que le fruit de ce travail doit servir à répondre à des problématiques collectives telles que la santé, l’éducation, la culture, la protection de l’environnement, …
  •  
    "LE CONSTAT : LA GESTION ACTUELLE DES DONNÉES PERSONNELLES S'INTÉRESSE PEU AU COLLECTIF MyData s'intéresse à toutes les dimensions que recouvre le contrôle des données personnelles : si la privacy occupe souvent le devant de la scène, MyData explore également la transparence des organisations et des technologies, l'équité et la dimension collective des données personnelles."
Aurialie Jublin

CFDT - Travailleurs des plateformes : beaucoup de bruit pour rien ? - 0 views

  • Devant la cour d’appel, son contrat, dénommé « contrat de prestations de services », a été passé au peigne fin. Il en est ressorti que, si le livreur pouvait choisir ses plages horaires (« shifts ») pour effectuer des livraisons, il ne pouvait, sans pénalité, se désengager moins de 72 heures avant leur commencement. Qui plus est, la société Take eat easy se réservait le pouvoir de résiliation du contrat dans certains cas. Aussi, la société avait-elle édicté un « petit guide du coursier », instaurant un système de bonus-malus, les malus étant plus couramment appelés strike. 3 strikes en 1 mois conduisait à une convocation à un entretien avec la société sur les motivations du coursier et 4 strikes à la rupture des relations contractuelles. A la suite du rejet de ses prétentions par le conseil de prud’hommes de Paris, le livreur a interjeté appel. Par une décision du 20 avril 2017, la cour d’appel de Paris a refusé de reconnaître l’existence d’un contrat de travail. Selon les juges du fond, bien que le système de bonus/malus mis en place évoque un pouvoir de sanction, les pénalités sanctionnent des manquements à des obligations contractuelles, ce qui ne caractérise pas un pouvoir de sanction de type salarial. De plus, la cour relève que ces stipulations ne remettent pas en cause la liberté du coursier de choisir ses horaires, le moment de ses congés, tout comme sa durée de travail. Les juges du fond en déduisent que la société Take eat easy « ne détermine pas unilatéralement les conditions d’exécution du travail ».
  • La cour relève également que le livreur n’est lié par aucune clause d’exclusivité. Régisseur dans un petit théâtre parisien, celui-ci exerce même une seconde activité professionnelle. Aux yeux des juges d’appel, « cette liberté totale de travailler ou non (…) est exclusive d’une relation salariale ».
  • Dans sa décision très attendue, la Haute juridiction contredit la solution retenue en appel. La Cour de cassation considère que le livreur était bien lié à la plateforme par un contrat de travail. A cette fin, elle applique les principes classiques en matière de reconnaissance de la qualité de salarié.
  • ...3 more annotations...
  • Selon la Cour, le système de la géolocalisation du livreur permettant son suivi en temps réel, ainsi que le système de sanctions auraient dû conduire les juges du fond à reconnaitre l’existence d’un pouvoir de direction et de contrôle et celle d’un pouvoir de sanction. Toutes choses caractérisant l’existence un contrat de travail.
  • En tout cas, les décisions semblaient autant se fonder sur le degré d’autonomie du travailleur que sur les principes classiques de qualification d’un contrat de travail, qu’elles rappelaient malgré tout. Manière sans doute de prendre en compte la nouveauté de ces situations… La Cour de cassation ne l’entend pas ainsi. Pour elle, dès lors que les indices classiques de l’existence d’un lien de subordination sont présents, l’autonomie (réelle ou supposée selon les cas) des travailleurs du numérique n’est pas déterminante. Ce qui compte c’est l’existence, ou non, d’un pouvoir de direction et de contrôle, sur lequel s’appuie le pouvoir de sanction.
  • En tout cas, il n’est sans doute pas anodin que, dans la note explicative de l’arrêt, la Haute juridiction indique que les textes actuellement existants concernant les travailleurs des plateformes (pas applicables en l’espèce) ne comportent aucune réponse à la question. La Cour de cassation prend ainsi explicitement position pour dire que la loi Travail (9) ne pose pas de présomption d’indépendance vis-à-vis de ces travailleurs, mais seulement l’esquisse d’une responsabilité sociale des plateformes.
  •  
    "Grande première : la Cour cassation vient d'analyser la relation liant un livreur à une plateforme ! Appliquant des principes très classiques à cette situation pourtant spécifique, la Haute juridiction a considéré que le livreur était bien lié à la plateforme par un contrat de travail. Selon la Cour de cassation, la plateforme disposait d'un pouvoir de direction, de contrôle et de sanction sur le livreur. Cass.soc.28.11.18, n°17-20079."
Aurialie Jublin

Pourquoi la technologie n'est pas démocratique et comment elle peut le devenir - 0 views

  • les technologies font rarement l’objet de débats démocratiques, il nous semble même étrange d’accoler les deux termes, comme si ce qui était « technique » sortait par principe de la sphère du débat. Les seuls critères peut-être, qui mériteraient des discussions, seraient les analyses coûts / bénéfices et les risques sanitaires et environnementaux.
  • Comment expliquer ce déficit démocratique ? Sclove le met sur le compte d’un malentendu à propos de la technologie : nous aurions trop tendance à penser chaque objet à travers un usage unique. Un marteau par exemple, sert à planter un clou et ce serait tout. En fait, lorsqu’un homme plante un clou, il développe ses muscles, sue, s’affirme, se souvient des mythes de Vulcain et Thor, du garage de son grand-père, etc. Le marteau lui, a nécessité de couper un arbre, extraire du minerai de fer, c’est un objet plutôt utilisé pour travailler seul (il n’a qu’un manche) qui véhicule donc une certaine forme d’organisation du travail. Comme toutes les technologies, les marteaux sont « polypotents », c’est-à-dire bourrés d’effets secondaires et d’externalités de toutes sortes qui passent bien souvent à la trappe. C’est au regard de ces effets qu’une démocratie devrait pouvoir anticiper, jauger, et décider ou non d’adopter une technologie.
  • La seconde critique affirme que « prévoir » les externalités positives ou négatives d’une technologie est difficile. Sclove l’admet volontiers mais nuance néanmoins : il reste que les citoyens sont les plus à même de savoir si une technologie va changer leur vie, les forcer à travailler ensemble ou isolément, procurer du plaisir ou de l’apathie, accroitre ou non l’autonomie ou la dépendance à une entité centralisée. Qui plus est, la démocratie technique n’agit pas qu’à l’endroit des nouveautés, elle concerne également le régime technologique présent : questionner l’existant est aussi une manière de ne pas le renforcer dans ses défauts.
  • ...10 more annotations...
  • Mais tout n’est pas si simple et les résistances sont nombreuses. La démocratie technique souffre de deux critiques majeures. La première prétend que les gens simples ne sont « pas capables » de prendre ce genre de décisions, ne font pas le poids face aux avis d’experts, en bref, la parole populaire est envisagée comme un risque à ne pas prendre.
  • En fait, les freins à la démocratie technique sont ceux dont souffre la représentativité citoyenne en général (la démocratie participative, le tirage au sort) : une certaine peur de la parole populaire et une foi aveugle en un régime technocratique qui pourrait s’absoudre de toute position idéologique, quand bien même il est incapable d’observer les siennes. Cela s’explique. Pour Sclove, les citoyens ont davantage d’intérêt au développement de la démocratie que les experts car ils sont plus à même de comprendre comment la technologie va concrètement changer leur vie.
  • Très concrètement, les technologies peuvent être autoritaires (quand par exemple elles perpétuent des hiérarchies illégitimes), individualisées (lorsque les individus peuvent leur attribuer seuls un rôle ou un autre), communautaires ou coopératives (lorsqu’elles perpétuent des hiérarchies légitimes, par exemple une hiérarchie qui amène à plus de démocratie), de masse (ce qui implique une élite détachée du reste) et transcommunautaires (qui facilite les relations entre plusieurs communautés).
  • De cette patiente déconstruction des enjeux démocratiques liés aux différents régimes technologiques, Richard Sclove dégage un certain nombre de critères de nature à faciliter la prise de décision démocratique. Pour commencer, il faudrait veiller à trouver le juste équilibre entre toutes ces formes de technologies (c’est-à-dire le bon rapport de pouvoir). Richard Sclove propose ensuite de « limiter les techniques débilitantes »
  • Parmi les autres « critères de conception démocratiques », Richard Sclove mentionne les technologies permettant une relative autonomie, capables de contenir les externalités environnementales et sociales à l’intérieur du domaine politique local, soutenables écologiquement et flexibles, c’est-à-dire susceptible de recevoir des évolutions facilement.
  • Ces critères peuvent bien sûr soulever un certain nombre de craintes légitimes. Un cadre aussi strict n’est-il pas l’assurance de signer l’arrêt de mort de toute innovation ? Richard Sclove répond par la négative. D’une part, les procédés démocratiques qu’il promeut (inspirés des modèles de conférences de consensus et autres conférences citoyennes) agissent toujours à un niveau relativement local. Si une technologie n’est pas adoptée à un endroit, elle le sera probablement ailleurs, l’objectif étant de favoriser un pluralisme technologique. Si la technologie s’avère être sans risque, alors elle pourra se diffuser.
  • Entrer dans le concret est une autre paire de manche. Pour Sclove, la première étape doit être celle de la prise de conscience. Il faudrait commencer au niveau local, par inventorier les technologies selon les critères déjà expliqués.
  • Il faudrait aussi changer de regard sur la technologie, les discours médiatiques sont bien souvent focalisés sur des « découvertes stupéfiantes » et autres « récits sensationnels ». Il faut une critique sociale de la technologie qui ne soit pas une parole descendante de la part des « experts-qui-éclairent-les-masses. »
  • Concernant le type d’institutions à mettre en place, pas de suspense, il faut tester, échouer, apprendre. De nombreuses approches déjà bien documentées ont fait leurs preuves. Le point sensible reste la bonne représentativité des citoyens. Structurellement, les experts sont surreprésentés car le personnel politique, peu formé et en manque de temps, se repose sur un personnel non-élu qui les sollicite. Ceux-là sont rarement impartiaux, peu à même d’envisager les implications sociales et politiques d’une technologie et participent pourtant à des décisions d’envergure (comme on l’a vu dans le cas des systèmes automatisés pour les aides sociales). I
  • Pour autant, nous ne devrions pas totalement baisser les bras : il reste des tas d’endroits où un contrôle démocratique est possible et même souhaitable : transport et mobilité, urbanisme, automatisation du travail, ces champs sont bien souvent laissés à l’appréciation d’entreprises, de techniciens et d’experts qui peinent à solliciter les citoyens (si tant est qu’ils le veuillent).
  •  
    "L'innovation, loin de n'être qu'une affaire technique, transforme profondément et durablement les sociétés. La plupart des technologies sont pourtant adoptées sans qu'aucun processus démocratique ne soit mis en oeuvre. Le citoyen peut-il avoir son mot à dire, et sous quelle forme ? Cette question essentielle a été posée il y a 15 ans par Richard Sclove, fondateur du Loka Institute. Mais Où Va Le Web, média d'analyse souhaitant « p(a)nser le numérique », s'est plongé dans un essai d'autant plus intéressant qu'il promeut des procédés démocratiques concrets, des conférences de consensus aux « Déclarations d'impact social et politique »"
Aurialie Jublin

CrowdLaw Catalog - 0 views

  •  
    Répertoire des initiatives numériques de participation citoyennes à l'élaboration des décisions publiques à travers le monde
Aurialie Jublin

[Démocratie/Logiciel libre] Alerte / en marche vers la privatisation de la dé... - 0 views

  • Pourquoi cette entreprise continue à jouer solo, à capter les contributions communes, et malgré toutes les demandes, à fermer son code ? Et par quelle magie est arrivé ce quasi monopole alors que dans d’autres pays de nombreuses solutions libres, ouvertes et transparentes ont fait leur preuve ?
  • Avons-nous compris qu'un code fermé et propriétaire c'est comme un brevet Monsanto ? Qui s'approprie le vivant, qui fait disparaître la diversité du vivant et donc des espèces, qui privatise le commun, qui installe une dépendance mortifère avec sa solution et nécessite de toujours racheter la même solution ? Avons-nous bien compris qu'un code propriétaire s'est s'approprier la richesse offerte par les gens, leur travail, leurs données ?Avons-nous bien compris qu'un code propriétaire c'est une boîte noire en qui personne, je dis bien personne, à part celui qui l’a codé, ne peut avoir confiance ?
  • il n’y a que le logiciel libre qui peut garantir les conditions de transparence, de responsabilité collective (hackers, développeurs, usagers, citoyennes et citoyens, associations de liberté et neutralité du net), qui coopérant les unes avec les autres, peuvent être les seuls garants d’un processus numérique démocratique sincère et sous surveillance.
  • ...9 more annotations...
  • Je ne sais pas à combien d'entre nous cette proposition a été faite. D’ailleurs ça m’intéresse de savoir qui travaille avec des solutions Cap Co pour comprendre l’entendue du problème et du désastre dans lequel nous nous sommes mis. De notre côté, il en était hors de question, un de nos principes fondateurs était que tout ce qui serait créé par nos petites mains serait libre, public, partageable et pourrait servir à toutes et tous. C’est exactement ce qu’il s’est passé, on s’est servi d’autres travaux d’autres équipes par delà le monde et on a offert nos travaux à d’autres équipes qui les ont adapté en fonction de leurs besoins. Tous ces travaux sont à dispo de toutes et tous. Et n’importe quel codeur peut venir voir le cœur du réacteur, déceler les failles, les signaler, et donc les réparer, etc…
  • Nous avions donc à l'époque refusé cette proposition d’utiliser en marque blanche et gratuitement la plateforme de Cap Collectif. Mais combien ont accepté la bonne affaire ? En toute bonne foi, sans comprendre les enjeux immenses autour de la bataille des bases de données, l'ouverture des données, des choix d'algorithme, de la surveillance. Vous connaissez toutes et tous l'adage, "si c'est gratuit, c'est toi le produit".
  • Revenons un peu en arrière, la plateforme en question originelle qui a donné naissance à Cap Collectif, Parlement et citoyens, a été construite bénévolement par un tas de gens extraordinaires, qui ont vu leur travail capté, et fermé dans Cap Collectif. C’est un tout premier scandale. Qui l'a vendu et revendu à des collectivités ou "prêté" à des expérimentations citoyennes.
  • On arrive aujourd'hui ce mercredi 29 janvier 2019 à un énorme gag sur ce nouvel épisode du Grand débat, opération massive de communication gouvernementale : Cap Collectif met en place les plateformes de tous les cotés CESE, gouvernement, Gilets jaunes, provoquant un énorme malaise de ces derniers lorsqu’ils ont compris qu’ils partageaient le même outil et même prestataire, et une défiance accrue envers les outils au service de l'expression citoyenne pour celles et ceux qui s’intéresseraient aux dispositifs.
  • Cap Collectif étant en mesure de vendre ses plateformes grâce à un immense travail collectif en faveur de la participation citoyenne, dont nous sommes toutes et tous actrices et acteurs ici-mêmes (et pas que nous évidemment), et financé avec les deniers publics, donc l'argent des français, il n'est plus question de continuer à tolérer ce qui était déjà hier intolérable : le code doit être ouvert et publié.
  • Comment imaginer rétablir un lien de confiance dans la société avec des boîtes noires ? La démocratie se fonde sur la transparence de la décision publique, sa souveraineté, sa responsabilité, comment imaginer une seconde que les outils à son service ne soit pas fondé sur les mêmes obligations de transparence, souveraineté et responsabilité ?
  • Premièrement, je demande donc officiellement à Cap Collectif de publier son code. Et je vous demande, chaleureusement, à chacune et chacun d'entre vous, usagers et usagères, en tant qu'orga ou en tant que citoyen.ne.s d'en faire de même. Ou alors d’assumer publiquement votre choix du logiciel propriétaire avec tout ce que cela comporte d’antagonique avec les principes fondamentaux de la démocratie.
  • Deuxièmement, je demande aux instances de Démocratie Ouverte de favoriser la diversité des acteurs, des solutions, de ne plus recommander ou contribuer à des outils en logiciels propriétaires, de ne plus jamais favoriser une entreprise de participation par rapport à d'autres.
  • Enfin je demande à toutes les institutions, aux collectivités, de ne plus reproduire leurs erreurs en utilisant des solutions opaques : erreur sur la souveraineté des données, erreur sur la sécurité des outils, erreur et gabegie budgétaires.
  •  
    "Alors qu'explose en France une demande sans précédent de démocratie de la part des citoyens et des citoyens, de Nuit Debout, aux Gilets jaunes (assemblées réunies à Commercy)... ... celles et ceux qui sont censés être au service de cette participation citoyenne, ne voient pas ou font semblant de ne pas voir, qu'une entreprise s'approprie et capte cette formidable émulation collective, qui représente un commun, puisque financé par des deniers publics et enrichis grâce au travail de toutes et tous. Tous ces efforts collectifs pour mettre les citoyennes et les citoyens au cœur de la démocratie. Pour aller vers la transparence. De la coopération. Du partage. Des communs.  Pour quoi ? Moi je croyais que c'était vraiment notre rêve d'asseoir les citoyennes et citoyens à la table des décisions. A peine née, l'utopie d'une meilleure participation des habitantes et habitants de ce pays est déjà pervertie, et déjà gravement menacée."
Aurialie Jublin

Bruno Latour : Comment représenter les forêts, les pôles et les océans - 0 views

  • Or les Etats, on l’a compris avec la lenteur des décisions sur le climat, poursuivent les intérêts des populations humaines, mais nullement des territoires dont ceux-ci dépendent. Le système de sécurité mondiale est donc schizophrène : on prétend protéger des populations que l’on prive de leurs conditions d’existence. Les Etats sont pensés hors sol, à peu près comme on cultive des salades hydroponiques…
  • Le principe des deux Chambres évite, dit-on, des décisions trop absurdes en compensant les intérêts et les passions des populations par les intérêts contrastés des territoires. Mais, jusqu’ici, ce beau principe n’a fait que défendre une définition des humains contre une autre, en oubliant que, pour une autre partie, les humains dépendent d’êtres qui ne jouissent pour l’instant d’aucune reconnaissance institutionnelle.
  • Représenter, on le sait depuis les Romains, et encore mieux depuis Hobbes, c’est toujours donner à un individu, à une personne physique, la tâche d’incarner le collectif, la personne morale. Tant que les territoires véritables dont nous dépendons ne sont pas représentés dans une deuxième Chambre par des individus en chair et en os, nous n’entendrons pas les protestations de l’océan, la révolte des sols, l’indignation des bêtes. Par conséquent, nous serons incapable de définir nos propres intérêts. Les populations resteront sans défense.
  •  
    "Il est vain de prétendre protéger les populations sans défendre leurs conditions d'existence. Pour le sociologue, seul un Sénat onusien pourrait représenter les territoires et les ressources."
Aurialie Jublin

Aucun algorithme, jamais, ne pourra défendre la démocratie - Libération - 0 views

  • Comment avons-nous pu nous retrouver au début du XXIe siècle dans une situation où Mark Zuckerberg – et quelques autres patrons de plateformes numériques – se fixent comme objectif récurrent de «protéger la démocratie», principalement à grands coups «d’algorithmes» et «d’intelligence artificielle» et affirment que cela sera une de leurs principales «missions» au sein de leur entreprise et à l’échelle du monde ?
  • En 2011, deux théoriciens de l’intelligence artificielle traitant des problèmes éthiques qu’allaient poser les algorithmes écrivaient que «les algorithmes de plus en plus complexes de prise de décision sont à la fois souhaitables et inévitables, tant qu’ils restent transparents à l’inspection, prévisibles pour ceux qu’ils gouvernent, et robustes contre toute manipulation» (Bostrom et Yudowski, «The Ethics of Artificial Intelligence»).
  • Aujourd’hui, «les algorithmes» dont nous parlons se déploient au sein d’architectures techniques toxiques englobant des millions ou des milliards d’utilisateurs. Aujourd’hui, «les algorithmes» dont nous parlons reposent sur des jeux de données propriétaires et donc totalement opaques. Aujourd’hui, «les algorithmes» dont nous parlons sont explicitement développés pour se doter d’un niveau d’autonomie (ou «d’apprentissage») qui rend leur «comportement» et leurs décisions souvent imprévisibles pour leurs créateurs eux-mêmes. Aujourd’hui, «les algorithmes» dont nous parlons interagissent en permanence avec d’autres algorithmes, d’autres jeux de données et d’autres architectures techniques toxiques ; et ils le font à des échelles toujours plus vastes et dans des environnements toujours plus contraints qui augmentent encore le niveau de risque et d’incertitude.
  • ...5 more annotations...
  • Pendant les dix dernières années, le combat principal d’activistes, de journalistes, de défenseurs des libertés numériques fut celui visant à limiter l’impact de l’empreinte algorithmique sur nos vies privées et intimes. Ce combat-là est terminé, obsolète et, pour l’essentiel, perdu. C’est un autre combat qu’il nous faut aujourd’hui mener, sur un tout autre front, avec une tout autre urgence et à une tout autre échelle. C’est le combat pour limiter l’impact de l’empreinte algorithmique décisionnelle sur notre vie publique, sur nos infrastructures sociales communes et sur notre destin collectif
  • Il est urgent et impératif que toute forme, ambition ou projet de gouvernance algorithmique, dès lors qu’il touche à des secteurs régaliens (transport, éducation, santé, justice, sécurité) soit, obligatoirement et par contrainte législative, développé sur le modèle des licences GNU GPL du logiciel libre pour garantir a minima l’auditabilité complète et pérenne des processus à l’œuvre.
  • Il est urgent et impératif que le développement d’un modèle universel de portabilité de l’ensemble de nos données (1) soit une priorité des Etats, et qu’il soit imposé à l’ensemble des acteurs du monde économique en lien avec la conservation ou le dépôt de données numériques, et ce quels qu’en soient la nature, le volume et l’usage.
  • Il est urgent et impératif que les entreprises qui captent aujourd’hui l’essentiel des données et des flux numériques (en gros les Gafam, Natu et autres Batx) soient taxées à la hauteur réelle de leur volume d’affaire et que cet impôt finance directement les actions précitées, ce processus de redistribution devant impérativement rester hors du contrôle desdites sociétés. Car le processus inverse a déjà commencé, celui dans lequel quelques entreprises omnipotentes s’arrogent le droit de défier la puissance publique et l’intérêt général dans la levée de l’impôt, comme Amazon et Starbucks en ont encore récemment fait la démonstration à Seattle.
  • L’enjeu est de savoir si nous serons capables à très court terme de construire une alternative qui, après le temps numérique de la «désintermédiation» des vingt dernières années, sera celle de formes de remédiations algorithmiques respectueuses du corps social et partant de sa partie la plus fragile, la plus pauvre, et la plus exposée. Alors peut-être, et alors seulement, les questions de gouvernance algorithmique pourront commencer d’être envisagées sereinement.
  •  
    "Nous avons perdu la bataille contre les algorithmes en ce qui concerne la vie privée. Il faut aujourd'hui se battre pour limiter leur impact sur nos vies publiques et notre destin collectif. "
Aurialie Jublin

Uberland : l'avenir du travail à l'heure des algorithmes | InternetActu.net - 0 views

  • Pour Alex Rosenblat, Uber a provoqué « un changement culturel fondamental sur ce que signifie avoir un emploi ». Uber a tiré un maximum de valeur des conducteurs en surfant sur les limites et ambiguïtés des normes culturelles et juridiques. Pour Adrian Chen, la gestion algorithmique d’Uber est moins une révolution qu’un affinage, à l’image des chauffeurs de taxi eux-mêmes, qui ont longtemps été dans une situation entre autonomie et dépendance, notamment avec nombre d’intermédiaires influant sur leurs possibilités de travail. Uber a simplement rendu cette sous-traitance plus efficace.
  • Adrian Chen pour Intelligencer explique que cette gestion algorithmique de la force de travail suppose une surveillance totale (jusqu’aux tremblements du téléphone pour s’assurer que le conducteur conduit en toute sécurité ! ce qui montre à nouveau, s’il en était besoin, que Uber n’est pas seulement un intermédiaire pour réaliser une transaction). Pourtant, de nombreux chauffeurs semblent satisfaits du travail qu’ils réalisent : ils apprécient la flexibilité et le complément de salaire que leur travail apporte. Même si les récits que Rosenblat a recueillis témoignent principalement d’une résignation épuisée. «Pour certains chauffeurs, ce travail est un véritable boulet, et pour d’autres, c’est un gilet de sauvetage».
  • Dans une interview pour CityLab, la chercheuse rappelle que malgré les efforts d’Uber, le taux de désengagement des chauffeurs est assez fort : 68 % d’entre eux quittent la plateforme dans les 6 mois. Elle pointe néanmoins que les outils d’Uber proposent des services que les collectivités ne savaient pas fournir, notamment en offrant des modalités de transports là où elles n’existaient pas (voir « Plateformes et métropoles » et « Vers une ville numérique ingouvernable »). Uber, derrière sa neutralité de façade, a surtout profité d’un Far West réglementaire pour s’imposer. Partout où elle s’est imposée, la firme a profondément déstabilisé la société (autour de la question du statut des chauffeurs), tout en offrant des avantages populaires (ouvrant de nouvelles dessertes et des prix bas notamment). Toute la question reste de trouver la balance entre les avantages et les inconvénients
  • ...10 more annotations...
  • Dans une tribune pour le New York Times, la chercheuse rappelait la difficulté de cette gestion algorithmique de la relation de travail (voir également « Qui des algorithmes ou des clients seront nos nouveaux patrons »). Une relation profondément asymétrique et qui se crispe notamment dès qu’il y a un problème. Elle souligne combien les informations que délivre Uber à ses chauffeurs comme à leurs passagers sont asymétriques. Un chauffeur de New York évoquait par exemple un échange avec un client qui montrait que celui-ci était facturé 40$ alors que pour le chauffeur, la course n’en coûtait que 28 !
  • Dans les années 70, le sociologue du travail britannique Michael Burawoy, dans son livre Produire le consentement (1979, traduit en français en 2015) constatait que si les travailleurs consentaient à leur propre exploitation, c’était en fait surtout par jeu. Burawoy expliquait que lorsque le travail prenait la forme d’un jeu, la principale source de tension n’était plus dans la relation des travailleurs avec les dirigeants, mais s’étendait aux autres travailleurs, aux machines et contre eux-mêmes. En proposant un sentiment d’autonomie et de contrôle relatifs, la ludification propose aux travailleurs de souscrire aux objectifs de l’entreprise. Lyft propose ainsi des défis à ses conducteurs en échange d’une prime supplémentaire : des défis assez difficiles à décrocher qui reposent sur le nombre de courses à réaliser à certains créneaux horaires.
  • 50 % des conducteurs de Uber cessent d’utiliser l’application au bout de deux mois. 4 % des conducteurs le sont encore après une année. Des rapports récents estiment que le revenu des chauffeurs à l’heure est souvent inférieur au salaire minimum.
  • Sur les forums de chauffeurs ou dans leurs discussions, ceux-ci spéculent sans cesse sur les algorithmes et les moyens de les déjouer, mais sans réellement ne jamais y parvenir. Ils tentent fréquemment de faire des déconnexions en masse de l’application pour faire monter les prix des courses, sans que l’effet n’ait jamais vraiment été assuré. Ces formes de déconnexion volontaires et organisées ressemblent à des microgrèves, à des microprotestations, sans jamais avoir permis de réelles émancipations.
  • Burawoy est à nouveau utile pour comprendre pourquoi. Le fait de « jouer » permet aux travailleurs d’exercer un contrôle limité sur le processus de travail. Mais les victoires qu’ils remportent renforcent leur engagement et leur consentement aux règles du jeu. À l’inverse, leurs échecs dirigent leur insatisfaction contre les obstacles du jeu, et non contre ceux qui en fixent les règles. Apprendre à utiliser intelligemment les paramètres du jeu, de l’algorithme, devient pour eux la seule option imaginable.
  • Après des semaines d’une conduite maniaque pour améliorer sa note… elle a constaté que cette amélioration était sans incidence directe (tant qu’elle restait au-dessus de 4,6/5) : cela ne générait ni réel bonus ni amélioration du niveau de rémunération. « En fait, je perdais de l’argent en essayant de flatter les clients avec des bonbons et de garder ma voiture scrupuleusement propre », simplement parce qu’elle souhaitait rester un pilote bien côté. « Ce qui est à la fois si brillant et affreux dans la ludification de Lyft et Uber, c’est qu’elle repose sur notre seul désir d’être utile, aimé et bon. Les semaines où je suis très bien noté, je suis plus motivé à conduire. Les semaines où je suis mal noté, je suis également plus motivé à conduire. » Une fois qu’on est pris dans la zone du jeu, il n’y a plus d’échappatoire !
  • Heureusement, la réaction à l’ubérisation s’est aussi peu à peu musclée. Pour Les Inrocks, Benoît Fabien revient sur le lancement de la Fédération transnationale des coursiers (FTC), qui a rassemblé fin octobre à Bruxelles des livreurs à domicile de toute l’Europe, à l’initiative du Groupe de recherche pour une stratégie économique alternative, de l’Alter Summit et du réseau ReAct, qui encourage les mobilisations transnationales face aux grandes entreprises. Un moyen de contrer la division et l’individualisation des plateformes de livraison pour rééquilibrer les relations de travail imposées par celles-ci. Les revendications sont nombreuses, mais s’organisent : salaire minimum, transparence des algorithmes, la liberté de se réunir en collectif…
  • les chauffeurs d’Uber s’informent des nouvelles fonctionnalités de la plateforme via ces outils, notamment quand Uber teste sur certains d’entre eux de nouvelles fonctionnalités. Le géographe Mark Graham a montré que plus de 50 % de travailleurs freelances qui utilisent des plateformes comme le Mechanical Turk d’Amazon ou Freelancer, sont en contact avec d’autres travailleurs de plateformes et échangent sur les tarifs, sur les tâches proposées et la qualité de ceux qui proposent du travail. Ces groupes servent souvent à des formes de coordination, comme l’a montré la grève des enseignants de Virginie-Occidentale, où 70 % des 35 000 enseignants de l’État étaient présents et ont permis d’articuler les revendications et d’organiser les protestations. Les groupes permettent également de fabriquer des hashtags, des gifs, des vidéos et des mêmes pour publiciser leurs actions. Si ces outils ne sont pas conçus pour soutenir le militantisme, le relai est assuré par des sites dédiés comme Coworker.org, permettant par exemple aux employés de Starbucks de faire pression sur la direction pour limiter le « clopening », le fait qu’un même employé soit chargé de la fermeture et de l’ouverture d’un magasin.
  • Reste que ces services ne sont pas toujours suffisamment en lien avec les syndicats existants : ils manquent d’assistance juridique, comme le proposent les syndicats, ou de fonds pour être maintenus. Les « startups du travail » ont assurément besoin de la force des syndicats pour se transformer. En Allemagne, IG Metal, l’un des plus importants syndicats, permet aux autoentrepreneurs de le rejoindre. Il a également lancé un site pour comparer les conditions de travail sur les plateformes baptisé Fair Crowd Work.
  • Pour Fredrik Soderqvist de Unionen, un syndicat suédois, les syndicats doivent apprendre également à mieux utiliser les données afin de permettre de créer des services adaptés aux transformations du monde… À l’exemple de Mystro, une application pour conducteurs, qui leur permet de basculer d’un service à l’autre, d’évaluer les demandes, de rejeter celles qui ne sont pas rentables, afin d’aider les conducteurs à prendre de meilleures décisions pour eux-mêmes. Assurément, s’emparer activement de la technologie pour les syndicats et les travailleurs peut leur permettre de contrer l’ubérisation… Ça ne remplace ni la lutte sociale ni la lutte légale, mais la lutte technologique peut permettre de faire des contre-propositions concrètes, de fournir des outils d’aide à la décision des travailleurs algorithmisés pour les aider à en comprendre le fonctionnement et à resymétriser la relation.
  •  
    "Dans Uberland : comment les algorithmes réécrivent les règles du travail (2018, Presse universitaire de Californie, non traduit), la chercheuse Alex Rosenblat (@mawnikr) a synthétisé quatre années de recherche ethnographique avec les conducteurs d'Uber. Un livre où transparaît une vision dystopique du travail où des millions de conducteurs sont gérés par un système technique qui combine à la fois l'autoritarisme du management scientifique à la Frederick Taylor et le leadership cynique d'un Michael Scott (le personnage incarné par Steve Carell dans la série The Office), rapporte Intelligencer."
Aurialie Jublin

Construire des communs numériques - 0 views

  •  
    "Ce livre blanc vise à augmenter la quantité et la viabilité des services numériques administrés en tant que communs, c'est-à-dire en tant que ressources mises en partage et exploitées de manière pérenne par une communauté. Pour cela, il clarifie le vocabulaire, décrit les contraintes minimales sans lesquelles des ressources numériques ne pourront jamais accéder au statut de communs, et propose des pistes concrètes pour en faciliter l'émergence. Ce document décrit les grandes catégories d'engagements mutuels et de comportements nécessaires pour garantir un usage libre, juste et pérenne des services numériques qui servent l'intérêt général, en particulier lorsqu'ils sont coproduits par des acteurs publics. Au-delà de ces catégories, il propose des bonnes pratiques qui permettent la constitution de véritables communs dans lesquels les usagers sont au cœur des décisions."
Aurialie Jublin

Rebooter le web sans changer de logiciel économique ? - - S.I.Lex - - 0 views

  •  
    Il y a dix jours, Tim Berners-Lee a publié un billet intitulé « One Small Step for the Web » dans lequel il annonce qu'il se met en retrait de ses fonctions au W3C. Il y déclare avoir pris cette décision pour consacrer l'essentiel de son temps au projet Solid (Social Linked Data) qu'il développe depuis plusieurs années en nourrissant l'espoir de rebooter le web sur des bases plus saines. Cette annonce fait suite à une interview donnée cet été à Vanity Fair, dans laquelle Tim Bernes-Lee se disait « effondré » face au constat que « le web a desservi l'humanité au lieu de la servir »
Asso Fing

« On cherche à éveiller la conscience éthique des développeurs et data scient... - 0 views

  • Comment la communauté Data For Good utilise-t-elle les algorithmes ? Qu’est-ce qui vous différencie des grandes entreprises tech ? Avec Data For Good, on veut permettre aux associations, aux projets citoyens et aux institutions d’avoir accès à la data science, qui est utilisée uniquement par les grandes entreprises comme les GAFA et les start-up pour l’instant, car c’est un service qui coûte très cher. Notre communauté bénévole soutient certains projets comme celui de l’association Frateli, qui travaille sur du mentorat. On leur a créé une plateforme de matching, avec des algorithmes, pour matcher en un clic un mentor avec un mentoré, alors qu’avant tout était fait à la main sur un tableur Excel. L’humain garde la décision finale, il peut changer les résultats donnés par l’algorithme, mais cela reste beaucoup plus rapide.
  • Notre but n’est pas de récolter des données, on ne fait pas des algorithmes qui utilisent les données des utilisateurs pour faire de la publicité. De plus, les codes sources produits par Data For Good sont tous en open source, donc si une autre association veut les utiliser, elle peut le faire gratuitement et librement. Les GAFA ouvrent certains de leurs codes sources, mais c’est avant tout pour attirer des développeurs, et ils n’ouvrent que des bribes de leurs codes. Et ils savent très bien que sans les données qu’ils possèdent, ces extraits de codes ne servent à rien.
  • Vous travaillez aussi chez AlgoTransparency, une plateforme qui cherche à décrypter les mécanismes de l’algorithme de YouTube : avez-vous réussi à savoir comment était construit cet algorithme, qui est un secret bien gardé par YouTube ? Sur YouTube, on est enfermé dans une spirale de recommandations qui ne montre pas forcément le meilleur de l’humanité... Sur AlgoTransparency, on a mis en place un robot qui est capable de mesurer quelle vidéo est recommandée, à partir de quelle vidéo. On a donc des données sur ces vidéos, mais comprendre comment fonctionne l’algorithme est très compliqué car celui-ci est très complexe, et il évolue en permanence car il est ré-entraîné tous les jours. Nous, on a décidé d’étudier nos données, en rentrant des mots clés, et de voir ce qu’il en sort.
  • ...4 more annotations...
  • L’algorithme de la plateforme, et YouTube le dit lui-même, c’est de maximiser le temps passé sur la plateforme, le « watch time ». Et quand l’algorithme voit que les gens passent plus de temps sur la plateforme quand ils regardent des vidéos complotistes par exemple, il va plus recommander ce contenu. Il fait juste le boulot pour lequel on l’a programmé.
  • Et dans un second temps, on pourrait créer pour la plateforme un statut hybride, qui serait entre l’hébergeur, qui n’a pas de responsabilité sur le contenu qu’il héberge, et le média, qui a toute la responsabilité sur ce qu’il partage. Pour l’instant, YouTube dit être un hébergeur, car il ne peut pas éditorialiser tout le contenu qui se trouve sur la plateforme. Pourtant, les algorithmes ont un rôle éditorial : quand ils recommandent un million de fois une vidéo à des êtres humains, il y a un choix fait derrière, l’algorithme a privilégié un contenu plutôt qu’un autre.
  • Par contre, là où on peut avoir peur, c’est quand ces algorithmes, notamment de machine learning (c’est-à-dire des algorithmes qui vont apprendre à partir des données qu’on leur a fourni pour prédire des choses), impactent la vie humaine : par exemple, lorsqu’on les utilise dans l’espace public pour faire de la reconnaissance faciale, ou quand les décisions concernant les peines de prison sont prises par des algorithmes. Si on ne sait pas quels sont les critères choisis pour définir les algorithmes, c’est là que ça devient dangereux. Et c’est pour cela qu’on demande l’ouverture de tous les codes sources utilisés dans les administrations (comme la loi Le Maire le recommande).
  • Est-ce que le problème de l’algorithme ne serait pas de décontextualiser les données ? Normalement, c’est aux data scientists de garder en tête le contexte des données qu’ils étudient, et de savoir qu’elles peuvent être biaisées : par exemple, connaître le quartier où habitent les utilisateurs peut être un biais sur leur niveau social. Dans le serment d’Hippocrate de Data For Good, on cherche au mieux à éveiller la conscience éthique des data scientist, en « informant les parties prenantes sur (…) l’utilisation des données », en assurant que « les individus ne soient pas discriminés par rapport à des critères illégaux ou illégitimes », en « respectant la vie privée et la dignité humaine » et en « assumant ses responsabilités en cas de difficulté ou de conflits d’intérêts ».
  •  
    "Et si les développeurs et data scientists prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ? Data For Good, une communauté de data scientists et de développeurs bénévoles au service de projets d'intérêt général, en a fait une de ses missions. Ce « serment d'Hippocrate » des data scientists sera mis en ligne le 26 juin, lors d'un « Demo Day » qui présentera les projets soutenus par Data For Good. Curieux d'en savoir plus, nous avons interrogé Frédéric Bardolle, membre de Data For Good et d'Algotransparency, une plateforme qui décrypte les mécanismes de l'algorithme de YouTube. "
Aurialie Jublin

Pire to pire : le fantasme de la perfection sociale - P2P Foundation France - 0 views

  • Car cette liberté retrouvée semble à tout prix devoir être mise au service d’un but « noble » qui serait une espèce d’efficacité sociale, et d’une rationalisation de nos comportements. Il semble acquis que si « nous » communiquons mieux, et sans intermédiaires pour nous en empêcher, « nous » arriverons plus rapidement au but. Mais lequel ? Et qui est ce « nous » ? Tout se passe comme si, effrayés par l’autonomie à laquelle ils sont peut-être en train d’accéder, les chantres de la décentralisation inventent en même temps la méta-organisation qui remplacera la figure du père, à défaut de savoir s’en passer.
  • Le passage d’un système fondé sur la confiance en l’humain vers un système fondé sur la preuve (où la confiance est déléguée à la technologie) semble ainsi pouvoir panser toutes les plaies, éviter toutes les trahisons, désillusions, imperfections… et l’on imagine que ce système parfait, à la fois incorruptible et incontrôlable, rendra nos vies meilleures et nous mettra à l’abri des tricheurs, des abuseurs et des voleurs.
  • celui qui gouverne, c’est celui qui indique la direction, qui donne un sens, qui guide. Ils défendent donc avec ardeur un système qui va aider à coordonner les mouvements des rameurs de la galère, sans considérer que si le projet social de la-dite embarcation diffère de ce qu’ils ont imaginé, ils sont en train de fabriquer eux-mêmes l’instrument de leur propre aliénation : une boussole autogène !
  • ...5 more annotations...
  • On en arrive à des propositions dites « démocratiques » entièrement basées sur la machine, où l’évaluation du nombre et de la qualité des contributions individuelles deviendrait une monnaie d’échange universelle et infalsifiable. On imagine même que les individus pourraient participer aux prises de décisions de façon proportionnelle à leurs contributions. Le bon vieux système de bons points remis au goût du jour ! Tant pis pour ceux qui ne souhaitent ou ne peuvent pas contribuer ? Tant pis si nous devenons esclaves de notre propre auto-évaluation ? La vie deviendrait un grand jeu vidéo où je chercherais à accumuler plus d’étoiles sur mon profil que le voisin pour gagner des points de gouvernance ou de rétribution ?
  • La gouvernance, si elle n’est pas humaine, prend le risque d’un réductionnisme mortifère et le chemin d’un égalitarisme totalitaire qui n’aura rien à envier aux dictatures que le monde a connues jusqu’ici.
  • Il me semble donc que les communs et le pair-à-pair ne pourront se développer harmonieusement qu’à la seule condition que les individus intègrent profondément que «pair», contrairement à son homonyme informatique, n’est pas synonyme de ce qui est «identique à moi» mais parle de connexion et d’amour d’une radicale altérité.
  • Ce que la blockchain, qui n’est qu’un outil, ne nous dit pas, c’est comment nous allons réussir à faire société et quelle société nous voulons. Cette perspective passe peut-être par trouver ce que nous avons en commun, ce qui ne signifie pas effacer nos singularités et nos défauts via une hypothétique technologie de la transaction. Il ne s’agit pas non plus de fantasmer un monde sans limites régi par une sémantique universelle, mythique Tour de Babel moderne.
  • Il s’agirait plutôt d’apprendre à travailler et à gouverner ensemble avec nos imperfections et nos limites, dans le but de créer quelque chose en commun au cœur de la relation. C’est probablement très difficile à réaliser (sans doute le travail de toute une vie !), inefficace et bancal, mais peut-être aussi tellement plus gratifiant et créateur de sens qu’une chaîne de chiffres infalsifiable…
  •  
    "Décentralisation, distribution, peer-to-peer, blockchain : on assiste à un déferlement de termes censé ouvrir un nouvel horizon de libertés individuelles et collectives. Pourtant, quelque chose cloche dans les discours et un frisson me parcourt souvent l'échine à l'écoute de certaines vidéos ou à la lecture de certains articles…"
Aurialie Jublin

Mariana Mazzucato, une économiste qui fait des vagues - 0 views

  • Elle pense que les décideurs du secteur public en Grande Bretagne sont otages du discours si souvent servi par les lobbyistes de l’industrie selon lequel “ils ne devraient pas prendre trop de risques, ils ne devraient pas choisir les gagnants”. Les conséquences en sont l’hémorragie des talents qui quittent le secteur public, et la validation sans remise en cause du mantra des lobbyistes : baisses d’impôts et assouplissement de la réglementation sont la recette pour attirer investisseurs et entrepreneurs.
  • “Aux États-Unis, ils parlent comme Jefferson mais ils agissent comme Hamilton” dit-elle. “Ici, en Grande-Bretagne, ils parlent et ils agissent comme Jefferson.” (Thomas Jefferson écrivait qu’il “n’était pas un ami d’un gouvernement très énergique”, alors que son grand rival insistait pour que les États-Unis lancent une politique industrielle volontariste). Un contre-exemple : le Government Digital Service [administration britannique chargée de la transformation numérique, ndt]. Des fonctionnaires, et non les habituels sous-traitants informatiques, ont créé un site qui répond vraiment aux besoins des citoyens, et, souligne-t-elle, “ils en ont fait un endroit vraiment, vraiment cool où travailler, au point que les types de la tech à la City avaient du mal à les recruter”.
  • Marianna Mazzucato défend ces idées depuis longtemps. Elle a publié en 2013 ‘The Entrepreneurial State’ (L’État entrepreneur) pour protester contre les politiques d’austérité post-crise. Elle voulait démontrer à quel point le succès de la Silicon Valley reposait sur les recherches financées par l’État, et qu’ailleurs, dans beaucoup d’autres économies, des agences gouvernementales jouaient ce même rôle essentiel. Son dernier livre veut donner une assise théorique à ses idées. Un long chapitre décortique comment différentes écoles d’économie ont traité le concept de la valeur au cours des siècles, avant que s’imposent les mantras “les prix sont fixés par l’offre et la demande” et “la valeur est dans l’œil de celui qui regarde”.
  • ...2 more annotations...
  • L’influence de Mariana Mazzucato est particulièrement visible dans la politique publique. Elle est généralement vue comme une sympathisante de gauche, mais elle affirme n’avoir pas d’agenda politique et être prête à conseiller “ceux qui écouteront”. Au Royaume-Uni, on reconnaît son empreinte dans le projet de politique industrielle du gouvernement conservateur actuel, publié en novembre dernier, tout autant que dans le manifeste du Parti travailliste de l’an dernier. Elle désapprouve le nationalisme “sous toutes ses formes”, mais elle joue aussi un rôle officiel de conseillère du Parti nationaliste écossais de Nicola Sturgeon, et revendique l’idée de la création par le gouvernement écossais d’une banque nationale d’investissement.
  • Elle admet que ce qui a “probablement le plus d’impact, dans tout ce que j’ai écrit et que j’écrirai” est le rapport publié en février sur les programmes de recherche et d’innovation européens. Il concrétise son idée que les gouvernements devraient piloter la croissance en coordonnant des “missions” – dotées de visées sociales ambitieuses et d’objectifs quantifiables – qui propageront l’innovation de secteurs en secteurs. Un précédent connu est la décision américaine d’envoyer un homme sur la lune. De nos jours, un objectif pourrait être d’atteindre les cent villes à bilan carbone neutre d’ici 2030.
  •  
    "Elle souhaite avant tout contrer l'opinion dominante selon laquelle l'innovation naît dans le secteur privé, et le rôle du gouvernement se limite à redistribuer, à délimiter le terrain de jeu et à réparer les erreurs du marché. En réalité, argumente-t-elle, beaucoup d'acteurs du privé, de la finance aux grands laboratoires pharmaceutiques, extraient ou détruisent de la valeur créée par autrui. Pour elle, le secteur public peut et devrait être un co-créateur de richesses qui pilote volontairement la croissance pour atteindre ses objectifs, que ce soit dans le domaine des énergies alternatives, du vieillissement des sociétés ou de la participation des citoyens à l'économie numérique."
Aurialie Jublin

« La technologie offre aux quartiers la possibilité de devenir des espaces pr... - 0 views

  • La plupart du temps, nous n’avons pas besoin des multinationales. C’est d’ailleurs la raison pour laquelle la maire de Barcelone, Ada Colau, a pris une décision historique en interdisant les franchises dans sa ville. Changer de paradigme est un grand projet, mais changer des éléments à une échelle locale, c’est tout à fait faisable et ça commence à se faire dans de plus en plus de villes. Par exemple, moi qui suis investie dans le mouvement des fermes verticales, je constate que l'agriculture urbaine essaime : aujourd’hui, à New York, on peut même obtenir un permis pour élever une poule chez soi.
  • La technologie offre aux quartiers la possibilité de devenir des espaces productifs. Prenons le cas des quartiers défavorisés, par exemple. Très souvent, le voisin y est perçu comme un « ennemi » simplement parce qu’il est accessible : un gouvernement est hors d’atteinte, tandis qu'un voisin est un excellent souffre-douleur. Il est donc essentiel de favoriser le lien social dans ces quartiers.
  • si ces personnes doivent faire face à un problème urgent de garde d'enfant, ils n'ont souvent pas le temps de passer un coup de fil dans la journée pour trouver une solution, et s'ils s'absentent, ils risquent d'être licenciés. The Emergency Nanny permet à un groupe de personnes de confiance habitant un même quartier (coiffeur, épicier, voisin, etc.) de se rendre disponible tel jour à telle heure pour garder les enfants de la personne qui les solliciterait d'un clic via l'appli.
  • ...2 more annotations...
  • Oui, les citoyens sont des acteurs clés pour orienter les usages de la technologie. Mais aux États-Unis, les maires procèdent à l’envers. Ils font appel à des entreprises informatiques et leur achètent des solutions préconçues pour des problèmes qui n’ont pas été clairement exposés en amont. La plupart du temps, ces technologies sont inutiles. Or, c’est l’inverse qui devrait se passer : les maires devraient réunir leurs équipes et établir quels sont les besoins, en bonne intelligence avec les citoyens. Il est regrettable que les classes dirigeantes refusent à ce point de comprendre la technologie et ses potentialités. Elles ont établi que c’était l’apanage des experts et s’en sont détournées
  • Les différents habitants d'un quartier ont des connaissances spécifiques de leur zone d’habitation que n'ont ni les élus locaux, ni les experts en urbanisme. On doit utiliser cette connaissance. Chacun devrait pouvoir accéder à une plateforme pour signaler une fuite d'eau, un nid-de-poule ou autre chose. Ça mobilise les habitants dans un effort commun, ça crée du tissu social et, à terme, cela peut aussi réduire la souffrance dans les quartiers défavorisés.
  •  
    "À l'occasion du Fab City Summit, qui s'est tenu à Paris du 11 au 22 juillet, nous avons rencontré Saskia Sassen. Connue pour ses travaux autour du concept de « ville mondiale » (« global city » en VO) - qui désigne les mégapoles devenues le coeur battant de la mondialisation tant elles concentrent tous les pouvoirs - la sociologue néerlando-américaine, qui enseigne notamment à l'Université Columbia de New York, a pris le temps d'échanger sur les leviers à actionner aujourd'hui pour mieux associer les citoyens à la gouvernance urbaine et recréer du lien social en ville."
Aurialie Jublin

Comment gouverner à l'ère du numérique ? - 0 views

  • « Voilà longtemps que les données de Facebook sont un inestimable matériau de recherche. Mais la politique de l’entreprise de Mark Zuckerberg en la matière est digne de celle d’un État. […] La nécessité d’une obligation contraignante de service public pour les données des plateformes monopolistiques s’impose de plus en plus. »
  • Or depuis quelques années, les États laissent, par négligence ou par intérêt, la voie libre aux plateformes, jusqu’à parfois se faire concurrencer sur des terrains jusque-là assumés par les pouvoirs publics. Pour ne pas voir surgir un futur géré par des puissances « quasi-État », le rôle d’une gouvernance étatique assurant la souveraineté numérique de ses citoyens est à redéfinir.
  • « Ce qu’on commence à observer, c’est que les géants du numérique proposent des services qui ressemblent de plus en plus aux services publics : des services liés au logement, à la recherche d’emploi, au transport… et qui commencent à concurrencer les États mais sans nécessairement respecter les valeurs du service public. C’est-à-dire qu’il n’y a pas de transparence sur les opérations, pas de recours citoyen possible et pas de notion d’égalité d’accès à tous  », résume Paula Forteza.
  • ...4 more annotations...
  • L’exemple du « Safety Check », système mis en place par Facebook à l’automne 2015, qui permet aux utilisateurs de faire savoir à leurs proches qu’ils sont en sécurité en cas de catastrophe, l’illustre bien. S’il fonctionnait bien à Paris, ce n’était pas le cas à Beyrouth. Certains États, qui ont tenté de dupliquer le mécanisme d’alerte, ont passablement échoué à faire utiliser leur application. Le relais est par défaut passé à Facebook qui peut selon les choix effectués (sur le choix des mécanismes déployés selon les évènements) jouer le rôle de décideur politique à échelle mondiale. Le fonctionnement du « Safety Check » a changé depuis — il est désormais activé par les utilisateurs eux-mêmes, dans un processus d’autorégulation — mais fait toujours l’objet de critiques virulentes.
  • La députée soutient qu’une délimitation claire entre le positionnement des acteurs est nécessaire : les États assument leur rôle de régulateur, l’indépendance des institutions françaises est respectée, et les géants du numérique sont des entreprises privées soumises au contrôle démocratique.
  • Dans un contexte géopolitique divisé entre géants du web américains et chinois, l’Europe représente un marché très juteux pour les GAFA. Redonner leur souveraineté numérique aux États européens, c’est également leur permettre de disposer de marges de manœuvre non négligeables dans la prise de décision économique et politique : quelles données rendre accessibles ; à qui ? quels futurs acteurs de l’innovation faire émerger ; sous quelles conditions ? Et pour voir apparaître une Europe maîtresse de son destin numérique, une transition institutionnelle seule ne suffira pas. Elle doit être accompagnée d’un mouvement de conscientisation des populations aux enjeux du numérique et d’actions citoyennes innovantes.
  • Redéfinir le rôle de l’État dans nos sociétés, c’est donc potentiellement le penser comme un État plateforme — une organisation sociale et politique qui met des ressources à disposition de la société civile (ces ressources peuvent être des données en open source provenant des secteurs publics et privés par exemple), puis qui s’appuie sur l’intervention des individus pour développer des services utiles à tous. Un exemple de réussite de tels projets participatifs est OpenStreetMap, qui a pour but de constituer une base de données géographiques du monde, en utilisant le système GPS et d’autres données en accès libre.
  •  
    "Le futur sera-t-il géré sans les États ? Alors que le chiffre d'affaire des GAFA équivaut quasiment à celui d'un État moyen et qu'on commence à reconnaître le pouvoir diplomatique de certaines de ces entreprises, le rôle de l'État est questionné. C'est autour de ce constat, et à l'occasion du festival de l'innovation et des économies numériques Futur.e.s, que se sont engagées les réflexions sur le rôle de l'Etat à l'ère du numérique. Autour de la table pour cette conférence, Paula Forteza, députée La République en Marche !, Judith Rochfeld, professeur des universités à Paris 1 Panthéon-Sorbonne, et Henri Verdier, directeur de la Direction interministérielle du numérique et du système d'information et de communication de l'État (DINSIC). RSLN y était."
1 - 20 of 36 Next ›
Showing 20 items per page