Skip to main content

Home/ QN2019/ Group items tagged humain

Rss Feed Group items tagged

Aurialie Jublin

Derrière les promesses de l'intelligence artificielle, le cauchemar du "digit... - 0 views

  • En l’absence de régulation, le digital labor préfigure le pire du travail : un monde de travailleurs isolés, privés de droits sociaux et iolés les uns des autres, livrés aux conditions léonines des employeurs — et accomplissant des tâches standardisées, fragmentées, peu qualifiées et dépourvues de sens global. Ici et là, des tentatives de régulation ou de création de plateformes équitables sont en cours. Il est urgent de les soutenir, si l’on ne veut pas que le développement croissant de l’automatisation ne soit synonyme non d’une disparition du travail, mais de sa dégradation irrémédiable.
  • Cet imaginaire largement libertarien irrigue profondément la culture du web depuis ses débuts et s’incarne, par exemple, dans la figure du hacker ou de l’entrepreneur nomade, du passionné qui s’accomplit dans un « projet professionnel qui est aussi existentiel ». Mais Antonio Casilli note combien cette vision est élitiste et ne prend pas en compte l’asymétrie des forces dans un marché du travail en berne où le chômage est élevé et l’ascenseur social en panne,
  • « Ce ne sont pas les machines qui font le travail des hommes, mais les hommes qui sont poussés à réaliser un digital labor pour les machines en les accompagnant, en les invitant, en les entraînant », résume le chercheur. Les intelligences artificielles doivent toujours être paramétrées, entraînées et encore très largement supervisées par des humains, malgré les progrès des méthodes d’apprentissage non supervisés. Les progrès fulgurants des IA ces dernières années sont surtout dus à l’explosion des quantités de données d’entraînement : or celles-ci doivent être triées, annotées, préparées par des humains. Et enfin, ces programmes doivent être évalués et corrigés pour pouvoir s’améliorer. Ainsi, les utilisateurs vont utiliser pendant plusieurs années une version beta du service Gmail de Google, pour l’améliorer, ou tagger leurs amis sur des photos et contribuer ainsi sans nécessairement en avoir conscience à l’affinement du service de reconnaissance faciale de Facebook : « C’est un travail humble et discret, qui fait de nous, contemporains, à la fois les dresseurs, les manouvriers et les agents d’entretien de ces équipements. » La question que pose l’intelligence artificielle et l’automatisation, ce n’est donc pas celle de la menace sur l’emploi – mais celle de la transformation profonde du travail pour répondre aux besoins de la machine.
  •  
    "Un spectre hante l'intelligence artificielle, c'est le digital labor. Le dernier livre du sociologue Antonio Casilli , spécialiste des réseaux sociaux et des mutations du travail à l'ère numérique, dresse un panorama sombre des nouvelles formes de travail déconsidéré ou invisible apparues avec l'essor des plateformes et de l'automatisation."
Aurialie Jublin

Artificial Intelligence & Human Rights | Berkman Klein Center - 0 views

  •  
    L'intelligence artificielle (IA) est en train de changer le monde sous nos yeux. Le potentiel que présente l'IA pour améliorer nos vies est énorme. Des systèmes reposant sur l'IA sont déjà plus performants que des médecins spécialistes pour diagnostiquer certaines maladies, tandis que l'utilisation de l'IA dans le système financier élargit l'accès au crédit à des emprunteurs qui étaient autrefois ignorés. Toutefois, l'IA présente aussi des inconvénients qui viennent assombrir son potentiel considérable. Les systèmes reposant sur l'IA ont une incidence sur le droit à la vie privée étant donné qu'ils dépendent de la collecte et de l'utilisation de vastes quantités de données pour faire des prédictions qui, dans de nombreux cas, ont pour effet de perpétrer des tendances sociales de préjugés et de discrimination. Ces possibilités dérangeantes ont donné lieu à un mouvement qui cherche à intégrer des considérations éthiques dans le développement et la mise en œuvre de l'IA. Ce projet, en revanche, démontre l'utilité considérable d'utiliser la législation sur les droits de la personne pour évaluer et aborder les répercussions complexes de l'IA sur la société. La législation sur les droits de la personne fournit un ensemble de normes communément admis et un langage commun ainsi qu'une infrastructure institutionnelle pour contribuer à faire en sorte que le potentiel de l'IA soit réalisé et que ses plus grands périls soient évités. Notre projet vise à faire progresser la conversation émergente sur l'IA et les droits de la personne en évaluant les répercussions sur les droits de la personne de six utilisations courantes de l'IA. Notre cadre de travail reconnaît que les systèmes d'IA ne sont pas déployés sur un canevas vierge, mais plutôt sur la toile de fond de conditions sociales qui ont elles-mêmes des répercussions complexes préexistantes sur les droits de la personne
Aurialie Jublin

Christchurch : les pyromanes appelés à éteindre l'incendie - La Quadrature du... - 0 views

  • Facebook fait mine de prendre conscience du problème de viralité lié à la plateforme en promettant aussi de « renforcer ses intelligences artificielles », encore une fois… Comme si, précisément, la « solution magique » de ses filtres automatisés ne venait pas d’être définitivement décrédibilisée, il y a deux mois, par une poignée d’internautes complices du tueur de Christchurch parvenant à les contourner pendant des jours, manifestement sans grand soucis. D’après Facebook, la première journée, 300 000 copies seraient passé au travers de ses filtres automatisés, n’étant traitées que pas son armée de modérateurs sous-payées et exposés aux pires conditions de travail.
  • Surtout, Facebook sait très bien que sa plateforme ne peut pas être corrigée, à moins de renoncer à son modèle économique, tout comme Google ou Twitter, véritable cœur du problème. La raison d’être de ces plateformes est de réunir le plus de personnes possibles en un seul endroit, pour les surveiller et leur proposer la publicité qui les influencera le plus.
  • Il est techniquement et humainement impossible de modérer d’aussi grosses plateformes pour éviter qu’elles ne deviennent des outils de harcèlement, de haine et de mort. Pire, pour maintenir tous nos cerveaux disponibles, leurs « intelligences artificielles » (qui ne se montrent efficaces qu’ici) entretiennent autant que possible la culture du buzz et, par là, le conflit, la caricature, la peur – tout ce qu’il faut pour éviter l’entraide et la cohésion. C’est le prix à payer pour capter plusieurs milliards de cerveaux en même temps, et ils ne renonceront jamais à nous le faire payer (c’est pourquoi nous luttons pour le développement d’un Web décentralisé et à taille humaine).
  • ...3 more annotations...
  • Et, bien sûr, leur emprise s’exerce en marchant sur nos libertés fondamentales, exploitant nos données personnelles et violant le RGPD pour mieux nous contrôler (voir nos plaintes devant la CNIL et la première sanction de celle-ci en réponse contre Google).
  • Il y a 2 mois, le Parlement européen a adopté en première lecture le règlement terroriste, dont l’objectif principal est de généraliser les filtres automatisés de Google et Facebook à l’ensemble du Web – oui, ces mêmes filtres qui viennent de démontrer toute leur inefficacité. Pour imposer ces filtres à tout le monde, le gouvernement français, qui est à l’initiative de ce texte avec l’Allemagne, n’a pas peur de détruire le Web européen composé d’une multitude de petits acteurs et, ainsi, de laisser les GAFAM en maîtres. En vrai, ces géants s’étant montrés particulièrement coopératifs dans l’ambition de Macron de « civiliser » Internet, ils apparaissent comme des alliés de choix qu’il vaudrait mieux laisser régner (voir notre premier bilan sur le règlement terroriste).
  • En ce moment, c’est la proposition de loi LREM « contre la haine en ligne » qui reprend cette entente Macron-GAFAM : les géants s’engagent à faire le travail de la police et de la justice sur Internet et, en échange, le gouvernement les présente en « solutions », légitime leur toute puissance, les laisse tranquille et les invite à tous ses événements sur « comment la technologie sauvera le monde ». Comme on l’a vu dans notre dernier article, cette alliance risque aussi de conduire à la censure de critiques anti-Macron ou de mouvements sociaux un peu trop dérangeants…
  •  
    "Facebook, qui participait au lancement de la campagne aux côtés de Google, a aussitôt répondu : il empêchera désormais ses utilisateurs les plus suspects de diffuser des vidéos en direct - outil qu'avait utilisé le tueur de Christchurch. Cette réponse de Facebook est bien à la hauteur des attentes du gouvernement Macron, qui recevait précisément Mark Zuckerberg la semaine dernière : de la poudre aux yeux pour que surtout rien ne change, au mépris de la gravité des événements. "
Aurialie Jublin

Sur Google, le mot « lesbienne » ne renverra plus vers de la pornographie - 0 views

  • Victoire pour l’équipe de SEOlesbienne, et pour toutes les femmes homosexuelles lassées d’être réduites à une simple catégorie sur les sites pornos. Le mouvement, lancé en avril 2019, pointait du doigt les dérives de l’algorithme Google, qui renvoyait chaque recherche du mot « lesbienne » vers du contenu pornographique. Depuis le jeudi 18 juillet, l’algorithme Google propose des articles de presse, des ressources pédagogiques ou des contenus viraux. Mais le terme continue d’être fortement connoté et parfois même censuré, notamment sur Facebook et Instagram.
  • « Nous voulons détruire ce mythe de l’algorithme sans tête, qui n’aurait pas été créé par un humain. Un algorithme capable de nous engloutir et sur lequel nous n’aurions aucun pouvoir », souligne-t-elle. Une ignorance traduite par les critiques adressées à SEOlesbienne, souvent de la part de personnes très jeunes, qui affirmaient l'impossibilité de s'élever contre une grosse machine Google déshumanisée. Pour Fanchon, il ne faut pas oublier que ce sont des êtres humains qui programment ces algorithmes, et induisent des biais sexistes : « Considérer la subjectivité de Google, la prendre en compte, c’est aussi se dire que les résultats Google ne sont pas neutres ».
  • « L’ancien algorithme Google n’était rien d’autre que de la lesbophobie s’exprimant par de l’hypersexualisation ». Les recherches des mots « gay » ou « homosexuel », destinées aux hommes donc, ne renvoient pas directement à du contenu pornographique. Ces transformations profondes sont, selon elle, concomitantes à la lutte des femmes, à leur émancipation et à une nouvelle forme de militantisme post #metoo. Car à travers ces recherches Google se cachent un véritable enjeu de santé publique. De nombreuses jeunes filles n'ont pas accès à une information de qualité et à une éducation sexuelle adaptée.
  • ...1 more annotation...
  • Sans compter que l’objectification des femmes lesbiennes a des répercussions catastrophiques sur leur vie quotidienne. « Les personnes lesbiennes, gaies, bi et trans se suicident en moyenne 4 fois plus que le reste de la population », rappelle l'Inter-LGBT. Les discriminations, les violences et les insultes sont les principales causes de cette surexposition au suicide.
  •  
    "Depuis le 18 juillet, une saisie Google du mot « lesbienne » ne conduira plus systématiquement vers de la pornographie et proposera dorénavant du contenu informatif. On fait le point avec la créatrice de SEOLesbienne, la cyberactiviste Fanchon.  "
Aurialie Jublin

'C'est de la surveillance': Tim Cook vient de démolir Facebook devant les gen... - 0 views

  • "Il ne faut pas édulcorer les conséquences: c'est de la surveillance." Fort de cette attaque en règle, Tim Cook a salué les efforts politiques menés en Europe avec la mise en application du RGPD (Règlement général sur la protection des données) cette année et les questions posées par le régulateur aux géants de la tech. 
  • Il a aussi affirmé que "chez Apple, nous soutenons pleinement une loi fédérale exhaustive sur la vie privée aux Etats-Unis" et dit considérer le droit à la vie privée comme un "droit humain fondamental". Tim Cook a défendu quatre principes sur lesquels il repose: 1) le droit de minimiser les données personnelles — limitant le droit des entreprises à collecter ces données; 2) le droit à la transparence — pour qu'un internaute sache ce qui est collecté sur lui et à quelles fins; 3) un droit d'accès — pour que les utilisateurs puissent accéder, modifier ou supprimer leurs données; 4) le droit à la sécurité, fondement de la confiance. 
  • En revanche, il ne s'est pas exprimé à Bruxelles sur la question de la fiscalité des acteurs du numérique, alors que le ministre français de l'économie Bruno Le Maire s'efforce de rallier ses pairs européens à un consensus sur l'épineuse question et que la Commissaire européenne à la concurrence Margrethe Vestager a sanctionné Apple pour ses acrobaties fiscales avec l'Irlande en 2016. 
  •  
    "Convié à s'exprimer lors de la Conférence internationale des commissaires à la protection des données et de la vie privée à Bruxelles, ce mercredi 24 octobre 2018, Tim Cook a fait l'apologie d'Apple en dénonçant avec vigueur les travers dont se rend coupable un autre géant de la tech de la Silicon Valley selon lui - Facebook, sans jamais le nommer. "
Aurialie Jublin

FR - A Contract for the Web - 0 views

  • Les gouvernements s'engagent à  :S'assurer que tout le monde peut se connecter à InternetAinsi, n'importe qui, peu importe son identité ou son lieu de résidence, peut participer activement en ligne.Maintenir la disponibilité constante d'InternetAfin que personne ne soit privé de son droit à un accès complet à Internet.Respecter le droit fondamental des personnes à la vie privéeAinsi, tout le monde peut utiliser Internet librement, en toute sécurité et sans crainte.
  • Les entreprises s'engagent à :Rendre Internet abordable et accessible à tousPour que personne ne soit exclu de l’utilisation et de du futur  du Web.Respecter la vie privée et les données personnelles des consommateursAfin que les gens gardent le contrôle de leur privacité et vie en ligne.Développer des technologies qui supportent le meilleur de l'humanité et défient le pireAfin que le Web soit réellement un bien public qui donne la priorité aux gens.
  • Les citoyens s'engagent à :Être des créateurs et des collaborateurs sur le WebPour que le Web présente un contenu riche et pertinent pour tout le monde.Construire des communautés fortes qui respectent un discours civil et la dignité humainePour que tout le monde se sente en sécurité et bienvenu(e) en ligne.Se battre pour le WebPour que le Web reste ouvert et constitue une ressource publique universelle pour les utilisateurs du monde entier, aujourd'hui et à l'avenir.
  • ...1 more annotation...
  • Nous nous engageons à respecter ces principes et à impulser  un processus de délibération afin de créer un « contrat pour le Web » complet, qui définira les rôles et les responsabilités des gouvernements, des entreprises et des citoyens. Les défis auxquels le Web est confronté aujourd'hui sont redoutables et ont des impacts sur  tous les aspects de nos vies, et non seulement lorsque nous sommes en ligne. Mais si nous travaillons ensemble et que chacun de nous assume la responsabilité de ses actes, nous pouvons protéger un Web réellement au service de tous et toutes.
  •  
    " Le Web a été conçu pour rassembler les gens et rendre les connaissances librement disponibles. Tout le monde a un rôle à jouer pour que le Web soit utile à l'humanité. En adhérant aux principes suivants, les gouvernements, les entreprises et les citoyens du monde entier peuvent contribuer à protéger le Web ouvert en tant que bien public et droit fondamental pour tous. "
Aurialie Jublin

« Algorithmes, la bombe à retardement » : un cri d'alarme citoyen - 0 views

  • Pour comprendre la thèse du livre, il faut en lire l’envoi : « À tous ceux que l’on donne perdants ». « On », ce sont les dominants qui, sous couvert de discours méritocratique et exaltant l’égalité des chances, déploient des algorithmes qui traquent les dominés dans un grand nombre de domaines et leur infligent de sévères dommages. Comme à la guerre.
  • Pour nommer ces algorithmes malfaisants, elle parle d’« ADM » pour « Arme de destruction mathématique ». Ces armes sont conçues sans que les soldats ne s’en rendent compte, comme elle l’écrit dans des travaux de recherche en géométrie algébrique et mathématique au MIT.
  • Ainsi du monde du travail, où elle réalise que les recrutements se font de plus en plus sans passer par un jugement humain. Dans un grand nombre de postes où la réputation est en jeu, il y a ceux qui peuvent s’acheter un service d’achats de followers Twitter à 19,95 $ par mois et ceux qui restent bloqués à un nombre confidentiel de fans et qui n’auront jamais de community à manager. À l’autre bout de l’échelle sociale, un nombre croissant de demandeurs d’emplois dans des multinationales comme Home Depot, Lowe’s ou Walgreen voient leurs candidatures bloquées par des algos, pour cause d’antécédents psychiatriques. 
  • ...2 more annotations...
  • L’analyse de Cathy O’Neil sur la puissance de destruction de certains algorithmes mal intentionnés vaut aussi dans le secteur de l’éducation. Aux Etats-Unis, les étudiants les plus pauvres se retrouvent ainsi inondés de pubs pour des facs de seconde catégorie, qui misent tout là-dessus pour remplir leurs amphis, quand les bonnes facs jouent plus de la réputation de leurs profs
  • « Les ADM se nourrissent les unes les autres. Les gens pauvres ont tendance à présenter un mauvais score de crédit et à vivre dans des quartiers à forte criminalité, entourés d’autres individus pauvres. Une fois ces données digérées, le sordide univers des ADM les bombarde de publicités prédatrices pour des prêts hypothécaires de type subprime ou des écoles à but lucratif. Il déploie plus de policiers pour les arrêter et, lorsqu’ils sont condamnés, leur inflige des peines de prisons plus longues… ».
  •  
    "Attention, c'est du brutal. Algorithmes, la bombe à retardement (Novembre 2018, Les Arènes) nous plonge dans les cuisines peu ragoûtantes des fabricants d'algorithmes. L'auteure, Cathy O'Neil, est une mathématicienne américaine de haut vol passée de l'université aux banques puis aux analyses en big data avant de se reconvertir en lanceuse d'alerte. Elle pousse ici un cri d'alarme citoyen : nous ne pouvons pas rester spectateurs d'un monde où nous sommes de plus en plus tributaires d'outils conçus de façon opaque, utilisés à des fins commerciales ou sécuritaires et ayant pour conséquence d'exacerber les inégalités."
Aurialie Jublin

Pire to pire : le fantasme de la perfection sociale - P2P Foundation France - 0 views

  • Car cette liberté retrouvée semble à tout prix devoir être mise au service d’un but « noble » qui serait une espèce d’efficacité sociale, et d’une rationalisation de nos comportements. Il semble acquis que si « nous » communiquons mieux, et sans intermédiaires pour nous en empêcher, « nous » arriverons plus rapidement au but. Mais lequel ? Et qui est ce « nous » ? Tout se passe comme si, effrayés par l’autonomie à laquelle ils sont peut-être en train d’accéder, les chantres de la décentralisation inventent en même temps la méta-organisation qui remplacera la figure du père, à défaut de savoir s’en passer.
  • Le passage d’un système fondé sur la confiance en l’humain vers un système fondé sur la preuve (où la confiance est déléguée à la technologie) semble ainsi pouvoir panser toutes les plaies, éviter toutes les trahisons, désillusions, imperfections… et l’on imagine que ce système parfait, à la fois incorruptible et incontrôlable, rendra nos vies meilleures et nous mettra à l’abri des tricheurs, des abuseurs et des voleurs.
  • celui qui gouverne, c’est celui qui indique la direction, qui donne un sens, qui guide. Ils défendent donc avec ardeur un système qui va aider à coordonner les mouvements des rameurs de la galère, sans considérer que si le projet social de la-dite embarcation diffère de ce qu’ils ont imaginé, ils sont en train de fabriquer eux-mêmes l’instrument de leur propre aliénation : une boussole autogène !
  • ...5 more annotations...
  • On en arrive à des propositions dites « démocratiques » entièrement basées sur la machine, où l’évaluation du nombre et de la qualité des contributions individuelles deviendrait une monnaie d’échange universelle et infalsifiable. On imagine même que les individus pourraient participer aux prises de décisions de façon proportionnelle à leurs contributions. Le bon vieux système de bons points remis au goût du jour ! Tant pis pour ceux qui ne souhaitent ou ne peuvent pas contribuer ? Tant pis si nous devenons esclaves de notre propre auto-évaluation ? La vie deviendrait un grand jeu vidéo où je chercherais à accumuler plus d’étoiles sur mon profil que le voisin pour gagner des points de gouvernance ou de rétribution ?
  • La gouvernance, si elle n’est pas humaine, prend le risque d’un réductionnisme mortifère et le chemin d’un égalitarisme totalitaire qui n’aura rien à envier aux dictatures que le monde a connues jusqu’ici.
  • Il me semble donc que les communs et le pair-à-pair ne pourront se développer harmonieusement qu’à la seule condition que les individus intègrent profondément que «pair», contrairement à son homonyme informatique, n’est pas synonyme de ce qui est «identique à moi» mais parle de connexion et d’amour d’une radicale altérité.
  • Ce que la blockchain, qui n’est qu’un outil, ne nous dit pas, c’est comment nous allons réussir à faire société et quelle société nous voulons. Cette perspective passe peut-être par trouver ce que nous avons en commun, ce qui ne signifie pas effacer nos singularités et nos défauts via une hypothétique technologie de la transaction. Il ne s’agit pas non plus de fantasmer un monde sans limites régi par une sémantique universelle, mythique Tour de Babel moderne.
  • Il s’agirait plutôt d’apprendre à travailler et à gouverner ensemble avec nos imperfections et nos limites, dans le but de créer quelque chose en commun au cœur de la relation. C’est probablement très difficile à réaliser (sans doute le travail de toute une vie !), inefficace et bancal, mais peut-être aussi tellement plus gratifiant et créateur de sens qu’une chaîne de chiffres infalsifiable…
  •  
    "Décentralisation, distribution, peer-to-peer, blockchain : on assiste à un déferlement de termes censé ouvrir un nouvel horizon de libertés individuelles et collectives. Pourtant, quelque chose cloche dans les discours et un frisson me parcourt souvent l'échine à l'écoute de certaines vidéos ou à la lecture de certains articles…"
Aurialie Jublin

Censure antiterroriste : Macron se soumet aux géants du Web pour instaurer un... - 0 views

  • Pour rappel, le texte, poussé par la France et l’Allemagne, utilise le prétexte de la lutte contre le terrorisme pour soumettre l’ensemble des hébergeurs (et pas seulement les grandes plateformes) à des obligations extrêmement strictes : retrait en une heure de contenus qualifiés de terroristes par une autorité nationale (en France, ce sera l’OCLCTIC, le service de la police chargé de la cybercriminalité)  la mise en place d’un « point de contact » disponible 24h/24 et 7j/7  l’instauration de « mesures proactives » pour censurer les contenus avant même leur signalement  si ces mesures sont jugées insatisfaisantes par les États, ces derniers peuvent imposer des mesures spécifiques telles que la surveillance généralisée de tous les contenus.
  • D’un point de vue humain, technique et économique, seules les grandes plateformes qui appliquent déjà ces mesures depuis qu’elles collaborent avec les polices européennes seront capables de respecter ces obligations : Google, Facebook et Twitter en tête. Les autres acteurs n’auront d’autres choix que de cesser leur activité d’hébergement ou (moins probable, mais tout aussi grave) de sous-traiter aux géants l’exécution de leurs obligations.
  • Ce texte consacre l’abandon de pouvoirs régaliens (surveillance et censure) à une poignée d’acteurs privés hégémoniques. Pourtant, la Commission et les États membres, en 146 pages d’analyse d’impact, ne parviennent même pas à expliquer en quoi ces obligations pourraient réellement être efficaces dans la lutte contre le terrorisme.
  • ...4 more annotations...
  • Quand nous avons dit aux ministères que leur texte détruirait l’ensemble du Web décentralisé, ne laissant qu’une poignée de géants en maîtres, on nous a laissé comprendre que, oui, justement, c’était bien le but. Tranquillement, nos interlocuteurs nous ont expliqué que Google-Youtube et d’autres multinationales numériques avaient convaincu le gouvernement que la radicalisation terroriste était facilitée par les petites et moyennes plateformes, et qu’il fallait donc laisser la régulation du Web aux seuls géants prétendument capables de la gérer. Où sont les preuves de cette radicalisation plus facile en dehors de leurs plateformes ? Nulle part. Sans aucune honte, le gouvernement s’est même permis de sortir l’argument du secret défense, complètement hors sujet, pour masquer son manque de preuve et afficher son irrespect de toute idée de débat démocratique. C’est comme ça : Google l’a dit, ne discutez pas.
  • Macron se moque de détruire tout espoir d’une économie numérique européenne. Il veut simplement un texte sécuritaire qu’il pourra afficher au moment des élections européennes (ses « mid-terms » à lui), afin de draguer une partie de la population inquiète du terrorisme et qu’il s’imagine assez stupide pour tomber dans le panneau. Dans son arrogance délirante, il n’a même plus peur de renier ses électeurs pro-Europe ou pro-business, ni la population attachée aux libertés qui, pensant repousser l’extrême droite, l’aura élu.
  • Dans ce dossier, la menace terroriste est instrumentalisée pour transformer le Web en GAFAMinitel, pour acter la fusion de l’État et des géants du Net, et ainsi consacrer la surveillance généralisée et la censure automatisée de nos échanges en ligne. Tout ça pour quoi ? Pour lutter contre une auto-radicalisation fantasmée dont la preuve serait secret-défense (la bonne affaire !), et alors que les enquêtes sérieuses sur la question montrent que les terroristes ne se sont pas radicalisés sur Internet.
  • Le seul effet de ce texte sera de renforcer les multinationales du numériques et les dérives de l’économie de l’attention dont ils sont porteurs : la sur-diffusion de contenus anxiogènes, agressifs et caricaturaux capables de capter notre temps de cerveau disponible. L’urgence législative est de combattre ces dérives : de limiter l’économie de l’attention tout en favorisant le développement de modèles respectueux de nos libertés. C’est ce que nous proposons.
  •  
    "Il y a deux mois, la Commission européenne a publié sa proposition de règlement « censure antiterroriste ». Nous le dénoncions, expliquant que ce projet aura pour effet de détruire l'ensemble du Web décentralisé. Depuis, nous avons rencontré les ministères français en charge du dossier : nos craintes se sont amplifiées. La France, avec le soutien de l'Allemagne et du Parlement européen, va tout faire pour empêcher un débat démocratique sur ce texte : le gouvernement n'en parle pas dans la presse, veut forcer son adoption urgente et invoque le secret-défense pour empêcher tout débat factuel. Pourquoi tant de secret ? Probablement parce que ce texte, écrit en collaboration avec Google et Facebook, aura pour effet de soumettre l'ensemble du Web à ces derniers, à qui l'État abandonne tout son rôle de lutte contre les contenus terroristes. La collaboration annoncée lundi par Macron entre l'État et Facebook n'en est que le prémice, aussi sournois que révélateur."
Aurialie Jublin

Concrètement, comment rendre les algorithmes responsables et équitables ? | I... - 0 views

  • Et rappelle la difficulté à définir mathématiquement l’équité, comme l’a souligné l’informaticien Arvind Narayanan (@random_walker) lors de la dernière édition de la conférence FAT (la conférence annuelle sur l’équité, la responsabilité et la transparence). Outre les biais et déséquilibres statistiques, rappelle David Robinson (@drobinsonian), responsable des associations EqualFuture et Upturn (et qui a notamment publié un rapport sur la question de l’examen public des décisions automatisées (.pdf)), leur impact dépend surtout de la manière dont sont utilisés ces systèmes, avec le risque, que pointait Eubanks, que les plus discriminés soient encore plus surveillés par ces systèmes.
  • Pour remédier à ces problèmes, beaucoup d’agences américaines ont recours à des chercheurs extérieurs pour déjouer les biais de leurs systèmes. En avril, l’AI Now Institute a défini un cadre (voir le rapport (.pdf)) pour les organismes publics qui souhaitent mettre en place des outils de prise de décision algorithmique, recommandant notamment de mettre à contribution la communauté de la recherche et de permettre à ceux que le système calcul de faire appel des décisions prises à leur sujet.
  • Leurs recommandations invitent les systèmes à respecter le droit d’information du public, à recourir à des examens par des chercheurs indépendants, à améliorer l’expertise des organismes qui les conçoivent et à développer des modalités pour permettre au public de contester les décisions prises. L’initiative recommande aux agences publiques de répertorier et décrire les systèmes de décision automatisés, y compris d’évaluer leur portée et impact. Elle recommande également de mettre en place des modalités d’accès afin que des chercheurs, des experts indépendants, des associations ou des journalistes puissent accéder et évaluer ces systèmes et pour cela doivent s’assurer notamment que leurs fournisseurs privés de systèmes acceptent ces vérifications. Elle souligne également que les agences doivent monter en compétences pour être expertes des systèmes qu’elles mettent en place, notamment pour mieux informer le public, et invite les fournisseurs de solutions à privilégier l’équité, la responsabilité et la transparence dans leurs offres.
  • ...7 more annotations...
  • Mais ce n’est pas la seule piste qui permettrait d’interroger les biais des systèmes automatisés. Microsoft travaille à un outil de détection automatique des biais, Facebook également (notamment via le projet Fairness Flow annoncé par Isabel Kloumann du département d’IA de FB research à la dernière conférence de F8 Conference parmi une longue liste d’outils pour l’IA) rapporte la Technology Review.
  • La mathématicienne Cathy O’Neil (@mathbabedotorg, blog), qui s’est fait connaître en dénonçant les dangers de ces outils, a lancé une entreprise d’audit algorithmique. Visiblement, souligne Wired, ses premiers clients sont des entreprises qui ont besoin de certifier qu’elles sont équitables : comme cela a été le cas de Rentlogic, une entreprise qui évalue les immeubles automatiquement pour leur attribuer une note, ou comme Pymetrics, une entreprise qui utilise des tests de personnalité pour aider les entreprises à embaucher qui avait besoin d’assurer que ses logiciels n’étaient pas discriminants.
  • Dans son livre, Weapons of Math Destruction, Cathy O’Neil avait émis l’idée de créer un serment d’Hippocrate pour les datascientists, sous la forme d’un code de conduite édictant quelques principes moraux. Elle soulignait dans une remarquable interview pour Wired, que ce code de conduite n’était certes pas suffisant en soi, notamment parce que les datascientists ne sont pas seuls à décider de ce qui sera implémenté dans les services développés par les entreprises. Pour autant, ces techniciens ne peuvent pas seulement suivre « les recommandations des manuels d’optimisation qu’ils utilisent, sans tenir compte des conséquences plus larges de leur travail ».
  • Cathy O’Neil a proposé une matrice éthique, basée sur les travaux du philosophe Ben Mepham qui l’a utilisé en bioéthique, qui aide à saisir ce sur quoi ce que l’on développe a un impact, et de l’autre ce dont s’inquiète les gens qui sont impactés par ce que l’on développe. Cette grille confronte quelques notions (exactitude, cohérence, partialité, transparence, équité, rapidité) à leur impact sur chacune des parties prenantes. La matrice sert à créer une conversation. Chaque case propose des questions : « qui souffre si le système se trompe ? » Le but est de révéler des problèmes. Quand la réponse pose problème, la case est colorée de rouge.
  • Elle propose également de se poser plusieurs questions, comme « les algorithmes que nous déployons vont-ils améliorer les processus humains qu’ils remplacent ? » Bien souvent, on constate qu’ils fonctionnent beaucoup plus mal que les systèmes précédents. Pour elle, il est également nécessaire de se demander : « pour qui l’algorithme échoue-t-il ? » Un système de reconnaissance facial échoue-t-il plus souvent pour les femmes que pour les hommes, pour les gens de couleurs que pour les blancs, pour les personnes âgées que pour les jeunes ?… Enfin, elle invite à se poser une troisième catégorie de questions : « est-ce que cela fonctionne pour la société (donc à très large échelle) ? Est-ce que nous enregistrons les erreurs du système ? Peut-on les réintroduire dans l’algorithme pour l’améliorer ? Est-ce que le système a des conséquences non intentionnelles ?… » Et la chercheuse de rappeler qu’aucunes de ces questions ne mettent en danger les secrets des algorithmes que les entreprises veulent protéger.
  • Le militant pour la protection de la vie privée Aral Balkan (@aral) estime qu’un code d’éthique risque surtout d’être utilisé comme caution de vertu par les entreprises pour continuer à faire comme d’habitude. Appliquer le RGPD aux États-Unis aurait plus d’impact pour prévenir les dommages algorithmiques. Sur son blog, Virginia Eubanks a réagi en proposant plutôt un « serment de non-violence numérique », qui, dans la forme au moins, est plus impliquant pour celui amené à le prononcer que de signer à quelques grands principes vagues
  • Mais l’enjeu demeure de les mettre en pratique. « Tout code d’éthique des données vous indiquera que vous ne devez pas collecter des données de sujets expérimentaux sans leur consentement éclairé. Mais ce code de conduite ne vous dira pas comment implémenter ce consentement éclairé. Or, celui-ci est facile si vous interrogez quelques personnes pour une expérience de psychologie. Mais il signifie quelque chose de bien différent en ligne ». Et ce n’est pas la même chose bien sûr de demander la permission via une fenêtre pop-up par exemple ou que via une case précochée cachée… La mise en oeuvre de principes éthiques englobe des questions qui vont des choix dans l’interface utilisateur aux choix de structuration des données ou d’interrogation des données de connexion. Et pose la question de rendre néanmoins le service utilisable sans dégrader l’expérience utilisateur…
  •  
    "Face aux multiples biais inscrits dans la production même des données utilisées par les algorithmes et les outils d'apprentissage automatisés, le risque, rappelle la chercheuse Kate Crawford (@katecrowford), co-fondatrice de l'AI Now Institute (@AINowInstitute), est que « plutôt que de concevoir des systèmes censés résoudre les problèmes, nous les exacerbions »."
Aurialie Jublin

La génération internet et recherche d'emploi en ligne - 0 views

  • Par ailleurs s’ils utilisent beaucoup internet, que ce soit dans le cadre des loisirs (90 % des jeunes interrogés par questionnaire), des démarches administratives (60 %) ou de la recherche d’emploi (87 %), ils exploitent rarement les ressources numériques de manière optimale. Les entretiens avec les conseillers viennent ici contrebalancer des préjugés répandus sur la maîtrise supposée innée du numérique par les digital natives. Comme l’expliquait un encadrant, « les jeunes ont une mauvaise maîtrise d’internet, même de Google. Ils ne savent pas forcément reformuler des requêtes et creuser ».
  • Cela est particulièrement vrai pour la recherche d’emploi : à leur arrivée en mission locale entre 40 et 50 % des jeunes ne possèdent pas d’adresse électronique, outil pourtant essentiel. Peu ont une connaissance de la variété des sites de recherche d’emploi ou des fonctions complexes comme la « recherche avancée ». En un mot, si internet est le premier réflexe pour commencer une recherche d’emploi ou de formation, tous ne sont pas suffisamment armés pour réaliser une démarche construite et ciblée.
  • Mais il faut également prendre en considération des lacunes en compétences de base qui constituent un prérequis indispensable. Des jeunes se trouvent par exemple bloqués dans leur accès à l’information car ils ne rédigent pas correctement les termes d’une requête, ne sont pas capables de déterminer les mots-clés pour effectuer une recherche, ou ne comprennent pas les termes d’une offre d’emploi.
  • ...2 more annotations...
  • En effet, même s’ils disposent de tout l’arsenal numérique à la maison, nombreux sont ceux qui viennent à la mission locale pour consulter les offres d’emploi et en discuter avec un conseiller, ou simplement investir un lieu pleinement dédié à cette démarche et où ils peuvent, dans le même temps, se sentir moins seuls.
  • L’élaboration de nouveaux dispositifs numériques doit être pensée dans une démarche agile pour permettre aux jeunes les plus éloignés de l’emploi de s’en saisir facilement et rapidement, seuls ou accompagnés par un conseiller. Pour les jeunes rencontrés, il ne s’agit pas de choisir entre un outil numérique ou un accompagnement humain mais, comme le résumait un jeune interrogé, « de mettre toutes les chances de son côté ».
  •  
    "En France, alors que deux millions de jeunes ne sont ni en emploi, ni en éducation, ni en formation, le numérique offre de nombreux services innovants destinés à faciliter leur insertion professionnelle. Ce paradoxe, allié à l'intuition que le numérique pourrait profiter davantage à ces jeunes, est à l'origine d'une enquête de plusieurs mois, conduite en immersion dans quatre missions locales, urbaines et rurales. Le premier constat est sans appel, un jeune homme de 25 ans me le résume parfaitement « Les gens estiment que la maîtrise d'internet ne nécessite pas de formation car c'est la génération internet, alors qu'en réalité, il y a plein de choses qu'on ne connaît pas ». En effet, comme j'ai pu le constater, et comme l'observent les spécialistes du numérique chez les digital natives, les usages et les habiletés numériques des 16-25 ans sont très variables. Ces experts ajoutent que les compétences numériques acquises dans le domaine récréatif (par les réseaux sociaux, les jeux vidéo, etc.) ne sont pas transférées dans d'autres domaines (scolaire, professionnel). Il m'est donc apparu nécessaire d'interroger les conséquences de ce décalage, alors qu'aujourd'hui l'accès aux offres d'emploi ou aux différents services d'insertion professionnelle est de plus en plus tributaire du numérique"
Aurialie Jublin

Déclaration de Bologne pour une Reconnaissance Ouverte - Bologna Open Recogni... - 0 views

  • En 1999, la Déclaration de Bologne proposait l’établissement d’un espace européen de l’enseignement supérieur dans lequel les étudiants et les diplômés pourraient se déplacer librement entre les pays, utilisant les qualifications acquises antérieurement dans un pays comme conditions d’entrée acceptables pour la poursuite de ses études dans un autre pays. Ceci a lancé le processus de Bologne de réforme des systèmes de qualification, qui a été depuis adopté par 50 pays.
  • Aujourd’hui, en 2016, une nouvelle coalition d’acteurs de l’éducation publie la déclaration de Bologne pour une reconnaissance ouverte : un appel à une architecture ouverte universelle pour la reconnaissance des apprentissages tout au long de la vie.
  • Nous assistons à une prise de conscience croissante dans de nombreux secteurs de la politique, de l’éducation et de l’emploi ainsi que dans l’opinion publique de la nécessité d’adopter une approche plus ouverte, transparente, fiable et digne de confiance pour la reconnaissance des apprentissages.
  • ...5 more annotations...
  • Open Badges, le standard ouvert pour la reconnaissance des apprentissages, a prouvé la puissance d’une technologie simple, abordable, résiliente et digne de confiance pour créer un écosystème de reconnaissance ouvert fonctionnant à travers les pays, les secteurs éducatifs, l’emploi, les environnements sociaux et les technologies.
  • Les badges numériques ouverts ont démontré que nous avons les moyens et la possibilité de mettre fin aux disparités du paysage de la reconnaissance. En reliant et en nourrissant les référentiels de compétences, ils deviennent les éléments constitutifs d’une architecture ouverte pour la reconnaissance des apprentissages tout au long de la vie. Ils créent les conditions pour que les individus aient le contrôle de leur propre reconnaissance, pour fonder leur identité et leur capacité d’agir en toute autonomie, que ce soit formellement (au sein des institutions) ou informellement (à travers les communautés).
  • Le libre accès à la connaissance et à l’éducation est largement reconnu comme un facteur irremplaçable de croissance sociale et humaine et un élément indispensable pour consolider et enrichir la citoyenneté, capable de donner aux citoyens les compétences nécessaires pour relever les défis du nouveau millénaire, ainsi que la conscience de valeurs partagées et de l’appartenance à divers espaces sociaux et culturels.
  • La création d’un espace ouvert pour la délivrance et la reconnaissance de l’apprentissage tout au long de la vie et à vie est un facteur clé pour la promotion de l’inclusion sociale, l’employabilité et la mobilité des citoyens du monde, et le développement de notre planète. En fin de compte, la capacité de reconnaître ses apprentissages, sociaux ou professionnels, est un facteur clé dans la construction de la capacité d’agir en toute autonomie et dans l’établissement de la confiance au sein d’une communauté.
  • Nous devons maintenant étendre ce travail au-delà des frontières de l’enseignement supérieur, pour créer un continuum au travers de tous les apprentissages, tout au long et dans toutes les dimensions de la vie. Ceci pourra être obtenu en encourageant l’adoption d’unités de valeur plus ouvertes pour représenter et partager les acquis d’apprentissage, que ce soit dans des contextes formels, informels ou non-formels.
  •  
    "Vers une architecture ouverte pour la reconnaissance des acquis des apprentissages"
Aurialie Jublin

affordance.info: La libellule et la muraille (Google en Chine) - 0 views

  • Nous sommes à un moment de l'histoire des technologies de l'information et du numérique qui est assez comparable à l'état du monde en 1949 c'est à dire au moment où l'autre superpuissance de l'époque (l'union soviétique) se dota également de la bombe nucléaire (voir notamment ici ou là). Ce que je veux dire par là c'est que désormais, la totalité des plateformes existantes "à l'Ouest" dispose d'équivalents "à l'Est". Et le rapport au nucléaire n'est pas seulement analogique ou symbolique comme je l'écrivais par ici :  "Le numérique est une technologie littéralement nucléaire. Une technologie de noyau. Au "cœur" fissible d’un éventail de possibles aussi prometteurs qu’angoissants et pour certains, incontrôlables."   L'analogie est également (géo)politique. Toutes les grandes plateformes vont devoir faire le choix politique de savoir dans quelle mesure elles acceptent de se censurer et donc de collaborer avec des régimes autoritaires pour conquérir un marché. Et à l'échelle des enjeux que représentent à la fois les audiences qu'elles touchent déjà et celles qu'elles visent à conquérir, chacun de ces choix est un peu plus qu'un simple choix économique ou même moral.   
  • La vraie nouveauté c'est que ce projet à suscité la colère d'une partie des salariés de Google, qui à l'image de la victoire - je pense temporaire - qu'ils avaient remporté pour obliger leur employeur à se retirer du projet militaire Maven, espèrent cette fois faire suffisamment de bruit pour que ce projet de moteur censuré n'aille pas à son terme.  La crise éthique de certains anciens cadres des GAFA qui agissent comme autant de "repentis" pour les technologies qu'ils ont contribué à créer n'est plus simplement externe mais elle s'étend désormais à l'interne et touche aussi bien Google que Facebook, Microsoft, Amazon (à propos d'un programme de reconnaissance faciale) ou Twitter (à propos du refus de Jack Dorsey de fermer le compte d'un leader de l'Alt-right complotiste). 
  • S'agissant du contrôle linguistique il opère pour l'instant uniquement au travers des dispositifs et des plateformes agréées par le gouvernement chinois ou opérant sous son autorité directe. C'est le cas par exemple du moteur de recherche Baïdu. Comme d'autres, la Chine n'échappe pas à la multiplication des terminaux de connexion. Là où il y a quelques années il suffisait de surveiller l'ordinateur familial pour capter l'ensemble des pratiques connectées de 5 ou 6 personnes, il faut aujourd'hui étendre et démultiplier les moyens de surveillance sur chaque Smartphone ou tablette. Après la surveillance "de masse" c'est la surveillance "de chacun" qui prime. D'où d'ailleurs, le renforcement du contrôle "social" et du micro-ciblage comportemental qui devient le plus petit dénominateur commun efficient dans le cadre d'une volonté politique de contrôle de la population comme dans le cadre d'une volonté marketing d'expansion commerciale. Les deux aspects finissant d'ailleurs par se rejoindre, ce qui n'est pas le moindre des problèmes que nous avons aujourd'hui à résoudre, car pour citer encore Zeynep Tufekci :  "Nous créons une dystopie simplement pour pousser les gens à cliquer sur des publicités". Il me semble que nous sommes aujourd'hui à la phase d'après. Celle où les gens ont cliqué sur suffisamment de publicités et ont, ce faisant, accepté suffisamment de technologies de traçage actif ou passif pour que les conditions d'existence d'une forme de pouvoir autoritaire soient réunies et surtout pour qu'elle soient en passe d'être acceptées comme naturelles ou, pire, comme légitimes. 
  • ...8 more annotations...
  • La question essentielle se déplace donc : il ne s'agit plus de savoir si nous acceptons ou si nous refusons ce traçage publicitaire (débat permis et en partie résolu par le RGPD) ; il s'agit de savoir si nous acceptons ou si nous refusons cette forme de néo-fascisme documentaire propre au totalitarisme littéral des plateformes et le cadre économico-politique qui est sa condition d'existence première. Les "repentis" de la Silicon Valley l'ont dénoncé de l'extérieur. Désormais les employés de ces firmes tentent de s'y opposer de l'intérieur. Il reste aux citoyens, c'est à dire à nous-mêmes, à terminer le boulot. Et ce ne sera pas facile. Car il nous faut retrouver l'envie de le faire. Or ...
  • Le même article - à lire dans la continuité des leçons que nous propose Zeynep Tufekci - rappelle qu'à rebours du postulat d'une inéluctable émancipation dont serait porteur le numérique et ses plateformes pour des populations sous le joug de régimes autoritaires, c'est l'inverse qui est en train de se produire : c'est le modèle chinois d'un internet censuré qui est en train de s'exporter dès aujourd'hui au Vietnam, en Tanzanie ou en Ethiopie, mais également sous un autre aspect en Australie où le réveil est déjà douloureux, et probablement demain dans l'ensemble de ces pays "émergents" et politiquement instables ou non-démocratiques, les mêmes que visent également les occidentaux GAFA pour aller y puiser leur prochain milliard d'utilisateurs. Et cette guerre là n'est pas que commerciale. Elle est avant tout culturelle. Et d'un cynisme est sans égal. Car lorsque toutes les ressources naturelles auront été épuisées, lorsque le dernier gisement du dernier minerai aura été extrait et raffiné, il restera encore à tous ces états la possibilité de vendre le visage de leurs citoyens. Ils n'ont d'ailleurs pas attendu.
  • Les intérêts des GAFA et des gouvernements disons, "autoritaires", sont donc aujourd'hui peu ou prou les mêmes. Ils cherchent à exporter un modèle d'affaire qui est le prétexte à une forme renouvelée de Soft Power qui fait du risque de dystopie et de la mise en oeuvre de son architecture de surveillance un simple dégât collatéral voire un biais nécessaire. Et leurs stratégies sont également semblables par bien des aspects : là encore elles visent une anecdotisation, une discrétisation des régimes de surveillance qui leur permettent de perpétuer et de légitimer leur modèle d'affaire. Quand aux questions d'éthique et aux scrupules, là encore ... on apprenait récemment que pour que Google cesse réellement de nous géolocaliser via notre smartphone, il ne suffisait pas simplement de lui dire de cesser de nous géolocaliser.
  • l'hystérisation récente autour du "fichage" supposé de milliers de Twittos en est un symptôme qui me semble aussi explicite que malheureux, et rappelle à quel point la question des "sans papiers" ou des furtifs échappant à l'hyper-surveillance des plateformes et des états est aujourd'hui plus que jamais politiquement centrale.
  • Souvenons-nous que le démantèlement ou la nationalisation desdites plateformes ont d'abord prêté à sourire avant de finalement être envisagées même si cela ne fut que d'un point de vue purement théorique.  Comme le rappelle encore Zeynep Tufekci :  "Pour comprendre pleinement ce qui se passe, nous avons aussi besoin d'étudier comment les dynamiques des sociétés humaines, la connectivité ubiquitaire, et le modèle d'affaire des géants du numérique se combinent pour créer des environnements dans lesquels la désinformation prospère et où même une information authentique et vérifiée peut nous paralyser et nous rendre confus plutôt que de nous informer et de nous éclairer."
  • Croire que les états n'ont pas à se mêler de la stratégie d'entreprises comme Google, Facebook ou Amazon au motif que nous ne serions, justement, pas en Chine ou dans un pays communiste est aujourd'hui le triple aveu d'un dépassement, d'une impuissance et d'une incapacité à penser ce qui se joue réellement à l'échelle politique.  Et en même temps ... imaginer que des états, que nos états actuels, gouvernés par des bouffons narcissiques de la finance ou par des clowns égocentriques ivres de leur nationalisme, imaginer que ces états puissent aujourd'hui se mêler du projet politique de ces mêmes firmes n'apparaît pas davantage comme une solution souhaitable. 
  • Le drame est que nous n'avons plus confiance ni dans les murailles ni dans les libellules. Et que cette érosion totale de la confiance à l'égard du politique et de la technique (numérique) s'ajoute à l'incapacité du premier à penser la seconde alors même que les infrastructures techniques du numérique n'ont de sens que si elles servent un projet politique. 
  • S'agissant du contrôle de la sphère sociale, on se réfèrera à la littérature pléthorique sur le "Social Credit Score" qui permet d'accorder à certains des droits refusés à d'autres en fonction de comportements sociaux mesurés et scrutés en permanence par le gouvernement (voir notamment sur Wired ou dans Wikipedia). 
  •  
    "Au coeur de l'été. Une libellule. Et une muraille. "Libellule" (en anglais "Dragonfly") c'est le nom de code du projet de Google pour retourner implanter une version censurée de son moteur de recherche en Chine d'après les révélations de The Intercept. En Chine, d'où la "muraille" du titre de ce billet. "
Aurialie Jublin

Cambridge analytica: «Le scandale a montré que les politiciens sont aussi mal... - 0 views

  • Le scandale Cambridge analytica a-t-il changé notre manière de voir la démocratie ? Le lien avec la démocratie n’est pas direct. Je ne crois pas qu’avec quelques posts finement ajustés, on a pu modifier lourdement le résultat des élections. Des gens qui cherchent à modifier le résultat des élections, c’est vieux comme Hérode, cela s’appelle des candidats. En revanche, Cambridge analytica a montré quelque chose de plus embêtant. Avec des mots crus : il y a différentes familles de margoulins qui tripatouillent les données personnelles pour faire des choses malsaines. Et je constate que les politiciens sont aussi malhonnêtes que les autres. Je trouve extrêmement embêtant qu’on retrouve dans la même classe le capitaliste qui veut faire du pognon pour vendre des produits et le politicien qui veut se faire élire à tout prix. Ce qui met en danger la démocratie, ce n’est pas tant le fait que certaines personnes font n’importe quoi avec les données personnelles, mais le fait que les politiciens trouvent normal d’avoir recours à ces méthodes.
  • Un an après, a-t-on des leviers plus efficaces pour lutter contre ces dérives ? Les leviers existent, mais on les utilise très faiblement. Le texte européen sur les données personnelles (RGPD) interdit d’utiliser les données personnelles des gens pour n’importe quoi. Les personnes doivent donner leur consentement à l’usage qu’on fait de leurs données. Pour chaque usage, il faut demander l’autorisation. A l’heure actuelle, ce n’est pas respecté, puisqu’on utilise vos données personnelles pour cibler la publicité. Je pense qu’aucun être humain sur terre n’a dit explicitement : « Oui, je souhaite que vous analysiez ma vie privée pour mieux me cibler ». C’est toujours plus ou moins implicite, plus ou moins inclus dans un contrat. Si on applique fermement le droit européen, c’est interdit. Les textes européens devraient écrire : « La publicité ciblée est interdite ». C’est écrit autrement parce qu’il y a eu un lobbying au Parlement européen pour espérer gagner quelques années, quelques exceptions, quelques passe-droits, quelques tolérances autour de certaines dérives…
  • Selon vous, Cambridge analytica n’a pas changé le cours de l’élection de Donald Trump. Pourquoi pensez-vous cela ? Donald Trump s’est fait élire avec des méthodes électorales d’une malhonnêteté fabuleuse. Au mieux Cambridge analytica a pu convaincre quelques républicains conservateurs d’aller voter alors qu’ils n’en avaient pas très envie. Je ne crois pas que Cambridge analytica a eu plus d’effet qu’un meeting électoral. Ce qui est embêtant, c’est de le faire de manière malhonnête. Le but de ces plateformes est de vous manipuler, elles gagnent leur vie de cette manière. Le client chez Facebook, c’est le publicitaire et le but de Facebook est de satisfaire ses clients. Les plateformes pourraient vous manipuler pour vous mettre dans la main des politiques. La France y travaille d’arrache pied. Quand on nous dit : « L’État va collaborer avec Facebook pour faire la chasse aux fakes news ». C’est extrêmement inquiétant. Un gouvernement décide le vrai du faux et se met d’accord avec les plus puissants manipulateurs pour vous faire admettre que le vrai gouvernemental est vrai et que le faux gouvernemental est faux. C’est de la manipulation à très grande échelle.
  • ...3 more annotations...
  • Comment décririez-vous la démocratie de demain ? Depuis une trentaine d’années, il n’y a plus de discussion politique. Tous les gouvernements, depuis 1983, sont des partisans de l’économie libérale de marché et ils expliquent qu’ils ne font pas de politique, mais de la bonne gestion. Fondamentalement, la politique, c’est arbitrer entre des intérêts divergents dans la société. Il faut résoudre le conflit entre deux catégories qui s’opposent sur un sujet. D’un côté, il y a des gens qui voudraient protéger leur vie privée et, de l’autre, il y a Facebook qui ne voudrait pas. Les deux s’affrontent et les politiques doivent trancher. Un conflit n’est pas malsain, mais tant qu’on n’a pas posé les termes d’un conflit, on ne sait pas qui cherche à obtenir quoi, et on obtient des arbitrages implicites au lieu d’arbitrages explicites.
  • Dans le futur, la démocratie va-t-elle retrouver la discussion politique ? Je pense qu’elle va la retrouver via Internet. Pas forcément via les réseaux sociaux tels qu’on les connaît aujourd’hui, mais ce n’est pas exclu. Internet comme outil de communication qui permet à tout le monde de s’exprimer tout le temps et de former des sujets politiques. Il ne s’agit pas forcément de sujets très complexes, il s’agit d’identifier le problème et d’identifier son ennemi.
  • Sur le même rond-point, vous avez des gens dont les intérêts divergent. Ils évitent de parler d’immigration, d’impôts, de libéralisme, de gauche, de droite… Mais à un moment, ils vont se remettre à en discuter. Je pense que la démocratie du futur ressemblera à ça : on va se remettre à discuter, à identifier de qui on dépend, de qui on a besoin.
  •  
    "Benjamin Bayart, cofondateur de la Quadrature du Net, revient sur le scandale Cambridge analytica et ouvre les portes à la démocratie du futur"
Aurialie Jublin

À ceux qui ne voient aucun problème à travailler avec Facebook ou Google - No... - 0 views

  • La Free Software Foundation (FSF) est la principale organisation de défense du logiciel libre. La Software Freedom Conservancy « est une organisation à but non lucratif qui promeut, améliore, développe et défend les projets libres et open source (FLOSS) ». Ce mois-ci, la Software Freedom Conservancy organise la première conférence internationale Copyleft sponsorisée par Google, Microsoft et la FSF. En fait, Google est une telle force pour le bien dans le monde qu’elle est autorisée à sponsoriser une conférence Copyleft alors même que ces licences sont bannies au sein de la compagnie. Si même la FSF n’a aucun problème avec le fait d’avoir son logo juste à côté de celui de Google et Microsoft, qui suis-je pour critiquer ces sociétés ?
  • Mozilla n’a aucun problème avec Google, elle s’associe souvent avec eux et utilise même Google Analytics. Si une fondation aussi honnête et éthique qui a tellement à cœur de protéger notre vie privée n’a aucun problème avec le fait d’avoir Google comme moteur de recherche principal ou de recevoir des millions de dollars de leur part, qui suis-je pour critiquer Google sur la vie privée ?
  • Le CEO d’APPLE, Tim Cook, a personnellement approuvé cet engagement pour la vie privée et c’est pourquoi Apple a intégré Google comme moteur de recherche par défaut dans leur navigateur, c’est aussi pourquoi ils ne crachent pas non plus sur les 12 milliards de dollars de revenus que cet accord leur apporte. Parce que Google est tout comme Apple et a construit ses produits pour protéger notre vie privée. Pour quelle autre raison Apple autoriserait leur présence sur ses smartphones et mettrait en danger notre vie privée ? Si Tim Cook est content d’avoir Google dans son iPhone alors il doit certainement y avoir quelque chose qui ne tourne pas rond chez moi.
  • ...6 more annotations...
  • Si Apple est un exemple trop commercial pour vous, alors il y a GNOME, un projet porté par l’organisation à but non lucratif Fondation Gnome. Ils développent un environnement graphique ergonomique et populaire pour systèmes Unix Linux. GNOME ne voit aucun problème avec Google. En fait, Google siège à leur conseil d’administration et les application sur GNOME offrent un support de première classe aux applications Google.
  • Si Gmail était mauvais pour la vie privée, si par exemple, Google lisait tous vos messages et les utilisait pour créer un profil marketing (je sais, voilà que je recommence avec mes théories du complot à la noix) alors la fondation GNOME n’en ferait certainement pas la promotion dans ses logiciels. Si ils étaient obligés de supporter Gmail juste parce que c’est un service populaire mais détestaient le faire, ils afficheraient un message d’avertissement pour vous protéger. Quelque chose comme « Lorsque vous utilisez Gmail, Google Inc. utilise le contenu de vos messages pour vous profiler. Ne continuez que si vous en comprenez les dangers ». Mais ils ne le font pas. Au contraire, ils le mettent en premier et rendent sa configuration aussi simple que possible donc utiliser Gmail ne doit pas poser de problèmes.
  • Quand j’ai ajouté le support de Fastmail dans Geary, mes changements on été refusés. Si FastMail était un fournisseur de messageries éthique, je suis certain que ça n’aurait pas été le cas. Je ne doute pas que l’équipe aurait promu un service de messagerie éthique plutôt qu’un service non éthique qui lit les messages des gens et les profile. Désormais je m’inquiète et je me demande ce que les gens de GNOME connaissent de FastMail que moi je ne connais pas. Qu’est-ce donc que les gens sournois de Fastmail sont en train de nous préparer ?
  • La Nordic Privacy Arena est un événement annuel réunissant des délégués généraux de la protection des données et des professionnels de la vie privée. Lors de l’édition de cette année, Facebook a fait une présentation et les organisateurs m’ont demandé  d’être gentil avec Facebook et Google, de garder mes remarques pour ma propre présentation et de ne pas embarrasser l’orateur avec des questions après sa présentation comme j’avais pu le faire lors de la session de Mozilla.  
  • Par ailleurs, la présentation Facebook était assurée par Nicolas de Bouville, qui officiait précédemment à la CNIL, une organisation connue pour ses fabuleux pantouflages. Donc, si Nicolas a choisi de travailler pour Facebook après son passage à la CNIL, Facebook ne peut pas être si mauvais.
  • À la lumière de ces soutiens massifs au capitalisme de surveillance de la part d’organisations respectueuses, qui disent œuvrer à la protection de nos droits humains, de notre vie privée et de la démocratie, j’en suis venu à la conclusion que je devais être le seul à être dans l’erreur.   Si Google, Facebook, etc., n’étaient qu’à moitié aussi nuisibles que ce pour quoi je les fais passer, ces organisations ne passeraient pas d’accords avec eux, elles ne les soutiendraient pas non plus.
  •  
    "De nombreuses organisations de défense des libertés numériques, essentiellement anglo-saxonnes (Access, FSF, Mozilla, GNOME, etc.), sont financées par Google ou Facebook. Ces deux sociétés vivent pourtant de l'exploitation des données personnelles de leurs utilisateurs, au mépris de leurs vies privées et de leurs libertés. Ce ne sont des acteurs sains ni pour Internet ni pour la démocratie. Aral Balkan, activiste et développeur, pointe dans son billet au titre ironique les contradictions et l'hypocrisie de ces organisations. Ce billet traduit en grande partie ce que nous pensons chez Nothing2Hide (quitte à frôler l'asphyxie financière). Nous en publions une traduction française ici."
Asso Fing

Il est temps de reconnaître l'intégrité numérique des individus - Le Temps - 0 views

  • Aujourd’hui, les individus ont une existence numérique qui ne dépend pas de leur propre volonté. En effet, quelqu’un qui ne s’inscrit pas sur un réseau social a toutes les chances d’être connu de ce réseau social du simple fait que son entourage interagit avec cette plateforme. La compilation et l’analyse des données personnelles sont déjà suffisamment sophistiquées pour réaliser le profil précis d’un individu sans qu’il ait lui-même fourni des données personnelles à l’entreprise concernée. Il suffit par exemple pour cela, lorsqu’on s’inscrit sur un tel site, de donner accès à son répertoire.
  • De même, on commence à voir l’émergence d’une génération d’individus qui ont une existence numérique antérieure à leur naissance. Des parents qui partagent leur échographie sur un réseau social, cela existe. Il suffit aussi d’annoncer la naissance de cet enfant pour qu’il existe déjà numériquement. Bref, que nous le voulions ou non, une partie de notre existence est désormais numérique. C’est pourquoi les données qui nous concernent ne sont pas de simples propriétés, elles font partie de notre individualité, elles nous définissent, disent beaucoup de choses de nous. «Nous» sommes nos données personnelles et ces données personnelles, c’est «nous».
  • Si les êtres humains ont une existence numérique, il y a lieu de considérer que leur intégrité s’étend aussi à cette dimension. Puisqu’il y a une intégrité physique, qui correspond à notre corps, une intégrité psychique qui correspond à notre monde mental, il doit y avoir une intégrité numérique, laquelle se réfère logiquement à la dimension numérique de notre existence.
  • ...2 more annotations...
  • De ce fait, nos données personnelles font partie intégrante de notre intégrité numérique, ce qui revient à dire qu’exploiter nos données porte atteinte à notre intégrité.
  • Aujourd’hui, les Etats et les entreprises invoquent toujours d’excellentes raisons pour porter atteinte à l’intégrité numérique des individus en exploitant leurs données personnelles. Mais bien souvent, le traitement de ces données sert à influencer, de façon opaque, nos comportements, ou à mener des politiques sécuritaires de surveillance massive. La révolution numérique doit profiter à l’humanité, et non pas faciliter son exploitation pour favoriser des intérêts particuliers, dont seule une caste privilégiée en tirera la quasi-totalité des profits.
  •  
    "Reconnaître et protéger notre intégrité numérique constituent un premier pas nécessaire pour que l'humain ne soit pas l'objet de la technologie, écrit le journaliste Grégoire Barbey "
Aurialie Jublin

[Internet] Internet : vive le prétendu anonymat ! - Libération - 0 views

  • Sale temps pour la privacy, comme on dit dans le monde des nouvelles technologies, c’est-à-dire pour notre intimité - le mot français est sans doute plus parlant. Elle était déjà menacée par les grandes plateformes numériques qui vivent de la prédation de nos données personnelles, et qui en savent parfois plus que nous sur nous-mêmes. Elle est désormais attaquée sur un deuxième front, politique cette fois, avec le retour sur le devant de la scène d’un serpent de mer aussi inutile que dangereux : l’appel à en finir avec «l’anonymat sur Internet».
  • «Forçons chacun à publier avec son vrai nom, et alors Internet redeviendra une agora paisible et constructive !» Le mantra est repris jusqu’au sommet de l’Etat. Tant pis si la recherche universitaire ne démontre pas de lien nécessaire entre «anonymat» et comportement haineux ou manipulateur sur les médias sociaux. Tant pis si le concept même d’anonymat numérique veut tout, et surtout rien dire - on laisse quasiment toujours des traces sur Internet, sauf efforts et technicité hors normes. Tant pis donc si «l’anonymat» n’existe pas et est à proprement parler, dans la grande majorité des cas, un pseudonymat, c’est-à-dire l’utilisation d’un identifiant qui ne renvoie pas directement à son nom, prénom. Tant pis si la justice, en France, a déjà les moyens techniques et légaux d’identifier qui se cache derrière une identité fictive, en cas de comportement délictueux et si elle est saisie. Au diable la nuance, transformons le Web en un gigantesque LinkedIn, et tout ira mieux !
  • Fait significatif, les contempteurs de l’anonymat - qui-est-en-fait-un-pseudonymat - ne font jamais l’effort de se demander à quels usages il renvoie concrètement, par delà le fantasme de l’immonde troll téléguidé par une puissance étrangère qui viendrait tourmenter l’honnête internaute à coups de théories du complot et de harcèlement organisé. S’ils faisaient cet effort, ils comprendraient, je l’espère, que l’horrible «anonymat» recouvre autant de libertés, et de possibilités, qu’il est en réalité urgent de défendre et de sanctuariser.
  • ...10 more annotations...
  • La liberté d’exprimer des idées qui soient jugées pour elles-mêmes, et non pour l’identité de la personne qui les profère.
  • La liberté de dire ce que l’on pense, d’affirmer ou de discuter convictions politiques, religieuses, philosophiques, passions et centres d’intérêt personnels, sans avoir à affronter le qu’en-dira-t-on de ses voisins, de ses collègues, de son milieu.
  • La liberté de dire, tout court, quand son emploi ne le permet pas, que l’on ait un devoir de réserve - comme les fonctionnaires - ou une fonction sensible dans une entreprise.
  • La liberté de faire savoir ce qui se passe à son travail, en bien comme en mal, sans avoir à en référer à son patron, ni courir de risque professionnel.
  • La liberté de se dévoiler quand ce qu’on vit ou ce qu’on est peut attirer critiques, moqueries, menaces, opprobre sociale - quand on appartient à une population discriminée, et même si on n’a aucune honte à en avoir.
  • La liberté de changer, de ne pas être prisonnier de positions tenues ou d’erreurs commises des mois ou des années plus tôt, et que n’importe qui pourrait venir inspecter à tout moment, en passant au crible un nom sur tous les moteurs de recherche.
  • La liberté de ne pas tout partager avec tout le monde, d’avoir une vie compartimentée, une identité complexe, multiple, et de choisir comment, à et qui, on veut la dévoiler. Parce que tout le monde n’a pas fait le choix d’être une célébrité ou un «influenceur» vivant du voyeurisme institutionnalisé.
  • La liberté de créer, de tenter des choses, des expressions, des façons de faire - faut-il rappeler la place des pseudonymes dans l’histoire de la littérature ?
  • La liberté, en résumé et paradoxalement, d’être soi-même, sans passer son temps à s’autocensurer.
  • L’appel à cette transparence totalitaire, mais à sens unique - on aimerait que les politiciens qui la défendent s’astreignent à la même règle sur leurs rapports avec lobbys et financeurs - a, enfin, un ultime effet pervers : il fait peser le poids des problèmes actuels d’Internet, que nul ne conteste, sur l’utilisateur final, plutôt que sur leurs principaux coupables. Si vous voulez vraiment «civiliser» le Web, mesdames et messieurs les législateurs, portez plutôt votre attention sur le modèle économique et l’architecture technique des plateformes quasi monopolistiques qui le dominent et le façonnent. Donnez à la justice les moyens financiers et humains de poursuivre et de punir ceux qui abusent des canaux numériques pour menacer, insulter, harceler. Interrogez-vous sur les pratiques de vos propres partis, dont les militants ne sont pas les derniers à «ensauvager» ces nouveaux espaces de débat et d’expression. Votre responsabilité est immense. Notre vigilance la sera aussi.
  •  
    "On n'est jamais totalement incognito sur les réseaux sociaux, on laisse toujours des traces. C'est donc une fausse bonne idée de supprimer ce relatif anonymat. Il recouvre en fait autant de libertés que de possibilités d'agir qu'il faut conserver."
Aurialie Jublin

Règlement terroriste - La Quadrature du Net - 0 views

  • Délégation de la censure aux géants du Web D’un point de vue technique, économique et humain, seule une poignée d’acteurs – les géants du Web – pourront respecter des obligations aussi strictes. Les autres acteurs (commerciaux ou non) n’auront d’autre choix que de cesser leurs activités ou de se soumettre aux outils de modération (filtrage automatique et listes de blocage) développés par Facebook et Google depuis 2015 avec le soutien de la Commission européenne. Ces multinationales deviendront donc les juges de ce qui peut être dit sur Internet. La structure riche, variée et décentralisée du Web est vouée à disparaître.
  • Une loi inutile Ce règlement « anti-terroriste » ne permettra même pas d’atteindre son objectif affiché : empêcher que DAESH ou Al Qaeda diffusent leur propagande auprès des personnes déjà séduites par leurs discours. Il semble absurde de devoir encore le répéter : sur Internet, n’importe quelle loi de blocage peut être contournée par les personnes qui souhaitent accéder aux informations censurées. Les seuls effets de cette loi seront ses dommages collatéraux : le grand public n’aura certes plus à subir les contenus terroristes, mais il n’aura plus connaissance non plus des informations censurées abusivement.
  •  
    "En septembre 2018, sous l'influence de la France et de l'Allemagne, la Commission européenne a proposé un règlement « relatif à la prévention de la diffusion en ligne de contenus à caractère terroriste ». Ce nouveau règlement imposera à tout acteur du Web (hébergeurs de blog ou de vidéos, sites de presse, petits forums ou grands réseaux sociaux) de : Bloquer en une heure n'importe quel contenu signalé comme « terroriste » par la police (sans l'autorisation préalable d'un juge), et donc se tenir à sa disposition 24h/24 et 7j/7. Devancer les demandes de la police en détectant lui-même les contenus illicites à l'aide d'outils de filtrage automatisé. Si un site ne respecte pas ces règles, il risque une amende jusqu'à 4 % de son chiffre d'affaires."
Aurialie Jublin

Commentaires pédophiles sous les vidéos de mineurs : que peut faire YouTube ?... - 0 views

  • Pour faire face à une telle demande de modération, les algorithmes ne suffisent pas. C’est pour cela que Google, qui détient YouTube, s’était engagée l’année dernière à « porter à 10 000 » le nombre de modérateurs, soit des « personnes chargées de lutter contre les contenus susceptibles de violer les politiques de Google et YouTube ». YouTube rappelle également s'être rapprochée d’organismes à but non lucratif comme la NCMEC aux Etats-Unis (Centre National pour les enfants disparus ou exploités) ou Point de Contact en France afin qu’ils transmettent les informations aux autorités compétentes. 
  • La modération, qu'elle soit algorithmique ou humaine, peut-elle suffir ? L'embauche de modérateurs laisse Fabrice Epelboin, spécialiste des réseaux sociaux et auteur d’une étude sur la pédophilie en ligne en 2010, perplexe : « Lorsqu’un juge prend une décision, il utilise son intelligence ou son jugement. Ici, on est face à des employés qui ne font qu’appliquer des règles, et qui en plus, sont payés au lance-pierre. » La modération algorithmique ne suffit pas non plus face à un contenu si immense, estime-t-il : « YouTube ne peut pas lutter. Il y a une quantité de contenus postés qui dépasse l’entendement. Je ne pense pas que cela soit utile de renforcer les algorithmes de YouTube pour l’instant, car l’intelligence artificielle n’est pas suffisamment opérationnelle aujourd’hui pour filtrer le web.»
  • Il ajoute également que dans le cas de cette nouvelle affaire, on ne peut pas écarter « l’option trollesque ». Il se peut, selon lui, qu’une partie des commentaires soit postée par des « trolls », des internautes qui postent des messages tendancieux pour alimenter les polémiques. « Ma première réaction a été de penser au forum 4chan, un équivalent de jeuxvideos.com aux Etats-Unis. Dans les années 2000, des utilisateurs s’amusaient à tourner en dérision la pédophilie en "trollant" sur des vidéos YouTube. Je me souviens notamment d’une vidéo de Justin Bieber qui avait été prise pour cible. »
  • ...2 more annotations...
  • Mais alors, quelle est la responsabilité de la plateforme dans la prolifération de ces commentaires et la facilité d'accès à ces vidéos, recommandées par son algorithme ? Le débat n’est pas nouveau. Facebook avait été fustigé pour avoir « laissé proliférer » des théories complotistes, voire encouragé celles-ci, notamment après la fusillade de Parkland en février 2018. La question ne cesse de revenir : doit-on simplement considérer YouTube, Twitter ou Facebook comme des plateforme d’hébergement et de partage, et donc accepter qu’elles ne soient pas responsables des contenus qui y sont publiés, ou doit-on exiger qu'elles soient responsables juridiquement en cas de scandales comme celui-ci ? 
  • Sur la question spécifique des contenus ou commentaires pédophiles, YouTube n’en est pas à son premier nettoyage. En décembre dernier, The Times of London avait révélé que 100 enfants avaient été les victimes de potentiels pédophiles sur YouTube. Alors qu’ils se filmaient en direct devant leur caméra pour s’amuser (livestreaming), des internautes leur ont demandé de retirer leurs vêtements ou d’adopter des poses sexualisées. Selon le journal, qui avait signalé ces vidéos, seulement la moitié des contenus avaient alors été supprimés par YouTube. Les journalistes ont dû contacter le service de presse de YouTube pour retirer l’autre moitié.
  •  
    "Malgré la vivacité des algorithmes ayant repéré les « CP » sur cette affaire Pokémon Go, des millions de vidéos d'enfants pullulent sur la plateforme sans que des commentaires pédophiles qui y sont associés ne soient modérés. Le contenu de ces vidéos n'est pas pédopornographique. On y voit majoritairement des jeunes filles en train de faire du yoga, de la gymnastique, ou de jouer au jeu d'équilibre Twister. Des vidéos familiales ou filmées par des enfants eux-mêmes, suffisamment habiles pour jouer avec leur mobile ou leur tablette. Mais ce qu'a soulevé le YouTubeur MattsWhatItIs dans une vidéo postée le 17 février, ce sont la non modération des commentaires pédophiles sous ces vidéos, ainsi que le rôle de l'algorithme de recommandation de YouTube. Muni d'un VPN et d'un nouveau compte, le Youtubeur a réussi à atteindre ces vidéos en quelques clics, en tapant « bikini haul » (une pratique qui consiste à montrer les maillots de bain qu'on vient d'acheter), « gymnastics » (gymnastique), ou encore « yoga ». Au départ, les vidéos proposées correspondent aux mots-clefs. Mais après deux ou trois clics dans la barre « vidéos similaires », des vidéos d'enfants apparaissent. Une fois le premier clic enclenché, on est plongé dans une bulle pernicieuse qui ne nous propose rien d'autre que des vidéos de petites filles."
‹ Previous 21 - 40 of 49 Next ›
Showing 20 items per page