Skip to main content

Home/ QN2019/ Group items matching "numérique" in title, tags, annotations or url

Group items matching
in title, tags, annotations or url

Sort By: Relevance | Date Filter: All | Bookmarks | Topics Simple Middle
4More

affordance.info: Undocumented Men - 0 views

  • De fait nous semblons aujourd'hui n'avoir que deux choix fondés sur deux doctrines s'excluant mutuellement : Doctrine n°1 : La vie privée est une anomalie et si vous n'avez rien à vous reprocher vous n'avez rien à cacher. Soit le scénario d'une surveillance totale et globale de chacun de nos comportements par les grandes firmes tech en lien avec les états. Un projet au mieux de nature totalitaire et au pire de nature fasciste. Doctrine n°2 : La vie privée est un droit constitutionnel dont les états et les grandes firmes technologiques doivent être garants. Et là vous aurez toujours quelqu'un pour commencer à parler des exceptions, toujours un "oui mais" : "oui mais s'il s'agit de pédophilie ? De terrorisme ? D'empêcher un pilote d'avion mentalement déséquilibré de causer la mort de centaines de personnes ? A quel moment commence le "principe d'une surveillance de précaution" et quel aspect du droit fondamental à la vie privée doit-il fouler au pied ?" Et on ne s'en sort pas. 
  • Seul un troisième scénario pourra nous permettre d'éviter le pire. Il nécessite de passer par : la multiplication d'outils effectivement respectueux de notre vie privée dans le traitement technique des données qui y circulent (c'est la cas de DuckDuck Go, de Qwant, et de quelques autres) le déploiement de solutions alternatives à la toute puissance des GAFAM (comme l'initiative Dégooglisons internet le permet déjà, et comme le permettrait encore davantage la création d'un index indépendant du web combiné à la mutualisation déjà effective de ressources en Creative Commons) le soutien politique (et législatif) au déploiement du logiciel libre la formation à l'explicitation des enjeux de la surveillance ("Surveillance://" de Tristan Nitot en est un exemple magnifique) la prise de conscience que les données dont nous parlons sont avant tout celles de notre servitude volontaire
  • Demain peut-être, lorsque la dystopie se sera définitivement installée, ne nous faudra-t-il plus parler de "sans papiers" mais de "sans comptes". Des individus sans trace sociale numérique qui permette de les documenter. Ils ne seront plus "undocumented" mais "undigitized", non-numérisés. Et donc non-surveillables. Peut-être que ce sera une chance. Probablement même. De nouvelles formes de résistance documentaire émergeront, de nouvelles pédagogies contre la surveillance seront nécessaires. Et nous serons sans  peur, mais jamais sans reproche(s), car nous aurons compris que la doctrine selon laquelle "si nous n'avons rien à nous reprocher nous n'avons rien à cacher" est la source de tous les totalitarismes, que la vie privée est tout sauf une anomalie. Alors oui nous serons sans peur, dussions-nous pour cela rejoindre la cohorte de toutes celles et ceux qui sont, aujourd'hui, sans documents. Car cette humanité "undocumented" est bien plus qu'une humanité "sans papiers", elle est une humanité "non-documentée", en ce sens elle est aussi libre qu'elle permet de pointer et de mesurer notre propre asservissement aux nouveaux ordres documentaires. 
  •  
    "Deuxio, sa haine viscérale est adressée à des communautés et à des minorités (rien de nouveau sous le fascisme ordinaire ...) mais elle se caractérise en cela qu'elle stigmatise principalement ces communautés du fait de leur absence de papiers (les fameux "Undocumented Men") et qu'elle utilise, pour conduire et guider cette haine, les outils et les métriques ne pouvant s'appliquer qu'à une population "sur-documentable". C'est ainsi que Cambridge Analytica a joué un rôle majeur dans la construction de sa victoire ; c'est ainsi également que la toute puissance du discours totalitaire est d'autant plus efficiente qu'elle s'applique à des communautés ciblées parce que sur-documentées (et sur-documentables) ; c'est ainsi, enfin, qu'il faut voir la volonté affichée de récupérer à toute force les mots de passe de ces "undocumented men" car cela permet au discours totalitaire et au projet fasciste qui le sous-tend de faire entrer le monde dans les deux seules catégories binaires qu'il comprend et qui composent son horizon et son projet : d'un côté ceux qu'il est possible de contrôler et de manipuler (les "sur-documentés") et de l'autre ceux contre qui il faut diriger la haine des premiers (les "sous-documentés", les "undocumented")."
5More

Les musulmans chinois, en première ligne de la surveillance - 1 views

  • La population musulmane de la région est soumise à de nombreuses technologies de contrôle afin de mesurer le degré de croyance et de pratique religieuse des individus, notamment par le biais du big data et de la reconnaissance faciale.
  • Le quotidien de la minorité religieuse est ainsi fait de caméras statiques et de drones-colombes intelligents, ou d’agents officiels et secrets susceptibles de fouiller tout individu plusieurs fois par jours. Des fouilles corporelles ou numériquse,  soit directement par le biais du smartphone ou via les traces numériques semées sur le très surveillé réseau social WeChat.
  • En cette période de hajj, le pélerinage à La Mecque que tous les musulmans en capacité de le faire se doivent d'effectuer une fois dans sa vie, cette surveillance étouffante se poursuit pour les ressortissants chinois. Accompagnés durant tout le pèlerinage par un guide de l’Association Islamique Chinoise, dirigée par l’Etat, les pélerins sont également porteurs de « cartes intelligentes » nouées autour de leur cou et enregistrant leurs données de géolocalisation ainsi que leurs conversations.
  • ...1 more annotation...
  • Maya Wang a signé, fin février, un rapport sur le « police cloud », un programme de police prédictive fondé sur l'analyse de données volumineuses, et déployé au Xinjiang. Il signale les personnes qui pourraient être des menaces, et celles ci peuvent être envoyées dans les « centres d'éducation politique ». « Pour la première fois, écrivait elle, nous sommes en mesure de démontrer que le recours au big data par les services de renseignements du gouvernement chinois non seulement viole de manière flagrante le droit à la vie privée, mais permet également aux autorités de détenir arbitrairement des personnes.»  
  •  
    "Le nationalisme religieux est dans la ligne de mire du Parti Communiste chinois. Le gouvernement cible particulièrement les minorités musulmanes du Xinjiang concentrées dans une région située à l'opposé des capitales économiques et politiques chinoises. Comme le souligne un article de The Atlantic, la région fait donc office de zone de test à grande échelle pour les technologies de contrôle dernière génération et les programmes de propagande au sein de camps de rééducation."
1More

La solidarité numérique | Solidarum - 0 views

  •  
    Interview de Denis Pansu
5More

Pour protéger la vie privée des internautes, la première « coopérative de don... - 0 views

  • MyCO propose d’abord un navigateur sécurisé pour naviguer sur Internet sans laisser de traces. Celui-ci permet de choisir à tout moment entre trois niveaux de protection : « invisible » (aucune trace laissée sur les sites), « protégé » (empêche tout échange de données à l’insu de l’internaute) ou « à risque » (comparable à un navigateur classique). Mais l’ambition de la plateforme est d’aller plus loin en proposant une véritable « boîte à outils digitale ». Partage et édition de documents, de photos, de contacts, de calendriers, cagnottes façon crowdfunding, messagerie instantanée, mais aussi nouvelle adresse email sécurisée (non polluée et gérée en France) comptent parmi les fonctionalités de myCO.
  • L’aspect le plus ambitieux du projet concerne la gestion des données des internautes et c’est la que la forme coopérative entre en jeu. Chaque utilisateur de myCO doit souscrire une part à la coopérative. Celle-ci lui permet de répondre – ou non – à des questions auprès de marques ou d’instituts, de façon anonymisée « Plus un sociétaire est actif, plus il va engranger de myCoins, explique Arnaud Blanchard, CEO . À la fin de chaque mois, il est rétribué en euros selon le chiffre d’affaire engrangé et sa participation. »
  • La coopérative rémunère aussi ses membres sous forme de dividendes. « Il est possible de souscrire jusqu’à 500 parts et d’être rémunéré en fin d’exercice au prorata de ses parts », détaille Arnaud Blanchard. Enfin, cette forme juridique permet aux sociétaires de participer à la gouvernance de la plateforme selon le principe un homme égal une voix – et d’éviter que myCO soit rachetée par un grand groupe.
  • ...1 more annotation...
  • Environ 250 utilisateurs ont participé à la phase de bêta test. Ils sont aujourd’hui 2 000 sur la plateforme. Le défi sera évidemment de réussir assez d’utilisateurs pour atteindre une masse critique à même de faire poids face à l’omniprésence des géants américains dans le monde du numérique. Avec l’entrée en vigueur de lois comme la RGPD, Arnaud Blanchard est convaincu que les internautes sont prêts à « participer à la construction d’une approche éthique et européenne du web ».
  •  
    "En souscrivant une part à Myco, chaque utilisateur pourra choisir de partager ses données ou non, de façon anonymisée et rémunérée. Les membres de la coopérative auront aussi accès à de nombreuses fonctionnalités comme un navigateur et une adresse mail sécurisée." => rémunéré ? Est-ce vraiment une bonne idée ?
11More

Concrètement, comment rendre les algorithmes responsables et équitables ? | I... - 0 views

  • Et rappelle la difficulté à définir mathématiquement l’équité, comme l’a souligné l’informaticien Arvind Narayanan (@random_walker) lors de la dernière édition de la conférence FAT (la conférence annuelle sur l’équité, la responsabilité et la transparence). Outre les biais et déséquilibres statistiques, rappelle David Robinson (@drobinsonian), responsable des associations EqualFuture et Upturn (et qui a notamment publié un rapport sur la question de l’examen public des décisions automatisées (.pdf)), leur impact dépend surtout de la manière dont sont utilisés ces systèmes, avec le risque, que pointait Eubanks, que les plus discriminés soient encore plus surveillés par ces systèmes.
  • Pour remédier à ces problèmes, beaucoup d’agences américaines ont recours à des chercheurs extérieurs pour déjouer les biais de leurs systèmes. En avril, l’AI Now Institute a défini un cadre (voir le rapport (.pdf)) pour les organismes publics qui souhaitent mettre en place des outils de prise de décision algorithmique, recommandant notamment de mettre à contribution la communauté de la recherche et de permettre à ceux que le système calcul de faire appel des décisions prises à leur sujet.
  • Leurs recommandations invitent les systèmes à respecter le droit d’information du public, à recourir à des examens par des chercheurs indépendants, à améliorer l’expertise des organismes qui les conçoivent et à développer des modalités pour permettre au public de contester les décisions prises. L’initiative recommande aux agences publiques de répertorier et décrire les systèmes de décision automatisés, y compris d’évaluer leur portée et impact. Elle recommande également de mettre en place des modalités d’accès afin que des chercheurs, des experts indépendants, des associations ou des journalistes puissent accéder et évaluer ces systèmes et pour cela doivent s’assurer notamment que leurs fournisseurs privés de systèmes acceptent ces vérifications. Elle souligne également que les agences doivent monter en compétences pour être expertes des systèmes qu’elles mettent en place, notamment pour mieux informer le public, et invite les fournisseurs de solutions à privilégier l’équité, la responsabilité et la transparence dans leurs offres.
  • ...7 more annotations...
  • Mais ce n’est pas la seule piste qui permettrait d’interroger les biais des systèmes automatisés. Microsoft travaille à un outil de détection automatique des biais, Facebook également (notamment via le projet Fairness Flow annoncé par Isabel Kloumann du département d’IA de FB research à la dernière conférence de F8 Conference parmi une longue liste d’outils pour l’IA) rapporte la Technology Review.
  • La mathématicienne Cathy O’Neil (@mathbabedotorg, blog), qui s’est fait connaître en dénonçant les dangers de ces outils, a lancé une entreprise d’audit algorithmique. Visiblement, souligne Wired, ses premiers clients sont des entreprises qui ont besoin de certifier qu’elles sont équitables : comme cela a été le cas de Rentlogic, une entreprise qui évalue les immeubles automatiquement pour leur attribuer une note, ou comme Pymetrics, une entreprise qui utilise des tests de personnalité pour aider les entreprises à embaucher qui avait besoin d’assurer que ses logiciels n’étaient pas discriminants.
  • Dans son livre, Weapons of Math Destruction, Cathy O’Neil avait émis l’idée de créer un serment d’Hippocrate pour les datascientists, sous la forme d’un code de conduite édictant quelques principes moraux. Elle soulignait dans une remarquable interview pour Wired, que ce code de conduite n’était certes pas suffisant en soi, notamment parce que les datascientists ne sont pas seuls à décider de ce qui sera implémenté dans les services développés par les entreprises. Pour autant, ces techniciens ne peuvent pas seulement suivre « les recommandations des manuels d’optimisation qu’ils utilisent, sans tenir compte des conséquences plus larges de leur travail ».
  • Cathy O’Neil a proposé une matrice éthique, basée sur les travaux du philosophe Ben Mepham qui l’a utilisé en bioéthique, qui aide à saisir ce sur quoi ce que l’on développe a un impact, et de l’autre ce dont s’inquiète les gens qui sont impactés par ce que l’on développe. Cette grille confronte quelques notions (exactitude, cohérence, partialité, transparence, équité, rapidité) à leur impact sur chacune des parties prenantes. La matrice sert à créer une conversation. Chaque case propose des questions : « qui souffre si le système se trompe ? » Le but est de révéler des problèmes. Quand la réponse pose problème, la case est colorée de rouge.
  • Elle propose également de se poser plusieurs questions, comme « les algorithmes que nous déployons vont-ils améliorer les processus humains qu’ils remplacent ? » Bien souvent, on constate qu’ils fonctionnent beaucoup plus mal que les systèmes précédents. Pour elle, il est également nécessaire de se demander : « pour qui l’algorithme échoue-t-il ? » Un système de reconnaissance facial échoue-t-il plus souvent pour les femmes que pour les hommes, pour les gens de couleurs que pour les blancs, pour les personnes âgées que pour les jeunes ?… Enfin, elle invite à se poser une troisième catégorie de questions : « est-ce que cela fonctionne pour la société (donc à très large échelle) ? Est-ce que nous enregistrons les erreurs du système ? Peut-on les réintroduire dans l’algorithme pour l’améliorer ? Est-ce que le système a des conséquences non intentionnelles ?… » Et la chercheuse de rappeler qu’aucunes de ces questions ne mettent en danger les secrets des algorithmes que les entreprises veulent protéger.
  • Le militant pour la protection de la vie privée Aral Balkan (@aral) estime qu’un code d’éthique risque surtout d’être utilisé comme caution de vertu par les entreprises pour continuer à faire comme d’habitude. Appliquer le RGPD aux États-Unis aurait plus d’impact pour prévenir les dommages algorithmiques. Sur son blog, Virginia Eubanks a réagi en proposant plutôt un « serment de non-violence numérique », qui, dans la forme au moins, est plus impliquant pour celui amené à le prononcer que de signer à quelques grands principes vagues
  • Mais l’enjeu demeure de les mettre en pratique. « Tout code d’éthique des données vous indiquera que vous ne devez pas collecter des données de sujets expérimentaux sans leur consentement éclairé. Mais ce code de conduite ne vous dira pas comment implémenter ce consentement éclairé. Or, celui-ci est facile si vous interrogez quelques personnes pour une expérience de psychologie. Mais il signifie quelque chose de bien différent en ligne ». Et ce n’est pas la même chose bien sûr de demander la permission via une fenêtre pop-up par exemple ou que via une case précochée cachée… La mise en oeuvre de principes éthiques englobe des questions qui vont des choix dans l’interface utilisateur aux choix de structuration des données ou d’interrogation des données de connexion. Et pose la question de rendre néanmoins le service utilisable sans dégrader l’expérience utilisateur…
  •  
    "Face aux multiples biais inscrits dans la production même des données utilisées par les algorithmes et les outils d'apprentissage automatisés, le risque, rappelle la chercheuse Kate Crawford (@katecrowford), co-fondatrice de l'AI Now Institute (@AINowInstitute), est que « plutôt que de concevoir des systèmes censés résoudre les problèmes, nous les exacerbions »."
5More

La fibre, « facteur clé » de la survie des FAI associatifs - 0 views

  • Pour la fédération, une éviction de ses membres de la fibre est « tout à fait inquiétant ». Aujourd'hui, le marché est dominé par l'opérateur historique (voir notre analyse), qui compte pour plus des deux tiers de recrutement de clients en fibre, en embarquant notamment des abonnés ADSL de concurrents. « On est en train de refermer un marché vivace, qui a permis à une foule d'acteurs locaux d'exister, sur quelques gros acteurs qui n'ont pas la même capacité d'innovation » appuie FFDN.
  • Il serait donc nécessaire de défendre l'accès de ces petits acteurs aux réseaux FTTH, à la fois pour leurs offres « neutres » et pour leur statut de « poisson-pilote », avec des compétences particulières. La fédération se targue de fournir un regard unique, fondé sur les droits fondamentaux et une longue expérience. Elle répond aussi bénévolement à des problèmes locaux (comme les réseaux hertziens en zones blanches) ou en palliant les manquements des opérateurs commerciaux. « La santé des associations que je représente est un des marqueurs du respect ou non de l'intérêt général sur ce marché. On est un peu des canaris, déclare Oriane Piquer-Louis. Si les plus petits meurent, les plus grands doivent quitter la mine. » 
  • Les réseaux d'initiative publique (RIP), initiés par des départements et régions, sont la voie la plus évidente vers la fibre pour les FAI associatifs. Ces réseaux sont tenus à une obligation de non-discrimination, soit les mêmes conditions tarifaires pour l'ensemble des opérateurs qui veulent y proposer leurs offres. Or, pour FFDN, les conditions ne conviennent pas à des acteurs qui comptent quelques centaines d'abonnés sur toute la France, alors que Bouygues Telecom ou Free négocient avec les délégataires des réseaux publics sur des millions de lignes.
  • ...1 more annotation...
  • Qu'en disent les réseaux publics ? Pour l'Avicca, la principale association de collectivités sur le numérique, une partie des difficultés des FAI associatifs résulteraient de l'absence d'offres activées sur certains réseaux publics. Une situation qui devrait changer.
  •  
    "Alors que la fibre jusqu'à l'abonné grignote chaque trimestre des dizaines de milliers d'abonnés à l'ADSL. Au sein de FFDN, des fournisseurs d'accès associatifs cherchent une porte d'entrée vers ces nouveaux réseaux, encore inaccessibles pour ces petits acteurs."
9More

Déclaration de Bologne pour une Reconnaissance Ouverte - Bologna Open Recogni... - 0 views

  • En 1999, la Déclaration de Bologne proposait l’établissement d’un espace européen de l’enseignement supérieur dans lequel les étudiants et les diplômés pourraient se déplacer librement entre les pays, utilisant les qualifications acquises antérieurement dans un pays comme conditions d’entrée acceptables pour la poursuite de ses études dans un autre pays. Ceci a lancé le processus de Bologne de réforme des systèmes de qualification, qui a été depuis adopté par 50 pays.
  • Aujourd’hui, en 2016, une nouvelle coalition d’acteurs de l’éducation publie la déclaration de Bologne pour une reconnaissance ouverte : un appel à une architecture ouverte universelle pour la reconnaissance des apprentissages tout au long de la vie.
  • Nous assistons à une prise de conscience croissante dans de nombreux secteurs de la politique, de l’éducation et de l’emploi ainsi que dans l’opinion publique de la nécessité d’adopter une approche plus ouverte, transparente, fiable et digne de confiance pour la reconnaissance des apprentissages.
  • ...5 more annotations...
  • Open Badges, le standard ouvert pour la reconnaissance des apprentissages, a prouvé la puissance d’une technologie simple, abordable, résiliente et digne de confiance pour créer un écosystème de reconnaissance ouvert fonctionnant à travers les pays, les secteurs éducatifs, l’emploi, les environnements sociaux et les technologies.
  • Les badges numériques ouverts ont démontré que nous avons les moyens et la possibilité de mettre fin aux disparités du paysage de la reconnaissance. En reliant et en nourrissant les référentiels de compétences, ils deviennent les éléments constitutifs d’une architecture ouverte pour la reconnaissance des apprentissages tout au long de la vie. Ils créent les conditions pour que les individus aient le contrôle de leur propre reconnaissance, pour fonder leur identité et leur capacité d’agir en toute autonomie, que ce soit formellement (au sein des institutions) ou informellement (à travers les communautés).
  • Le libre accès à la connaissance et à l’éducation est largement reconnu comme un facteur irremplaçable de croissance sociale et humaine et un élément indispensable pour consolider et enrichir la citoyenneté, capable de donner aux citoyens les compétences nécessaires pour relever les défis du nouveau millénaire, ainsi que la conscience de valeurs partagées et de l’appartenance à divers espaces sociaux et culturels.
  • La création d’un espace ouvert pour la délivrance et la reconnaissance de l’apprentissage tout au long de la vie et à vie est un facteur clé pour la promotion de l’inclusion sociale, l’employabilité et la mobilité des citoyens du monde, et le développement de notre planète. En fin de compte, la capacité de reconnaître ses apprentissages, sociaux ou professionnels, est un facteur clé dans la construction de la capacité d’agir en toute autonomie et dans l’établissement de la confiance au sein d’une communauté.
  • Nous devons maintenant étendre ce travail au-delà des frontières de l’enseignement supérieur, pour créer un continuum au travers de tous les apprentissages, tout au long et dans toutes les dimensions de la vie. Ceci pourra être obtenu en encourageant l’adoption d’unités de valeur plus ouvertes pour représenter et partager les acquis d’apprentissage, que ce soit dans des contextes formels, informels ou non-formels.
  •  
    "Vers une architecture ouverte pour la reconnaissance des acquis des apprentissages"
7More

Le Crédit Social chinois et le dilemme éthique de la confiance par la notatio... - 1 views

  • Qu’est-ce que ce Crédit social ? Un système par lequel le comportement de chacun des citoyens chinois ainsi que les personnes morales sera évalué et noté. Une version béta est actuellement en test. Des entreprises, parmi lesquelles on retrouve par exemple China Rapid Finance, partenaire de Tencent (WeChat), Sésame Credit, une filiale de Alibaba et Didi Chuxing (équivalent chinois de Uber), participent à ce programme-pilote basé sur le volontariat mais qui deviendra obligatoire en 2020. Les citoyens seront ainsi notés selon cinq facteurs : leur historique de crédit, leur capacité à remplir leurs obligations contractuelles, leurs informations personnelles, mais aussi leurs comportements et préférences, et enfin leurs relations interpersonnelles.
  • Les propos tenus sur les réseaux sociaux seront ainsi analysés pour repérer les « énergies positives » : des messages favorables au gouvernement ou positifs sur l’économie du pays feront grimper le score des individus. Pour le moment les propos négatifs ne seraient pas pris en compte. Mais au-delà des paroles, les actes seront analysés. Un représentant de Sésame Crédit admet par exemple inférer des jugements sur les personnes en fonction du type de produit acheté : « quelqu’un qui joue aux jeux vidéo dix heures par jour sera considéré comme une personne inactive (ou fainéante) », alors qu’une personne qui « achète fréquemment des couches sera considérée comme un probable parent, qui par comparaison sera plus à même d’avoir le sens des responsabilités ». Rachel Botsman précise de façon pertinente que le système ne fait pas qu’analyser les comportements, mais qu’il les façonne et biaise les citoyens afin qu’ils adoptent des attitudes jugées plus vertueuses par les gouvernements.
  • Dans un autre contexte, la notion d’exemplarité en Chine atteint parfois des points qui seraient comiques, s’ils n’étaient pas attentatoires aux libertés des personnes. Un système de reconnaissance faciale et  « name and shame » a ainsi été mis en place à certains carrefours : lorsqu’une personne traverse alors qu’elle n’en a pas l’autorisation, sa photo et son nom sont projetés sur un panneau pendant quelques minutes afin de la pointer comme l’exemple à ne pas suivre.
  • ...3 more annotations...
  • Mais pourquoi les Chinois accepteraient-ils un tel système de surveillance ? Pour le moment celui-ci se fait sur la base du volontariat. Les individus ayant choisi d’y participer ne gagnent pas seulement le droit d’être bien vus du gouvernement, mais obtiennent également des droits au crédit supplémentaires ainsi que des récompenses. Si leurs scores dépassent les 600 points (sur 950 possibles), ils auront accès à des offres de crédit à la consommation, à 650, le droit de louer une voiture sans dépôt de garantie, au-delà de 750, un billet coupe-file pour l’obtention d’un visa Schengen, etc. Des rétributions qui ne sont pas du tout symboliques. Et c’est bien là que le parallèle entre des logiques en cours dans l’économie numérique et leur appropriation par un État pose question.
  • La Chine n’a jamais eu de système de crédit institutionnalisé tel que nous les connaissons avec pour conséquence un déficit de confiance : beaucoup de contrats ne sont en effet pas honorés. Ce Social Credit system a pour vocation à y remédier, alors que la consommation de masse s’impose depuis peu, en se calant sur des standards occidentaux. Il commence néanmoins à avoir des effets négatifs sur certains citoyens dont le score est trop bas. Bien que le système ne soit pour le moment qu’en phase de test, et non déployé sur l’ensemble de la population (il le sera en 2020), on apprend dans un article de Fast Company daté du 24 avril que 11 millions de chinois ne peuvent déjà plus voyager en avion, quatre millions ne le peuvent plus en train. On touche là à des finalités qui ne sont plus le seul droit au crédit, mettant en cause les libertés fondamentales des individus. 
  • Parmi ces droits fondamentaux figurent les droits à la protection des données personnelles. Le règlement européen, en imposant notamment le principe de finalité  : les données personnelles ne peuvent être utilisées pour d’autres usages que celles pour lesquelles elles ont été collectées, sauf base légale spécifique ou nouvelle demande de consentement. Par ailleurs, dans son article 22, le RGPD interdit « la prise de décision fondée exclusivement sur un traitement automatisé […] produisant des effets juridiques la concernant ou l'affectant de manière significative de façon similaire. » A n’en pas douter, ne plus pouvoir se déplacer en train ou en avion entre dans cette catégorie.
  •  
    "Quand la Chine travaille sur une version béta de son Social Credit System, un système de notation obligatoire des individus basé sur l'ensemble de leurs comportements, c'est le principe même de la confiance par la notation qui questionne des pratiques largement généralisées en occident. "
1More

Technology May Seek To Flatten The World, But The Digital South Will Chart Its Own Course - 1 views

  •  
    L'article donne les résultats de "The Digital Planet" - une étude comparatives des usages des technologies entre Nord et Sud de "The Fletcher School/Mastercard". L'auteur invite les acteurs majeurs du numérique qui souhaitent "reinventer le web" à sortir de leur visions centrées sur les problématiques du Nord. "Overall, the energy, attitudes and pace of digital transformation in the Digital South are very different from that in the North. In many ways, tech innovators, investors and policymakers are in the process of re-inventing the digital value proposition given our collective reckoning of the risks of these technologies. As they do so they must examine the digital development of the South and evaluate it by its own measures and rules and not assume it will follow the historical precedent of the North.
9More

affordance.info: Les algorithmes du Dr Frankenstein (ou pourquoi faut pas pou... - 0 views

  • néo-fascisme documentaire distinguant une humanité sur-documentée d'une humanité sous-documentée, néo-fascisme nourri d'un fétichisme du fichier (et du fichage). Et je milite et alerte comme je peux sur l'impérieuse nécessité et urgence de nourrir une réflexion politique radicale visant à une forme de "nationalisation" des grandes plateformes et du code informatique, et à réinstaurer des formes légitimes de "communs" (dont un index indépendant du web entre autres). 
  • Le problème n'est plus tant de se demander comment construire des technologies avec des sciences comportementales que de voir s'il est encore possible, pour en limiter l'impact politique et démocratique, de déconstruire la logique qui a mené quelques grandes plateformes à construire et à normer des comportements avec des technologies opérant dans le cadre d'architectures techniques toxiques.  
  • En gros le pitch de l'article du Guardian est, à partir notamment des travaux de Cathy O'Neil (les algorithmes comme "armes de destruction matheuse") et Neil Johnson, et en remobilisant des exemples issus du Trading Haute-fréquence ou du récent fait-divers sur le premier décès "accidentel" causé par une voiture autonome (dont je vous avais moi-même longuement parlé), de revenir en détail sur ces nouvelles "approches algorithmiques" ou "l'algorithme" ne désigne plus simplement la trivialité d'une série d'instructions logico-mathématiques mais un environnement complexe d'automatismes décisionnels sur la base de gigantesques jeux de données (Datasets) que plus personne n'est en mesure de comprendre ou d'englober dans leur totalité, à commencer par ceux-là mêmes qui développent lesdits algorithmes et jeux de données**.
  • ...6 more annotations...
  • Et l'article du Guardian évoque donc ces "Franken-algorithms" : ces algorithmes semblables à la créature du Dr Frankenstein, des Franken-algorithmes qui deviennent totalement imprévisibles (et donc potentiellement très dangereux) non seulement au travers de leur mode opératoire "auto-apprenant" (on parle aussi d'algorithmes "génétiques" et "d'apprentissage renforcé" - Reinforced Learning) mais aussi et surtout au travers de ce que leur marge d'incertitude et d'imprévisibilité intrinsèque peut donner lorsqu'elle entre en interaction avec d'autres algorithmes, avec des comportements sociaux individuels ou collectifs, ou avec le monde - et les objets - physique(s).
  • Voilà ce qui, sur mon petit schéma donne naissance au "SPA", une sorte de "Service Public de l'Algorithmie" que mon côté Marxiste idéalise peut-être mais que je crois nécessaire et urgent de bâtir si nous voulons éviter de prendre le risque d'un Hiroshima technologique désormais plus que probable à l'échelle de nos formes démocratiques de gouvernance qui ont déjà en partie basculé dans les formes assumées et délétères de surveillance.
  • Au-delà de la seule transmission de connaissances ou d'informations, l'enjeu de l'apprentissage est de permettre à "celui qui apprend" de pouvoir un jour s'affranchir de la dépendance à "celui qui lui enseigne" certaines règles et certains codes sociaux. Et d'être en capacité de pouvoir à son tour "faire", "transmettre", "produire", "jouer" mais aussi "tricher" ou "faire semblant". Le souci, me semble-t-il, est que nous sommes aujourd'hui majoritairement et collectivement incapables de formuler clairement la raison pour laquelle nous voulons que ces algorithmes apprennent et nous échappent autrement.
  • Voilà pourquoi sans aller vers un radicalisme luddite dont Eric Sadin et quelques autres sont les opportunistes ténors, il nous faut construire une alternative politique qui, après le temps numérique de la "désintermédiation", soit celui de formes de remédiations respectueuses du corps social et partant de sa partie la plus fragile, la plus pauvre, et la plus exposée.
  • La vie de la cité aujourd'hui (c'est à dire "le" politique au sens étymologique), notre vie, est prise entre des techno-craties qui organisent l'espace économique et des techno-structures qui organisent l'espace social. Les plateformes comme Facebook, Google ou Amazon ont comme point commun d'être les premières techno-craties algorithmiques dans lesquelles les données ont fonction d'infrastructure et qui organisent l'espace social pour satisfaire à des impératifs d'organisation économique. 
  • Dans la montée partout en Europe (et ailleurs) des néo-fascismes qu'une pudibonderie tout à fait déplacée nous désigne sous l'euphémisme de "droites extrêmes", au moment où chacun est conscient de l'impact que jouent les architectures techniques toxiques dans la polarisation de l'opinion, alors même qu'il est établi, comme le rappelait récemment Cory Doctorow que  "le problème de Facebook n'est pas un problème de contrôle des esprits mais un problème de corruption : Cambridge Analytica n'a pas convaincu des gens ordinaires de devenir racistes mais ils ont convaincu des racistes d'aller voter", il ne faudrait pas qu'aux algorithmes du Dr Frankenstein s'ajoutent les ambitions politiques d'Anénoïd Hynkel.
8More

Appel aux ingénieurs face à l'urgence climatique - C'est maintenant. - 0 views

  • Comme cette remarque d’un collègue « Tu te rends compte, cette génération d’ingénieurs brillants qui dédient leur temps à faire cliquer des gens sur des pubs… » Pourquoi ?Google Apple Facebook Amazon, façonnent notre quotidien, dépassent les états et sont maintenant des forces qui ébranlent nos sociétés : évasion fiscale, contrôle des données personnelles, bouleversement de l’information, incitation à la consommation à renfort de publicité et d’obsolescence programmée. Pourquoi ?
  • La Charte d’Éthique de l’Ingénieur lit entre autres :« L’ingénieur est […] moteur de progrès. »« [il] fait prendre conscience de l’impact des réalisations techniques sur l’environnement. »« L’ingénieur cherche à atteindre le meilleur résultat […] en intégrant les dimensions […] économique, […], sociale et environnementale. »« [il] sait admettre ses erreurs, […] et en tirer des leçons pour l’avenir. »
  • Internet a 30 ans. Mais pour son inventeur, « sa créature lui a échappé ».Aujourd’hui, la data et l’intelligence artificielle sont annoncées comme le pétrole du 21e siècle et son moteur. Peut-être plus juste qu’on ne croit : le numérique génère déjà plus d’émissions que l’aviation civile. Pensons bien à ces questions pour que cette nouvelle créature-là ne nous échappe pas.
  • ...4 more annotations...
  • Préservons-nous du temps, pour nous informer.Rappelons-nous de lever le nez du guidon, questionnons, interrogeons nos fascinations, discutons, gardons le doigt sur le pouls du monde. N’attendons pas d’avoir 30 ans. C’est maintenant.
  • Et avec éthique et conscience, agissons, collectivement.Il y a un monde à réinventer, si nous apprenons du passé et avons le courage d’oser au présent. C’est maintenant.
  • Project Drawdown, un comité d’experts et de scientifiques a aussi évalué les initiatives les plus prometteuses pour réduire massivement les émissions de gaz à effet de serre. Une mine d’idées assez précises à y trouver parmi les 100 initiatives les plus impactantes.
  • Nous pouvons également imaginer de nouveaux modèles pour une économie durable :Développer l’économie circulaire et le marché de l’occasion par exemple. Connaissez-vous la Blue Economy ?Repensez les services et infrastructures que nous utilisons comme plateformes en commun, au service de l’intérêt collectif et non d’intérêts privés.
  •  
    "Il y a quelques semaines, j'ai été contactée par les alumni de mon école d'ingénieur - Télécom Paristech - pour venir témoigner de mon expérience lors de la cérémonie de remise des diplômes de la promotion 2018, et donner quelques conseils aux jeunes diplômés à l'aube de leur carrière. Alors moi-même en pleine transition professionnelle suite à ma prise de conscience accélérée de l'urgence climatique, je me suis dit que décidément oui, j'avais quelques messages qui me semblaient potentiellement utiles, et que j'aurais sûrement aimé entendre à la cérémonie de remise de diplôme que je n'ai pas vécue il y a 13 ans de cela."
10More

Mouchards et drones à Saint-Etienne : le maire veut étouffer le débat - La Qu... - 0 views

  • Ces documents mettent en lumière les similitudes que nous commençons à percevoir entre ces différents projets : surveillance accrue et déshumanisation de l’espace public, transformation de la ville en un terrain d’expérimentation pour des sociétés privées (ici Verney-Carron, une société spécialisée dans l’armement), subventionnement public de ces nouvelles technologies sécuritaires (ici par l’intermédiaire surprenant de l’ANRU – « Agence nationale pour la rénovation urbaine »), caractère secret et volontairement opaque de leur mise en place…
  • Elle consisterait en la pose de « capteurs sonores » (le terme de micro est soigneusement évité tout au long des documents) dont l’ « intelligence » permettra de générer une alerte dès lors qu’ils détecteront certains types d’ « anormalités sonores » (la liste est impressionnante : coups de feu, cris, perceuse, meuleuse, klaxons, coups de sifflet, bombes aérosols, crépitements… – au point où on se demande quels bruits ne déclencheront pas d’événement). L’alerte sera remontée jusqu’à une plateforme centralisée à la disposition de la police qui pourra utiliser le système de vidéosurveillance et vérifier, par exemple, si le déplacement d’une patrouille est nécessaire ou non.
  • Les données collectées serviraient par ailleurs à alimenter la plateforme déjà mise en œuvre par Suez dans le cadre du projet « Digital Saint-Étienne » ; cela afin « d’expérimenter les conditions d’enregistrement et de mise en forme des évènements collectés en vue de la visualisation sur carte de ceux-ci pour constituer un outil d’aide à la décision concernant la tranquillité urbaine ».
  • ...6 more annotations...
  • La création d’une application de dénonciation citoyenne type « Reporty » permettant aux habitants la « signalisation de problème » avait également été envisagée. Ces deux dernières idées, drones et application, ont néanmoins finies par être abandonnées (pour l’instant ?) au vu des nombreuses contraintes techniques et juridiques qui se posaient (les documents parlent d’une législation trop stricte avec nécessité d’un certificat de pilote, d’autorisation de la Préfecture et d’aléas météorologiques…)
  • « Si les freins techniques doivent justement être résolus par l’innovation, il nous revient à nous, élus, de faire lever les freins administratifs et juridiques ». Un projet qui semble être soutenu par de nombreuses villes qui, s’appuyant notamment sur les propositions d’un rapport parlementaire, exigent des dérogations de survol au Ministère de l’Intérieur et réfléchissent, à l’image du maire de Saint-Étienne, à « la création d’un interlocuteur unique de lobbying sur cette question, de format associatif, [qui] pourrait représenter un levier intéressant s’agissait des échanges avec le gouvernement ». Une nouvelle association des maires de Safe Cities ?
  • Raison pour laquelle on assiste, au long des réunions, à la recherche d’un nom de projet rassembleur et tranquillisant : on ne parle pas de sécurité mais de « tranquillité urbaine », on ne parle pas de micros et de drones mais de « S.O.F.T. : Saint-Etienne Observatoire des Fréquences du Territoire ». Raison pour laquelle il est aussi explicitement déclaré que « il n’y aura pas de communication avec le grand public. Globalement, dans un premier temps l’objectif est l’expérimentation, puis dans un second temps, une communication adaptée sera mise en place ». Raison pour laquelle le premier communiqué de presse en novembre 2018 reste très flou, mentionnant une « expérimentation visant à tester des solutions numériques pour améliorer la qualité de vie des citoyens ». Il a d’ailleurs pour sous-titre « Vers un territoire bienveillant ». La novlangue n’a plus de limite.
  • Le sujet est évoqué rapidement tout au long du projet, plus comme un de ces « freins administratifs et juridiques » que pour tenter d’évaluer lucidement la légalité du projet. Après quelques notes et demandes faites à la CNIL, il est décidé de ne pas enregistrer les bruits captés et de se limiter à « la détection d’évènements sonores » : « seules les données d’évènement comprenant le numéro du capteur, la date et l’heure de l’évènement et l’identifiant de l’évènement seront transmises ». Ce qui justifierait que CNIL ait ensuite été écartée du projet.
  • C’est là qu’est tout le problème : une fois ces micros installés, par une société privée d’armement, qui contrôlera l’usage qui en sera fait ? Qui préviendra les habitants si l’on passe en « Phase 2 » et qu’on met un route un système d’enregistrement des conversations dans la ville ? Ou qu’on ne les utilisera pas un jour pour détecter des cibles par leur signature vocale ? Ce ne serait pas la première fois que ce type d’outils de détection sonore connaîtrait des dérives liberticides.
  • Pour résumer : – On assiste à l’alliance entre élus locaux et industriels de la sécurité et de l’armement qui dépense l’argent public en s’abritant de tout débat public ; – Pour mettre nos villes et nos vies sous surveillance — vieux fantasme du contrôle social par la technologie ; – L’innovation et l’ « attractivité urbaine » servent à masquer la sur-policiarisation et la discrimination, avec le concourt de l’Agence de la rénovation urbaine ; – Tandis que des autorités, comme la CNIL, laissent faire.
  •  
    "La Quadrature du Net publie et analyse les documents obtenus auprès de la mairie de Saint-Etienne sur son projet de « Safe City ». Micros couplés à la vidéosurveillance, drones automatisés, application de dénonciation citoyenne… Ils révèlent la ville sous-surveillance telle que fantasmée par son maire, Gaël Perdriau."
11More

Peut-on créer un nouveau moteur de recherche aujourd'hui ? U&R - 0 views

  • Si elle n’est pas en mesure de construire sa propre base et son propre index rapidement et efficacement, vous aurez beau l’interroger, aucun résultat n’en sortira… Peut-elle le faire ? Techniquement oui. Cela va néanmoins lui coûter cher car il va falloir qu’elle achète des milliers de serveurs pour stocker une réplique du web. Mais c’est possible, et c’est justement ce qu’est en train de faire Qwant. Ce moteur de recherche français construit son propre index, qui contient actuellement près de 20 milliards de pages. Cette société bâtit ainsi progressivement son indépendance technologique. Cette barrière technique et financière n’est donc pas infranchissable en soi. Le problème est qu’elle est doublée d’autres barrières autrement plus élevées. Lesquelles ?
  • D’abord, toute nouvelle entreprise créant un moteur de recherche innovant commercera son travail d’indexation à partir du moment où … elle commencera à le faire. Cette lapalissade a en réalité un sens profond : si Google a commencé à indexer le web en 1998, notre jeune société innovante a accumulé un retard de 20 dans la collecte des données du web. Mais ce n’est pas tant les couches successives du web qui vont lui faire défaut. C’est surtout 20 ans d’analyse des habitudes des internautes.
  • Or Google a verrouillé la connaissance client. Comment ? En offrant toute la panoplie des parfaits services web. Voyons le cheminement de l’internaute, c’est-à-dire « vous », sur la toile. Après vous être connecté, la première chose que vous ferez sera d’ouvrir un navigateur (Google a développé le navigateur Chrome pour les ordinateurs et Android pour les téléphones, dont il détient 80% de part de marché). Puis vous allez généralement consulter vos mails (Google a développé Gmail). Vous ferez ensuite des recherches (Google search a 92% de part de marché en France). Quand vous cliquez sur un lien vous arrivez sur un site. Et même à l’intérieur du site, Google sait comment vous naviguez grâce à son outil d’analyse d’audience (Google Analytics là encore possède près de 80% de part de marché). Que vous recherchiez un endroit où aller ou une vidéo à regarder, Google Maps et Youtube règnent sans réelle concurrence. Vous êtes donc cerné par ces outils. C’est cette « capture » dans le monde Google qui est préoccupante.
  • ...7 more annotations...
  • Les jeunes moteurs Lilo ou Ecosia sont adossés à Bing, sinon ils n’existeraient tout simplement pas. Ils ventent leur orientation écologique pour séduire l’internaute. Qwant utilise Bing pour compléter les résultats issus de son propre index, lorsque c'est nécessaire, en particulier sur les images. Et ce dernier a fait du respect de la vie privée son cheval de bataille.
  • On peut reprocher à Google sa position hégémonique, sa captation continuelle d’informations sur ses utilisateurs, sa malhonnêteté fiscale et concurrentielle sanctionnée récemment par la Commission Européenne. Mais beaucoup de personnes, en réalité, ignorent ou s’accommodent de cet état de fait. Cette soumission consentie du grand public risque de faire disparaitre une partie de notre liberté numérique. Par contre, les autorités américaines et européennes peuvent-elles accepter cette « confiscation » du web et cette « captation » des internautes qui empêchent de facto l’apparition de tout nouvel acteur ? On peut imaginer que, dans un monde normal, la réponse serait négative ! Quelle solution ?
  • Une troisième idée consiste simplement à empêcher Google d’imposer son navigateur sur les ordinateurs (Chrome) et surtout sur les mobiles (Android), privant les autres moteurs de recherche de la possibilité d'investir le marché de façon équitable. Cette solution simple et réaliste est certainement la plus prometteuse. L’amende récente de la Commission Européenne va dans ce sens.
  • On pourra poursuivre en objectant que les moteurs chinois (Baidu) ou Russe (Yandex) existent bien et prouvent qu’une alternative est possible. Mais ces derniers sont le reflet d’une politique volontariste d’Etats en délicatesse avec l’hégémonie américaine. Ils ne sont en rien le produit d’une libre concurrence.
  • On pourra objecter qu’une révolution technique peut toujours poindre, avec comme ingrédient la blockchain, une autre forme d’indexation ou une autre forme de distribution du référencement. Bien sûr, mais la création de la valeur est actuellement totalement phagocytée par les GAFAM, et si une révolution voit le jour, elle risque d’être préemptée, voire étouffée dans l’œuf par les géants en position monopolistique.
  • Une autre critique peut porter sur le fait que Google n’est qu’une partie du problème, et que c’est la puissance du système composé des GAFAM, de la dynamique d’innovation américaine, de son système de financement, … qui est en cause. Mais là encore nous pourrions rétorquer qu’en s’attaquant à un premier acteur emblématique, il se créé un précédent qui pourra ensuite s’étendre aux autres rouages du système.
  • Mais en définitive, le peuple européen peut aussi s’exprimer. Nous sommes les clients et donc avons un pouvoir considérable. Pourquoi ne pas faire l’expérience d’une sortie de Chrome et d’Android ? Firefox est un excellent navigateur pour ordinateurs. Quant aux mobiles, des solutions se font jour avec notamment FairPhone et la suite Framasoft. Soyons clair : sortir complètement de Google n’est pas facile, mais les bénéfices à long terme sont à la mesure des enjeux !
  •  
    "Un moteur de recherche concurrent à Google n'a aujourd'hui presque aucune chance d'émerger, explique Jérôme Bondu, lecteur d'Usbek & Rica et directeur de la société Inter-Ligere. Or les implications sur notre liberté sont grandes, car nous sommes « capturés » dans le monde de Google, estime-t-il, proposant des pistes pour s'affranchir de cette emprise. "
10More

L'empire du signal, ou les dangers d'un contrôle social par les corps - Libér... - 0 views

  • Mais réguler un tel déploiement s’annonce complexe. Car les usages de reconnaissance faciale proposés sont multiformes, à la fois commerciaux, publicitaires, sécuritaires, sanitaires ou éducatifs. Le privé et le public, le divertissement et le punitif s’entremêlent sans que l’on ne puisse y voir clair. Un thème récurrent est largement mobilisé pour justifier l’usage de ces technologies de surveillance biométrique : la sécurité. Et c’est toujours au nom du Bien qu’elle se voit matérialisée.
  • De façon assez inédite, la plupart des technologies de surveillance publique, à l’instar de la reconnaissance faciale, ont d’abord été élaborées et diffusées à des fins commerciales par des géants numériques de la publicité et de la recommandation. La reconnaissance faciale, dont on ne sait plus très bien si elle est proposée à des fins commerciales ou sécuritaires, a été banalisée par la domotique, et amplement développée avec les smartphones ou les réseaux sociaux, pour un confort d’utilisation et une expérience client toujours plus forte. En procédant par pseudomorphisme, l’omniprésence de technologies d’identification qui servent à un moment donné une entreprise de quadrillage techno-sécuritaire du territoire semble aller de soi.
  • L’enjeu technique ne sera bientôt plus la reconnaissance en elle-même, mais l’interprétation comportementale des surveillés. Des systèmes de vidéosurveillance bientôt augmentés d’algorithmes puissants seront capables d’analyser nos comportements et de désigner ceux qui seraient «inhabituels» ou jugés «subversifs».
  • ...6 more annotations...
  • A la suite des travaux de la mathématicienne américaine Cathy O’Neil, il convient ici d’insister sur les biais qui seront encodés dans les algorithmes modélisant les critères de dangerosité qui pourront toujours accompagner, de manière fluctuante et totalement «liquide», les logiques de surveillance d’une population.
  • Passé d’Etat de droit à Etat de l’ultrasécurité, inquiet pour sa propre survie et par conséquent boulimique de données de surveillance, il semble moins se préoccuper de fabriquer des libertés par la loi dans un cadre de surveillance bienveillant que d’industrialiser, de concert avec les acteurs privés compétents. Ainsi assistons-nous à une marchandisation de la souveraineté territoriale.
  • Il s’agit de trouver le juste équilibre entre la nécessaire sécurisation du territoire et le respect des libertés fondamentales. Et le glissement conceptuel de la Smart City à la Safe City actuellement à l’œuvre pose la question fondamentale de nos libertés, du droit à évoluer dans l’espace public sans être identifié. Surtout, quels contre-pouvoirs, quels recours mettre en place face à des dispositifs algorithmiques intangibles ? Comment rééquilibrer ce système qui invisibilise le pouvoir des surveillants privés et publics, où la transparence est en réalité un «jeu» à géométrie très variable ?
  • Nous évoluons dans des sociétés qui créent des effets de structuration sociotechnique où le passage de la sphère ludique à la sphère politique n’a sans doute jamais été aussi facilité. Le niveau d’acceptation sociale des technologies d’identification, qui nous assure toujours plus de «commodité», tend à créer les conditions d’un contrôle social total.
  • De tels lieux de transmission d’éclairages techno-scientifiques rétabliraient également les principes de responsabilité sociale que certaines communautés d’ingénieurs intégraient jadis dans leur conception de l’innovation. Des lieux et des agencements doivent être incontestablement imaginés et institués dans cet horizon, en vu de faciliter l’hybridation des compétences et le renforcement du jugement critique à l’égard de technologies qui s’avèrent de plus en plus difficiles à cerner d’un point de vue éthique et qui se révèlent toujours plus ambiguës sur le plan démocratique, en rappelant que le progrès technologique doit être toujours pensé dans sa relation au progrès sociétal.
  • Compte tenu de l’accélération croissante de l’innovation dans le domaine de l’identification, une proposition serait de favoriser la création de lieux où les citoyens pourraient librement être amenés à prendre connaissance des avancées technologiques, avec leurs possibles effets éthico-politiques.
  •  
    "Avec la reconnaissance faciale, une nouvelle forme de gouvernementalité se met en place, où des plateformes privées collaborent avec les dispositifs publics de sécurité. Un tel déploiement technologique dans notre quotidien, une telle capture de nos visages et de nos traits constituent un redoutable pallier vers une surveillance généralisée."
4More

Les technologies P2P sont-elles bonnes ou mauvaises ? | Solidarités Émergentes - 0 views

  • Ce qui nous intéresse est la manière dont les gens peuvent utiliser des technologies en réseau pour leurs propres fins et, ce faisant, changer la société pour le meilleur, au regard des trois critères que sont l’équité, la durabilité et l’ouverture. Si, dans le même élan, nous parvenons à dépasser le modèle extractif et exploiteur du capitalisme global, au profit d’un système de création et d’échange de valeur, fondé sur les communs, il en résultera un changement profond de la nature même de notre civilisation.
  • Les technologies numériques « de beaucoup a beaucoup » facilitent non seulement l’auto-organisation de masse à l’échelle globale, mais aussi le développement de nouveaux modes de production, d’un nouveau mode d’échange et de nouveaux types de relations de production, en dehors de l’emprise conjointe de l’État et du marché.
  • Mais il est désormais possible de développer des projets à grande échelle grâce à de nouveaux mécanismes de coordination qui permettent de rester dans une dynamique de petits groupes à l’échelle globale. Il devient donc possible de combiner des structures plus horizontales tout en opérant de manière efficace à grande échelle. Ce qui n’avait jamais été le cas auparavant.
  •  
    "Notre thèse n'est pas qu'une technologie particulière mènera inévitablement à un État social déterminé. Nous reconnaissons néanmoins le rôle clé joué par les technologies dans l'évolution de la société, les nouvelles possibilités qu'elles ouvrent dès lors que certains groupes humains les utilisent avec succès. Différentes forces sociales investissent ces possibilités et tentent de les tourner à leur avantage en luttant pour tirer profit de leur utilisation. La meilleure manière d'appréhender la technologie est donc de la considérer comme un enjeu de lutte sociale, et non comme un déterminisme qui ne peut mener qu'à un seul avenir possible."
4More

Une IA concertée et open source comme outil éducatif pour les citoyens et les... - 0 views

  • Un autre aspect particulier du projet est d'explorer le concept de "privacy by using" et de faire du projet un outil de sensibilisation et d'éducation aux problématiques d'éthique et de protection de la vie privée dans les services intégrant de l'IA. 
  • Dans ce sens, nous travaillons sur des contenus et des formats (ateliers et rencontres de type barcamp) spécifiquement pensés de manière ludique pour les écoles afin de sensibiliser dès le plus jeune âge aux problématiques liées aux biais et à l'économie de l'attention, problématiques inhérentes à la "vie numérique" de l'époque actuelle et qui vont s'avérer toujours plus critiques avec le développement de l'IA (de plus en plus d'enfants sont confrontés très tôt à des services potentiellement problématiques, en particulier avec le boom des assistants vocaux).
  • Ainsi, en combinant la méthode "society in the loop" et l'approche "privacy by using", le projet permet de constituer de façon concertée une base de connaissances libre et ouverte tout en participant à l'éducation de la société sur les enjeux et les bonnes pratiques d'une intelligence artificielle d'intérêt général éthique et responsable.
  •  
    "Je travaille depuis quelques temps avec Matteo Mazzeri sur un projet de recherche appliquée en partenariat avec le CERN (cf. https://twitter.com/Genial_Project) qui propose une approche assez singulière de l'articulation entre intelligence artificielle (IA) et service public. Il s'agit de concevoir une "IA concertée" et open source qui permette de développer des services d'intérêt général / à vocation de service public. L'originalité de notre approche est d'appliquer le concept de "society in the loop" exposé par le MIT Medialab (concept très bien expliqué en français par Irénée Régnauld dans cet article) de manière à proposer une méthodologie, un travail humain sur les données et des modèles d'apprentissage qui permettent de refléter au plus près les besoins de "la société" et d'aboutir à une IA éthique et responsable."
15More

Society in the loop : vers un intelligence artificielle plus démocratique ? -... - 0 views

  • Mais l’intelligence artificielle se diffuse également dans des sphères qui concernent plus directement la vie publique, et donc la société. Pour ne citer qu’eux : le classement de lycéens après leurs bacs[4], l’automatisation de procédures judiciaires[5] ou des horaires de ramassage scolaire[6], la dérégulation du flux automobile dans les villes dus à l’utilisation d’un service de GPS comme Waze[7], l’utilisation de la reconnaissance faciale dans des lieux publics[8] et privés[9], l’usage de « détecteurs de mensonges » aux frontières[10], la police prédictive[11], ou même plus simplement l’usage de systèmes reposant sur la captation de l’attention de l’utilisateur[12].  A leurs échelles, ces sujets touchent la vie sociale dans des dimensions qui pourraient légitimement demander à ce que des discussions plus démocratiques aient lieu. Ils entrent certes, plus ou moins directement dans la catégorie « intelligence artificielle » mais participent de la numérisation du monde à travers des algorithmes, et feront tous le pas vers l’IA si ce n’est déjà fait.
  • C’est là qu’intervient le passage qualitatif du « human in the loop » (HITL) au « society in the loop » (SITL). Pour le dire simplement, le SITL devient nécessaire lorsqu’un système utilisant l’intelligence artificielle a des implications importantes sur la sphère sociale. Iyad Rahwan explique : « alors que le HITL utilise le jugement d’un individu ou d’un groupe pour optimiser un système pensé trop étroitement, SITL embarque le jugement et les valeurs d’une société vue comme un tout, dans la définition la gouvernance algorithmique[13] de questions sociétales ». En résumé, le SITL est une forme de contrat social entre ceux qui doivent obéir aux règles et ceux qui écrivent les règles.
  • Coupons court au débat qui concerne les bulles de filtres : leur émergence et leurs effets dépendent du paramétrage des algorithmes de Facebook, de Google et des autres services susceptibles de créer ces bulles. Par conséquent, elles restent à leur main, notamment à travers leurs Conditions générales d’utilisation (CGU) et le secret d’affaires qui protègent ces systèmes (et les modèles d’affaires de captation du « temps de cerveau disponible » qui y sont directement liés). Pas de démocratie à cet endroit, quand bien même les impacts sur la démocratie pourraient être réels, même s’ils sont encore mal mesurés. C’est une des premières limites du modèle « Society in the loop ».
  • ...11 more annotations...
  • Dans le cas des véhicules autonomes en revanche, une vaste étude a été réalisée sur plusieurs années par le MIT Lab. Elle a concerné des millions de personne dans 233 pays (à travers le petit jeu http://moralmachine.mit.edu/) et a montré à quel point le traitement des questions éthique est variable, même lorsqu’on parle de conduite automobile ! Comme le relate Hubert Guillaud : « la question éthique diverge selon la culture, le niveau économique et la localisation géographique ; bien plus que selon des préférences individuelles (…) les Japonais ont plutôt tendance à préférer des véhicules qui épargnent les piétons alors que d’autres cultures, comme la culture chinoise, préfèrent des véhicules qui épargnent les passagers. » L’objectif d’une telle étude est d’apporter l’éclairage de la société toute entière afin que le système technique réponde au « bien commun ».
  • A l’initiative de Grégoire Japiot (@gregoire) et Matteo Mazzeri (@matemaz), le projet GEnIAL (voir le site internet) est « Une plateforme qui utilise les interfaces conversationnelles et l’intelligence artificielle afin de permettre à la population d’un territoire de mieux vivre dans sa ville à l’ère de la Smart City en offrant des moyens simples pour accéder aux services des administrations et des autres acteurs de la région. » Le projet, qui se revendique de « Society in the loop », est d’utilité publique et censé resté « la propriété des citoyens », contrairement aux services d’assistants proposés par les géants d’internet. Les données collectées ne sont pas commercialisées et la vie privée reste préservée. Grégoire, le fondateur, précise que les concertations citoyennes sont au cœur du projet. L’idée : intégrer dans le service les retours de la société (citoyens, administrations/institutions publiques, chercheurs et acteurs économiques) en vue d’élaborer des modèles d’apprentissage utilisés pour construire une « intelligence artificielle concertée ».
  • Concrètement, GEnIAL Bot, est une « solution qui vise à permettre aux utilisateurs d’interagir avec l’ensemble des informations d’un territoire via des interfaces conversationnelles de type chatbot et assistant vocal. » Au lieu de devoir utiliser des moteurs de recherche pour identifier les différents sites où se trouvent les informations recherchées ou bien de devoir téléphoner aux services concernés, les utilisateurs peuvent interroger GEnIAL Bot en s’adressant en langage naturel et se laisser guider sous forme de conversations vers l’information. Pour la partie technologique, GEnIAL « dispose d’une convention de partenariat avec le CERN qui lui permet de concevoir avec les équipes les plus pointues, une intelligence artificielle éthique et explicable, dont les modèles d’apprentissage sont pensés de manière à refléter l’identité du territoire et intégrer un processus de concertation continue avec ses habitants. »
  • A une échelle très locale, le projet GEnIAL pourrait entrer dans ce qu’il convient d’appeler la « démocratie technique ». La formule que j’emprunte ici à Callon, Barthes et Lascoumes dans l’ouvrage fondateur Agir dans un monde incertain, Essai sur la démocratie technique (Seuil, 2011) désigne notamment les dispositifs par lesquels des profanes peuvent peser sur les modes de conception et de diffusion des sciences et des techniques. A l’évocation de la démocratie technique, on pense souvent aux grandes polémiques et controverses qui ont agité des sujets technoscientifiques comme les OGM, l’enfouissement des déchets nucléaires, ou encore les traitements contre le SIDA. Ce dernier cas a montré que l’intrusion des malades parmi les experts a pu conduire à améliorer les protocoles des laboratoires pharmaceutiques, alors très éloignés de leurs vies.
  • Si ces exemples peuvent paraître éloignés des questions relatives à l’intelligence artificielle, ils permettent d’entrouvrir une autre dimension de la démocratie technique. Par-delà la pure contestation ou modification a posteriori d’une technique existante, Callon, Barthes et Lascoumes décrivent un modèle de « co-production des savoirs ». Ce modèle postule que les non-spécialistes peuvent produire des connaissances à partir de leurs intérêts propres. Ils sont les plus à même d’entrevoir les risques d’un projet et de les faire reconnaître comme légitimes lors d’une étape de conception commune. Ce faisant, ils participent pleinement à la production des sciences et des techniques. Ce modèle suscite des critiques : on pointe le fait que des profanes ne seraient pas capables de s’exprimer sur un sujet technique, et que par conséquent, l’avis des experts serait toujours supérieur, de meilleure qualité, et devrait être pris en compte en priorité.
  • De nombreux contre-exemples viennent infirmer ces thèses. L’expérience prouve que si les conditions sont réunies, des personnes éloignées d’un sujet technique ou scientifique peuvent tout à fait construire des rapports de grande qualité et reconnus comme tels par les experts eux-mêmes. Ce fut le cas lors des controverses concernant les OGM il y a de cela une vingtaine d’années. Callon, Barthes et Lascoumes racontent également comment les amateurs contribuent à améliorer la connaissance scientifique dans de nombreux domaines, comme par exemple l’astronomie.
  • pourquoi ce traitement démocratique si spécial devrait-il se limiter à l’intelligence artificielle ? Une des raisons est sans doute que l’on pressent que son déploiement va changer le monde et susciter des controverses qu’il vaut mieux anticiper. N’oublions pas cependant que de nombreuses technologies numériques (ou non) changent le monde plus insidieusement et suivant des échelles temporelles qui nous les rendent « invisibles à l’œil nu ». Légitimement, on pourrait aussi poser la question démocratique à leur endroit[20].
  • Ce que la démocratie technique questionne, c’est non seulement l’aménagement du progrès, mais aussi sa définition. C’est-à-dire la direction donnée à la civilisation. Entraîner une intelligence artificielle – même avec la méthodologie Society in the loop – c’est déjà faire le choix d’une intelligence artificielle. Ce qui ne veut pas dire que ce choix soit mauvais. Pas plus qu’il n’est naturellement bon. Disons que c’est un choix parmi d’autres. Ce point chaud qui concerne la définition du progrès est et sera de plus en plus au centre de toutes les questions liant technosciences et démocratie.
  • Parallèlement, l’Université de Montréal a bâti une « Déclaration pour un développement responsable de l’intelligence artificielle[23] ». Cette déclaration décrit dix principes phares pour guider le développement de l’IA, parmi lesquels un « principe de bien être » ou encore un « principe d’inclusion de la diversité » (
  • Toutes les controverses techniques n’ont pas vocation à passer sous les fourches caudines de la démocratie, il existe une multitude d’autres échelons pour co-construire, réguler, interdire ou favoriser des systèmes. En témoignent les nombreuses villes qui se « défendent » contre AirBnb ou Uber puis qui finissent par utiliser les données que ces sociétés récoltent, à d’autres fins (des « arrangements » a posteriori[25]). Par ailleurs, c’est aussi dans les écoles qui forment les ingénieurs, designers et entrepreneurs de demain et bien sûr dans les entreprises elles-mêmes, dont certaines décident d’être plus soucieuses des effets générés par leurs activités, que l’avenir se joue
  • Bien sûr, ces quelques pages souffrent de nombreuses limites et à de multiples niveaux. A mon sens néanmoins, le fond de la question consiste (aussi) à savoir quelle « dose » de démocratie nous sommes prêts à mettre dans nos ambitions technologiques. Et en retour, dans quelle mesure les technologies que nous produirons permettront ou non à la démocratie de continuer d’exister[26].
  •  
    "En 2017, Iyad Rahwan (@iyadrahwan), responsable du groupe des coopérations évolutives au MIT posait avec Joi Ito (@Joi) du MIT Medialab le concept de « Society in the loop » (SITL), une méthode pour impliquer différentes parties-prenantes dans la conception d'un système d'apprentissage automatique[1] (ou machine learning), à la base des intelligences artificielles (IA) qui jalonnent le quotidien. L'idée : co-construire plutôt qu'imposer les solutions au grand public, en faisant intervenir dès la phase de conception une diversité d'acteurs. J'en retrace ici un court historique, une illustration et les quelques perspectives et limites qu'il me paraît intéressant de pointer, notamment au regard des questions relatives à ce qu'on appelle la « démocratie technique »."
3More

[Réseau social] Cher Bilal Hassani. - affordance.info - 0 views

  • "Ce qui n'est pas compliqué c'est de fermer, simplement et définitivement les comptes de celles et ceux qui participent à des "raids numériques" appelant au viol de telle ou telle journaliste ou déniant à une ancienne actrice porno le droit d'avoir un enfant. Ce qui n'est pas compliqué c'est de fermer définitivement les comptes de celles et ceux qui utilisent le mot "crouille" ou "bougnoule" ou "PD" ou "sale fiotte" à longueur de tweets. Ces mots là sont la caractérisation en droit d'insultes à caractère raciste ou homophobe. Et en France, le racisme et l'homophobie ne sont pas des opinions mais des délits.  Et inutile de crier au risque d'une censure arbitraire et laissée aux mains des plateformes : je ne parle pas ici de comptes qui pourraient occasionnellement évoquer une imagerie nazi comme ce fut le cas de nombreux d'entre nous ces derniers jours suite à la Une polémique du Magazine du Monde, comptes et contenus qui sont d'ailleurs tout à fait improprement et aléatoirement bloqués dès qu'ils osent évoquer le mot nazi. Je parle des comptes d'authentiques sexistes, homophobes, racistes, antisémites et autres admirateurs assumés du 3ème Reich ou des pires dérives et appel à la haine de l'extrême droite. Les grandes plateformes disposent de l'historique complet de publication de ces comptes là. Elles disposent de technologies d'analyse linguistique qui leur permettent d'identifier et de recouper ces occurrences de la haine ou de l'incitation à la haine assumée. Elles pourraient, si elles disposaient d'un minimum d'éthique, faire travailler des modérateurs humains disposant des codes culturels permettant de contextualiser correctement ces dérives plutôt que de continuer d'exploiter des travailleurs pauvres aux Philippines pour ce travail de modération.   
  • Etes-vous prêt à réellement lutter contre les discours de haine, contre l'homophobie, en ajoutant dans vos CGU que chaque insulte raciste ou homophobe occasionnera la fermeture définitive du compte qui les a proférées ? Etes-vous prêt à perdre ces "clients" là qui ne sont pas, pour vous, anonymes, et qui ne l'ont jamais été ?
  •  
    "C'est donc vous qui représenterez la France au concours le plus kitch de la galaxie connue. Depuis déjà trop longtemps mais particulièrement depuis que vous avez été choisi parmi d'autres candidats vous êtes la cible d'insultes homophobes (et racistes) avec une fréquence et un systématisme ahurissant. Ils ne sont qu'une goutte dans l'océan de louange qui vous enveloppe, mais cette goutte est un poison dont on ne peut qu'imaginer à quel point il est violent. Pour vous protéger tant bien que mal vous avez recours à un service qui permet de supprimer, d'invisibiliser les commentaires haineux (service intitulé Bodyguard). Et vous avez décidé de porter plainte. Et vous avez bien fait. Que peut-on faire d'autre d'ailleurs ? "
« First ‹ Previous 101 - 120 of 129 Next ›
Showing 20 items per page