Skip to main content

Home/ QN2019/ Group items tagged confiance

Rss Feed Group items tagged

Aurialie Jublin

Le Crédit Social chinois et le dilemme éthique de la confiance par la notatio... - 1 views

  • Qu’est-ce que ce Crédit social ? Un système par lequel le comportement de chacun des citoyens chinois ainsi que les personnes morales sera évalué et noté. Une version béta est actuellement en test. Des entreprises, parmi lesquelles on retrouve par exemple China Rapid Finance, partenaire de Tencent (WeChat), Sésame Credit, une filiale de Alibaba et Didi Chuxing (équivalent chinois de Uber), participent à ce programme-pilote basé sur le volontariat mais qui deviendra obligatoire en 2020. Les citoyens seront ainsi notés selon cinq facteurs : leur historique de crédit, leur capacité à remplir leurs obligations contractuelles, leurs informations personnelles, mais aussi leurs comportements et préférences, et enfin leurs relations interpersonnelles.
  • Les propos tenus sur les réseaux sociaux seront ainsi analysés pour repérer les « énergies positives » : des messages favorables au gouvernement ou positifs sur l’économie du pays feront grimper le score des individus. Pour le moment les propos négatifs ne seraient pas pris en compte. Mais au-delà des paroles, les actes seront analysés. Un représentant de Sésame Crédit admet par exemple inférer des jugements sur les personnes en fonction du type de produit acheté : « quelqu’un qui joue aux jeux vidéo dix heures par jour sera considéré comme une personne inactive (ou fainéante) », alors qu’une personne qui « achète fréquemment des couches sera considérée comme un probable parent, qui par comparaison sera plus à même d’avoir le sens des responsabilités ». Rachel Botsman précise de façon pertinente que le système ne fait pas qu’analyser les comportements, mais qu’il les façonne et biaise les citoyens afin qu’ils adoptent des attitudes jugées plus vertueuses par les gouvernements.
  • Dans un autre contexte, la notion d’exemplarité en Chine atteint parfois des points qui seraient comiques, s’ils n’étaient pas attentatoires aux libertés des personnes. Un système de reconnaissance faciale et  « name and shame » a ainsi été mis en place à certains carrefours : lorsqu’une personne traverse alors qu’elle n’en a pas l’autorisation, sa photo et son nom sont projetés sur un panneau pendant quelques minutes afin de la pointer comme l’exemple à ne pas suivre.
  • ...3 more annotations...
  • Mais pourquoi les Chinois accepteraient-ils un tel système de surveillance ? Pour le moment celui-ci se fait sur la base du volontariat. Les individus ayant choisi d’y participer ne gagnent pas seulement le droit d’être bien vus du gouvernement, mais obtiennent également des droits au crédit supplémentaires ainsi que des récompenses. Si leurs scores dépassent les 600 points (sur 950 possibles), ils auront accès à des offres de crédit à la consommation, à 650, le droit de louer une voiture sans dépôt de garantie, au-delà de 750, un billet coupe-file pour l’obtention d’un visa Schengen, etc. Des rétributions qui ne sont pas du tout symboliques. Et c’est bien là que le parallèle entre des logiques en cours dans l’économie numérique et leur appropriation par un État pose question.
  • La Chine n’a jamais eu de système de crédit institutionnalisé tel que nous les connaissons avec pour conséquence un déficit de confiance : beaucoup de contrats ne sont en effet pas honorés. Ce Social Credit system a pour vocation à y remédier, alors que la consommation de masse s’impose depuis peu, en se calant sur des standards occidentaux. Il commence néanmoins à avoir des effets négatifs sur certains citoyens dont le score est trop bas. Bien que le système ne soit pour le moment qu’en phase de test, et non déployé sur l’ensemble de la population (il le sera en 2020), on apprend dans un article de Fast Company daté du 24 avril que 11 millions de chinois ne peuvent déjà plus voyager en avion, quatre millions ne le peuvent plus en train. On touche là à des finalités qui ne sont plus le seul droit au crédit, mettant en cause les libertés fondamentales des individus. 
  • Parmi ces droits fondamentaux figurent les droits à la protection des données personnelles. Le règlement européen, en imposant notamment le principe de finalité  : les données personnelles ne peuvent être utilisées pour d’autres usages que celles pour lesquelles elles ont été collectées, sauf base légale spécifique ou nouvelle demande de consentement. Par ailleurs, dans son article 22, le RGPD interdit « la prise de décision fondée exclusivement sur un traitement automatisé […] produisant des effets juridiques la concernant ou l'affectant de manière significative de façon similaire. » A n’en pas douter, ne plus pouvoir se déplacer en train ou en avion entre dans cette catégorie.
  •  
    "Quand la Chine travaille sur une version béta de son Social Credit System, un système de notation obligatoire des individus basé sur l'ensemble de leurs comportements, c'est le principe même de la confiance par la notation qui questionne des pratiques largement généralisées en occident. "
Aurialie Jublin

Livre blanc PrivacyTech (pdf) - Une nouvelle gouvernance pour les données du ... - 0 views

  •  
    Une économie digitale performante et éthique nécessite une libre circulation des données personnelles sous le contrôle des individus. Le RGPD (Règlement Général sur la Protection des Données), lancé le 25 mai 2018, est un pas en avant majeur vers une nouvelle économie centrée sur l'individu grâce : au nouveau droit à la portabilité (Article 20) qui encourage la circulation des données, à une série de mesures et principes visant à augmenter la protection des individus comme le consentement spécifique et informé et le privacy by design. Le RGPD s'inscrit dans la stratégie de Marché Unique du Digital (Digital Single Market) de l'Union Européenne et a pour but de créer les conditions pour une économie sans barrières qui bénéficierait autant aux individus et aux entreprises qu'à la société dans son ensemble. Presque un an après le lancement du RGPD, nous observons un paysage prometteur d'organisations qui commencent à s'adapter au nouveau règlement, autant en Europe que dans le reste du monde. Mais il reste encore beaucoup à faire, particulièrement en ce qui concerne la mise en œuvre du contrôle des données par l'individu et de la portabilité. La tâche est éminemment complexe et requiert une coordination internationale, multisectorielle et multi-expertises. Pour réussir nous avons définitivement besoin d'une nouvelle approche ambitieuse qui pourrait partir de l'Europe pour s'étendre à l'international. Dans un tel contexte, nous proposons d'engager un échange constructif entre tous les acteurs de la donnée personnelle (entreprises, administrations, académies, associations) qui voudraient joindre leurs efforts au sein d'une nouvelle forme d'organisation dont le but serait de construire, harmoniser et proposer des standards technologiques, terminologies et bonnes pratiques pour la circulation et la protection des données personnelles, ainsi qu'une gouvernance adaptée. Les grandes pro
Aurialie Jublin

SORI : les tendances à l'œuvre dans l'usine du futur - Metis - 0 views

  • Pour Hervé Valliet, le robot ne tue pas l’emploi. Il permet de retrouver de la compétitivité, ce qui engendre une augmentation du chiffre d’affaires, et permet la création de nouveaux emplois. SORI a créé cinq nouveaux emplois en deux ans, uniquement à la production, et prévoit d’en créer au moins cinq autres dans les deux ans qui viennent grâce à l’augmentation des volumes. À la question « jusqu’où voudriez-vous croître ? », Hervé Valliet répond que 50 personnes lui semblent être un palier, et ce point de vue semble partagé par le personnel. Au-delà, cela deviendrait un autre type d’entreprise.
  • En matière d’organisation du travail : Associer les personnels à l’introduction de technologies — mise au point du cahier des charges, choix de l’équipement, adaptation et réglage, révision du processus de production — permet d’optimiser l’outil et de faciliter son acceptation par les équipes. Lorsque l’autonomisation des personnes précède l’introduction des technologies, leur appropriation est plus aisée et plus efficace. L’autonomie résulte souvent de la volonté et de l’exemplarité du dirigeant qui fait un pari sur la confiance et apprend à lâcher prise. Réduire ou supprimer la hiérarchie intermédiaire permet d’évacuer le territoire de la décision, ce qui favorise l’autonomie des opérateurs. Le droit à l’erreur et la transparence sont des facteurs qui construisent la confiance. La prise en compte dès la conception de la manière dont sera fabriqué le produit est un facteur d’efficience. Elle met en cause la séparation « taylorienne » entre bureau d’études, méthodes et fabrication.
  • En matière de gestion des compétences : Adapter les compétences par la formation est un enjeu prioritaire. Ces formations peuvent être courtes et développées avec les fournisseurs de solutions. Il faut tenir compte du fait que la formation peut susciter des résistances chez les personnels de production, et les préparer en amont. Regarder le potentiel des personnes, les savoir-être et les capacités dont témoigne le hors CV permet d’ouvrir les sources de recrutement sur un marché des compétences tendu pour les emplois de production.
  •  
    "Le cas de SORI, une entreprise manufacturière de 38 salariés en Isère, permet de visualiser les conditions et étapes d'une transformation vers l'usine du futur à l'échelle d'une PME. Côté organisation du travail et compétences : Une organisation basée sur l'autonomie et la confiance, qui a nécessité un changement radical au Bureau d'études, le recrutement basé sur le savoir-être plutôt que sur les compétences techniques, et beaucoup de formation."
Aurialie Jublin

Déclaration de Bologne pour une Reconnaissance Ouverte - Bologna Open Recogni... - 0 views

  • En 1999, la Déclaration de Bologne proposait l’établissement d’un espace européen de l’enseignement supérieur dans lequel les étudiants et les diplômés pourraient se déplacer librement entre les pays, utilisant les qualifications acquises antérieurement dans un pays comme conditions d’entrée acceptables pour la poursuite de ses études dans un autre pays. Ceci a lancé le processus de Bologne de réforme des systèmes de qualification, qui a été depuis adopté par 50 pays.
  • Aujourd’hui, en 2016, une nouvelle coalition d’acteurs de l’éducation publie la déclaration de Bologne pour une reconnaissance ouverte : un appel à une architecture ouverte universelle pour la reconnaissance des apprentissages tout au long de la vie.
  • Nous assistons à une prise de conscience croissante dans de nombreux secteurs de la politique, de l’éducation et de l’emploi ainsi que dans l’opinion publique de la nécessité d’adopter une approche plus ouverte, transparente, fiable et digne de confiance pour la reconnaissance des apprentissages.
  • ...5 more annotations...
  • Open Badges, le standard ouvert pour la reconnaissance des apprentissages, a prouvé la puissance d’une technologie simple, abordable, résiliente et digne de confiance pour créer un écosystème de reconnaissance ouvert fonctionnant à travers les pays, les secteurs éducatifs, l’emploi, les environnements sociaux et les technologies.
  • Les badges numériques ouverts ont démontré que nous avons les moyens et la possibilité de mettre fin aux disparités du paysage de la reconnaissance. En reliant et en nourrissant les référentiels de compétences, ils deviennent les éléments constitutifs d’une architecture ouverte pour la reconnaissance des apprentissages tout au long de la vie. Ils créent les conditions pour que les individus aient le contrôle de leur propre reconnaissance, pour fonder leur identité et leur capacité d’agir en toute autonomie, que ce soit formellement (au sein des institutions) ou informellement (à travers les communautés).
  • Le libre accès à la connaissance et à l’éducation est largement reconnu comme un facteur irremplaçable de croissance sociale et humaine et un élément indispensable pour consolider et enrichir la citoyenneté, capable de donner aux citoyens les compétences nécessaires pour relever les défis du nouveau millénaire, ainsi que la conscience de valeurs partagées et de l’appartenance à divers espaces sociaux et culturels.
  • La création d’un espace ouvert pour la délivrance et la reconnaissance de l’apprentissage tout au long de la vie et à vie est un facteur clé pour la promotion de l’inclusion sociale, l’employabilité et la mobilité des citoyens du monde, et le développement de notre planète. En fin de compte, la capacité de reconnaître ses apprentissages, sociaux ou professionnels, est un facteur clé dans la construction de la capacité d’agir en toute autonomie et dans l’établissement de la confiance au sein d’une communauté.
  • Nous devons maintenant étendre ce travail au-delà des frontières de l’enseignement supérieur, pour créer un continuum au travers de tous les apprentissages, tout au long et dans toutes les dimensions de la vie. Ceci pourra être obtenu en encourageant l’adoption d’unités de valeur plus ouvertes pour représenter et partager les acquis d’apprentissage, que ce soit dans des contextes formels, informels ou non-formels.
  •  
    "Vers une architecture ouverte pour la reconnaissance des acquis des apprentissages"
Aurialie Jublin

Technologie : l'âge sombre | InternetActu.net - 0 views

  • Pire, la technologie s’est fait la complice de tous les défis auxquels nous sommes confrontés : à la fois d’un système économique hors de contrôle qui ne cesse d’élargir les inégalités, la polarisation politique comme le réchauffement climatique. Pour Bridle, la technologie n’est pas la solution à ces défis, elle est devenue le problème. Il nous faut la comprendre plus que jamais, dans sa complexité, ses interconnexions et ses interactions : mais cette compréhension fonctionnelle ne suffit pas, il faut en saisir le contexte, les conséquences, les limites, le langage et le métalangage.
  • Trop souvent, on nous propose de résoudre ce manque de compréhension de la technologie par un peu plus d’éducation ou son corollaire, par la formation d’un peu plus de programmeurs. Mais ces deux solutions se limitent bien souvent en une compréhension procédurale des systèmes. Et cette compréhension procédurale vise surtout à renforcer la « pensée computationnelle », c’est-à-dire la pensée des ingénieurs et des informaticiens qui n’est rien d’autre que le métalangage du solutionnisme technologique 
  • Les systèmes techniques sont devenus de plus en plus complexes. Trop critiques et interconnectés pour être compris, pensés ou conçus. Leur compréhension n’est disponible plus que pour quelques-uns et le problème est que ces quelques-uns sont les mêmes que ceux qui sont au sommet des structures de pouvoir. Pour James Bridle, il y a une relation causale entre la complexité des systèmes, leur opacité, et les violences et inégalités qu’ils propagent.
  • ...32 more annotations...
  • Le cloud (l’informatique en nuage) n’est plus une métaphore du réseau, c’est l’incarnation de ce système global et surpuissant qu’aucun d’entre nous ne peut désormais attraper. Ce nuage est pourtant une bien mauvaise métaphore. Rien de ce qu’il recèle n’y est sans poids, rien n’y est amorphe ou invisible. Le cloud cache une infrastructure physique complexe faite de lignes téléphoniques, de fibre optique, de satellite, de vastes entrepôts d’ordinateurs, qui consomment d’énormes quantités d’énergie et qui influent sur de multiples juridictions. Le cloud est l’incarnation d’une nouvelle industrie.
  • De la sécurité nationale aux secrets industriels, il y a beaucoup de raisons à obscurcir ce que recouvre ce nuage. Mais ce qui s’en évapore est assurément notre propriété (dans les nuages, tout appartient à d’autres) et notre agentivité, c’est-à-dire notre capacité à faire.
  • Le réseau donne l’impression d’être à la fois l’idéal de progrès le plus abouti et l’idéal de base de notre culture tout en paraissant avoir émergé inconsciemment, poursuivant son but d’interconnexion sans fin pour lui-même et par lui-même… « Nous présumons que l’interconnexion est inhérente et inévitable. Le réseau semble être devenu le résultat du progrès, son accomplissement ultime », à l’image de machines qui accompliraient ainsi leurs propres désirs. Internet semble avoir accompli l’idéal des Lumières, l’idéal du progrès : celui que plus de connaissance et plus d’information conduit toujours à prendre de meilleures décisions.
  • Mais n’est-ce pas plutôt le contraire auquel nous assistons ? « Ce qui était censé éclairer le monde l’a obscurci. L’abondance d’information et la pluralité d’opinion accessible à tous n’ont pas produit un consensus cohérent, mais au contraire a déchiré la réalité en narrations simplistes, en théories fumeuses et en politique d’opinion. Contrairement au Moyen Âge, où l’âge sombre était lié à une perte de connaissance antique, l’âge sombre moderne est lié à une abondance de connaissance dont nous ne savons plus démêler collectivement l’apport. »
  • L’obscurité dont parle Bridle c’est notre incapacité à voir clairement ce qui est devant nous, avec capacité et justice. Pour Bridle pourtant, ce constat ne doit pas être lu comme une condamnation de la technologie. Au contraire. Pour relever l’âge sombre qui s’annonce, il nous faut nous engager plus avant dans la technologie, avec elle, mais avec une compréhension radicalement différente de ce qu’il est possible d’en faire, en retrouver un sens que la seule recherche d’efficacité nous a fait perdre. Tout comme le changement climatique, les effets de la technologie s’étendent sur le globe et affectent tous les aspects de nos vies. Mais comme le changement climatique, ses effets sont potentiellement catastrophiques et résultent de notre incapacité à comprendre les conséquences de nos propres inventions. Nous devons changer de manière de voir et penser le monde, nous invite Bridle, un peu facilement ou naïvement.
  • « En rapprochant la simulation de l’approximation, les grands prêtres de la pensée computationnelle pensent remplacer le monde par des modèles biaisés de lui-même ; et en le faisant, les modeleurs s’assurent du contrôle du monde. » James Bridle s’inscrit dans la continuité des constats de l’historien des sciences David Noble qui, dans Le progrès sans le peuple notamment, soulignait combien la pensée des ingénieurs avait contribué à donner du pouvoir aux puissants plutôt que favoriser l’équité ou la démocratie ; comme dans celle de Richard Sclove du Loka Institute, qui dans Choix technologiques, choix de société, soulignait combien les enjeux démocratiques restaient le parent pauvre de la question technologique.
  • La pensée computationnelle s’infiltre partout : elle devient notre culture. Elle nous conditionne à la fois parce qu’elle nous est illisible et à la fois parce que nous la percevons comme neutre émotionnellement et politiquement. Les réponses automatisées nous semblent plus dignes de confiance que celles qui ne le sont pas. Dans la pensée computationnelle, nous sommes victimes du biais d’automatisation : « nous avons plus confiance dans l’information automatisée que dans notre propre expérience, même si elle est en conflit avec ce qu’on observe ». Les conducteurs de voitures comme les pilotes d’avion ont plus tendance à croire leurs instruments que leur expérience, même si celle-ci n’est pas alignée.
  • Pour Bridle, l’informatique, en ce sens, est un piratage de notre capacité cognitive, de notre capacité attentionnelle, qui renvoie toute responsabilité sur la machine. « À mesure que la vie s’accélère, les machines ne cessent de prendre en main de plus en plus de tâches cognitives, renforçant par là leur autorité – sans regarder les conséquences ». « Nous nous accommodons de mieux en mieux et de plus en plus aux confortables raccourcis cognitifs que nous proposent nos machines. L’informatique remplace la pensée consciente. Nous pensons de plus en plus comme des machines, ou plutôt nous ne pensons plus du tout ! ».
  • « Ce qui est difficile à modéliser, à calculer, à quantifier, ce qui est incertain ou ambigu, est désormais exclu du futur possible. » L’informatique projette un futur qui ressemble au passé (« Les algorithmes ne prédisent pas le futur, ils codifient le passé », disait déjà Cathy O’Neil). La pensée computationnelle est paresseuse. Elle propose finalement des réponses faciles. Elle nous fait croire qu’il y a toujours des réponses.
  • les réseaux souffrent d’une gouvernance fragmentée, sans responsabilités claires, peu cartographiés et sous-financés ; des infrastructures en silos ; des investissements privés comme publics insuffisants et plus encore un manque de compréhension de la complexité de leur fonctionnement… expliquent leur fragilité intrinsèque et la difficulté de leur maintenance. Ajoutez à cela les impacts du changement climatique sur leur maintenance et leur évolution et vous comprendrez que les réseaux ne sont pas dimensionnés pour faire face au futur. Bref, non seulement l’informatique contribue largement au réchauffement climatique, mais elle risque d’en être l’une des principales victimes.
  • Mais les grands volumes de données ne produisent pas de la connaissance automatiquement. Dans la recherche pharmacologique par exemple, les dépenses et investissements n’ont jamais été aussi forts alors que les découvertes, elles, n’ont jamais produit aussi peu de nouveaux traitements. On appelle cela la loi d’Eroom : l’exact inverse de la loi de Moore. Le nombre de résultats de recherche chute et ces résultats sont de moins en moins dignes de confiance. Si les publications scientifiques n’ont jamais été aussi volumineuses (au détriment de leur qualité), les rétractions ont augmenté et le nombre de recherches ayant un impact significatif, elles, ont diminué proportionnellement. La science connaît une crise de réplicabilité majeure.
  • Plusieurs facteurs expliquent ce revirement de la loi du progrès. La première est que les choses les plus évidentes à découvrir ont été exploitées. La régulation est également devenue plus exigeante et la société moins tolérante aux risques. Mais le problème principal relève certainement des méthodes désormais employées. Historiquement, la découverte de médicament était le fait de petites équipes de chercheurs qui se concentrait intensément sur de petits groupes de molécules. Mais depuis 20 ans, ces processus ont été largement automatisés, sous la forme de ce qu’on appelle le HTS (High-throughput screening pour criblage à haut débit) qui consiste en des recherches automatisées de réactions potentielles via de vastes bibliothèques de composants. Le HTS a priorisé le volume sur la profondeur. Ce qui a marché dans d’autres industries a colonisé la recherche pharmaceutique : automatisation, systématisation et mesures… Certains commencent à douter de l’efficacité de ces méthodes et voudraient revenir à l’empirisme humain, au hasard, au bordel, au jeu… À nouveau, « la façon dont nous pensons le monde est façonnée par les outils à notre disposition ». Nos instruments déterminent ce qui peut être fait et donc, ce qui peut être pensé. À mesure que la science est de plus en plus technologisée, tous les domaines de la pensée humaine le sont à leur tour. Les vastes quantités de données ne nous aident qu’à voir les problèmes des vastes quantités de données.
  • Les bourses et places de marchés d’antan ont été remplacées par des entrepôts, des data centers, anonymes, dans des banlieues d’affaires impersonnelles. La dérégulation et la numérisation ont transformé en profondeur les marchés financiers. La vitesse des échanges s’est accélérée avec la technologie. Les transactions à haute fréquence (HFT, High-frequency trading) reposent sur la latence et la visibilité. La latence, c’est-à-dire la rapidité d’échange où des millions peuvent s’échanger en quelques millisecondes et la visibilité (sauf pour les non-initiés), c’est-à-dire le fait que les échanges sont visibles de tous les participants, instantanément. Les échanges reposent sur des algorithmes capables de calculer des variations éclair et de masquer les mouvements de fonds. Les échanges sont plus opaques que jamais : ils s’imposent sur des forums privés, les « dark pools » (en 2015, la SEC, l’organisme américain de réglementation et de contrôle des marchés financiers, estimait que les échanges privés représentaient 1/5e du total des échanges)… Les échanges financiers ont été rendus obscurs et plus inégaux que jamais, rappelle Bridle.
  • Pour Bridle, l’une des clefs qui expliquent que les inégalités se renforcent avec la technologie est intrinsèquement liée à l’opacité des systèmes. Comme les robots des entrepôts d’Amazon et ses employés commandés par des commandes vocales émanant de robots, nous sommes en train d’arranger le monde pour rendre les machines toujours plus efficaces, quitte à ce que le monde devienne incompréhensible et inadapté aux humains. Les travailleurs deviennent le carburant des algorithmes, utiles seulement pour leurs capacités à se déplacer et à suivre des ordres. Pour Bridle, les startups et les Gafam signent le retour des barons voleurs, ces tyrans industriels du XIXe siècle. La technologie est venue couvrir d’un voile d’opacité la prédation : l’avidité s’est habillée de la logique inhumaine des machines. Amazon ou Uber cachent derrière des pixels lumineux un système d’exploitation sans faille
  • Pour la sociologue Deborah Cowen (@debcowen), nous sommes entrés dans la tyrannie de la techne explique-t-elle dans The Deadly Life of Logistics (2014) : l’efficacité est devenu primordiale sur tous les autres objectifs, sur toutes les autres valeurs
  • Autre exemple avec How-Old.net un outil de reconnaissance faciale qui tente de prédire l’âge d’une personne, et qui a été utilisée pour deviner l’âge de migrants arrivants au Royaume-Uni. Microsoft, qui a développé cette application, s’est défendu et a dénoncé cette utilisation… comme les 2 chercheurs chinois. Ceux-ci expliquaient néanmoins dans leur défense que leur système était « sans préjugé » (sic). Comme souvent, on nous explique que la technologie, et plus encore l’apprentissage automatisé, est neutre. Mais « la technologie n’émerge pas de nulle part. Elle est toujours la réification de croyances et de désirs, notamment de ses créateurs. Leurs biais sont encodés dans les machines et les bases de données ou les images que nous prenons du monde. »
  • Pour Bridle, le problème n’est pas tant que les machines puissent réécrire la réalité, mais que la réalité, le passé comme le futur, ne puissent plus être correctement racontés. DeepDream de Google illustre parfaitement cela. L’enjeu n’est pas pour nous de comprendre ce qu’est l’image, mais de nous demander ce que le réseau de neurones veut y voir ?
  • Pour Bridle, nous devrions ajouter une 4e loi aux trois lois de la robotique d’Asimov. Les machines intelligentes devraient être capables de s’expliquer aux humains. Ce devrait être une loi première, car éthique. Mais le fait que ce garde-fou ait déjà été brisé laisse peu d’espoir quant au fait que les autres règles le soient à leur tour. « Nous allons devoir affronter un monde où nous ne comprendrons plus nos propres créations et le résultat d’une telle opacité sera toujours et inévitablement violent ».
  • Pour Bridle, l’alliance entre l’humain et la machine peut encore fonctionner, comme l’a montré Garry Kasparov avec les échecs avancés, consistant à ce qu’une IA et qu’un humain jouent ensemble plutôt qu’ils ne s’affrontent. C’est dans la perspective d’associer les talents des humains et des machines, d’associer leurs différences d’une manière coopérative plutôt que compétitive que nous parviendrons à réduire l’opacité computationnelle. La perspective que l’intelligence des machines nous dépasse dans nombre de disciplines est une perspective destructrice. Nous devons trouver la voie d’une éthique de la coopération avec les machines, plutôt qu’un affrontement.
  • Bridle s’en prend également longuement à la surveillance et notamment à la surveillance d’Etat pour souligner combien elle nous est masquée et continue à l’être, malgré les révélations d’Edward Snowden. Vous pouvez lire n’importe quel e-mail dans le monde d’une personne dont vous avez l’adresse. Vous pouvez regarder le trafic de tout site web. Vous pouvez suivre les mouvements de tout ordinateur portable à travers le monde. Pour Bridle, cela nous a montré qu’il n’y a pas de restriction possible à la capacité de surveillance du réseau. L’échelle et la taille de la surveillance a excédé ce que nous pensions comme étant techniquement possible.
  • En opposition au secret, nous demandons de la transparence, mais elle n’est peut-être pas le bon levier. La NSA et Wikileaks partagent la même vision du monde avec des finalités différentes, rappelle Bridle. Les deux pensent qu’il y a des secrets au coeur du monde qui, s’ils étaient connus, pourraient rendre le monde meilleur. Wikileaks veut la transparence pour tous. La NSA veut la transparence pour elle. Les deux fonctionnent sur une même vision du monde. Wikileaks ne voulait pas devenir le miroir de la NSA, mais voulait briser la machine de surveillance. En 2006, Assange a écrit « Conspiracy as Governance » (.pdf). Pour lui, tout système autoritaire repose sur des conspirations, car leur pouvoir repose sur le secret. Les leaks minent leur pouvoir, pas par ce qui fuite, mais parce que la peur et la paranoïa dégradent la capacité du système autoritaire à conspirer. Mais les fuites de données ne suffisent pas à remettre en cause ou à abattre l’autorité. Les révélations ne font pas bouger l’opinion, sinon, nous aurions réagi bien avant les révélations de Snowden. Tant que les organisations de surveillance ne changent pas de l’intérieur, ceux qui sont en dehors de ces organisations, comme les lanceurs d’alertes, n’ont pas de capacité d’action. Ils attendent que des fonctionnaires ou que la justice confirment ce qu’ils avancent.
  • Mais la lumière du calcul nous dépossède de pouvoir, car elle nous fait crouler sous l’information et nous donne un faux sens de la sécurité. C’est là encore une conséquence de la pensée computationnelle. « Notre vision est devenue universelle, mais notre capacité d’action, elle, s’est réduite plus que jamais. » A l’image du réchauffement climatique, à nouveau, « nous savons de plus en plus de choses sur le monde, mais nous sommes de moins en moins capable d’agir sur lui ». Au final, nous nous sentons plus démunis que jamais. Plutôt que de reconsidérer nos hypothèses, nous nous enfonçons dans la paranoïa et la désintégration sociale.
  • Le monde est devenu trop complexe pour des histoires simples. En fait, « la démultiplication de l’information ne produit pas plus de clarté, mais plus de confusion ». L’un des symptômes de la paranoïa consiste à croire que quelqu’un vous surveille. Mais cette croyance est désormais devenue raisonnable, s’amuse Bridle en évoquant la surveillance d’Etat comme la surveillance des services numériques. Nous sommes entièrement sous contrôle, tant et si bien qu’on peut se demander qui est paranoïaque désormais ?
  • « Les théories conspirationnistes sont le dernier ressort des sans pouvoirs, imaginant ce que serait que d’être puissant », avance Bridle. Pour le spécialiste de la postmodernité, Frederic Jameson, les théories conspirationnistes sont « la cartographie cognitive des plus démunis dans un âge postmoderne ». C’est la figure dégradée de la logique par ceux qui ont le moins de capital culturel, une tentative désespérée de se représenter un système qu’ils ne comprennent pas. Encerclé par l’évidence de la complexité, l’individu a recours à un récit simpliste pour tenter de regagner un peu de contrôle sur la situation. À mesure que la technologie augmente et accélère le monde, celui-ci devient plus complexe. Les théories conspirationnistes deviennent alors des réponses, étranges, intriquées et violentes, pour s’en accommoder.
  • Ainsi, si vous cherchez de l’information sur les vaccins, vous tomberez invariablement sur de l’information contre les vaccins. Si vous cherchez de l’information sur la rotondité de la terre, vous tomberez inexorablement sur ceux qui pensent qu’elle est plate. Ces opinions divergentes semblent devenir la majorité tant elles sont exprimées et répétées avec force. « Ce qui se passe quand vous désirez en savoir de plus en plus sur le monde entre en collision avec un système qui va continuer à assortir ses réponses à n’importe quelle question, sans résolution ». Vous trouverez toujours quelqu’un pour rejoindre vos points de vue. Et toujours un flux pour les valider. Voici l’âge de la radicalisation algorithmique (à l’image de ce que disait Zeynep Tufekci de YouTube). Les théories conspirationnistes sont devenues la narration dominante. Elles expliquent tout. Dans la zone grise des connaissances, tout prend un sens.
  • Les failles des algorithmes sont les dernières failles du capitalisme où certains s’infiltrent non pas pour le renverser, mais pour tenter de gratter un peu d’argent que les plus gros systèmes s’accaparent. Au final, des vidéos automatisées finissent par être vues par des enfants. Leurs personnages préférés y font n’importe quoi, parfois suggèrent des scènes de meurtre ou de viols. Ces effets de réseaux causent des problèmes réels. Les algorithmes de YouTube ont besoin d’exploitation pour produire leurs revenus. Derrière leurs aspects séduisants, ils encodent les pires aspects du marché, notamment l’avidité. « La capacité à exploiter l’autre est encodée dans les systèmes que nous construisons », pointe très justement James Bridle, puisque leur efficacité repose sur leur capacité à extraire de l’argent de nos comportements.
  • À défaut d’une solution, Google annonçait en avril que l’application YouTube Kids allait devenir « non-algorithmique »… À croire, comme le pointait très justement le chercheur Olivier Ertzscheid, que l’algorithimsation n’est pas une solution sans limites.
  • Pour Bridle, les humains sont dégradés des deux côtés de l’équation : à la fois dans l’exploitation qui est faite de leur attention et à la fois dans l’exploitation de leur travail. Ces nouvelles formes de violence sont inhérentes aux systèmes numériques et à leur motivation capitaliste. Le système favorise l’abus et ceux qui le produisent sont complices, accuse-t-il. L’architecture qu’ils ont construite pour extraire le maximum de revenus des vidéos en ligne a été hackée par d’autres systèmes pour abuser d’enfants à une échelle massive. Les propriétaires de ces plateformes ont une responsabilité forte dans l’exploitation qu’ils ont mise en place. « C’est profondément un âge sombre quand les structures qu’on a construites pour étendre la sphère de communications sont utilisées contre nous d’une manière systématique et automatique. »
  • Pour Bridle, les fausses nouvelles ne sont pas le produit de l’internet. Elles sont le produit de la cupidité et de la démocratisation de la propagande où tout a chacun peut devenir un propagandiste. Elles sont un amplificateur de la division qui existe déjà dans la société, comme les sites conspirationnistes amplifient la schizophrénie.
  • Mais ce qu’il y a de commun avec le Brexit, les élections américaines ou les profondeurs de YouTube, c’est que malgré tous les soupçons, il reste impossible de savoir qui fait ça, qu’elles sont leurs motivations, leurs intentions. On peut regarder sans fin ces flux vidéos, on peut parcourir sans fin les murs de mises à jour de statuts ou de tweets… cela ne permet pas de discerner clairement ce qui est généré algorithmiquement ou ce qui est construit délibérément et soigneusement pour générer des revenus publicitaires. On ne peut pas discerner clairement la fiction paranoïaque, l’action d’États, la propagande du spam… Ces confusions servent les manipulateurs quels qu’ils soient bien sûr, mais cela les dépasse aussi. C’est la manière dont le monde est. Personne ne semble réellement décider de son évolution… « Personne ne veut d’un âge sombre, mais nous le construisons quand même et nous allons devoir y vivre. »
  • Exploiter plus de données pour construire de meilleurs systèmes est une erreur. Cette méthode ne parviendra pas à prendre en compte la complexité humaine ni à la résoudre. Le développement de l’information n’a pas conduit à une meilleure compréhension du monde, mais au développement de points de vue alternatifs et concurrents. Nous devons changer nos façons de penser comme nous y invitait Lovecraft. Nous ne survivrons pas plus à l’information brute qu’à la bombe atomique. Le nouvel âge sombre est un lieu où le futur devient radicalement incertain et où le passé devient irrévocablement contesté. Mais c’est le présent dans lequel nous devons vivre et penser. Nous ne sommes pas sans pouvoir ni capacités. Mais pour cela nous devons nous défaire des promesses illusoires de la pensée computationnelle. Penser le monde autre, c’est ce à quoi nous invite James Bridle dans le nouvel âge sombre.
  • Reste à savoir si cet âge sombre des technologies est vraiment notre avenir. L’âge sombre du Moyen Âge n’a jamais vraiment existé ailleurs que dans les lacunes des historiens. On peut douter également de cette nouvelle obscurité ou regretter le titre faussement prophétique. Reste que la complexité et l’intrication du monde que décrit James Bridle, montrent combien il nous faut, plus que jamais, nous défaire justement d’une vision simple et manichéenne de la technologie.
  •  
    "Ce New Dark Age porte un titre prophétique et apocalyptique. Un peu trop peut-être. C'est effectivement un livre très critique sur notre rapport à la technologie, très éloigné du rapport souvent curieux et amusé que Bridle portait aux technologies avec la nouvelle esthétique. En une dizaine de chapitres, Bridle explore les glitchs qui sont désormais devenus des schismes, des scissions, des ruptures… comme s'ils n'étaient plus aussi distrayants. Dans son livre, il montre combien les bugs se cristallisent en caractéristiques. Combien la complexité technique que nous avons construite s'entremêle pour produire des effets en réseau, complexes, profonds, intriqués que nous ne parvenons plus vraiment à démêler. Son constat principal consiste à dire que ces dysfonctionnements ne sont pas amenés à être corrigés. Ils sont au contraire intrinsèques à la nature même des technologies qui se déploient aujourd'hui. Contrairement à ce que nous annonçaient les pionniers et les prophètes des technologies, pour Bridle, la technologie n'annonce pas de nouvelles Lumières ou une Renaissance, mais, comme Jules Michelet parlait du Moyen Âge, un âge sombre, une ère d'obscurité pour ne pas dire d'obscurantisme. Ni les réseaux sociaux, ni l'intelligence artificielle, ni les systèmes techniques ne vont nous aider à faire monde commun. Au contraire."
Aurialie Jublin

Retour sur MyData2018 : quelle(s) approche(s) collective(s) des données perso... - 0 views

  • L’entrée en vigueur du RGPD a clairement été l’événement marquant de 2018 et beaucoup d’intervenants s’y sont référés. Le principe d’équité y est affirmé. Or il s’agit d’un principe qui recouvre une dimension collective : l’équité suppose un groupe, contrairement aux autres principes (transparence, légalité, limitation de but, rétention, intégrité et confidentialité, minimisation des données, précision). Toutefois le texte ne donne pas de définition de l’équité dans le contexte de la gestion des données personnelles a fait remarquer Jussi Leppälä, Privacy Officer (Global) chez Valmet. Finalement, les intervenants s’accordaient à dire que le RGPD est un texte axé sur les besoins individuels plutôt que collectifs. Il protège l’individu, mais ne porte pas de vision véritablement collective des données personnelles.
  • Sur cette question de l’équité, l’exemple d’openSCHUFA donné par Walter Palmetshofer (Open Knowledge Allemagne) est inspirant : une campagne de collecte de données a été faite auprès de milliers d’individus pour comprendre l’algorithme de credit-scoring (pointage de crédit) de SCHUFA, bureau de crédit privé allemand. Cela a permis à des individus de pouvoir demander, preuves à l’appui, à corriger des décisions prises par l’algorithme. De manière générale, le biais algorithmique est un enjeu sociétal important, surtout pour les groupes les plus fragiles dont les données personnelles sont plus exposées et davantage victimes de biais algorithmiques (à ce sujet, lire Internet Actu).
  • D’autres intervenants ont insisté sur la nécessité d’accompagner les entreprises vers plus de prises en compte de leur responsabilité sociale. Le modèle de gouvernance qui domine actuellement étant l’hégémonie d’acteurs économiques (GAFA, BATX) raconte Bruno Carballa Smichowski, de Chronos, le rééquilibrage des pouvoirs doit venir des Etats. Ces derniers disposent de données personnelles, mais peuvent également demander des comptes et pousser les acteurs qui utilisent les données à être plus ouverts et actifs : littératie, infrastructure, open innovation, construire la confiance et faire reculer la peur, ou encore impliquer les personnes concernées (Hetan Shah et Jeni Tennison), sont autant d’actions que les pouvoirs publics peuvent mettre en place.
  • ...9 more annotations...
  • Depuis le lancement de MyData, la nécessité de développer les enjeux collectifs des données personnelles apparaît chaque année plus forte. En parallèle, les communs numériques apparaissent de plus en plus comme un modèle alternatif désirable face aux comportements abusifs des acteurs dominants. Les communs autorisent par nature une gestion transparente et au service de la communauté, car gérés par leurs membres.
  • Si sa remarque a donné naissance au track “OurData” en 2017 et en 2018,, le terme de “commun” était pourtant quasiment absent des discussions du track OurData, essentiellement tourné vers l’acteur public et la régulation. L’exemple d’OpenSCHUFA se rattache néanmoins au courant des communs en donnant un exemple concret.
  • L’idée derrière la coopérative de données qui s’intègrerait au modèle MyData/Self Data viserait plutôt à créer un commun : une association d’individus développant des outils et services (chat, moteur de recherche,…) leur permettant de gérer leurs données de A à Z. Il existe plusieurs coopératives de données de ce type : diglife.coop, schluss, open.coop,…
  • Laura James (doteveryone) a suggéré  cette session afin d’échanger avec les participants sur la faisabilité de créer une ou des coopératives “de masse”, appartenant à leurs membres et gérées par eux. L’objectif serait d’offrir aux gens de meilleurs services que les géants de la technologie et les entreprises de type Silicon Valley. Laura James constate que si le problème avec les géants numériques est leur modèle d’entreprise (capitalisme de surveillance) et le modèle de propriété (extraction de richesse au profit de quelques-uns), la “data coop” doit permettre d’offrir une technologie en laquelle nous pouvons avoir confiance – c’est-à-dire préservant notre vie privée, accessible, fiable, équitable, basée sur les sources ouvertes existantes, avec un meilleur support et une véritable durabilité.
  • Est-ce que le peu de succès de Digital Life Collective est dû à un manque d’intérêt de la part des consommateurs pour les questions liées aux données personnelles ? Ou bien est-ce que les enjeux ne sont pas encore bien compris par les gens ? Les porteurs de coopératives présents à la session échangent sur plusieurs éléments de réponse. D’abord, il n’y a pas une absence d’intérêt pour les questions de privacy mais une perception et un traitement différent selon les personnes (par les « millenials » par exemple). Ensuite, les consommateurs veulent-ils avoir à supporter la responsabilité qui va avec la reprise du contrôle sur leurs données ? Rien n’est moins sûr : comme les services gratuits d’aujourd’hui, cela doit être simple. Mais le contrôle implique nécessairement des responsabilités… Les consommateurs ont aussi besoin de services pratiques. Il faut travailler l’expérience utilisateur. Enfin, il faut une littératie des données pour créer un véritable intérêt et dissiper la peur et les malentendus autour de ce sujet.
  • Comment avoir une véritable gouvernance partagée tout en ayant une organisation suffisamment grande ? A peine 10 personnes sont vraiment actives au sein de Digital Life Collective. Schluss recherche une manière de faire participer davantage les membres. C’est un problème récurrent pour les coopératives, et toute organisation dont la gestion s’appuie sur l’ensemble de ses membres. Toutefois, l’un des participants soulignait que même si seul 1% s’implique dans la prise de décisions, tous reçoivent les bénéfices de la coopérative ! Ca n’est pas la gestion parfaitement partagée et idéale, mais cela fonctionne quand même. Avant de renoncer au modèle participatif, quelques modèles de gouvernance pourraient être expérimentés pour faciliter les prises de décision participatives au sein de la coopérative : les jurys citoyens, sociocracy 3.0 (utilisé par certaines entreprises télécom en Finlande), …
  • Dans les sessions de la thématique “OurData”, nous avons eu le plaisir d’entendre à chaque fois (ou presque) que la propriété appliquée aux données personnelles n’a aucun sens. Bien que ce track, plus qu’aucun autre, soit prédisposé à un tel constat,depuis quelques années, la position de la communauté MyData s’est éclaircie à ce sujet et on voit de moins en moins de personnes prôner ce modèle de propriété et de revente individuelle de ses données..
  • En découle un modèle collectif basé non pas sur des titres de propriété individuels mais sur des droits d’usage. Le RGPD en crée quelques-uns mais d’autres questions restent en suspens, comme le droit à la mémoire collective, notamment pour les catégories les plus défavorisées, ou encore l’équité, qui s’oppose à une régulation par les lois du marché.
  • La plupart des intervenants postulent que c’est l’acteur public qui doit agir : en créant de nouveaux droits associés aux données personnelles, en accompagnant les acteurs privés à fournir des solutions plus éthiques et transparentes, en s’engageant pour une culture et une littératie de la donnée pour tous, en actant juridiquement que les données personnelles sont le résultat d’un processus collectif qui appartient à la société qui l’a co-généré et qu’il ne peut y avoir de propriété associée (en France la CNIL est très claire sur ce dernier point, nous avons besoin d’une voie aussi claire au niveau européen !), en promouvant leur valeur sociale, et non commerciale, et enfin qu’il fasse que le fruit de ce travail doit servir à répondre à des problématiques collectives telles que la santé, l’éducation, la culture, la protection de l’environnement, …
  •  
    "LE CONSTAT : LA GESTION ACTUELLE DES DONNÉES PERSONNELLES S'INTÉRESSE PEU AU COLLECTIF MyData s'intéresse à toutes les dimensions que recouvre le contrôle des données personnelles : si la privacy occupe souvent le devant de la scène, MyData explore également la transparence des organisations et des technologies, l'équité et la dimension collective des données personnelles."
Aurialie Jublin

Pire to pire : le fantasme de la perfection sociale - P2P Foundation France - 0 views

  • Car cette liberté retrouvée semble à tout prix devoir être mise au service d’un but « noble » qui serait une espèce d’efficacité sociale, et d’une rationalisation de nos comportements. Il semble acquis que si « nous » communiquons mieux, et sans intermédiaires pour nous en empêcher, « nous » arriverons plus rapidement au but. Mais lequel ? Et qui est ce « nous » ? Tout se passe comme si, effrayés par l’autonomie à laquelle ils sont peut-être en train d’accéder, les chantres de la décentralisation inventent en même temps la méta-organisation qui remplacera la figure du père, à défaut de savoir s’en passer.
  • Le passage d’un système fondé sur la confiance en l’humain vers un système fondé sur la preuve (où la confiance est déléguée à la technologie) semble ainsi pouvoir panser toutes les plaies, éviter toutes les trahisons, désillusions, imperfections… et l’on imagine que ce système parfait, à la fois incorruptible et incontrôlable, rendra nos vies meilleures et nous mettra à l’abri des tricheurs, des abuseurs et des voleurs.
  • celui qui gouverne, c’est celui qui indique la direction, qui donne un sens, qui guide. Ils défendent donc avec ardeur un système qui va aider à coordonner les mouvements des rameurs de la galère, sans considérer que si le projet social de la-dite embarcation diffère de ce qu’ils ont imaginé, ils sont en train de fabriquer eux-mêmes l’instrument de leur propre aliénation : une boussole autogène !
  • ...5 more annotations...
  • On en arrive à des propositions dites « démocratiques » entièrement basées sur la machine, où l’évaluation du nombre et de la qualité des contributions individuelles deviendrait une monnaie d’échange universelle et infalsifiable. On imagine même que les individus pourraient participer aux prises de décisions de façon proportionnelle à leurs contributions. Le bon vieux système de bons points remis au goût du jour ! Tant pis pour ceux qui ne souhaitent ou ne peuvent pas contribuer ? Tant pis si nous devenons esclaves de notre propre auto-évaluation ? La vie deviendrait un grand jeu vidéo où je chercherais à accumuler plus d’étoiles sur mon profil que le voisin pour gagner des points de gouvernance ou de rétribution ?
  • La gouvernance, si elle n’est pas humaine, prend le risque d’un réductionnisme mortifère et le chemin d’un égalitarisme totalitaire qui n’aura rien à envier aux dictatures que le monde a connues jusqu’ici.
  • Il me semble donc que les communs et le pair-à-pair ne pourront se développer harmonieusement qu’à la seule condition que les individus intègrent profondément que «pair», contrairement à son homonyme informatique, n’est pas synonyme de ce qui est «identique à moi» mais parle de connexion et d’amour d’une radicale altérité.
  • Ce que la blockchain, qui n’est qu’un outil, ne nous dit pas, c’est comment nous allons réussir à faire société et quelle société nous voulons. Cette perspective passe peut-être par trouver ce que nous avons en commun, ce qui ne signifie pas effacer nos singularités et nos défauts via une hypothétique technologie de la transaction. Il ne s’agit pas non plus de fantasmer un monde sans limites régi par une sémantique universelle, mythique Tour de Babel moderne.
  • Il s’agirait plutôt d’apprendre à travailler et à gouverner ensemble avec nos imperfections et nos limites, dans le but de créer quelque chose en commun au cœur de la relation. C’est probablement très difficile à réaliser (sans doute le travail de toute une vie !), inefficace et bancal, mais peut-être aussi tellement plus gratifiant et créateur de sens qu’une chaîne de chiffres infalsifiable…
  •  
    "Décentralisation, distribution, peer-to-peer, blockchain : on assiste à un déferlement de termes censé ouvrir un nouvel horizon de libertés individuelles et collectives. Pourtant, quelque chose cloche dans les discours et un frisson me parcourt souvent l'échine à l'écoute de certaines vidéos ou à la lecture de certains articles…"
Aurialie Jublin

affordance.info: La libellule et la muraille (Google en Chine) - 0 views

  • Nous sommes à un moment de l'histoire des technologies de l'information et du numérique qui est assez comparable à l'état du monde en 1949 c'est à dire au moment où l'autre superpuissance de l'époque (l'union soviétique) se dota également de la bombe nucléaire (voir notamment ici ou là). Ce que je veux dire par là c'est que désormais, la totalité des plateformes existantes "à l'Ouest" dispose d'équivalents "à l'Est". Et le rapport au nucléaire n'est pas seulement analogique ou symbolique comme je l'écrivais par ici :  "Le numérique est une technologie littéralement nucléaire. Une technologie de noyau. Au "cœur" fissible d’un éventail de possibles aussi prometteurs qu’angoissants et pour certains, incontrôlables."   L'analogie est également (géo)politique. Toutes les grandes plateformes vont devoir faire le choix politique de savoir dans quelle mesure elles acceptent de se censurer et donc de collaborer avec des régimes autoritaires pour conquérir un marché. Et à l'échelle des enjeux que représentent à la fois les audiences qu'elles touchent déjà et celles qu'elles visent à conquérir, chacun de ces choix est un peu plus qu'un simple choix économique ou même moral.   
  • La vraie nouveauté c'est que ce projet à suscité la colère d'une partie des salariés de Google, qui à l'image de la victoire - je pense temporaire - qu'ils avaient remporté pour obliger leur employeur à se retirer du projet militaire Maven, espèrent cette fois faire suffisamment de bruit pour que ce projet de moteur censuré n'aille pas à son terme.  La crise éthique de certains anciens cadres des GAFA qui agissent comme autant de "repentis" pour les technologies qu'ils ont contribué à créer n'est plus simplement externe mais elle s'étend désormais à l'interne et touche aussi bien Google que Facebook, Microsoft, Amazon (à propos d'un programme de reconnaissance faciale) ou Twitter (à propos du refus de Jack Dorsey de fermer le compte d'un leader de l'Alt-right complotiste). 
  • S'agissant du contrôle linguistique il opère pour l'instant uniquement au travers des dispositifs et des plateformes agréées par le gouvernement chinois ou opérant sous son autorité directe. C'est le cas par exemple du moteur de recherche Baïdu. Comme d'autres, la Chine n'échappe pas à la multiplication des terminaux de connexion. Là où il y a quelques années il suffisait de surveiller l'ordinateur familial pour capter l'ensemble des pratiques connectées de 5 ou 6 personnes, il faut aujourd'hui étendre et démultiplier les moyens de surveillance sur chaque Smartphone ou tablette. Après la surveillance "de masse" c'est la surveillance "de chacun" qui prime. D'où d'ailleurs, le renforcement du contrôle "social" et du micro-ciblage comportemental qui devient le plus petit dénominateur commun efficient dans le cadre d'une volonté politique de contrôle de la population comme dans le cadre d'une volonté marketing d'expansion commerciale. Les deux aspects finissant d'ailleurs par se rejoindre, ce qui n'est pas le moindre des problèmes que nous avons aujourd'hui à résoudre, car pour citer encore Zeynep Tufekci :  "Nous créons une dystopie simplement pour pousser les gens à cliquer sur des publicités". Il me semble que nous sommes aujourd'hui à la phase d'après. Celle où les gens ont cliqué sur suffisamment de publicités et ont, ce faisant, accepté suffisamment de technologies de traçage actif ou passif pour que les conditions d'existence d'une forme de pouvoir autoritaire soient réunies et surtout pour qu'elle soient en passe d'être acceptées comme naturelles ou, pire, comme légitimes. 
  • ...8 more annotations...
  • La question essentielle se déplace donc : il ne s'agit plus de savoir si nous acceptons ou si nous refusons ce traçage publicitaire (débat permis et en partie résolu par le RGPD) ; il s'agit de savoir si nous acceptons ou si nous refusons cette forme de néo-fascisme documentaire propre au totalitarisme littéral des plateformes et le cadre économico-politique qui est sa condition d'existence première. Les "repentis" de la Silicon Valley l'ont dénoncé de l'extérieur. Désormais les employés de ces firmes tentent de s'y opposer de l'intérieur. Il reste aux citoyens, c'est à dire à nous-mêmes, à terminer le boulot. Et ce ne sera pas facile. Car il nous faut retrouver l'envie de le faire. Or ...
  • Le même article - à lire dans la continuité des leçons que nous propose Zeynep Tufekci - rappelle qu'à rebours du postulat d'une inéluctable émancipation dont serait porteur le numérique et ses plateformes pour des populations sous le joug de régimes autoritaires, c'est l'inverse qui est en train de se produire : c'est le modèle chinois d'un internet censuré qui est en train de s'exporter dès aujourd'hui au Vietnam, en Tanzanie ou en Ethiopie, mais également sous un autre aspect en Australie où le réveil est déjà douloureux, et probablement demain dans l'ensemble de ces pays "émergents" et politiquement instables ou non-démocratiques, les mêmes que visent également les occidentaux GAFA pour aller y puiser leur prochain milliard d'utilisateurs. Et cette guerre là n'est pas que commerciale. Elle est avant tout culturelle. Et d'un cynisme est sans égal. Car lorsque toutes les ressources naturelles auront été épuisées, lorsque le dernier gisement du dernier minerai aura été extrait et raffiné, il restera encore à tous ces états la possibilité de vendre le visage de leurs citoyens. Ils n'ont d'ailleurs pas attendu.
  • Les intérêts des GAFA et des gouvernements disons, "autoritaires", sont donc aujourd'hui peu ou prou les mêmes. Ils cherchent à exporter un modèle d'affaire qui est le prétexte à une forme renouvelée de Soft Power qui fait du risque de dystopie et de la mise en oeuvre de son architecture de surveillance un simple dégât collatéral voire un biais nécessaire. Et leurs stratégies sont également semblables par bien des aspects : là encore elles visent une anecdotisation, une discrétisation des régimes de surveillance qui leur permettent de perpétuer et de légitimer leur modèle d'affaire. Quand aux questions d'éthique et aux scrupules, là encore ... on apprenait récemment que pour que Google cesse réellement de nous géolocaliser via notre smartphone, il ne suffisait pas simplement de lui dire de cesser de nous géolocaliser.
  • l'hystérisation récente autour du "fichage" supposé de milliers de Twittos en est un symptôme qui me semble aussi explicite que malheureux, et rappelle à quel point la question des "sans papiers" ou des furtifs échappant à l'hyper-surveillance des plateformes et des états est aujourd'hui plus que jamais politiquement centrale.
  • Souvenons-nous que le démantèlement ou la nationalisation desdites plateformes ont d'abord prêté à sourire avant de finalement être envisagées même si cela ne fut que d'un point de vue purement théorique.  Comme le rappelle encore Zeynep Tufekci :  "Pour comprendre pleinement ce qui se passe, nous avons aussi besoin d'étudier comment les dynamiques des sociétés humaines, la connectivité ubiquitaire, et le modèle d'affaire des géants du numérique se combinent pour créer des environnements dans lesquels la désinformation prospère et où même une information authentique et vérifiée peut nous paralyser et nous rendre confus plutôt que de nous informer et de nous éclairer."
  • Croire que les états n'ont pas à se mêler de la stratégie d'entreprises comme Google, Facebook ou Amazon au motif que nous ne serions, justement, pas en Chine ou dans un pays communiste est aujourd'hui le triple aveu d'un dépassement, d'une impuissance et d'une incapacité à penser ce qui se joue réellement à l'échelle politique.  Et en même temps ... imaginer que des états, que nos états actuels, gouvernés par des bouffons narcissiques de la finance ou par des clowns égocentriques ivres de leur nationalisme, imaginer que ces états puissent aujourd'hui se mêler du projet politique de ces mêmes firmes n'apparaît pas davantage comme une solution souhaitable. 
  • Le drame est que nous n'avons plus confiance ni dans les murailles ni dans les libellules. Et que cette érosion totale de la confiance à l'égard du politique et de la technique (numérique) s'ajoute à l'incapacité du premier à penser la seconde alors même que les infrastructures techniques du numérique n'ont de sens que si elles servent un projet politique. 
  • S'agissant du contrôle de la sphère sociale, on se réfèrera à la littérature pléthorique sur le "Social Credit Score" qui permet d'accorder à certains des droits refusés à d'autres en fonction de comportements sociaux mesurés et scrutés en permanence par le gouvernement (voir notamment sur Wired ou dans Wikipedia). 
  •  
    "Au coeur de l'été. Une libellule. Et une muraille. "Libellule" (en anglais "Dragonfly") c'est le nom de code du projet de Google pour retourner implanter une version censurée de son moteur de recherche en Chine d'après les révélations de The Intercept. En Chine, d'où la "muraille" du titre de ce billet. "
Aurialie Jublin

[Démocratie/Logiciel libre] Alerte / en marche vers la privatisation de la dé... - 0 views

  • Pourquoi cette entreprise continue à jouer solo, à capter les contributions communes, et malgré toutes les demandes, à fermer son code ? Et par quelle magie est arrivé ce quasi monopole alors que dans d’autres pays de nombreuses solutions libres, ouvertes et transparentes ont fait leur preuve ?
  • Avons-nous compris qu'un code fermé et propriétaire c'est comme un brevet Monsanto ? Qui s'approprie le vivant, qui fait disparaître la diversité du vivant et donc des espèces, qui privatise le commun, qui installe une dépendance mortifère avec sa solution et nécessite de toujours racheter la même solution ? Avons-nous bien compris qu'un code propriétaire s'est s'approprier la richesse offerte par les gens, leur travail, leurs données ?Avons-nous bien compris qu'un code propriétaire c'est une boîte noire en qui personne, je dis bien personne, à part celui qui l’a codé, ne peut avoir confiance ?
  • il n’y a que le logiciel libre qui peut garantir les conditions de transparence, de responsabilité collective (hackers, développeurs, usagers, citoyennes et citoyens, associations de liberté et neutralité du net), qui coopérant les unes avec les autres, peuvent être les seuls garants d’un processus numérique démocratique sincère et sous surveillance.
  • ...9 more annotations...
  • Je ne sais pas à combien d'entre nous cette proposition a été faite. D’ailleurs ça m’intéresse de savoir qui travaille avec des solutions Cap Co pour comprendre l’entendue du problème et du désastre dans lequel nous nous sommes mis. De notre côté, il en était hors de question, un de nos principes fondateurs était que tout ce qui serait créé par nos petites mains serait libre, public, partageable et pourrait servir à toutes et tous. C’est exactement ce qu’il s’est passé, on s’est servi d’autres travaux d’autres équipes par delà le monde et on a offert nos travaux à d’autres équipes qui les ont adapté en fonction de leurs besoins. Tous ces travaux sont à dispo de toutes et tous. Et n’importe quel codeur peut venir voir le cœur du réacteur, déceler les failles, les signaler, et donc les réparer, etc…
  • Nous avions donc à l'époque refusé cette proposition d’utiliser en marque blanche et gratuitement la plateforme de Cap Collectif. Mais combien ont accepté la bonne affaire ? En toute bonne foi, sans comprendre les enjeux immenses autour de la bataille des bases de données, l'ouverture des données, des choix d'algorithme, de la surveillance. Vous connaissez toutes et tous l'adage, "si c'est gratuit, c'est toi le produit".
  • Revenons un peu en arrière, la plateforme en question originelle qui a donné naissance à Cap Collectif, Parlement et citoyens, a été construite bénévolement par un tas de gens extraordinaires, qui ont vu leur travail capté, et fermé dans Cap Collectif. C’est un tout premier scandale. Qui l'a vendu et revendu à des collectivités ou "prêté" à des expérimentations citoyennes.
  • On arrive aujourd'hui ce mercredi 29 janvier 2019 à un énorme gag sur ce nouvel épisode du Grand débat, opération massive de communication gouvernementale : Cap Collectif met en place les plateformes de tous les cotés CESE, gouvernement, Gilets jaunes, provoquant un énorme malaise de ces derniers lorsqu’ils ont compris qu’ils partageaient le même outil et même prestataire, et une défiance accrue envers les outils au service de l'expression citoyenne pour celles et ceux qui s’intéresseraient aux dispositifs.
  • Cap Collectif étant en mesure de vendre ses plateformes grâce à un immense travail collectif en faveur de la participation citoyenne, dont nous sommes toutes et tous actrices et acteurs ici-mêmes (et pas que nous évidemment), et financé avec les deniers publics, donc l'argent des français, il n'est plus question de continuer à tolérer ce qui était déjà hier intolérable : le code doit être ouvert et publié.
  • Comment imaginer rétablir un lien de confiance dans la société avec des boîtes noires ? La démocratie se fonde sur la transparence de la décision publique, sa souveraineté, sa responsabilité, comment imaginer une seconde que les outils à son service ne soit pas fondé sur les mêmes obligations de transparence, souveraineté et responsabilité ?
  • Premièrement, je demande donc officiellement à Cap Collectif de publier son code. Et je vous demande, chaleureusement, à chacune et chacun d'entre vous, usagers et usagères, en tant qu'orga ou en tant que citoyen.ne.s d'en faire de même. Ou alors d’assumer publiquement votre choix du logiciel propriétaire avec tout ce que cela comporte d’antagonique avec les principes fondamentaux de la démocratie.
  • Deuxièmement, je demande aux instances de Démocratie Ouverte de favoriser la diversité des acteurs, des solutions, de ne plus recommander ou contribuer à des outils en logiciels propriétaires, de ne plus jamais favoriser une entreprise de participation par rapport à d'autres.
  • Enfin je demande à toutes les institutions, aux collectivités, de ne plus reproduire leurs erreurs en utilisant des solutions opaques : erreur sur la souveraineté des données, erreur sur la sécurité des outils, erreur et gabegie budgétaires.
  •  
    "Alors qu'explose en France une demande sans précédent de démocratie de la part des citoyens et des citoyens, de Nuit Debout, aux Gilets jaunes (assemblées réunies à Commercy)... ... celles et ceux qui sont censés être au service de cette participation citoyenne, ne voient pas ou font semblant de ne pas voir, qu'une entreprise s'approprie et capte cette formidable émulation collective, qui représente un commun, puisque financé par des deniers publics et enrichis grâce au travail de toutes et tous. Tous ces efforts collectifs pour mettre les citoyennes et les citoyens au cœur de la démocratie. Pour aller vers la transparence. De la coopération. Du partage. Des communs.  Pour quoi ? Moi je croyais que c'était vraiment notre rêve d'asseoir les citoyennes et citoyens à la table des décisions. A peine née, l'utopie d'une meilleure participation des habitantes et habitants de ce pays est déjà pervertie, et déjà gravement menacée."
Aurialie Jublin

Safiya Umoja Noble : «Avec Google, nous utilisons des technologies qui censur... - 0 views

  •  
    Si on tape «filles noires», «Juifs» ou «belles» dans le moteur de recherche, qu'obtient-on ? Dans son dernier ouvrage, la chercheuse américaine, dénonce le sexisme, les discriminations et le racisme des résultats affichés par la plateforme. Antidémocratique et à visées publicitaires, Google bénéficie d'un excès de confiance de la part des internautes.
Aurialie Jublin

'C'est de la surveillance': Tim Cook vient de démolir Facebook devant les gen... - 0 views

  • "Il ne faut pas édulcorer les conséquences: c'est de la surveillance." Fort de cette attaque en règle, Tim Cook a salué les efforts politiques menés en Europe avec la mise en application du RGPD (Règlement général sur la protection des données) cette année et les questions posées par le régulateur aux géants de la tech. 
  • Il a aussi affirmé que "chez Apple, nous soutenons pleinement une loi fédérale exhaustive sur la vie privée aux Etats-Unis" et dit considérer le droit à la vie privée comme un "droit humain fondamental". Tim Cook a défendu quatre principes sur lesquels il repose: 1) le droit de minimiser les données personnelles — limitant le droit des entreprises à collecter ces données; 2) le droit à la transparence — pour qu'un internaute sache ce qui est collecté sur lui et à quelles fins; 3) un droit d'accès — pour que les utilisateurs puissent accéder, modifier ou supprimer leurs données; 4) le droit à la sécurité, fondement de la confiance. 
  • En revanche, il ne s'est pas exprimé à Bruxelles sur la question de la fiscalité des acteurs du numérique, alors que le ministre français de l'économie Bruno Le Maire s'efforce de rallier ses pairs européens à un consensus sur l'épineuse question et que la Commissaire européenne à la concurrence Margrethe Vestager a sanctionné Apple pour ses acrobaties fiscales avec l'Irlande en 2016. 
  •  
    "Convié à s'exprimer lors de la Conférence internationale des commissaires à la protection des données et de la vie privée à Bruxelles, ce mercredi 24 octobre 2018, Tim Cook a fait l'apologie d'Apple en dénonçant avec vigueur les travers dont se rend coupable un autre géant de la tech de la Silicon Valley selon lui - Facebook, sans jamais le nommer. "
Aurialie Jublin

Le contrôle des données numériques personnelles est un enjeu de liberté colle... - 0 views

  • Il serait commode de penser que l’humain du XXIe siècle a renoncé à sa vie privée. Mais il ne s’agit pourtant pas d’indifférence. Les sondages montrent avec insistance et sans ambiguïté que les internautes la chérissent encore à l’heure des réseaux sociaux et des smartphones. Comment, alors, expliquer cette apathie ?
  • Pendant des décennies, à raison, défendre la vie privée revenait à protéger l’individu. Aujourd’hui encore, on s’obstine à rechercher et mesurer les conséquences individuelles de cette collecte effrénée de données personnelles et de ces piratages à répétition. Mais le paradigme a changé : la question des données personnelle n’est pas un problème d’intimité. C’est un enjeu de liberté collective.
  • Prenez l’affaire Cambridge Analytica : le problème n’est pas que Donald Trump et son équipe de campagne ont consulté méthodiquement la liste d’amis de 87 millions d’utilisateurs de Facebook (dont plus de 200 000 Français). Mais qu’ils aient pu utiliser ces informations, agrégées à des millions d’autres, pour mener une campagne politique extrêmement personnalisée, quasi individualisée, en utilisant à plein l’invraisemblable machine à cibler des messages proposée par Facebook. L’impact de cette fuite de données personnelles n’est plus individuel, il est collectif. Il ne s’agit pas de l’intimité de son existence vis-à-vis d’une organisation politique, mais de la liberté collégiale de choisir en conscience son dirigeant politique ou ses conditions de vie commune.
  • ...2 more annotations...
  • Au bout du compte et si rien ne change, alors que ces entreprises s’immisceront de plus en plus dans nos activités quotidiennes, passant peu à peu de la « suggestion » à l’« injonction », nous serons sans doute pris au piège des données personnelles. On décidera à notre place, d’une manière qu’on nous présentera comme optimale puisque conçue sur l’analyse de données de millions de personnes dont la vie nous est similaire, et en nous confisquant une part de notre libre arbitre. Il ne s’agit pas d’intimité vis-à-vis d’une quelconque entreprise de la Silicon Valley, mais de liberté individuelle.
  • La seule solution est de limiter la dissémination aux quatre vents de nos données personnelles. Mais comment le faire sans se retirer des connexions, sociales et professionnelles, d’une société désormais numérisée ? Comment renoncer à tous ces avantages ? La solution se trouve quelque part entre le collectif (des règles politiques pour limiter la collecte et l’exploitation des données) et l’individuel (le recours à une technologie plus frugale et plus décentralisée).
  •  
    Les révélations des failles de sécurité touchant des services en ligne s'accumulent. Et la collecte de nos données fait peser un risque collectif d'envergure.
Aurialie Jublin

Interview des auteurs du livre : "Blockchain - vers de nouvelles chaînes de v... - 0 views

  • Une monnaie, qu’elle qu’en soit la forme, remplit une fonction d’utilité : principalement celle d’être un moyen d’échange facilitant les transactions. Le point commun entre les pièces d’argile, les pièces métalliques, les monnaies fiduciaire et scripturale est donc de remplir cette fonction de média d’échange. L’utilisation d’un média d’échange dans le cadre d’une transaction permet de réduire les coûts associés à celle-ci.
  • Le troc est facilement imaginable, notamment au sein de petites communautés, mais est extrêmement coûteux puisqu’il nécessite « une coïncidence des volontés ». Il faut qu’à un instant t, deux personnes aient besoin du bien proposé par l’autre mais surtout que chacun estime que la transaction est équitable. L’utilisation d’une monnaie supprime ce problème : je peux vendre un bien, conserver la monnaie en « réserve de valeur » avant de racheter un autre bien lorsque l’envie m’en prendra. Plus largement, une monnaie remplit donc classiquement trois fonctions économiques : medium d’échange, réserve de valeur (possibilité de transférer des valeurs dans le temps) et unité de compte (métrique / libellé de référence pour des acteurs).
  • Vous dites aussi qu’une autre caractéristique de la monnaie est qu’elle n’a peu ou pas de valeur intrinsèque.En effet. La valeur qu’on lui accorde dépasse de loin sa valeur fondamentale. Nul doute que le poids du métal d’une pièce de deux euros valle bien moins que deux euros. La valeur d’une monnaie repose sur la confiance, la croyance collective que lui apporte un groupe d’individus, le symbole. Nous aimons beaucoup les thèses de Yuval Noah Harari sur la construction collective des mythes et des croyances ; selon nous, une monnaie en est une. La monnaie est «l’avatar le plus représentatif de la capacité des hommes à créer des mondes intersubjectifs ». Ce constat est d’autant plus fort depuis que la fin de la convertibilité or du dollar a été actée en 1971.
  • ...7 more annotations...
  • Nous démontrons que les média d’échange ont toujours évolué dans l’histoire économique, prise dans le temps long. A ce titre, Bitcoin ne mérite pas de statut plus négatif que le billet de banque lors de son invention. Cette évolution historique n’est certes pas linéaire, et prudence doit être de mise pour ne pas tomber ni dans l’anachronisme ni dans un évolutionnisme mal placé. On peut toutefois identifier de grands changements associés au progrès technique : à chaque révolution industrielle son support. L’apprentissage de la manipulation des métaux a permis la création des pièces métalliques, l’invention de l’imprimerie a ouvert la voie à la création des billets et de la monnaie fiduciaire, la création de la comptabilité en partie double au XVe siècle a rendu possible la compensation de compte à compte sans déplacement physique de moyens d’échange. Il n’y a donc rien d’aberrant ou de surprenant à voir émerger de nouvelles formes d’échanges et de monnaies, comme le bitcoin, au gré des évolutions technologiques et sociétales. En cela, Bitcoin et la blockchain constituent une étape supplémentaire dans l’évolution de l’histoire monétaire et des transactions.
  • Pourtant, aujourd’hui, le bitcoin est rarement utilisé comme une monnaie.C’est vrai. Certes Bitcoin s’inscrit dans la continuité de l’histoire monétaire, repose sur un nouveau consensus, une nouvelle construction collective ; comme c’est le cas pour le dollar depuis des dizaines d’années. Cependant, nous pensons qu’à date Bitcoin remplit imparfaitement les fonctions monétaires, de médium d’échange, de réserve de valeur et dans une moindre mesure d’unité de compte. Imparfaitement puisque la volatilité reste trop importante et l’acceptation trop limitée pour prétendre au même statut que le dollar ou l’euro.
  • Avec le Bitcoin, c’est la première fois dans l’Histoire que l’évolution des médias d’échange se traduit par une décentralisation absolue, ou presque. Rappelons pour les novices que le protocole Bitcoin — et d’autres — permettent de transférer des valeurs en pair-à-pair, c’est-à-dire sans l’intervention de tiers centralisé, donc complètement à côté du système monétaire, financier et bancaire actuel. Bitcoin s’est donc construit selon une gouvernance diamétralement opposée au système monétaire actuel, sans lien aux Etats ou aux banques centrales ; mais aussi sans entreprise.
  • Le paradoxe en question réside dans le fait que se libérer d’un pouvoir ou d’une autorité donné ne signifie pas pour autant échapper à toute forme de contrôle. Ainsi, Bitcoin et d’autres protocoles parviennent à trouver des moyens d’échapper aussi bien au contrôle des États de manière générale, qu’à celui de la banque centrale pour ce qui concerne l’application monétaire de cette technologie. Mieux encore, elle abolit l’idée même d’autorité entre agents, ce qui constitue la condition sine qua non de l’accomplissement de la liberté dans l’optique crypto-anarchiste où fut élaborée cette technologie.
  • C’est précisément parce que tout est traçable et transparent au sein de la chaîne, que se crée une double situation dont on peut douter qu’elle soit propice à une liberté authentique. D’une part, par la sécurisation de l’information, chacun devient aliéné à son passé transactionnel, la blockchain enchaînant au sens propre l’utilisateur — fût-il anonyme — aux opérations qu’il accompli. D’autre part, au sein du système disparaissent les notions de secret et d’opacité, qui semblent constituer des fondements tout aussi décisifs d’une liberté concrète comme la volonté de ne pas être soumis à une surveillance continue.
  • Il ne faut pas confondre la dissimulation, qui est une négation — je ne suis pas identifiable — et la liberté, qui est une affirmation — je suis maître de ma volonté et de mes actes de telle sorte qu’ils me soient imputables. Or, à moins de disposer d’une définition extrêmement pauvre de la liberté — ne pas être identifié –, il semble impossible de déduire d’un anonymat la preuve d’une liberté effective ; par ailleurs, le propre de la blockchain consiste justement à rendre impossible (ou du moins difficile) l’attribution de transactions à l’identité réelle d’un individu donné. La condition même par laquelle l’individu échappe au contrôle devient la raison pour laquelle sa liberté perd son sens puisque que rien ne peut lui être imputé et que rien ne s’apparente de près ou de loin à une maîtrise responsable de sa volonté et de ses actes.
  • Enfin, la soustraction à l’endroit d’une certaine forme de contrôle (autorité, État, banques) ne garantit en rien d’éviter l’activation d’une autre forme de contrôle, plus contraignante encore puisqu’accomplie au nom de la sacro-sainte transparence mais supposant un contrôle autrement plus poussé et aliénant que le contrôle traditionnel de la puissance publique.
Aurialie Jublin

« La technologie offre aux quartiers la possibilité de devenir des espaces pr... - 0 views

  • La plupart du temps, nous n’avons pas besoin des multinationales. C’est d’ailleurs la raison pour laquelle la maire de Barcelone, Ada Colau, a pris une décision historique en interdisant les franchises dans sa ville. Changer de paradigme est un grand projet, mais changer des éléments à une échelle locale, c’est tout à fait faisable et ça commence à se faire dans de plus en plus de villes. Par exemple, moi qui suis investie dans le mouvement des fermes verticales, je constate que l'agriculture urbaine essaime : aujourd’hui, à New York, on peut même obtenir un permis pour élever une poule chez soi.
  • La technologie offre aux quartiers la possibilité de devenir des espaces productifs. Prenons le cas des quartiers défavorisés, par exemple. Très souvent, le voisin y est perçu comme un « ennemi » simplement parce qu’il est accessible : un gouvernement est hors d’atteinte, tandis qu'un voisin est un excellent souffre-douleur. Il est donc essentiel de favoriser le lien social dans ces quartiers.
  • si ces personnes doivent faire face à un problème urgent de garde d'enfant, ils n'ont souvent pas le temps de passer un coup de fil dans la journée pour trouver une solution, et s'ils s'absentent, ils risquent d'être licenciés. The Emergency Nanny permet à un groupe de personnes de confiance habitant un même quartier (coiffeur, épicier, voisin, etc.) de se rendre disponible tel jour à telle heure pour garder les enfants de la personne qui les solliciterait d'un clic via l'appli.
  • ...2 more annotations...
  • Oui, les citoyens sont des acteurs clés pour orienter les usages de la technologie. Mais aux États-Unis, les maires procèdent à l’envers. Ils font appel à des entreprises informatiques et leur achètent des solutions préconçues pour des problèmes qui n’ont pas été clairement exposés en amont. La plupart du temps, ces technologies sont inutiles. Or, c’est l’inverse qui devrait se passer : les maires devraient réunir leurs équipes et établir quels sont les besoins, en bonne intelligence avec les citoyens. Il est regrettable que les classes dirigeantes refusent à ce point de comprendre la technologie et ses potentialités. Elles ont établi que c’était l’apanage des experts et s’en sont détournées
  • Les différents habitants d'un quartier ont des connaissances spécifiques de leur zone d’habitation que n'ont ni les élus locaux, ni les experts en urbanisme. On doit utiliser cette connaissance. Chacun devrait pouvoir accéder à une plateforme pour signaler une fuite d'eau, un nid-de-poule ou autre chose. Ça mobilise les habitants dans un effort commun, ça crée du tissu social et, à terme, cela peut aussi réduire la souffrance dans les quartiers défavorisés.
  •  
    "À l'occasion du Fab City Summit, qui s'est tenu à Paris du 11 au 22 juillet, nous avons rencontré Saskia Sassen. Connue pour ses travaux autour du concept de « ville mondiale » (« global city » en VO) - qui désigne les mégapoles devenues le coeur battant de la mondialisation tant elles concentrent tous les pouvoirs - la sociologue néerlando-américaine, qui enseigne notamment à l'Université Columbia de New York, a pris le temps d'échanger sur les leviers à actionner aujourd'hui pour mieux associer les citoyens à la gouvernance urbaine et recréer du lien social en ville."
Cécile Christodoulou

La Silicon Valley et le « serment de la tech » - 0 views

  •  
    "Il est urgent de répondre à la chute de la confiance dans les compagnies technologiques. [...] Le site Doteveryone, qui se veut la plate-forme d'un Internet « plus juste », a recensé des dizaines d'initiatives."
Aurialie Jublin

dWeb : vers un web (à nouveau) décentralisé ? | InternetActu.net - 0 views

  • Les partisans du web décentralisé, explique Corbyn, souhaitent promouvoir et développer un web qui ne dépendrait plus des grandes entreprises qui amassent nos données pour en tirer profit. Pour ses promoteurs (parmi lesquels on trouve Tim Berners-Lee, Brewster Kahle ou Ted Nelson…), l’enjeu est de revenir à un web originel, avant qu’il ne soit perverti par les grandes plateformes qui ont émergé avec le web 2.0. Redistribuer le web afin que les utilisateurs gardent le contrôle de leurs données, interagissent et échangent des messages directement avec les autres membres du réseau sans passer par des services centralisés : tel est l’enjeu du dWeb.
  • Dans une série de billets un peu techniques présentant des applications concrètes de ce nouveau web décentralisé, on découvre plusieurs solutions émergentes comme Scuttlebutt, un réseau social décentralisé qui repose sur un protocole chiffré qui permet de stocker ses messages en local afin de les partager avec d’autres utilisateurs en pair à pair ; WebTorrent, un lecteur de torrent qui fonctionne dans le navigateur ; ou encore IPFS, un protocole pour remplacer le protocole HTTP du web…
  • Si ce web décentralisé est encore balbutiant, ce mouvement a été largement renouvelé par le développement des protocoles blockchain. De nouvelles applications sont apparues, comme Stealthy (un système de messagerie instantanée décentralisée), OpenBazaar (une place de marché décentralisée), GraphiteDocs (une alternative à Google Doc), Textile (une alternative à Instagram), Matrix (une alternative à Slack), DTube (une alternative à YouTube)… On y trouve aussi bien sûr les alternatives décentralisées aux réseaux sociaux que sont Akasha et Diaspora… Et même un navigateur pour explorer le web en pair à pair : Beaker Browser basé sur le protocole dat (voire les explications).
  • ...13 more annotations...
  • Cet espace ressemble plutôt à une niche de geeks, à l’image des vidéos que l’on trouve sur DTube. La contestation de la centralisation ne suffira pas à faire décoller ce nouvel attrait pour la décentralisation, pointait-il avec pertinence.
  • Dans cet essai, intitulé « Information Civics » (qu’on pourrait traduire par la citoyenneté de l’information ou par l’éducation civique des réseaux), Frazee invite à reprendre le pouvoir sur les grands réseaux sociaux. Il rappelle combien nous sommes déconnectés de la gouvernance des grandes plateformes et que cette déconnexion est ce qui motive la réponse proposée par la décentralisation.
  • Paul Frazee rappelle néanmoins que toute décentralisation n’est pas démocratique pour autant. Il égratigne notamment la gouvernance de Bitcoin qui est plus ploutocratique qu’autre chose, donnant le pouvoir à ceux qui ont le plus de capital. Etherum a provoqué la colère de nombre de ses membres lorsque l’état du registre a été modifié pour contrer un piratage. Pour Frazee, cet exemple est également la preuve que des autorités existent en dehors du code du protocole. « Ces controverses montrent que nous pourrions avoir une vision incomplète de la gouvernance et de l’autorité ».
  • Peut-on considérer la décentralisation comme étant simplement une élimination de toute autorité ? Si c’était le cas, nous n’aurions pas à discuter d’éducation civique aux réseaux, estime-t-il. Pour lui, la décentralisation ne peut pas seulement reposer sur la maximalisation de la répartition du pouvoir, au risque de donner plus de pouvoir à certains qu’à d’autres.
  • Dans les applications centralisées comme Facebook ou Google, toute autorité est confiée au serveur. Pour Frazee, ils sont par essence des services autoritaires. Les utilisateurs n’ont aucun mécanisme à leur disposition pour contraindre ou ignorer les décisions du serveur. Aucune loi ne restreint la puissance du serveur. Dire qu’ils sont autoritaires n’est pas les dénigrer, c’est décrire leur conception politique. Cet autoritarisme est particulièrement saillant lors de controverses, comme lors de mécontentement des utilisateurs dû à des changements d’interfaces, lors de colères contre les politiques de modération, la conception d’algorithmes, le placement publicitaire ou l’utilisation des données personnelles des utilisateurs… Mais au-delà de leur indignation, les utilisateurs n’ont aucun pouvoir sur ces politiques autoritaires, qui, si elles apportent du confort, apportent aussi leur lot d’anxiété quant à la manipulation, la surveillance ou la censure. Dans ce système politique, pour l’utilisateur, se révolter consiste à changer de service, bien souvent au détriment de leurs données – perdues -, ce qui ne laisse en fait pas beaucoup de place à la révolte. En passant d’un service à un autre, « les utilisateurs ne trouvent aucune libération politique ».
  • Proposer des alternatives nécessite donc de distribuer l’autorité, à l’image des services P2P, des services d’adressage chiffrés, des blockchains… Chacune de ces méthodes n’empêche pas l’utilisation de serveurs centraux ni la formation d’autorités, mais vise à les réduire. Proposer de nouvelles applications nécessite également de nouveaux protocoles qui sont plus lents à changer et à se déployer. Mais au-delà des défis techniques et sociaux liés à la mise en application, il existe des défis politiques liés à trouver des accords sur ces nouvelles normes tout comme à trouver des processus de partage de pouvoir qui ne provoquent pas de dysfonctionnements.
  • Pour y remédier, Frazee propose de s’appuyer sur des « protocoles de réseaux constitutionnels », c’est-à-dire des protocoles qui appliquent automatiquement le code, comme dans les contrats intelligents. Le code est alors une constitution parce qu’elle fournit les règles pour le fonctionnement de l’autorité et que les utilisateurs peuvent s’assurer à tout moment que la constitution est respectée. « Le constitutionnalisme de réseaux a pour effet de transférer l’autorité de l’opérateur au code » : elle assure du processus, décrit des autorités et limites leurs possibilités d’action.
  •  Je crois en l’engagement civique. Nous disposons d’outils puissants qui encodent des valeurs et des droits. Nous devons transformer les architectures de pouvoir qui sont les nôtres. »
  • Pour améliorer la structure civique du web – le rendre plus démocratique -, il faut donc rééquilibrer les droits. Peut-on permettre que les clients (c’est-à-dire les ordinateurs de chacun) aient plus de droits que les serveurs, qu’ils aient le droit de publier, le droit d’avoir une identité, le droit de déployer du code (pour décider de comment ils souhaitent que leurs applications fonctionnent) ? Seuls les réseaux pair-à-pair déploient des noeuds avec des droits égaux, rappelle-t-il. Cette question n’est pas qu’une question technique, estime Frazee, c’est une question démocratique, une question civique. Les techniciens n’ont pas à résoudre les problèmes pour les gens, mais à laisser les gens résoudre ces problèmes comme ils veulent.
  • En février, l’entrepreneur et investisseur Chris Dixon (@cdixon) était déjà revenu sur l’importance de la décentralisation. Il rappelait que le premier internet était basé sur des protocoles décentralisés, mais qu’il avait été dépassé dans les années 2000 par des services qui avaient supplanté les capacités des protocoles ouverts, comme ceux des majors du web. Pour lui aussi, la centralisation est l’une des causes des tensions sociales qui s’expriment aujourd’hui que ce soit la désinformation, la surveillance, les brèches de données… Pour autant, souligne-t-il, les réseaux décentralisés ne résoudront pas tous les problèmes.
  • Pour Primavera De Filippi (@yaoeo) – qui a publié avec Aaron Wright, Blockchain and the law ainsi qu’un Que-sais-Je ? sur ces sujets -, le web décentralisé pose également des défis juridiques et de gouvernance : qui est responsable des problèmes quand tout est décentralisé ?
  • Comme elle le souligne en conclusion de son livre, si ces systèmes promettent d’améliorer la société, ils pourraient également restreindre plus que renforcer l’autonomie et la liberté des individus. L’hypothèse qui veut que la règle du code soit supérieure à celle du droit n’est pas sans poser problème. Comme Lawrence Lessig l’a déjà dit : « Quand le gouvernement disparaît, ce n’est pas comme si le paradis allait prendre sa place. Quand les gouvernements sont partis, d’autres intérêts prendront leur place. » Pour Primavera de Filippi et Aaron Wright, le déploiement de systèmes autonomes régulés seulement par le code nous pose de nouveaux défis de responsabilité.
  • Comme le dit Yochai Benkler : «Il n’y a pas d’espace de liberté parfaite hors de toute contrainte ». Tout ce que nous pouvons faire est de choisir entre différents types de contraintes. (…) Les applications décentralisées basées sur une blockchain pourraient bien nous libérer de la tyrannie des intermédiaires centralisés et des autorités de confiance, mais cette libération pourrait se faire au prix d’une menace beaucoup plus grande encore : celle de la chute sous le joug de la tyrannie du code. »
  •  
    "La journaliste Zoë Corbyn, pour le Guardian est revenue sur le Sommet pour un web décentralisé (vidéos), qui se tenait début août à San Francisco."
Aurialie Jublin

De la tyrannie des métriques | InternetActu.net - 0 views

  • Pour Muller, nous sommes obsédés par les chiffres. Nous avons une pression irrépressible à mesurer la performance, à en publier les chiffres, et à récompenser les performances depuis ceux-ci, quand bien même l’évidence nous montre que cela ne fonctionne pas si bien. Pour Muller, notre problème n’est pas tant la mesure que ses excès. Trop souvent nous préférons substituer des chiffres, des mesures, à un jugement personnel. Trop souvent le jugement est compris comme personnel, subjectif, orienté par celui qui le produit, alors que les chiffres, en retour, eux, sont supposés fournir une information sûre et objective.
  • Trop souvent, les métriques sont contre-productives, notamment quand elles peinent à mesurer ce qui ne l’est pas, à quantifier ce qui ne peut l’être.
  • Muller montre par de nombreux exemples comment nous nous ingénions à contourner les mesures, à l’image des hôpitaux britanniques qui avaient décidé de pénaliser les services dont les temps d’attente aux urgences étaient supérieurs à 4 heures. La plupart des hôpitaux avaient résolu le problème en faisant attendre les ambulances et leurs patients en dehors de l’hôpital !
  • ...10 more annotations...
  • Pour Muller, l’obsession des métriques repose sur : la croyance qu’il est possible et désirable de remplacer le jugement acquis par l’expérience personnelle et le talent, avec des indicateurs numériques de performance comparative basés sur des données standardisées ; la croyance que rendre ces mesures publiques (c’est-à-dire transparentes) assure que les institutions effectuent leurs buts (c’est-à-dire leur responsabilité) ; la croyance que la meilleure façon de motiver les gens dans les organisations est de les attacher à des récompenses ou des pénalités depuis ces mesures de performance (que les récompenses soient monétaires ou réputationnelles)
  • Il souligne que trop souvent, on mesure le plus ce qui est le plus facile à mesurer, le plus simple. Mais c’est rarement le plus important. En mesurant le plus simple, on en oublie la complexité : ainsi quand on mesure les objectifs d’un employé, on oublie souvent que son travail est plus complexe que cela. On mesure plus facilement les sommes dépensées ou les ressources qu’on injecte dans un projet que les résultats des efforts accomplis. Les organisations mesurent plus ce qu’elles dépensent que ce qu’elles produisent.
  • Bien souvent, la mesure, sous prétexte de standardisation, dégrade l’information, notamment pour rendre les choses comparables au détriment des ambiguïtés et de l’incertitude.
  • Quant aux manières de se jouer des métriques, elles sont là aussi nombreuses : simplifier les objectifs permet souvent de les atteindre au détriment des cas difficiles ; améliorer les chiffres se fait souvent en abaissant les standards… sans parler de la triche, on ne peut plus courante.
  • C’est vraiment avec Frederick Taylor, cet ingénieur américain qui va inventer le management scientifique au début du 20e siècle, que la mesure va s’imposer. Le but même du taylorisme était de remplacer le savoir implicite des ouvriers avec des méthodes de production de masse, développées, planifiées, surveillées et contrôlées par les managers. Le Taylorisme va s’imposer en promouvant l’efficacité par la standardisation et la mesure, d’abord dans l’industrie avant de coloniser avec le siècle, tous les autres secteurs productifs.
  • Les métriques se sont imposées dans les secteurs où la confiance était faible. Les décisions humaines sont devenues trop dangereuses à mesure qu’elles impliquaient une trop grande complexité de facteurs : d’où la prolifération des métriques, des process, des règles… La demande d’un flux constant de rapports, de données, de chiffres… a finalement diminué l’autonomie de ceux qui étaient les plus bas dans les organisations.
  • Dans son livre, Muller évoque nombre de secteurs où les chiffres n’ont pas produit ce qu’on attendait d’eux. Dans le domaine scolaire, en médecine, dans le domaine militaire, dans la police et bien sûr dans les affaires… les chiffres sont souvent mal utilisés et ne parviennent pas à mesurer l’important. Bien souvent, les chiffres déplacent les objectifs, favorisent le court-termisme, découragent la prise de risque, l’innovation, la coopération… coûtent du temps
  • voire sont dommageable pour la productivité elle-même (« Une question qui devrait être posée est de savoir dans quelle mesure la culture des métriques a elle-même contribué à la stagnation économique ? »)…
  • Pour lui, il faut d’abord se poser la question de ce que l’on cherche à mesurer en se souvenant que plus un objet mesuré est influencé par la procédure de mesure, moins il est fiable. Et que ce constat empire quand la mesure repose sur l’activité humaine, plus capable de réagir au fait d’être mesurée, et pire encore quand des systèmes de récompenses ou de punition sont introduits…
  • L’information est-elle utile ? Le fait que quelque chose soit mesurable ne signifie pas qu’il faille le faire (au contraire, bien souvent la facilité à mesurer est inversement proportionnelle à sa signification !). « Posez-vous la question de ce que vous voulez vraiment savoir ! », conseille l’historien.
  •  
    "On n'a pas attendu le numérique pour produire des métriques, mais celui-ci a incontestablement simplifié et amplifié leur production. Quitte à produire un peu n'importe quelles mesures puisque celles-ci semblent désormais accessibles et ajustables en quelques clics. On connaît la rengaine : « ce qui ne peut être mesuré ne peut être géré » (même si la formule de Peter Drucker est en fait plus pertinente que ce que nous en avons retenu). Est-ce pour autant qu'on ne gère que ce que l'on sait chiffrer ?"
Aurialie Jublin

CHATONS, ces hébergeurs alternatifs qui ne collectent pas vos données personn... - 0 views

  • en détenant bien un quart des capitaux des entreprises américaines, Apple, Microsoft et Google forment à eux trois une domination économique, technologique et culturelle monstrueuse. Par principe de précaution, a-t-on réellement envie de totalement dépendre de ces géants de la télécommunication ?
  • C'est là que se situe tout l'intérêt d'avoir recours à des hébergeurs locaux. "Plutôt que de machinalement faire confiance au 'cloud', mot qui veut surtout dire 'serveur d'un géant du numérique', il est important de pousser la réflexion autour des hébergeurs transparents et neutres", propose Pierre-Yves Gosset. Outre-Atlantique par exemple, on a vu comme le Patriot Act avait servi de passe-droit aux autorités américaines voulant obliger les entreprises à leur céder des données personnelles de citoyens surveillés. Stocker ses informations dans des endroits moins centralisés, c'est donc aussi complexifier l'accès à nos données personnelles.
  •  
    "Aujourd'hui, Framasoft va plus loin encore. L'association qui promeut la culture du libre veut créer un réseau d'hébergeurs libres. But : mettre à disposition des internautes la possibilité de ne pas stocker toutes leurs données personnelles au même endroit, c'est-à-dire chez les géants du numérique qui tiennent le monde entier dépendant d'eux. Pour cela, à la façon d'une AMAP, il suffit à chaque aspirant libriste [NDLR : citoyen attaché aux valeurs éthiques du logiciel libre] de consulter cette carte afin de choisir un hébergeur pas loin de chez lui. À condition d'avoir la fibre et un garage, il est également possible de soi-même devenir hébergeur. "
Aurialie Jublin

'Web Of Trust' Browser Add-On Caught Selling Users' Data - Uninstall It Now - 0 views

  •  
    Browser extensions have become a standard part of the most popular browsers and essential part of our lives for surfing the Internet. But not all extensions can be trusted. One such innocent looking browser add-on has been caught collecting browsing history of millions of users and selling them to third-parties for making money.
Aurialie Jublin

[Fake] Internet serait-il devenu complètement fake? - Digital Society Forum - 0 views

  • Sur Internet, moins de 60% du trafic serait humain, explique l’auteur. Le reste des Internautes seraient des bots, des logiciels opérant de manière autonome sur le réseau. Au point de brouiller la frontière entre Internautes humains et non-humains. En 2013, la moitié des usagers de Youtube étaient ainsi des bots se faisant passer pour des êtres humains, ce qui avait fait craindre aux employés de la multinationale l’avènement d’une ère où les systèmes de détection du trafic frauduleux jugeraient réelle l’activité des bots, et fausse celle des êtres humains.
  • Au cours des deux dernières années, Facebook aurait également publié des chiffres erronés sur le renvoi du trafic depuis Facebook vers des sites externes, la portée des publications, ou encore le nombre de “vues” des vidéos postées sur la plateforme. Ce qui interroge, là encore, sur la notion de “réel” sur Internet.
  • “Tout ce qui semblait auparavant incontestablement réel semble maintenant légèrement faux; tout ce qui semblait auparavant légèrement faux a maintenant le pouvoir et la présence du réel”, déplore l’auteur. Et de multiplier les exemples: entre les vidéos complotistes pullulant sur Youtube, les trolls russes se faisant passer pour des soutiens de Donald Trump sur Facebook et le “deepfake”, une technique de synthèse permettant de falsifier le visage ou la voix d’une personne sur une vidéo grâce à l’intelligence artificielle, l’auteur s’inquiète de l’effondrement de toute distinction claire entre le réel et l’irréel sur Internet.
  • ...2 more annotations...
  • L’exemple de Lil Miquela , une “influenceuse” suivie par plus d’un million et demi de personnes sur Instagram, est à ce titre particulièrement révélateur. Partageant régulièrement ses états d’âme, ses séances de shopping et ses sorties entre amis sur le réseau social entre deux selfies, ce mannequin américano-brésilien est en réalité un avatar, créé grâce à l’imagerie de synthèse par une start-up californienne spécialisée en intelligence artificielle et en robotique. Un faux mannequin, donc, mais une influence bien réelle: là aussi, avertit l’auteur, la frontière entre le vrai et le faux s’émousse.
  • “Ce qui a vraiment disparu d’internet, ce n’est pas la réalité, c’est la confiance : le sentiment que les personnes et les choses que l’on y rencontre sont ce qu’elles prétendent être,” conclut l’auteur. Remédier à cet état de fait nécessite selon lui une réforme du modèle économique d’Internet qui a permis au mensonge, à la déformation et à la falsification de devenir lucratifs. Sans une telle réforme, estime-t-il, Internet risque de devenir une usine à “fakes”, et les revenus publicitaires qu’ils génèrent la seule réalité.
  •  
    "Une chronique du New York Magazine alerte sur l'abondance de contenus faux sur Internet. Selon son auteur, les manipulations de données et de faits y auraient atteint un seuil critique, au point de compromettre notre capacité à distinguer le réel de l'irréel."
1 - 20 of 22 Next ›
Showing 20 items per page