Skip to main content

Home/ QN2019/ Group items tagged technologie

Rss Feed Group items tagged

Aurialie Jublin

Technologie : l'âge sombre | InternetActu.net - 0 views

  • Pire, la technologie s’est fait la complice de tous les défis auxquels nous sommes confrontés : à la fois d’un système économique hors de contrôle qui ne cesse d’élargir les inégalités, la polarisation politique comme le réchauffement climatique. Pour Bridle, la technologie n’est pas la solution à ces défis, elle est devenue le problème. Il nous faut la comprendre plus que jamais, dans sa complexité, ses interconnexions et ses interactions : mais cette compréhension fonctionnelle ne suffit pas, il faut en saisir le contexte, les conséquences, les limites, le langage et le métalangage.
  • Trop souvent, on nous propose de résoudre ce manque de compréhension de la technologie par un peu plus d’éducation ou son corollaire, par la formation d’un peu plus de programmeurs. Mais ces deux solutions se limitent bien souvent en une compréhension procédurale des systèmes. Et cette compréhension procédurale vise surtout à renforcer la « pensée computationnelle », c’est-à-dire la pensée des ingénieurs et des informaticiens qui n’est rien d’autre que le métalangage du solutionnisme technologique 
  • Les systèmes techniques sont devenus de plus en plus complexes. Trop critiques et interconnectés pour être compris, pensés ou conçus. Leur compréhension n’est disponible plus que pour quelques-uns et le problème est que ces quelques-uns sont les mêmes que ceux qui sont au sommet des structures de pouvoir. Pour James Bridle, il y a une relation causale entre la complexité des systèmes, leur opacité, et les violences et inégalités qu’ils propagent.
  • ...32 more annotations...
  • Le cloud (l’informatique en nuage) n’est plus une métaphore du réseau, c’est l’incarnation de ce système global et surpuissant qu’aucun d’entre nous ne peut désormais attraper. Ce nuage est pourtant une bien mauvaise métaphore. Rien de ce qu’il recèle n’y est sans poids, rien n’y est amorphe ou invisible. Le cloud cache une infrastructure physique complexe faite de lignes téléphoniques, de fibre optique, de satellite, de vastes entrepôts d’ordinateurs, qui consomment d’énormes quantités d’énergie et qui influent sur de multiples juridictions. Le cloud est l’incarnation d’une nouvelle industrie.
  • De la sécurité nationale aux secrets industriels, il y a beaucoup de raisons à obscurcir ce que recouvre ce nuage. Mais ce qui s’en évapore est assurément notre propriété (dans les nuages, tout appartient à d’autres) et notre agentivité, c’est-à-dire notre capacité à faire.
  • Le réseau donne l’impression d’être à la fois l’idéal de progrès le plus abouti et l’idéal de base de notre culture tout en paraissant avoir émergé inconsciemment, poursuivant son but d’interconnexion sans fin pour lui-même et par lui-même… « Nous présumons que l’interconnexion est inhérente et inévitable. Le réseau semble être devenu le résultat du progrès, son accomplissement ultime », à l’image de machines qui accompliraient ainsi leurs propres désirs. Internet semble avoir accompli l’idéal des Lumières, l’idéal du progrès : celui que plus de connaissance et plus d’information conduit toujours à prendre de meilleures décisions.
  • Mais n’est-ce pas plutôt le contraire auquel nous assistons ? « Ce qui était censé éclairer le monde l’a obscurci. L’abondance d’information et la pluralité d’opinion accessible à tous n’ont pas produit un consensus cohérent, mais au contraire a déchiré la réalité en narrations simplistes, en théories fumeuses et en politique d’opinion. Contrairement au Moyen Âge, où l’âge sombre était lié à une perte de connaissance antique, l’âge sombre moderne est lié à une abondance de connaissance dont nous ne savons plus démêler collectivement l’apport. »
  • L’obscurité dont parle Bridle c’est notre incapacité à voir clairement ce qui est devant nous, avec capacité et justice. Pour Bridle pourtant, ce constat ne doit pas être lu comme une condamnation de la technologie. Au contraire. Pour relever l’âge sombre qui s’annonce, il nous faut nous engager plus avant dans la technologie, avec elle, mais avec une compréhension radicalement différente de ce qu’il est possible d’en faire, en retrouver un sens que la seule recherche d’efficacité nous a fait perdre. Tout comme le changement climatique, les effets de la technologie s’étendent sur le globe et affectent tous les aspects de nos vies. Mais comme le changement climatique, ses effets sont potentiellement catastrophiques et résultent de notre incapacité à comprendre les conséquences de nos propres inventions. Nous devons changer de manière de voir et penser le monde, nous invite Bridle, un peu facilement ou naïvement.
  • « En rapprochant la simulation de l’approximation, les grands prêtres de la pensée computationnelle pensent remplacer le monde par des modèles biaisés de lui-même ; et en le faisant, les modeleurs s’assurent du contrôle du monde. » James Bridle s’inscrit dans la continuité des constats de l’historien des sciences David Noble qui, dans Le progrès sans le peuple notamment, soulignait combien la pensée des ingénieurs avait contribué à donner du pouvoir aux puissants plutôt que favoriser l’équité ou la démocratie ; comme dans celle de Richard Sclove du Loka Institute, qui dans Choix technologiques, choix de société, soulignait combien les enjeux démocratiques restaient le parent pauvre de la question technologique.
  • La pensée computationnelle s’infiltre partout : elle devient notre culture. Elle nous conditionne à la fois parce qu’elle nous est illisible et à la fois parce que nous la percevons comme neutre émotionnellement et politiquement. Les réponses automatisées nous semblent plus dignes de confiance que celles qui ne le sont pas. Dans la pensée computationnelle, nous sommes victimes du biais d’automatisation : « nous avons plus confiance dans l’information automatisée que dans notre propre expérience, même si elle est en conflit avec ce qu’on observe ». Les conducteurs de voitures comme les pilotes d’avion ont plus tendance à croire leurs instruments que leur expérience, même si celle-ci n’est pas alignée.
  • Pour Bridle, l’informatique, en ce sens, est un piratage de notre capacité cognitive, de notre capacité attentionnelle, qui renvoie toute responsabilité sur la machine. « À mesure que la vie s’accélère, les machines ne cessent de prendre en main de plus en plus de tâches cognitives, renforçant par là leur autorité – sans regarder les conséquences ». « Nous nous accommodons de mieux en mieux et de plus en plus aux confortables raccourcis cognitifs que nous proposent nos machines. L’informatique remplace la pensée consciente. Nous pensons de plus en plus comme des machines, ou plutôt nous ne pensons plus du tout ! ».
  • « Ce qui est difficile à modéliser, à calculer, à quantifier, ce qui est incertain ou ambigu, est désormais exclu du futur possible. » L’informatique projette un futur qui ressemble au passé (« Les algorithmes ne prédisent pas le futur, ils codifient le passé », disait déjà Cathy O’Neil). La pensée computationnelle est paresseuse. Elle propose finalement des réponses faciles. Elle nous fait croire qu’il y a toujours des réponses.
  • les réseaux souffrent d’une gouvernance fragmentée, sans responsabilités claires, peu cartographiés et sous-financés ; des infrastructures en silos ; des investissements privés comme publics insuffisants et plus encore un manque de compréhension de la complexité de leur fonctionnement… expliquent leur fragilité intrinsèque et la difficulté de leur maintenance. Ajoutez à cela les impacts du changement climatique sur leur maintenance et leur évolution et vous comprendrez que les réseaux ne sont pas dimensionnés pour faire face au futur. Bref, non seulement l’informatique contribue largement au réchauffement climatique, mais elle risque d’en être l’une des principales victimes.
  • Mais les grands volumes de données ne produisent pas de la connaissance automatiquement. Dans la recherche pharmacologique par exemple, les dépenses et investissements n’ont jamais été aussi forts alors que les découvertes, elles, n’ont jamais produit aussi peu de nouveaux traitements. On appelle cela la loi d’Eroom : l’exact inverse de la loi de Moore. Le nombre de résultats de recherche chute et ces résultats sont de moins en moins dignes de confiance. Si les publications scientifiques n’ont jamais été aussi volumineuses (au détriment de leur qualité), les rétractions ont augmenté et le nombre de recherches ayant un impact significatif, elles, ont diminué proportionnellement. La science connaît une crise de réplicabilité majeure.
  • Plusieurs facteurs expliquent ce revirement de la loi du progrès. La première est que les choses les plus évidentes à découvrir ont été exploitées. La régulation est également devenue plus exigeante et la société moins tolérante aux risques. Mais le problème principal relève certainement des méthodes désormais employées. Historiquement, la découverte de médicament était le fait de petites équipes de chercheurs qui se concentrait intensément sur de petits groupes de molécules. Mais depuis 20 ans, ces processus ont été largement automatisés, sous la forme de ce qu’on appelle le HTS (High-throughput screening pour criblage à haut débit) qui consiste en des recherches automatisées de réactions potentielles via de vastes bibliothèques de composants. Le HTS a priorisé le volume sur la profondeur. Ce qui a marché dans d’autres industries a colonisé la recherche pharmaceutique : automatisation, systématisation et mesures… Certains commencent à douter de l’efficacité de ces méthodes et voudraient revenir à l’empirisme humain, au hasard, au bordel, au jeu… À nouveau, « la façon dont nous pensons le monde est façonnée par les outils à notre disposition ». Nos instruments déterminent ce qui peut être fait et donc, ce qui peut être pensé. À mesure que la science est de plus en plus technologisée, tous les domaines de la pensée humaine le sont à leur tour. Les vastes quantités de données ne nous aident qu’à voir les problèmes des vastes quantités de données.
  • Les bourses et places de marchés d’antan ont été remplacées par des entrepôts, des data centers, anonymes, dans des banlieues d’affaires impersonnelles. La dérégulation et la numérisation ont transformé en profondeur les marchés financiers. La vitesse des échanges s’est accélérée avec la technologie. Les transactions à haute fréquence (HFT, High-frequency trading) reposent sur la latence et la visibilité. La latence, c’est-à-dire la rapidité d’échange où des millions peuvent s’échanger en quelques millisecondes et la visibilité (sauf pour les non-initiés), c’est-à-dire le fait que les échanges sont visibles de tous les participants, instantanément. Les échanges reposent sur des algorithmes capables de calculer des variations éclair et de masquer les mouvements de fonds. Les échanges sont plus opaques que jamais : ils s’imposent sur des forums privés, les « dark pools » (en 2015, la SEC, l’organisme américain de réglementation et de contrôle des marchés financiers, estimait que les échanges privés représentaient 1/5e du total des échanges)… Les échanges financiers ont été rendus obscurs et plus inégaux que jamais, rappelle Bridle.
  • Pour Bridle, l’une des clefs qui expliquent que les inégalités se renforcent avec la technologie est intrinsèquement liée à l’opacité des systèmes. Comme les robots des entrepôts d’Amazon et ses employés commandés par des commandes vocales émanant de robots, nous sommes en train d’arranger le monde pour rendre les machines toujours plus efficaces, quitte à ce que le monde devienne incompréhensible et inadapté aux humains. Les travailleurs deviennent le carburant des algorithmes, utiles seulement pour leurs capacités à se déplacer et à suivre des ordres. Pour Bridle, les startups et les Gafam signent le retour des barons voleurs, ces tyrans industriels du XIXe siècle. La technologie est venue couvrir d’un voile d’opacité la prédation : l’avidité s’est habillée de la logique inhumaine des machines. Amazon ou Uber cachent derrière des pixels lumineux un système d’exploitation sans faille
  • Pour la sociologue Deborah Cowen (@debcowen), nous sommes entrés dans la tyrannie de la techne explique-t-elle dans The Deadly Life of Logistics (2014) : l’efficacité est devenu primordiale sur tous les autres objectifs, sur toutes les autres valeurs
  • Autre exemple avec How-Old.net un outil de reconnaissance faciale qui tente de prédire l’âge d’une personne, et qui a été utilisée pour deviner l’âge de migrants arrivants au Royaume-Uni. Microsoft, qui a développé cette application, s’est défendu et a dénoncé cette utilisation… comme les 2 chercheurs chinois. Ceux-ci expliquaient néanmoins dans leur défense que leur système était « sans préjugé » (sic). Comme souvent, on nous explique que la technologie, et plus encore l’apprentissage automatisé, est neutre. Mais « la technologie n’émerge pas de nulle part. Elle est toujours la réification de croyances et de désirs, notamment de ses créateurs. Leurs biais sont encodés dans les machines et les bases de données ou les images que nous prenons du monde. »
  • Pour Bridle, le problème n’est pas tant que les machines puissent réécrire la réalité, mais que la réalité, le passé comme le futur, ne puissent plus être correctement racontés. DeepDream de Google illustre parfaitement cela. L’enjeu n’est pas pour nous de comprendre ce qu’est l’image, mais de nous demander ce que le réseau de neurones veut y voir ?
  • Pour Bridle, nous devrions ajouter une 4e loi aux trois lois de la robotique d’Asimov. Les machines intelligentes devraient être capables de s’expliquer aux humains. Ce devrait être une loi première, car éthique. Mais le fait que ce garde-fou ait déjà été brisé laisse peu d’espoir quant au fait que les autres règles le soient à leur tour. « Nous allons devoir affronter un monde où nous ne comprendrons plus nos propres créations et le résultat d’une telle opacité sera toujours et inévitablement violent ».
  • Pour Bridle, l’alliance entre l’humain et la machine peut encore fonctionner, comme l’a montré Garry Kasparov avec les échecs avancés, consistant à ce qu’une IA et qu’un humain jouent ensemble plutôt qu’ils ne s’affrontent. C’est dans la perspective d’associer les talents des humains et des machines, d’associer leurs différences d’une manière coopérative plutôt que compétitive que nous parviendrons à réduire l’opacité computationnelle. La perspective que l’intelligence des machines nous dépasse dans nombre de disciplines est une perspective destructrice. Nous devons trouver la voie d’une éthique de la coopération avec les machines, plutôt qu’un affrontement.
  • Bridle s’en prend également longuement à la surveillance et notamment à la surveillance d’Etat pour souligner combien elle nous est masquée et continue à l’être, malgré les révélations d’Edward Snowden. Vous pouvez lire n’importe quel e-mail dans le monde d’une personne dont vous avez l’adresse. Vous pouvez regarder le trafic de tout site web. Vous pouvez suivre les mouvements de tout ordinateur portable à travers le monde. Pour Bridle, cela nous a montré qu’il n’y a pas de restriction possible à la capacité de surveillance du réseau. L’échelle et la taille de la surveillance a excédé ce que nous pensions comme étant techniquement possible.
  • En opposition au secret, nous demandons de la transparence, mais elle n’est peut-être pas le bon levier. La NSA et Wikileaks partagent la même vision du monde avec des finalités différentes, rappelle Bridle. Les deux pensent qu’il y a des secrets au coeur du monde qui, s’ils étaient connus, pourraient rendre le monde meilleur. Wikileaks veut la transparence pour tous. La NSA veut la transparence pour elle. Les deux fonctionnent sur une même vision du monde. Wikileaks ne voulait pas devenir le miroir de la NSA, mais voulait briser la machine de surveillance. En 2006, Assange a écrit « Conspiracy as Governance » (.pdf). Pour lui, tout système autoritaire repose sur des conspirations, car leur pouvoir repose sur le secret. Les leaks minent leur pouvoir, pas par ce qui fuite, mais parce que la peur et la paranoïa dégradent la capacité du système autoritaire à conspirer. Mais les fuites de données ne suffisent pas à remettre en cause ou à abattre l’autorité. Les révélations ne font pas bouger l’opinion, sinon, nous aurions réagi bien avant les révélations de Snowden. Tant que les organisations de surveillance ne changent pas de l’intérieur, ceux qui sont en dehors de ces organisations, comme les lanceurs d’alertes, n’ont pas de capacité d’action. Ils attendent que des fonctionnaires ou que la justice confirment ce qu’ils avancent.
  • Mais la lumière du calcul nous dépossède de pouvoir, car elle nous fait crouler sous l’information et nous donne un faux sens de la sécurité. C’est là encore une conséquence de la pensée computationnelle. « Notre vision est devenue universelle, mais notre capacité d’action, elle, s’est réduite plus que jamais. » A l’image du réchauffement climatique, à nouveau, « nous savons de plus en plus de choses sur le monde, mais nous sommes de moins en moins capable d’agir sur lui ». Au final, nous nous sentons plus démunis que jamais. Plutôt que de reconsidérer nos hypothèses, nous nous enfonçons dans la paranoïa et la désintégration sociale.
  • Le monde est devenu trop complexe pour des histoires simples. En fait, « la démultiplication de l’information ne produit pas plus de clarté, mais plus de confusion ». L’un des symptômes de la paranoïa consiste à croire que quelqu’un vous surveille. Mais cette croyance est désormais devenue raisonnable, s’amuse Bridle en évoquant la surveillance d’Etat comme la surveillance des services numériques. Nous sommes entièrement sous contrôle, tant et si bien qu’on peut se demander qui est paranoïaque désormais ?
  • « Les théories conspirationnistes sont le dernier ressort des sans pouvoirs, imaginant ce que serait que d’être puissant », avance Bridle. Pour le spécialiste de la postmodernité, Frederic Jameson, les théories conspirationnistes sont « la cartographie cognitive des plus démunis dans un âge postmoderne ». C’est la figure dégradée de la logique par ceux qui ont le moins de capital culturel, une tentative désespérée de se représenter un système qu’ils ne comprennent pas. Encerclé par l’évidence de la complexité, l’individu a recours à un récit simpliste pour tenter de regagner un peu de contrôle sur la situation. À mesure que la technologie augmente et accélère le monde, celui-ci devient plus complexe. Les théories conspirationnistes deviennent alors des réponses, étranges, intriquées et violentes, pour s’en accommoder.
  • Ainsi, si vous cherchez de l’information sur les vaccins, vous tomberez invariablement sur de l’information contre les vaccins. Si vous cherchez de l’information sur la rotondité de la terre, vous tomberez inexorablement sur ceux qui pensent qu’elle est plate. Ces opinions divergentes semblent devenir la majorité tant elles sont exprimées et répétées avec force. « Ce qui se passe quand vous désirez en savoir de plus en plus sur le monde entre en collision avec un système qui va continuer à assortir ses réponses à n’importe quelle question, sans résolution ». Vous trouverez toujours quelqu’un pour rejoindre vos points de vue. Et toujours un flux pour les valider. Voici l’âge de la radicalisation algorithmique (à l’image de ce que disait Zeynep Tufekci de YouTube). Les théories conspirationnistes sont devenues la narration dominante. Elles expliquent tout. Dans la zone grise des connaissances, tout prend un sens.
  • Les failles des algorithmes sont les dernières failles du capitalisme où certains s’infiltrent non pas pour le renverser, mais pour tenter de gratter un peu d’argent que les plus gros systèmes s’accaparent. Au final, des vidéos automatisées finissent par être vues par des enfants. Leurs personnages préférés y font n’importe quoi, parfois suggèrent des scènes de meurtre ou de viols. Ces effets de réseaux causent des problèmes réels. Les algorithmes de YouTube ont besoin d’exploitation pour produire leurs revenus. Derrière leurs aspects séduisants, ils encodent les pires aspects du marché, notamment l’avidité. « La capacité à exploiter l’autre est encodée dans les systèmes que nous construisons », pointe très justement James Bridle, puisque leur efficacité repose sur leur capacité à extraire de l’argent de nos comportements.
  • À défaut d’une solution, Google annonçait en avril que l’application YouTube Kids allait devenir « non-algorithmique »… À croire, comme le pointait très justement le chercheur Olivier Ertzscheid, que l’algorithimsation n’est pas une solution sans limites.
  • Pour Bridle, les humains sont dégradés des deux côtés de l’équation : à la fois dans l’exploitation qui est faite de leur attention et à la fois dans l’exploitation de leur travail. Ces nouvelles formes de violence sont inhérentes aux systèmes numériques et à leur motivation capitaliste. Le système favorise l’abus et ceux qui le produisent sont complices, accuse-t-il. L’architecture qu’ils ont construite pour extraire le maximum de revenus des vidéos en ligne a été hackée par d’autres systèmes pour abuser d’enfants à une échelle massive. Les propriétaires de ces plateformes ont une responsabilité forte dans l’exploitation qu’ils ont mise en place. « C’est profondément un âge sombre quand les structures qu’on a construites pour étendre la sphère de communications sont utilisées contre nous d’une manière systématique et automatique. »
  • Pour Bridle, les fausses nouvelles ne sont pas le produit de l’internet. Elles sont le produit de la cupidité et de la démocratisation de la propagande où tout a chacun peut devenir un propagandiste. Elles sont un amplificateur de la division qui existe déjà dans la société, comme les sites conspirationnistes amplifient la schizophrénie.
  • Mais ce qu’il y a de commun avec le Brexit, les élections américaines ou les profondeurs de YouTube, c’est que malgré tous les soupçons, il reste impossible de savoir qui fait ça, qu’elles sont leurs motivations, leurs intentions. On peut regarder sans fin ces flux vidéos, on peut parcourir sans fin les murs de mises à jour de statuts ou de tweets… cela ne permet pas de discerner clairement ce qui est généré algorithmiquement ou ce qui est construit délibérément et soigneusement pour générer des revenus publicitaires. On ne peut pas discerner clairement la fiction paranoïaque, l’action d’États, la propagande du spam… Ces confusions servent les manipulateurs quels qu’ils soient bien sûr, mais cela les dépasse aussi. C’est la manière dont le monde est. Personne ne semble réellement décider de son évolution… « Personne ne veut d’un âge sombre, mais nous le construisons quand même et nous allons devoir y vivre. »
  • Exploiter plus de données pour construire de meilleurs systèmes est une erreur. Cette méthode ne parviendra pas à prendre en compte la complexité humaine ni à la résoudre. Le développement de l’information n’a pas conduit à une meilleure compréhension du monde, mais au développement de points de vue alternatifs et concurrents. Nous devons changer nos façons de penser comme nous y invitait Lovecraft. Nous ne survivrons pas plus à l’information brute qu’à la bombe atomique. Le nouvel âge sombre est un lieu où le futur devient radicalement incertain et où le passé devient irrévocablement contesté. Mais c’est le présent dans lequel nous devons vivre et penser. Nous ne sommes pas sans pouvoir ni capacités. Mais pour cela nous devons nous défaire des promesses illusoires de la pensée computationnelle. Penser le monde autre, c’est ce à quoi nous invite James Bridle dans le nouvel âge sombre.
  • Reste à savoir si cet âge sombre des technologies est vraiment notre avenir. L’âge sombre du Moyen Âge n’a jamais vraiment existé ailleurs que dans les lacunes des historiens. On peut douter également de cette nouvelle obscurité ou regretter le titre faussement prophétique. Reste que la complexité et l’intrication du monde que décrit James Bridle, montrent combien il nous faut, plus que jamais, nous défaire justement d’une vision simple et manichéenne de la technologie.
  •  
    "Ce New Dark Age porte un titre prophétique et apocalyptique. Un peu trop peut-être. C'est effectivement un livre très critique sur notre rapport à la technologie, très éloigné du rapport souvent curieux et amusé que Bridle portait aux technologies avec la nouvelle esthétique. En une dizaine de chapitres, Bridle explore les glitchs qui sont désormais devenus des schismes, des scissions, des ruptures… comme s'ils n'étaient plus aussi distrayants. Dans son livre, il montre combien les bugs se cristallisent en caractéristiques. Combien la complexité technique que nous avons construite s'entremêle pour produire des effets en réseau, complexes, profonds, intriqués que nous ne parvenons plus vraiment à démêler. Son constat principal consiste à dire que ces dysfonctionnements ne sont pas amenés à être corrigés. Ils sont au contraire intrinsèques à la nature même des technologies qui se déploient aujourd'hui. Contrairement à ce que nous annonçaient les pionniers et les prophètes des technologies, pour Bridle, la technologie n'annonce pas de nouvelles Lumières ou une Renaissance, mais, comme Jules Michelet parlait du Moyen Âge, un âge sombre, une ère d'obscurité pour ne pas dire d'obscurantisme. Ni les réseaux sociaux, ni l'intelligence artificielle, ni les systèmes techniques ne vont nous aider à faire monde commun. Au contraire."
Aurialie Jublin

Pourquoi la technologie n'est pas démocratique et comment elle peut le devenir - 0 views

  • les technologies font rarement l’objet de débats démocratiques, il nous semble même étrange d’accoler les deux termes, comme si ce qui était « technique » sortait par principe de la sphère du débat. Les seuls critères peut-être, qui mériteraient des discussions, seraient les analyses coûts / bénéfices et les risques sanitaires et environnementaux.
  • Comment expliquer ce déficit démocratique ? Sclove le met sur le compte d’un malentendu à propos de la technologie : nous aurions trop tendance à penser chaque objet à travers un usage unique. Un marteau par exemple, sert à planter un clou et ce serait tout. En fait, lorsqu’un homme plante un clou, il développe ses muscles, sue, s’affirme, se souvient des mythes de Vulcain et Thor, du garage de son grand-père, etc. Le marteau lui, a nécessité de couper un arbre, extraire du minerai de fer, c’est un objet plutôt utilisé pour travailler seul (il n’a qu’un manche) qui véhicule donc une certaine forme d’organisation du travail. Comme toutes les technologies, les marteaux sont « polypotents », c’est-à-dire bourrés d’effets secondaires et d’externalités de toutes sortes qui passent bien souvent à la trappe. C’est au regard de ces effets qu’une démocratie devrait pouvoir anticiper, jauger, et décider ou non d’adopter une technologie.
  • La seconde critique affirme que « prévoir » les externalités positives ou négatives d’une technologie est difficile. Sclove l’admet volontiers mais nuance néanmoins : il reste que les citoyens sont les plus à même de savoir si une technologie va changer leur vie, les forcer à travailler ensemble ou isolément, procurer du plaisir ou de l’apathie, accroitre ou non l’autonomie ou la dépendance à une entité centralisée. Qui plus est, la démocratie technique n’agit pas qu’à l’endroit des nouveautés, elle concerne également le régime technologique présent : questionner l’existant est aussi une manière de ne pas le renforcer dans ses défauts.
  • ...10 more annotations...
  • Mais tout n’est pas si simple et les résistances sont nombreuses. La démocratie technique souffre de deux critiques majeures. La première prétend que les gens simples ne sont « pas capables » de prendre ce genre de décisions, ne font pas le poids face aux avis d’experts, en bref, la parole populaire est envisagée comme un risque à ne pas prendre.
  • En fait, les freins à la démocratie technique sont ceux dont souffre la représentativité citoyenne en général (la démocratie participative, le tirage au sort) : une certaine peur de la parole populaire et une foi aveugle en un régime technocratique qui pourrait s’absoudre de toute position idéologique, quand bien même il est incapable d’observer les siennes. Cela s’explique. Pour Sclove, les citoyens ont davantage d’intérêt au développement de la démocratie que les experts car ils sont plus à même de comprendre comment la technologie va concrètement changer leur vie.
  • Très concrètement, les technologies peuvent être autoritaires (quand par exemple elles perpétuent des hiérarchies illégitimes), individualisées (lorsque les individus peuvent leur attribuer seuls un rôle ou un autre), communautaires ou coopératives (lorsqu’elles perpétuent des hiérarchies légitimes, par exemple une hiérarchie qui amène à plus de démocratie), de masse (ce qui implique une élite détachée du reste) et transcommunautaires (qui facilite les relations entre plusieurs communautés).
  • De cette patiente déconstruction des enjeux démocratiques liés aux différents régimes technologiques, Richard Sclove dégage un certain nombre de critères de nature à faciliter la prise de décision démocratique. Pour commencer, il faudrait veiller à trouver le juste équilibre entre toutes ces formes de technologies (c’est-à-dire le bon rapport de pouvoir). Richard Sclove propose ensuite de « limiter les techniques débilitantes »
  • Parmi les autres « critères de conception démocratiques », Richard Sclove mentionne les technologies permettant une relative autonomie, capables de contenir les externalités environnementales et sociales à l’intérieur du domaine politique local, soutenables écologiquement et flexibles, c’est-à-dire susceptible de recevoir des évolutions facilement.
  • Ces critères peuvent bien sûr soulever un certain nombre de craintes légitimes. Un cadre aussi strict n’est-il pas l’assurance de signer l’arrêt de mort de toute innovation ? Richard Sclove répond par la négative. D’une part, les procédés démocratiques qu’il promeut (inspirés des modèles de conférences de consensus et autres conférences citoyennes) agissent toujours à un niveau relativement local. Si une technologie n’est pas adoptée à un endroit, elle le sera probablement ailleurs, l’objectif étant de favoriser un pluralisme technologique. Si la technologie s’avère être sans risque, alors elle pourra se diffuser.
  • Entrer dans le concret est une autre paire de manche. Pour Sclove, la première étape doit être celle de la prise de conscience. Il faudrait commencer au niveau local, par inventorier les technologies selon les critères déjà expliqués.
  • Il faudrait aussi changer de regard sur la technologie, les discours médiatiques sont bien souvent focalisés sur des « découvertes stupéfiantes » et autres « récits sensationnels ». Il faut une critique sociale de la technologie qui ne soit pas une parole descendante de la part des « experts-qui-éclairent-les-masses. »
  • Concernant le type d’institutions à mettre en place, pas de suspense, il faut tester, échouer, apprendre. De nombreuses approches déjà bien documentées ont fait leurs preuves. Le point sensible reste la bonne représentativité des citoyens. Structurellement, les experts sont surreprésentés car le personnel politique, peu formé et en manque de temps, se repose sur un personnel non-élu qui les sollicite. Ceux-là sont rarement impartiaux, peu à même d’envisager les implications sociales et politiques d’une technologie et participent pourtant à des décisions d’envergure (comme on l’a vu dans le cas des systèmes automatisés pour les aides sociales). I
  • Pour autant, nous ne devrions pas totalement baisser les bras : il reste des tas d’endroits où un contrôle démocratique est possible et même souhaitable : transport et mobilité, urbanisme, automatisation du travail, ces champs sont bien souvent laissés à l’appréciation d’entreprises, de techniciens et d’experts qui peinent à solliciter les citoyens (si tant est qu’ils le veuillent).
  •  
    "L'innovation, loin de n'être qu'une affaire technique, transforme profondément et durablement les sociétés. La plupart des technologies sont pourtant adoptées sans qu'aucun processus démocratique ne soit mis en oeuvre. Le citoyen peut-il avoir son mot à dire, et sous quelle forme ? Cette question essentielle a été posée il y a 15 ans par Richard Sclove, fondateur du Loka Institute. Mais Où Va Le Web, média d'analyse souhaitant « p(a)nser le numérique », s'est plongé dans un essai d'autant plus intéressant qu'il promeut des procédés démocratiques concrets, des conférences de consensus aux « Déclarations d'impact social et politique »"
Aurialie Jublin

« La technologie offre aux quartiers la possibilité de devenir des espaces pr... - 0 views

  • La plupart du temps, nous n’avons pas besoin des multinationales. C’est d’ailleurs la raison pour laquelle la maire de Barcelone, Ada Colau, a pris une décision historique en interdisant les franchises dans sa ville. Changer de paradigme est un grand projet, mais changer des éléments à une échelle locale, c’est tout à fait faisable et ça commence à se faire dans de plus en plus de villes. Par exemple, moi qui suis investie dans le mouvement des fermes verticales, je constate que l'agriculture urbaine essaime : aujourd’hui, à New York, on peut même obtenir un permis pour élever une poule chez soi.
  • La technologie offre aux quartiers la possibilité de devenir des espaces productifs. Prenons le cas des quartiers défavorisés, par exemple. Très souvent, le voisin y est perçu comme un « ennemi » simplement parce qu’il est accessible : un gouvernement est hors d’atteinte, tandis qu'un voisin est un excellent souffre-douleur. Il est donc essentiel de favoriser le lien social dans ces quartiers.
  • si ces personnes doivent faire face à un problème urgent de garde d'enfant, ils n'ont souvent pas le temps de passer un coup de fil dans la journée pour trouver une solution, et s'ils s'absentent, ils risquent d'être licenciés. The Emergency Nanny permet à un groupe de personnes de confiance habitant un même quartier (coiffeur, épicier, voisin, etc.) de se rendre disponible tel jour à telle heure pour garder les enfants de la personne qui les solliciterait d'un clic via l'appli.
  • ...2 more annotations...
  • Oui, les citoyens sont des acteurs clés pour orienter les usages de la technologie. Mais aux États-Unis, les maires procèdent à l’envers. Ils font appel à des entreprises informatiques et leur achètent des solutions préconçues pour des problèmes qui n’ont pas été clairement exposés en amont. La plupart du temps, ces technologies sont inutiles. Or, c’est l’inverse qui devrait se passer : les maires devraient réunir leurs équipes et établir quels sont les besoins, en bonne intelligence avec les citoyens. Il est regrettable que les classes dirigeantes refusent à ce point de comprendre la technologie et ses potentialités. Elles ont établi que c’était l’apanage des experts et s’en sont détournées
  • Les différents habitants d'un quartier ont des connaissances spécifiques de leur zone d’habitation que n'ont ni les élus locaux, ni les experts en urbanisme. On doit utiliser cette connaissance. Chacun devrait pouvoir accéder à une plateforme pour signaler une fuite d'eau, un nid-de-poule ou autre chose. Ça mobilise les habitants dans un effort commun, ça crée du tissu social et, à terme, cela peut aussi réduire la souffrance dans les quartiers défavorisés.
  •  
    "À l'occasion du Fab City Summit, qui s'est tenu à Paris du 11 au 22 juillet, nous avons rencontré Saskia Sassen. Connue pour ses travaux autour du concept de « ville mondiale » (« global city » en VO) - qui désigne les mégapoles devenues le coeur battant de la mondialisation tant elles concentrent tous les pouvoirs - la sociologue néerlando-américaine, qui enseigne notamment à l'Université Columbia de New York, a pris le temps d'échanger sur les leviers à actionner aujourd'hui pour mieux associer les citoyens à la gouvernance urbaine et recréer du lien social en ville."
Aurialie Jublin

Les technologies P2P sont-elles bonnes ou mauvaises ? | Solidarités Émergentes - 0 views

  • Ce qui nous intéresse est la manière dont les gens peuvent utiliser des technologies en réseau pour leurs propres fins et, ce faisant, changer la société pour le meilleur, au regard des trois critères que sont l’équité, la durabilité et l’ouverture. Si, dans le même élan, nous parvenons à dépasser le modèle extractif et exploiteur du capitalisme global, au profit d’un système de création et d’échange de valeur, fondé sur les communs, il en résultera un changement profond de la nature même de notre civilisation.
  • Les technologies numériques « de beaucoup a beaucoup » facilitent non seulement l’auto-organisation de masse à l’échelle globale, mais aussi le développement de nouveaux modes de production, d’un nouveau mode d’échange et de nouveaux types de relations de production, en dehors de l’emprise conjointe de l’État et du marché.
  • Mais il est désormais possible de développer des projets à grande échelle grâce à de nouveaux mécanismes de coordination qui permettent de rester dans une dynamique de petits groupes à l’échelle globale. Il devient donc possible de combiner des structures plus horizontales tout en opérant de manière efficace à grande échelle. Ce qui n’avait jamais été le cas auparavant.
  •  
    "Notre thèse n'est pas qu'une technologie particulière mènera inévitablement à un État social déterminé. Nous reconnaissons néanmoins le rôle clé joué par les technologies dans l'évolution de la société, les nouvelles possibilités qu'elles ouvrent dès lors que certains groupes humains les utilisent avec succès. Différentes forces sociales investissent ces possibilités et tentent de les tourner à leur avantage en luttant pour tirer profit de leur utilisation. La meilleure manière d'appréhender la technologie est donc de la considérer comme un enjeu de lutte sociale, et non comme un déterminisme qui ne peut mener qu'à un seul avenir possible."
Aurialie Jublin

The next billion users : une immersion dans l'internet des pauvres - Digital Society Forum - 0 views

  • Rien n’y fait : équipés d’Internet, les pauvres ne font pas du tout ce qu’on attend d’eux, à savoir se sortir de la pauvreté. Les cabines numériques disposées dans les villages indiens deviennent des bornes d’arcade et, surprise, les cent millions d’ordinateurs de l’opération « One laptop per child » (financée par des entreprises, notamment AMD, Brightstar Corporation, eBay, Google, Marvell, etc.) n’ont pas réduit le fossé éducatif, sans doute parce qu’ils avaient été distribués à des enfants ne sachant parfois ni lire ni écrire. Des absurdités de ce type, l’autrice en dresse une longue liste, comme ces smartphones que l’on distribue à de jeunes femmes n’ayant le droit de s’en servir que pour passer des appels d’urgence. A New Delhi, d’autres jeunes femmes (les « computer girls ») deviennent des craques de l’informatique, mais restent assignées à leur statut traditionnel, système de castes oblige. Le constat est sans ambiguïté : non seulement la technologie tombe du ciel sans être intégrée dans une quelconque stratégie sociale, mais toute tentative de réappropriation est méprisée et découragée.
  • Histoire similaire en Chine, où l’on craignait que les cybercafés populaires ne favorisent les activités anti-régime. Ils furent rapidement interdits aux mineurs et on y généralisa le tracking, une pratique désormais monnaie courante dans l’Empire du Milieu. D’exemple en exemple, Payal Arora démontre que les décisions prises par les pouvoirs en place n’ont eu de cesse de réduire l’accès à Internet et à la culture aux personnes les moins dotées, sous prétexte que l’usage qui en serait fait n’entrerait pas dans les bons standards de moralité. Comme souvent, les pauvres font l’objet de politiques paternalistes : on leur demande d’être vertueux et le moindre faux pas les condamne.
  • A l’inverse, la débrouille des quartiers défavorisés est érigée en exemple à suivre. La mode de l’innovation frugale (ou « Jugaad innovation » ) qui consiste à innover avec des ressources limitées, en témoigne. En Inde par exemple, la customisation des véhicules afin de transporter plus de passagers est souvent mise en avant. Cependant, elle augmente sensiblement le nombre d’accidents : « la frugalité a un coût, celui de la sécurité », écrit Arora. Les Nano cars de Tata – des petites voitures accessibles au plus grand nombre – quant à elles, sont certes pratiques mais occasionnent de lourds dégâts environnementaux : rien ne dit aujourd’hui que ces innovations améliorent réellement la vie des pauvres, affirme la chercheuse
  • ...9 more annotations...
  • Plus grave encore, il y a fort à parier qu’elles freinent les solutions de plus long terme comme par exemple le développement de transports publics accessibles à tous. Côté mobile, une application comme AquaSift permet de détecter la toxicité de l’eau mais ne résout en rien le fait que dans beaucoup de communautés pauvres, y accéder reste difficile. On ne change pas le gouvernement avec une application. Si l’innovation frugale rencontre un succès fulgurant en Occident, ce n’est que parce que nous en avons totalement romantisé l’image.
  • En somme, la frugalité (Jugaad en Inde, « Shan-zaï » en Chine, « Gambiarra », « Bacalhau » ou « Jeitinho » au Brésil) est aussi une forme de solutionnisme technologique qui repose, une fois encore, sur la confortable conviction que les pauvres ont toutes les ressources en eux pour s’en sortir, pourvu qu’ils articulent habilement leurs problèmes aux dernières technologies disponibles.
  • Payal Arora n’a pas de mots assez durs pour dénoncer la vaste supercherie du système. Non seulement aucune relation de causalité n’a prouvé son efficacité, mais en plus, il structure l’éducation dans un sens qui pose une multitude de questions d’ordre éthiques et politiques. Ainsi, ces appareils et les programmes soi-disant éducatifs avec lesquels ils fonctionnent restent des boîtes noires, indisponibles à tout audit sérieux. L’expérimentation, qui dure 75 jours, nécessite la présence d’un ou plusieurs adultes dont on ne connaît pas la rémunération et le protocole de suivi des enfants est tout sauf rigoureux scientifiquement. Des études plus sérieuses ont rapporté que la plupart des machines ne fonctionnaient pas, faute de connexion Internet. Et quand elles marchaient, elles étaient souvent monopolisés par de jeunes garçons devant des jeux vidéos. Enfin, les contenus pédagogiques, souvent en anglais, présentent un danger pour la pérennité des langues traditionnelles. Pour le professeur Mark Warschauer (University of California), cité par Arora, ces dispositifs sont un échec total. Pourtant, Mitra a bien récolté un million d’euros grâce au Ted Prize pour cette « école dans le cloud » résolument inefficace… Pour Arora, cette triste histoire trouve ses racines dans la foi encore trop peu contestée dans le constructivisme , une théorie qui stipule que l’enfant peut apprendre seul et sans professeur.
  • En prenant un peu de hauteur, la chercheuse critique plus largement une certaine forme de philanthropie très à la mode dans les milieux technologiques. Elle l’accuse ouvertement d’être contre-productive et de servir les intérêts de grandes corporations plus que des populations pauvres : « la technologie est devenue une institution en soi, la pauvreté une opportunité. La croyance néolibérale en l’efficacité absolue du marché transforme n’importe quelle inégalité en actif pour l’innovation. » Pour Arora, cette idéologie vient justifier la nécessité de tester sur les moins aisés de nouvelles solutions qu’un riche Occidental n’imaginerait même pas pour ses propres enfants. Les pauvres n’ont pas besoin de plus d’innovation, mais de moins d’innovation, affirme-telle : « Si l’innovation est une courroie de transmission pour des projets pilote, alors les pauvres seront mieux sans. Ils ne devraient pas servir de rats de laboratoires pour les nouvelles technologies. Le simple fait qu’une technologie est nouvelle ne devrait pas justifier en soi qu’on l’expérimente sur des pauvres ».
  • Sa dénonciation englobe aussi le projet « AltSchool » largement financé par Mark Zuckerberg et Priscilla Chan, une sorte de « classe Ikea », où les enfants terminent seuls devant des écrans, pour un prix conséquent et sans que son efficacité réelle soit démontrée. Le plus grand problème selon elle, reste que le marché pardonne plus facilement les défaillances technologiques qu’humaines : la Silicon Valley peut réinjecter des millions de dollars pour trouver une nouvelle solution technique à un problème ancien, mais elle refuse de réfléchir aux problèmes de fond, comme le manque de professeurs ou l’état désastreux des écoles dans certains quartiers.
  • En dernière partie d’ouvrage, Payal Arora attaque les questions liant surveillance et vie privée. On le savait déjà, les pauvres en ont toujours été surveillés. Le « social credit system » chinois et son cousin indien « Unique Digital Number » (UID) sont ainsi connus pour conforter les hiérarchies sociales en place et agir par contagion : en Chine, fréquenter une personne dont le score est bas revient à prendre le risque de voir baisser son propre score. On en déduirait un peu rapidement que dans les pays pauvres, et plus généralement en dehors de l’Occident, la vie privée aurait moins de valeur aux yeux des individus. A y regarder de près, cela semble un peu plus compliqué. En interrogeant plus largement les usages quotidiens des réseaux sociaux dans les favelas et autres bidonvilles, Arora montre qu’ici comme là-bas, la vie privée n’est pas sans valeur ni abstraite, mais un concept avant tout lié à des particularités culturelles. Au Brésil par exemple, une jeune femme déclare ne pas en vouloir à sa mère de la « stalker » en ligne (c’est-à-dire à suivre ces déplacements, fouiller ses messages et autres réseaux d’amis)
  • En Inde, Facebook est pour de nombreux jeunes l’occasion de parler au sexe opposé, chose difficile dans la vie réelle. Le Chat est à ce titre tout à fait adapté à la romance, à travers des poèmes et autres conversations romantiques. Cependant, à l’échelle mondiale, un tiers de ces échanges se font anonymement, avant tout pour protéger les données personnelles et par souci de réputation, notamment en Asie.
  • Arora en profite pour démonter les profonds préjugés qui tendent nous à faire croire que parce que l’on est pauvre, parce que l’on vit dans une communauté étroitement liée, parfois à plusieurs dans une même pièce, on ne valoriserait pas la vie privée. En réalité, les pauvres, dans les pays étudiés par Arora, ne sont pas moins attachés à la confidentialité que les Occidentaux, même si celle-ci prend différentes significations en fonction des pays, des cultures et des genres. Dans un village en Jordanie, la confidentialité sert avant tout à protéger la vertu féminine et l’honneur masculin (préserver son image dans la communauté, ne pas s’exposer publiquement pour les femmes). Dans une famille aisée du Royaume-Uni, elle préserve l’innocence des jeunes (notamment à travers le filtrage des contenus). Plus encore qu’en Occident, préserver sa confidentialité dans les pays pauvres relève de la lutte car le succès immense des réseaux amène aussi son lot de danger : « revenge porn » et harcèlement peuvent ruiner la réputation d’un individu, conduire à l’exil et même au suicide.
  • The Next Billion Users, Digital Life Beyond the West est, en résumé, une étude inestimable, formidablement documentée et regorgeant d’illustrations plus pertinentes les unes que els autres. Loin des théories globalisantes qui tendent à mettre dans un même sac « Les Chinois », « Les Indiens », quitte à les opposer à l’Occident dans une lutte pour la puissance technologique, cette enquête de terrain vient au contraire contredire nos préjugés sur ce monde que nous jugeons bien souvent à l’emporte-pièce et sans nous embarrasser de détails. A travers son étude et notamment ses entretiens et anecdotes, la chercheuse met en lumière les relents colonialistes qui ponctuent les relations Nord-Sud, notamment en matière numérique. Arora brise notre propension à romantiser la pauvreté, à ne l’envisager qu’à travers nos lunettes postcoloniales, comme une tribu de bons sauvages qu’il faudrait éduquer à notre mode de vie. Enfin, elle réduit en poussière le fantasme du pauvre débrouillard, entrepreneur par nature, auto-organisé et vertueux. Cette vision, biaisée, n’a pour objet que d’asseoir les projets technocratiques de l’Occident, qui ne regarde que ses intérêts propres et surtout pas ceux des populations « à civiliser ».
  •  
    "A quoi ressemble l'Internet des pauvres ? Pas à l'image romantique forgée par la philanthropie occidentale, explique l'anthropologue Payal Arora. Pourtant, cette conception paternaliste de la pauvreté informe toujours nombre d'initiatives de développement par la technologie, qui s'apparentent à une nouvelle forme de solutionnisme."
Aurialie Jublin

CodingRights, le collectif qui veut rendre la technologie plus féministe - 0 views

  •  
    "Quelles données recueillent exactement les applis de surveillance des menstruations ? Est-il possible d'envoyer une photo de soi nue sans risque que celle-ci ne fuite un jour sur Internet ? C'est pour répondre à des questions de ce type que Joana Varon a créé Coding Rights. Ce collectif brésilien porte aujourd'hui plusieurs projets visant à analyser la façon dont les femmes sont ciblées par la technologie, et à faire avancer les « droits numériques » dans une perspective féministe. Entretien avec sa cofondatrice Joana Varon."
Aurialie Jublin

Le mythe de la technologie salvatrice | Esprit Presse - 0 views

  • Le débat entre les pessimistes, qui craignent pour l’environnement, et les optimistes, tenants du business as usual, ne porte donc pas sur la nécessité d’agir – personne n’est vraiment pour la disparition des éléphants ou la contamination des nappes phréatiques aux pesticides –, mais sur la gravité du problème, l’intensité et la vitesse avec laquelle il faudrait réagir, la possibilité de changer modes de production et habitudes de consommation, la manière (régulation, taxes, incitations, soutien public…) et les moyens (financiers, techniques) de mener la transition.
  • De fait, les solutions techniques sont présumées disponibles et abordables, sinon à portée de main, que ce soit pour les énergies « décarbonées », les solutions de mobilité du futur ou la capacité des rendements agricoles à toujours s’accroître – ou à se maintenir. Les plus audacieux, comme Jeremy Rifkin, vont jusqu’à promettre de telles « ruptures » technologiques – un vocable à la mode – que tout ou presque en deviendrait gratuit ou à « coût marginal zéro », à commencer par l’énergie issue de sources renouvelables2.
  • La pénurie a bien été un aiguillon essentiel, à l’origine d’une grande partie des innovations de la révolution industrielle, car la croissance permanente de la consommation allait bientôt dépasser les capacités de ponction sur les ressources renouvelables, locales ou importées. Jusque tard dans le xixe siècle, il y eut une limite purement « surfacique » à la production de produits essentiellement animaux et végétaux 
  • ...11 more annotations...
  • Globalement (hors l’épineux problème de répartition), le système technique, enchâssé dans un système social, moral et culturel qu’il modifiait à mesure, a plutôt bien répondu aux « besoins ». Mais cela a eu un prix : celui d’une fuite en avant, d’une accélération permanente entre des risques de pénuries et de nouvelles solutions pour y répondre, créant elles-mêmes de nouveaux besoins et de nouveaux risques ; celui de pollutions, de destructions sociales et environnementales sans précédent. Nos « ingénieurs thaumaturges » font rarement des omelettes sans casser des œufs.
  • À quoi ressembleraient nos campagnes, s’il avait fallu y monter les nouvelles usines – et assumer leurs rejets – pour notre consommation exponentielle de téléphonie, d’informatique, de jouets, de vêtements ? Pour y répondre, il faut regarder les zones industrielles chinoises. Mais grâce à la distance, nous nous berçons d’illusions sur la « dématérialisation » de l’économie et la croissance « verte » à base de nouvelles technologies.
  • Le numérique n’a rien de virtuel. Il mobilise toute une infrastructure, des serveurs, des bornes wifi, des antennes-relais, des routeurs, des câbles terrestres et sous-marins, des satellites, des centres de données… Il faut d’abord extraire les métaux (argent, lithium, cobalt, étain, indium, tantale, or, palladium…), engendrant destruction de sites naturels, consommation d’eau, d’énergie et de produits chimiques nocifs, rejets de soufre ou de métaux lourds et déchets miniers. Ensuite fabriquer les composants, comme les puces au silicium qui nécessitent quantité d’eau purifiée, mais aussi du coke de pétrole, du charbon, de l’ammoniaque, du chlore, des acides, etc., fournis par le cœur du capitalisme « carbonifère9 ». Puis faire fonctionner le tout, avec plus de 10 % de l’électricité mondiale ! Enfin, se débarrasser des déchets électroniques, parmi les plus complexes à traiter : une partie – majoritaire – est incinérée ou jetée en décharge ; une autre rejoint les circuits « informels » (Afrique de l’Ouest, Chine…), où ils sont brûlés à l’air libre et empoisonnent les sols et les eaux. Le reste rejoint quelques usines spécialisées, qui ne récupèrent que partiellement les ressources. In fine, le taux de recyclage de nombreux métaux rares est inférieur à 1 %, un terrible gâchis.
  • Pourtant, plus que jamais, nous vivons dans la religion exclusive du « techno-solutionnisme », en plaçant tous nos espoirs dans les innovations et les effets bénéfiques (futurs) du numérique, en fantasmant un monde où tout sera bien mieux optimisé, où les outils et les services numériques seront facteurs d’efficacité et de sobriété : énergies renouvelables distribuées par des smart grids, covoiturage bientôt servi par des véhicules autonomes, déplacements fluidifiés dans les smart cities, économie de la fonctionnalité réduisant les équipements individuels, etc., sans parler des biotechnologies et des applications médicales.
  • Mieux, les technologies de demain ne seront pas seulement propres, elles seront réparatrices : les bactéries modifiées génétiquement dépollueront les sols, les big data et les capteurs protégeront les forêts tropicales, la science ressuscitera même le mammouth laineux, dont l’Adn dégèle en même temps que le permafrost.
  • Peut-on compter sur une « sortie par le haut » à base d’innovation technologique ? Il serait périlleux de tout miser dessus. En premier lieu parce que la plupart des technologies prétendument « salvatrices » nécessitent, à plus ou moins grande échelle, des ressources métalliques, non renouvelables, et viennent accélérer, plutôt que remettre en cause, le paradigme « extractiviste » de notre société thermo-industrielle
  • En second lieu parce que les gains d’efficience sont balayés par un formidable effet « rebond ». Indéniablement, la consommation d’énergie des véhicules, des avions, des centres de données, des procédés industriels baisse régulièrement, les innovations sont nombreuses et les progrès réels. Mais la croissance du parc automobile, des kilomètres parcourus, des données échangées et stockées est largement supérieure aux gains unitaires. Entre 2000 et 2010, le trafic internet a été multiplié par cent. Que vaut alors une amélioration de quelques dizaines de points d’efficacité énergétique par octet ?
  • Il n’y a pas de solution technique permettant de maintenir – et encore moins de faire croître – la consommation globale d’énergie et de ressources. En continuant à alimenter la « chaudière du progrès11 », nous nous heurterons tôt ou tard aux limites planétaires, régulation climatique en tête. C’est donc – aussi – vers l’économie de matières qu’il faut orienter l’innovation. Avant tout par la sobriété, en réduisant les besoins à la source, en travaillant sur la baisse de la demande et pas seulement sur le remplacement de l’offre.
  • Mais on peut imaginer toute une gamme d’actions, comme bannir le jetable, les supports publicitaires, l’eau en bouteille, revenir à des emballages consignés, composter les déchets même en ville dense, brider progressivement la puissance des véhicules et les alléger, avant de passer au vélo, adapter les températures dans les bâtiments et enfiler des pull-overs, car il est bien plus efficace, plus simple, plus rapide, d’isoler les corps que les bâtiments !
  • Pour recycler au mieux les ressources et augmenter la durée de vie de nos objets, il faudra les repenser en profondeur, les concevoir simples et robustes (Ivan Illich aurait dit « conviviaux »), réparables et réutilisables, standardisés, modulaires, à base de matériaux simples, faciles à démanteler, n’utiliser qu’avec parcimonie les ressources rares et irremplaçables comme le cuivre, le nickel, l’étain ou l’argent, limiter le contenu électronique. Quitte à revoir le « cahier des charges », accepter le vieillissement ou la réutilisation de l’existant, une esthétique moindre pour les objets fonctionnels, parfois une moindre performance, de l’intermittence, une perte de rendement ou un côté moins « pratique ».
  • Pourquoi ne pas tenter plutôt la voie d’une transition post-croissance vers un nouveau « contrat social et environnemental » ?
  •  
    "Les coûts écologiques de la technique (déchets, pollution) sont rendus invisibles par la délocalisation de la production industrielle. Ils devraient nous inciter à promouvoir une technologie sobre et résiliente."
Aurialie Jublin

Reconnaissance faciale : Amazon, Microsoft et Google sommés de ne pas vendre ... - 0 views

  •  
    « Cette technologie offre aux gouvernements la capacité inédite de traquer qui nous sommes, où nous allons, ce que nous faisons et qui nous fréquentons. » Mardi 15 janvier, quatre-vingt-cinq organisations non gouvernementales (ONG) américaines, menées par la puissante ACLU (Union américaine pour les libertés civiles), ont adressé trois lettres à Amazon, Microsoft et Google. Leur demande : que ces entreprises s'engagent à ne pas mettre leurs technologies de reconnaissance faciale à disposition des gouvernements.
Aurialie Jublin

Logiciel libre : il faut mettre la technologie au service des villes et des c... - 0 views

  •  
    "Face à l'expansion des Gafam, le logiciel libre est une approche essentielle pour repenser la technologie au bénéfice des citoyens."
Aurialie Jublin

« Avec la blockchain, on peut surveiller les humains comme du bétail » - 0 views

  • Certaines technologies telles que le chiffrement des messages ou l’anonymisation sont émancipatrices et contribuent à créer un monde plus libre. En revanche, elles coexistent avec des innovations principalement coercitives dont la reconnaissance faciale automatique. Les crypto-monnaies, elles, se situent à mi-chemin : elles peuvent à la fois être vecteur d’oppression et de liberté. Cela dépend vraiment de la façon dont elles sont mises en œuvre. Libres d’accès et anonymes, elle peuvent accélérer l’innovation positive et connecter un grand nombre de personnes « non bancarisées », et ainsi les aider à sortir de la pauvreté. Contrôlées centralement et traçables, elles pourraient rigidifier l’innovation et exclure les « individus subversifs » des services financiers.
  • Mais l’effet serait totalement déshumanisant. Pourquoi ? Parce que la technologie conditionnerait massivement et automatiquement des individus à adopter un comportement souhaité.
  • le totalitarisme technologique est le totalitarisme efficacement et massivement mis en œuvre avec l’aide de la technologie, tout simplement. Il est une forme plus subreptice et molle du totalitarisme que l’on connaît, les forces oppressives étant moins visibles. Vous avez l’illusion du choix et de la liberté, tout en étant conditionné. Les personnes non conformes sont simplement exclues des systèmes technologiques qui composent le tissu de la société. Elles ne sont plus visibles parce que leurs voix sont filtrées et isolées.
  • ...3 more annotations...
  • Iansiti, Marco Lakhani et Karim R dans la revue de Harvard Business The Truth About Blockchain définissaient la blockchain ainsi : « La blockchain est un registre ouvert et distribué qui peut enregistrer les transactions entre deux parties de manière efficace, vérifiable et permanente.» Autrement dit, les blockchains sont publiques et non modifiables. S’il n’y a pas de couche cryptographique qui anonymise les transactions (comme dans Monero ou Zcash), tout le monde peut voir qui sont les destinataires et les expéditeurs. De plus, cette information est permanente. Il y a plusieurs projets qui veulent mettre des identifiants « sur la blockchain ». Cela signifie que chaque être humain puisse toujours être identifié.
  • Si vous combinez une blockchain d’identification avec une blockchain de paiement, une blockchain de propriété de voiture, une blockchain de suivi de vaccination, etc. vous vous retrouvez dans une situation où chaque humain et toutes ses actions sont stockées de manière permanente et publique. Les humains sont finalement étiquetés et surveillés comme du bétail. Si vous combinez cela avec des contrats intelligents, ce qui est une idée vraiment stupide, ce sont finalement les algorithmes qui régissent la vie des humains, sans aucune marge de manœuvre pour réagir à des situations inattendues. Pour moi, c’est la définition même de la technologie déshumanisante.
  • Le contrôle totalitaire consiste à détecter les « comportements déviants » et à les punir. La blockchain a le potentiel de rendre ces deux fonctions plus efficaces.
  •  
    "La blockchain ne trouve pas grâce aux yeux de Frank Braun, figure reconnue du crypto-anarchisme. C'est le moins qu'on puisse dire : pour le militant allemand, elle pourrait potentiellement servir le « totalitarisme technologique » déjà à l'oeuvre aujourd'hui, surtout si différentes blockchains sont combinées. Elles élargissent alors les possibilités de surveillance des citoyens. Un entretien réalisé par Blocs, le média de la blockchain. "
Aurialie Jublin

[Écologie] Le monde du logiciel est en train de se détruire... Manifeste pour... - 0 views

  • Tout est lent, et cela ne va pas dans le bon sens. Certaines voix s’élèvent. Je vous invite notamment à lire “Le désenchantement du logiciel”. Tout est insupportablement lent, tout est ÉNORME, tout finit par devenir obsolète… La taille des sites web explose. Un site web est aussi gros que le jeu Doom. Le phénomène ne touche pas que le Web mais aussi l’IoT, le mobile… Le saviez-vous ? Il faut 13% de CPU pour faire clignoter un curseur…
  • Tout grossit : la taille des applications, les données stockées, la taille des pages web, la mémoire des téléphones… Les téléphones ont maintenant 2 Go de mémoire, échanger une photo de 10 Mo par mail est maintenant classique… À la limite, cela ne serait peut-être pas un problème si tous les logiciels étaient utilisés, efficaces et performants… Mais cela n’est pas le cas,
  • Alors tout le monde se cale sur une lenteur. Tout est uniformément lent. On se cale sur cela et tout va bien. Être performant aujourd’hui, c’est arriver à atteindre un ressenti utilisateur qui correspond à cette lenteur uniforme. On élague les choses qui pourraient être trop visibles. Une page qui met plus de 20 secondes à se charger, c’est trop lent. Par contre, 3 secondes c’est bien. 3 secondes ? Avec les multicoeurs de nos téléphones/PC et les data centers partout dans le monde, le tout relié par des supers technologies de communication (4G, fibre…),c’est un peu bizarre non ? Si on regarde la débauche de ressources pour le résultat obtenu, 3 secondes, c’est énorme. D’autant plus que les bits circulent dans nos processeurs avec des unités de temps du niveau de la nanoseconde. Donc oui, tout est uniformément lent.
  • ...29 more annotations...
  • Il est nécessaire de revenir à plus d’efficience, de « challenger » les besoins en matériel, de redéfinir ce qu’est la performance. Tant que l’on se satisfera de cette lenteur uniforme avec des solutions pour ne pas ralentir plus (comme l’ajout de matériel), nous n’avancerons pas. La dette technique, notion largement assimilée par les équipes de développement, n’est malheureusement pas adaptée à ce problème (on y reviendra). Nous sommes sur une dette de ressources matérielles et de mauvaise adéquation entre le besoin utilisateur et la solution technique. On parle ici d’efficience et non pas uniquement de performance. L’efficience est une histoire de mesure du gaspillage. L’ISO définie l’efficience avec comme domaine : Time behaviour, Resource utilization et Capacity. Pourquoi ne pas pousser plus ces concepts ?
  • Développez du code Java pour un serveur J2EE ou pour un téléphone Android, ce n’est pas pareil. Des structures spécifiques existent par exemple pour traiter des données en Android mais les structures classiques sont toujours utilisées. Les développeurs ont perdu le lien avec le hardware. C’est malheureux car c’est passionnant (et utile) de savoir comment fonctionne un processeur. Pourquoi : abstraction et spécialisation (nous verrons cela plus loin). Car en perdant ce lien, on perd une des forces du développement. Ce lien est important chez les hackers ou chez les développeurs d’informatique embarquée mais malheureusement de moins en moins présent chez les autres développeurs.
  • Les pratiques devops pourraient répondre à cette perte de lien. Là, c’est pareil, nous n’allons pas jusqu’au au bout : généralement le devops va se focaliser à bien gérer le déploiement d’une solution logicielle sur une infrastructure mixte (matérielle et un peu logicielle). Il faudrait aller plus loin en remontant par exemple les métriques de consommation, en discutant sur les contraintes d’exécution… plutôt que de “scaler” juste parce que c’est plus simple.
  • Certaines technologies ont une utilité mais sont maintenant systématiquement utilisées. C’est le cas par exemple des ORM qui sont devenus systématiques. Aucune réflexion n’est faite sur son intérêt en début des projets. Résultat : on a rajouté une surcouche qui consomme, qu’il faut maintenir et des développeurs qui n’ont plus l’habitude d’effectuer des requêtes natives. Cela ne serait pas un problème si chaque développeur connaissait très bien le fonctionnement des couches d’abstraction : comment fonctionne HIBERNATE par exemple ? On s’appuie hélas de façon aveugle sur ces frameworks.
  • Le besoin d’abstraction est lié à un autre défaut: nous attendons toujours des outils miracles. La silver bullet qui améliorera encore plus nos pratiques. Le langage idéal, le framework pour aller plus vite, l’outil de gestion miracle des dépendances… C’est la promesse à chaque fois d’un nouveau framework : gagner du temps en développement, être plus performant… Et on y croit, on fonce. On abandonne les frameworks sur lesquels nous avions investi, sur lesquels on avait passé du temps… et on passe au nouveau. C’est le cas actuellement des frameworks JS. L’histoire du développement est pavé de framework oubliés, non maintenus, abandonnés… Nous sommes les champions pour réinventer ce qui existe déjà. Si on le gardait suffisamment longtemps, on aurait le temps de maîtriser un framework, de l’optimiser, de le comprendre. Mais ce n’est pas le cas. Et que l’on ne me dise pas que si on n’avait pas continuellement réinventé la roue, on aurait encore des roues en pierre… Innover serait d’améliorer les frameworks existants .
  • Sur les langages, c’est la même rengaine. Attention, je ne préconise pas de rester sur l’assembleur et sur le C… C’est le cas par exemple dans le monde Android, pendant plus de 10 ans les développeurs ont pu travailler sur des outils et des frameworks Java. Et comme cela, par magie, le nouveau Langage de la communauté est Kotlin. On imagine l’impact sur les applications existantes (si elles doivent changer), il faut recréer des outils, retrouver des bonnes pratiques… Pour quel gain?
  • Sincèrement, on ne voit aucun ralentissement sur les cycles de renouvellement des technologies. C’est toujours un rythme frénétique. Nous trouverons bien le Graal un jour. Le problème est ensuite l’empilement de ses technologies. Comme aucune ne meurt vraiment et que l’on en maintient toujours des parties, on développe d’autres couches pour s’adapter et continuer à maintenir ces bouts de code ou ces librairies. Le problèmen’est pas le code legacy,, c’est la glue que l’on développe autour qui pêche.
  • Au final, on passe du temps à résoudre des problèmes techniques internes, on recherche des outils pour résoudre les problèmes que l’on ajoute, on passe son temps à s’adapter à ses nouveaux outils, on ajoute des surcouches (voir chapitre précédent…) … et on n’a pas améliorer la qualité intrinsèque du logiciel ou les besoins auxquels on doit répondre.
  • Au final, le rythme frénétique des changements ne nous permet pas de nous stabiliser sur une technologie. J’avoue qu’en tant que vieux développeur que je suis, j’ai été découragé par le changement Java vers Kotlin pour Android. C’est peut-être pour certains de véritables challenges, mais quand je repense au temps que j’ai passé sur l’apprentissage, sur la mise en place d’outils
  • Ensuite, comme aucune solution ne meurt vraiment, que de nouvelles arrivent… on se retrouve avec des projets avec des multitudes de technologies à gérer avec les compétences associées aussi… On s’étonne ensuite que le marché du recrutement de développeur soit bouché. Pas étonnant.. Il y a énormément de développeurs mais il est difficile de trouver un développeur React avec 5 ans d’expérience qui connaîsse le Go. Le marché est fractionné, comme les technologies. C’est peut-être bon pour les développeurs car cela crée de la rareté et cela fait monter les prix, mais pas pour le projet !
  • Cependant, cet apprentissage continu des technologies pose le problème d’apprentissage de domaines transverses : accessibilité, agilité, performance… En effet, qu’est-ce qui nous prouve que les outils et les langages que nous allons choisir ne vont pas changer dans 4 ans ? Rust, Go… dans 2 ans ? Rien ne tend à donner une tendance.
  • On ne se remet pas en question car on veut s’amuser. Le fun est important, car si l’on s’ennuie dans son boulot, on va déprimer. Par contre, on ne peut pas, sous prétexte de vouloir du fun tout le temps, changer nos outils continuellement. Il y a un déséquilibre entre l’expérience du développeur et l’expérience de l’utilisateur. On veut du fun, mais qu’est-ce que cela va réellement apporter à l’utilisateur ? Un produit plus « joyeux » ? Non, nous ne sommes pas des acteurs.
  • On ne se pose pas de question sur l’éthique de notre domaine, sur sa durabilité… Cela vient peut-être du fait que notre domaine n’a pas réellement de code éthique (comme par exemple les médecins ou les avocats). Mais sommes-nous en tant que développeurs réellement libres si l’on ne peut pas avoir une autocritique ? Nous sommes peut être asservis à une cause portée par d’autres personnes ? Le problème n’est pas simple mais nous avons dans tous les cas une responsabilité. Sans code éthique, c’est le plus fort et le plus malhonnête qui est le plus fort. Le buzz et les pratiques pour manipuler les utilisateurs sont de plus en plus répandus. Sans Dark Pattern ton produit ne sera rien. Les plus gros (GAFA…) n’en sont pas arrivés là pour rien.
  • Est-ce que la solution est politique ? Il faut légiférer pour mieux gouverner le monde du logiciel. On le voit avec les dernières réponses législatives aux problèmes concrets : RGPD, notification des cookies… la source du problème n’est pas résolue. Peut-être parce que les politiques ne comprennent que très mal le monde du logiciel.
  • Car si cette structuration n’est pas faite, les développeurs vont perdre la main sur ce qu’ils font. Or le manque d’éthique de la profession est critiqué à l’extérieur. Rachel Coldicutt (@rachelcoldicutt) directrice de DotEveryOne, un think tank britannique qui promeut une technologie plus responsable, encourage à former des diplômés non-informaticiens qui traiteraient de ces problèmes (Voir plus précisément dans l’article d’Internet Actu). Pour poursuivre sur ce dernier article, cela serait dans la droite ligne de l’informatique, domaine issu du monde militaire où les ingénieurs et développeurs seraient formés à suivre des décisions et des commandements.
  • Le monde du logiciel s’intègre dans un système organisationnel classique. Grands groupes, sous-traitances via des ESN, web agencies… Tous suivent les mêmes techniques de gestion des projets informatiques. Et tout le monde va « dans le mur ». Aucune analyse sérieuse n’est faite sur le coût global d’un logiciel (TCO), sur son impact sur la société, sur son bénéfice, sa qualité… C’est la rapidité de release(Time to Market), la surcharge featurale (fonctionnelle), la productivité immédiate, qui comptent. Premièrement car les gens externes à ce monde ne connaissent que trop peu la technicité du logiciel et son monde. Il est virtuel donc simple (sic). Mais ce n’est pas le cas. Les écoles de commerce et autres usines de managers n’ont pas de cours de développement. Comment peuvent-ils bien diriger et piloter des projets ?
  • On continue a vouloir chiffrer des projets informatiques comme de simples projets alors que des mouvements comme le no estimate propose des approches innovantes. Les projets continuent d’échouer : le chaos report rapporte que simplement 30% des projets réussissent bien. Et face à cette mauvaise gouvernance, les équipes techniques continuent de se battre sur les technologies. Dommages collatéraux : la qualité, l’éthique, l’environnement… et au final l’utilisateur. Cela ne serait pas si critique si le logiciel n’avait pas un impact aussi fort sur le monde. Software eats the world… et oui, on le « bouffe »…
  • Si ces décisions absurdes arrivent, ce n’est pas uniquement la faute du développeur mais bien de l’organisation. Et qui dit organisation dit management (sous-différente forme). Si l’on revient au livre de Morel, il parle de piège cognitif dans lesquels les managers et les techniciens tombent souvent. C’est le cas de la navette Challenger qui a été quand même lancée malgré la connaissance du problème d’un joint défectueux. Les managers ont sous-évalué les risques et les ingénieurs ne les ont pas prouvés. Chacun a reproché à l’autre de ne pas fournir assez de preuves scientifiques. C’est souvent ce qui se passe dans les entreprises : des warnings sont levés par certains développeurs mais le management ne les prend pas assez au sérieux.
  • En même temps, on revient aux causes précédentes (silver bullet, on s’amuse…), il est nécessaire d’avoir une vraie ingénierie et une vraie analyse des technologies. Sans cela, les équipes techniques seront toujours non-écoutées par le management. Des outils et benchmark existent mais ils sont encore trop peu connus. Par exemple, Technologie Radar qui classe les technologies en terme d’adoption.
  • Ce phénomène de décision absurde est renforcé par le tissu complexe du développement logiciel : Les sociétés historiquement hors du numérique sous-traitent à des entreprises du numérique, les ESN sous-traitent aux freelances… Le partage de responsabilité technique / management est encore plus complexe et les décisions absurdes plus nombreuses.
  • Mais cela ne s’arrête pas là. On peut aussi voir l’usage de l’open-source comme une sorte de sous-traitance. Idem pour l’usage de framework. On est juste consommateur passif, on se déleste de plein de problématiques (qui ont un impact sur les ressources, la qualité…).
  • C’est d’autant plus facile que le domaine est passionnant et que la pratique des sides-projects, du temps passé sur les projets open-source hors des horaires de bureau est chose commune… La recherche de “fun” et le temps passé bénéficient alors plus aux organisations qu’aux développeurs. Difficile dans ce cas de chiffrer le coût réel d’un projet. Et pourtant, cela ne serait pas un problème si on arrivait à des logiciels « au top ».
  • Le développeur n’est ici plus un artisan du code, mais plutôt un pion dans un système critiquable du point de vue humain. Cela n’est pas visible, tout va bien et on s’amuse. En apparence seulement, car certains domaines du développement logiciel vont plus loin et rendent beaucoup plus visible cette exploitation : Le domaine du jeux-vidéo où les heures explosent.
  • Et donc, toutes ces maladresses (logiciel trop lourd, sans qualité…) se retrouvent chez les utilisateurs. Comme on doit releaser au plus vite les logiciels, que l’on ne tente pas de résoudre les inefficiences internes, et que l’on ne met pas plus de ressource pour faire de la qualité, on arrive à des logiciels médiocres. Mais on a tellement d’outils de monitoring et de suivi des utilisateurs pour détecter ce qui se passe directement chez eux qu’au final, on pense que ce n’est pas grave. Cela serait une bonne idée si les outils étaient bien utilisés. Or la multitude d’informations récoltées (en plus des bugs remontés par les utilisateurs) n’est que faiblement utilisée. Trop d’information, difficulté de cibler la vraie source du problème… on s’y perd et au final, c’est l’utilisateur qui trinque. Tous les logiciels sont maintenant en bêta-test. A quoi bon faire de la sur-qualité, autant attendre que l’utilisateur le demande. Et on revient ainsi au premier chapitre : un logiciel uniformément lent … et médiocre.
  • Heureusement, on est sauvé par la non-sensibilisation des utilisateurs au monde du logiciel. C’est un monde effectivement virtuel et magique qu’ils ont l’habitude d’utiliser. On leur a mis en main les outils mais sans notice explicative. Comment évaluer la qualité d’un logiciel, les risques sur l’environnement, les problèmes de sécurité… si l’on n’a pas des notions d’informatique, même rudimentaires ?
  • L’informatique du 21ème siècle est ce que l’agroalimentaire était pour les consommateurs au 20ème siècle. Pour des raisons de productivité, on a poussé des solutions médiocres avec un calcul court-termiste : mise sur le marché de plus en plus rapide, profit en hausse constante… agriculture intensive, malbouffe, pesticides… avec des impacts importants sur la santé, sur l’environnement… Les consommateurs savent maintenant (de plus en plus) les conséquences désastreuses de ces dérives, l’industrie agroalimentaire doit donc se réinventer, techniquement, commercialement et éthiquement. Pour le logiciel, quand les utilisateurs comprendront les tenants et les aboutissants des choix techniques, l’industrie du logiciel devra gérer les mêmes problèmes. En effet, le retour au bon sens et aux bonnes pratiques n’est pas une chose simple pour l’agroalimentaire. Dans l’IT, on commence à le voir avec ses conséquence sur la vie privée des utilisateurs (mais nous n’en sommes qu’aux balbutiements).
  • On va dans la mauvaise direction. L’industrie de l’informatique a déjà effectué dans les années 70 des erreurs avec des impacts non-négligeables. L’exclusion des femmes de l’informatique en fait partie. Non seulement cela a été fatal pour certaines industries mais on peut se poser la question de comment on peut maintenant adresser des réponses à seulement 50% de la population informatique, avec une représentativité très faible. Le chemin est maintenant difficile à retrouver.
  • Mais l’impact du monde IT ne s’arrête pas là. La source et le modèle d’une grosse partie de l’informatique sont issus de la Silicon valley. Si l’on écarte les gagnants de la Silicon Valley, les populations locales subissent la montée des prix, le déclassement, la pauvreté…
  • Dans sa lancée vers le progrès technique, le monde du logiciel crée aussi sa dette environnementale…
  •  
    "Le monde du logiciel va mal et si l'on n'agit pas, on risque de le regretter. Environnement, qualité, exclusion… Software Eats The World (Le logiciel mange le monde…) ? Oui un peu trop. "
Aurialie Jublin

« La small tech sera le poison de la Silicon Valley » - Usbek&Rica - 0 views

  • Votre existence numérique est une extension de vous-même, de votre esprit. Et c’est quelque chose de précieux car, si j'ai des informations sur vous, je peux les utiliser pour manipuler votre comportement. Écoutez les mots que j’utilise : je regarde ce que vous faites, j’en fais la liste, j’essaie de comprendre votre psychologie et de vous manipuler pour que vous fassiez ce que je veux. C’est horrible, c’est de l’abus, non ? C’est une relation de pouvoir. Pourtant, c’est ce que font Google et Facebook, que vous utilisez quotidiennement.
  • Quand Tim Berners Lee l’a imaginé, il l’a voulu en Read-Write (lecture-écriture), c’est-à-dire que vous pouviez écrire sur le web, et pas simplement lire. Mais ce qui est arrivé, c'est le capitalisme : les États-Unis ont perçu le potentiel du Web non pas en tant que média en lecture-écriture, mais en tant que média de diffusion. Et le capital-risque est entré dans la partie. Si vous avez un système basé sur des nœuds (nodes) avec des privilèges inégaux, que vous ajoutez du capital-risque, ces nœuds grandissent et deviennent les monopoles que sont Google et Facebook.
  • La conception du web n’a jamais été décentralisée, seule sa philosophie l’était. Nous savons maintenant qu’une centralisation du pouvoir est insoutenable, que ça détruit littéralement notre habitat. La technologie joue le rôle d'amplificateur : peut-être que toutes ces inégalités existaient avant, mais nous n’avions pas la technologie pour « détruire » le monde. Enfin pas le monde, pardon, plutôt notre habitat : la bactérie va survivre quoi qu'il arrive.
  • ...6 more annotations...
  • Deux choses : nous devons d’abord réglementer les abus du capitalisme de surveillance auxquels se livrent Google et Facebook, puis nous devons financer des alternatives. Nous ne pouvons pas attendre des alternatives qu’elles poussent sur des arbres : ça n’arrivera pas.
  • Il faut se demander quels sont les aspects du problème que vous pouvez changer. J’ai retiré Google de ma vie très facilement : vous n’avez pas besoin d’utiliser Gmail, vous pouvez utiliser Fastmail, qui ne vend pas vos informations personnelles. Et les gens peuvent toujours vous envoyer un email. Framasoft est un bel exemple d’organisation qui œuvre pour la bonne cause : protéger l’être humain et sa dignité à l’ère numérique. C’est une organisation fantastique mais, comparé à Google, ils ne sont qu'une poignée de personnes. Framasoft n'est financé par personne. Le réseau social décentralisé Mastodon est un autre exemple qui va dans ce sens. Et pourtant, le système de taxe de la Commission Européenne bénéficie à des start-up qui construisent la même technologie de surveillance que Google. Mais nous ne finançons pas Mastodon, ni Framasoft, ni Indie, notre minuscule organisme à but non lucratif. Nous n’obtenons aucun fonds de qui que ce soit, si ce n’est parfois de particuliers.
  • Si nous voulons une alternative, nous devons la financer alternativement. Elle ne pourra pas être financée par le capital-risque made in Silicon Valley. Ils ont financé les Google et les Facebook, et ils vont financer le prochain Google et le prochain Facebook, car ils chassent des licornes, des entreprises valant des milliards de dollars.
  • Le Danemark, par exemple, a été le premier pays au monde à nommer un ambassadeur auprès de ses entreprises, un ambassadeur pour la Silicon Valley. C’est la chose la plus absurde qui puisse être faite. Le seul pouvoir que le gouvernement danois a sur ces entreprises, c’est la démocratie. Via son mandat, le gouvernement danois devrait protéger les personnes de Facebook. Au lieu de cela, il élève les entreprises au même niveau que lui. Alors oui, un dispositif comme celui du Grand Barouf a du potentiel.
  • La plupart du temps, lorsque les gens parlent de « décentralisation » du pouvoir, ils disent que la solution, c'est la blockchain. Mais vous avez dit que « la blockchain est un fantasme de masturbation libertaire » : qu’est-ce que vous avez voulu dire par là ? Voilà un bon guide : si vous voyez dans la Silicon Valley des investisseurs en capital-risque investir dans quelque chose, ce n’est pas pour la justice sociale, ce n’est pas pour améliorer les choses. C’est pour enrichir un petit groupe d’hommes riches. Pourquoi parle-t-on aujourd’hui à ce point de la blockchain ? À cause du Bitcoin et des crypto-monnaies, à cause de la possibilité pour certaines personnes de gagner des millions ou des milliards avec ça... Les personnes qui veulent généralement un système totalement digne de confiance sont de vrais libertaires, ils ne veulent pas de justice sociale, ils veulent être ceux qui détiennent les rouages du système.
  • Ce projet, que vous appelez Hypha ou Peer-Web, est-ce une nouvelle version du Web ? Comment cela fonctionne-t-il ? Déjà, la différence avec la blockchain, c’est que nous n’essayons pas d’avoir des milliards de copies de la même base de données, mais de donner à un milliard de personnes leurs propres bases de données, toutes séparées, toutes différentes, à notre image. Avec Hypha, nous faisons une chose simple : nous vous donnons un espace que vous possédez et contrôlez. Vous pouvez ensuite définir ce qui est public de ce qui est privé. Vous avez ce choix initial car vous partez d’un espace que vous possédez.
  •  
    "À l'heure où Facebook essaie de se dépêtrer de ses affaires de chiffrement et où Google se prend les pieds dans un bug qui a rendu publique la vie privée des utilisateurs d'Android TV, l'activiste Aral Balkan revient sur les origines de ce qu'il appelle « le capitalisme de surveillance », en amont de sa venue à Lille le 21 mars à l'occasion du Grand Barouf Numérique."
Aurialie Jublin

Demain, les nains… - Framablog - 0 views

  • Les géants du numérique, avec leurs « licornes » à plusieurs milliards de dollars, nous ont confisqué le potentiel d’Internet. Alimentée par la très courte vue et la rapacité du capital-risque et des start-ups, la vision utopique d’une ressource commune décentralisée et démocratique s’est transformée en l’autocratie dystopique des panopticons de la Silicon Valley que nous appelons le capitalisme de surveillance. Cette mutation menace non seulement nos démocraties, mais aussi l’intégrité même de notre personne à l’ère du numérique et des réseaux1.
  • Alors que la conception éthique décrit sans ambiguïté les critères et les caractéristiques des alternatives éthiques au capitalisme de surveillance, c’est l’éthique elle-même qui est annexée par les Big Tech dans des opérations de relations publiques qui détournent l’attention des questions systémiques centrales2 pour mettre sous les projecteurs des symptômes superficiels3.
  • Small Tech elle est conçue par des humains pour des humains 4 ; elle n’a pas de but lucratif 5 ; elle est créée par des individus et des organisations sans capitaux propres6 ; elle ne bénéficie d’aucun financement par le capitalisme de la surveillance des Big Tech7 ; elle respecte la vie privée par défaut8 ; elle fonctionne en pair à pair9 ; elle est copyleft10 ; elle favorise les petits plutôt que les grands, les simples plutôt que les complexes et tout ce qui est modulaire plutôt que monolithique11 ; elle respecte les droits humains, leurs efforts et leur expérience12 ; elle est à l’échelle humaine13.
  • ...6 more annotations...
  • Ces critères signifient que la Small Tech : est la propriété des individus qui la contrôlent, et non des entreprises ou des gouvernements ; respecte, protège et renforce l’intégrité de la personne humaine, des droits humains, de la justice sociale et de la démocratie à l’ère du numérique en réseau ; encourage une organisation politique non-hiérarchisée et où les décisions sont prises à l’échelle humaine ; alimente un bien commun sain ; est soutenable ; sera un jour financée par les communs, pour le bien commun. ne rapportera jamais des milliards à quiconque.
  • Des entreprises comme Google et Facebook sont des fermes industrielles pour les êtres humains. Leurs produits sont les machines agricoles. Ils doivent fournir une façade brillante pour garder notre attention et nous rendre dépendants afin que nous, le bétail, puissions volontairement nous autoriser à être exploités. Ces institutions ne peuvent être réformées. Les Big Tech ne peuvent être réglementées que de la même manière que la Big Tobacco pour réduire ses méfaits sur la société. Nous pouvons et devrions investir dans une alternative éthique : la Small Tech
  • Nous construisons la Small Tech principalement pour le bien commun, pas pour faire du profit. Cela ne signifie pas pour autant que nous ne tenons pas compte du système économique dans lequel nous nous trouvons actuellement enlisés ou du fait que les solutions de rechange que nous élaborons doivent être durables. Même si nous espérons qu’un jour Small Tech sera financé par les deniers publics, pour le bien commun, nous ne pouvons pas attendre que nos politiciens et nos décideurs politiques se réveillent et mettent en œuvre un tel changement social. Alors que nous devons survivre dans le capitalisme, nous pouvons vendre et faire des profits avec la Small Tech. Mais ce n’est pas notre but premier. Nos organisations se préoccupent avant tout des méthodes durables pour créer des outils qui donnent du pouvoir aux gens sans les exploiter, et non de faire du profit. Small Tech n’est pas une organisation caritative, mais une organisation à but non lucratif
  • La vie privée, c’est avoir le droit de décider de ce que vous gardez pour vous et de ce que vous partagez avec les autres. Par conséquent, la seule définition de la protection de la vie privée qui importe est celle de la vie privée par défaut. Cela signifie que nous concevons la Small Tech de sorte que les données des gens restent sur leurs appareils. S’il y a une raison légitime pour laquelle cela n’est pas possible (par exemple, nous avons besoin d’un nœud permanent dans un système de pair à pair pour garantir l’accessibilité et la disponibilité), nous nous assurons que les données sont chiffrées de bout en bout et que l’individu qui possède l’outil possède les clés des informations privées et puisse contrôler seul qui est à chacun des « bouts » (pour éviter le spectre du Ghosting)
  • La configuration de base de notre technologie est le pair à pair : un système a-centré dans lequel tous les nœuds sont égaux. Les nœuds sur lesquels les individus n’ont pas de contrôle direct (p. ex., le nœud toujours actif dans le système pair à pair mentionné dans la note précédente) sont des nœuds de relais non fiables et non privilégiés qui n’ont jamais d’accès aux informations personnelles des personnes.
  • La Small Tech est conçue par des humains, pour des humains ; c’est une approche résolument non-coloniale. Elle n’est pas créée par des humains plus intelligents pour des humains plus bêtes (par exemple, par des développeurs pour des utilisateurs – nous n’utilisons pas le terme utilisateur dans Small Tech. On appelle les personnes, des personnes.) Nous élaborons nos outils aussi simplement que possible pour qu’ils puissent être compris, maintenus et améliorés par le plus grand nombre. Nous n’avons pas l’arrogance de supposer que les gens feront des efforts excessifs pour apprendre nos outils. Nous nous efforçons de les rendre intuitifs et faciles à utiliser. Nous réalisons de belles fonctionnalités par défaut et nous arrondissons les angles.
  •  
    "Et si les géants de la technologie numérique étaient concurrencés et peut-être remplacés par les nains des technologies modestes et respectueuses des êtres humains ? Telle est l'utopie qu'expose Aral Balkan ci-dessous. Faut-il préciser que chez Framasoft, nous avons l'impression d'être en phase avec cette démarche et de cocher déjà des cases qui font de nous ce qu'Aral appelle une Small Tech (littéralement : les petites technologies) par opposition aux Big Tech, autrement dit les GAFAM et leurs successeurs déjà en embuscade pour leur disputer les positions hégémoniques. Article original sur le blog d'Aral Balkan : Small technology"
Aurialie Jublin

Retour sur MyData2018 : quelle(s) approche(s) collective(s) des données perso... - 0 views

  • L’entrée en vigueur du RGPD a clairement été l’événement marquant de 2018 et beaucoup d’intervenants s’y sont référés. Le principe d’équité y est affirmé. Or il s’agit d’un principe qui recouvre une dimension collective : l’équité suppose un groupe, contrairement aux autres principes (transparence, légalité, limitation de but, rétention, intégrité et confidentialité, minimisation des données, précision). Toutefois le texte ne donne pas de définition de l’équité dans le contexte de la gestion des données personnelles a fait remarquer Jussi Leppälä, Privacy Officer (Global) chez Valmet. Finalement, les intervenants s’accordaient à dire que le RGPD est un texte axé sur les besoins individuels plutôt que collectifs. Il protège l’individu, mais ne porte pas de vision véritablement collective des données personnelles.
  • Sur cette question de l’équité, l’exemple d’openSCHUFA donné par Walter Palmetshofer (Open Knowledge Allemagne) est inspirant : une campagne de collecte de données a été faite auprès de milliers d’individus pour comprendre l’algorithme de credit-scoring (pointage de crédit) de SCHUFA, bureau de crédit privé allemand. Cela a permis à des individus de pouvoir demander, preuves à l’appui, à corriger des décisions prises par l’algorithme. De manière générale, le biais algorithmique est un enjeu sociétal important, surtout pour les groupes les plus fragiles dont les données personnelles sont plus exposées et davantage victimes de biais algorithmiques (à ce sujet, lire Internet Actu).
  • D’autres intervenants ont insisté sur la nécessité d’accompagner les entreprises vers plus de prises en compte de leur responsabilité sociale. Le modèle de gouvernance qui domine actuellement étant l’hégémonie d’acteurs économiques (GAFA, BATX) raconte Bruno Carballa Smichowski, de Chronos, le rééquilibrage des pouvoirs doit venir des Etats. Ces derniers disposent de données personnelles, mais peuvent également demander des comptes et pousser les acteurs qui utilisent les données à être plus ouverts et actifs : littératie, infrastructure, open innovation, construire la confiance et faire reculer la peur, ou encore impliquer les personnes concernées (Hetan Shah et Jeni Tennison), sont autant d’actions que les pouvoirs publics peuvent mettre en place.
  • ...9 more annotations...
  • Depuis le lancement de MyData, la nécessité de développer les enjeux collectifs des données personnelles apparaît chaque année plus forte. En parallèle, les communs numériques apparaissent de plus en plus comme un modèle alternatif désirable face aux comportements abusifs des acteurs dominants. Les communs autorisent par nature une gestion transparente et au service de la communauté, car gérés par leurs membres.
  • Si sa remarque a donné naissance au track “OurData” en 2017 et en 2018,, le terme de “commun” était pourtant quasiment absent des discussions du track OurData, essentiellement tourné vers l’acteur public et la régulation. L’exemple d’OpenSCHUFA se rattache néanmoins au courant des communs en donnant un exemple concret.
  • L’idée derrière la coopérative de données qui s’intègrerait au modèle MyData/Self Data viserait plutôt à créer un commun : une association d’individus développant des outils et services (chat, moteur de recherche,…) leur permettant de gérer leurs données de A à Z. Il existe plusieurs coopératives de données de ce type : diglife.coop, schluss, open.coop,…
  • Laura James (doteveryone) a suggéré  cette session afin d’échanger avec les participants sur la faisabilité de créer une ou des coopératives “de masse”, appartenant à leurs membres et gérées par eux. L’objectif serait d’offrir aux gens de meilleurs services que les géants de la technologie et les entreprises de type Silicon Valley. Laura James constate que si le problème avec les géants numériques est leur modèle d’entreprise (capitalisme de surveillance) et le modèle de propriété (extraction de richesse au profit de quelques-uns), la “data coop” doit permettre d’offrir une technologie en laquelle nous pouvons avoir confiance – c’est-à-dire préservant notre vie privée, accessible, fiable, équitable, basée sur les sources ouvertes existantes, avec un meilleur support et une véritable durabilité.
  • Est-ce que le peu de succès de Digital Life Collective est dû à un manque d’intérêt de la part des consommateurs pour les questions liées aux données personnelles ? Ou bien est-ce que les enjeux ne sont pas encore bien compris par les gens ? Les porteurs de coopératives présents à la session échangent sur plusieurs éléments de réponse. D’abord, il n’y a pas une absence d’intérêt pour les questions de privacy mais une perception et un traitement différent selon les personnes (par les « millenials » par exemple). Ensuite, les consommateurs veulent-ils avoir à supporter la responsabilité qui va avec la reprise du contrôle sur leurs données ? Rien n’est moins sûr : comme les services gratuits d’aujourd’hui, cela doit être simple. Mais le contrôle implique nécessairement des responsabilités… Les consommateurs ont aussi besoin de services pratiques. Il faut travailler l’expérience utilisateur. Enfin, il faut une littératie des données pour créer un véritable intérêt et dissiper la peur et les malentendus autour de ce sujet.
  • Comment avoir une véritable gouvernance partagée tout en ayant une organisation suffisamment grande ? A peine 10 personnes sont vraiment actives au sein de Digital Life Collective. Schluss recherche une manière de faire participer davantage les membres. C’est un problème récurrent pour les coopératives, et toute organisation dont la gestion s’appuie sur l’ensemble de ses membres. Toutefois, l’un des participants soulignait que même si seul 1% s’implique dans la prise de décisions, tous reçoivent les bénéfices de la coopérative ! Ca n’est pas la gestion parfaitement partagée et idéale, mais cela fonctionne quand même. Avant de renoncer au modèle participatif, quelques modèles de gouvernance pourraient être expérimentés pour faciliter les prises de décision participatives au sein de la coopérative : les jurys citoyens, sociocracy 3.0 (utilisé par certaines entreprises télécom en Finlande), …
  • Dans les sessions de la thématique “OurData”, nous avons eu le plaisir d’entendre à chaque fois (ou presque) que la propriété appliquée aux données personnelles n’a aucun sens. Bien que ce track, plus qu’aucun autre, soit prédisposé à un tel constat,depuis quelques années, la position de la communauté MyData s’est éclaircie à ce sujet et on voit de moins en moins de personnes prôner ce modèle de propriété et de revente individuelle de ses données..
  • En découle un modèle collectif basé non pas sur des titres de propriété individuels mais sur des droits d’usage. Le RGPD en crée quelques-uns mais d’autres questions restent en suspens, comme le droit à la mémoire collective, notamment pour les catégories les plus défavorisées, ou encore l’équité, qui s’oppose à une régulation par les lois du marché.
  • La plupart des intervenants postulent que c’est l’acteur public qui doit agir : en créant de nouveaux droits associés aux données personnelles, en accompagnant les acteurs privés à fournir des solutions plus éthiques et transparentes, en s’engageant pour une culture et une littératie de la donnée pour tous, en actant juridiquement que les données personnelles sont le résultat d’un processus collectif qui appartient à la société qui l’a co-généré et qu’il ne peut y avoir de propriété associée (en France la CNIL est très claire sur ce dernier point, nous avons besoin d’une voie aussi claire au niveau européen !), en promouvant leur valeur sociale, et non commerciale, et enfin qu’il fasse que le fruit de ce travail doit servir à répondre à des problématiques collectives telles que la santé, l’éducation, la culture, la protection de l’environnement, …
  •  
    "LE CONSTAT : LA GESTION ACTUELLE DES DONNÉES PERSONNELLES S'INTÉRESSE PEU AU COLLECTIF MyData s'intéresse à toutes les dimensions que recouvre le contrôle des données personnelles : si la privacy occupe souvent le devant de la scène, MyData explore également la transparence des organisations et des technologies, l'équité et la dimension collective des données personnelles."
Aurialie Jublin

Pire to pire : le fantasme de la perfection sociale - P2P Foundation France - 0 views

  • Car cette liberté retrouvée semble à tout prix devoir être mise au service d’un but « noble » qui serait une espèce d’efficacité sociale, et d’une rationalisation de nos comportements. Il semble acquis que si « nous » communiquons mieux, et sans intermédiaires pour nous en empêcher, « nous » arriverons plus rapidement au but. Mais lequel ? Et qui est ce « nous » ? Tout se passe comme si, effrayés par l’autonomie à laquelle ils sont peut-être en train d’accéder, les chantres de la décentralisation inventent en même temps la méta-organisation qui remplacera la figure du père, à défaut de savoir s’en passer.
  • Le passage d’un système fondé sur la confiance en l’humain vers un système fondé sur la preuve (où la confiance est déléguée à la technologie) semble ainsi pouvoir panser toutes les plaies, éviter toutes les trahisons, désillusions, imperfections… et l’on imagine que ce système parfait, à la fois incorruptible et incontrôlable, rendra nos vies meilleures et nous mettra à l’abri des tricheurs, des abuseurs et des voleurs.
  • celui qui gouverne, c’est celui qui indique la direction, qui donne un sens, qui guide. Ils défendent donc avec ardeur un système qui va aider à coordonner les mouvements des rameurs de la galère, sans considérer que si le projet social de la-dite embarcation diffère de ce qu’ils ont imaginé, ils sont en train de fabriquer eux-mêmes l’instrument de leur propre aliénation : une boussole autogène !
  • ...5 more annotations...
  • On en arrive à des propositions dites « démocratiques » entièrement basées sur la machine, où l’évaluation du nombre et de la qualité des contributions individuelles deviendrait une monnaie d’échange universelle et infalsifiable. On imagine même que les individus pourraient participer aux prises de décisions de façon proportionnelle à leurs contributions. Le bon vieux système de bons points remis au goût du jour ! Tant pis pour ceux qui ne souhaitent ou ne peuvent pas contribuer ? Tant pis si nous devenons esclaves de notre propre auto-évaluation ? La vie deviendrait un grand jeu vidéo où je chercherais à accumuler plus d’étoiles sur mon profil que le voisin pour gagner des points de gouvernance ou de rétribution ?
  • La gouvernance, si elle n’est pas humaine, prend le risque d’un réductionnisme mortifère et le chemin d’un égalitarisme totalitaire qui n’aura rien à envier aux dictatures que le monde a connues jusqu’ici.
  • Il me semble donc que les communs et le pair-à-pair ne pourront se développer harmonieusement qu’à la seule condition que les individus intègrent profondément que «pair», contrairement à son homonyme informatique, n’est pas synonyme de ce qui est «identique à moi» mais parle de connexion et d’amour d’une radicale altérité.
  • Ce que la blockchain, qui n’est qu’un outil, ne nous dit pas, c’est comment nous allons réussir à faire société et quelle société nous voulons. Cette perspective passe peut-être par trouver ce que nous avons en commun, ce qui ne signifie pas effacer nos singularités et nos défauts via une hypothétique technologie de la transaction. Il ne s’agit pas non plus de fantasmer un monde sans limites régi par une sémantique universelle, mythique Tour de Babel moderne.
  • Il s’agirait plutôt d’apprendre à travailler et à gouverner ensemble avec nos imperfections et nos limites, dans le but de créer quelque chose en commun au cœur de la relation. C’est probablement très difficile à réaliser (sans doute le travail de toute une vie !), inefficace et bancal, mais peut-être aussi tellement plus gratifiant et créateur de sens qu’une chaîne de chiffres infalsifiable…
  •  
    "Décentralisation, distribution, peer-to-peer, blockchain : on assiste à un déferlement de termes censé ouvrir un nouvel horizon de libertés individuelles et collectives. Pourtant, quelque chose cloche dans les discours et un frisson me parcourt souvent l'échine à l'écoute de certaines vidéos ou à la lecture de certains articles…"
Aurialie Jublin

Interview des auteurs du livre : "Blockchain - vers de nouvelles chaînes de v... - 0 views

  • Une monnaie, qu’elle qu’en soit la forme, remplit une fonction d’utilité : principalement celle d’être un moyen d’échange facilitant les transactions. Le point commun entre les pièces d’argile, les pièces métalliques, les monnaies fiduciaire et scripturale est donc de remplir cette fonction de média d’échange. L’utilisation d’un média d’échange dans le cadre d’une transaction permet de réduire les coûts associés à celle-ci.
  • Le troc est facilement imaginable, notamment au sein de petites communautés, mais est extrêmement coûteux puisqu’il nécessite « une coïncidence des volontés ». Il faut qu’à un instant t, deux personnes aient besoin du bien proposé par l’autre mais surtout que chacun estime que la transaction est équitable. L’utilisation d’une monnaie supprime ce problème : je peux vendre un bien, conserver la monnaie en « réserve de valeur » avant de racheter un autre bien lorsque l’envie m’en prendra. Plus largement, une monnaie remplit donc classiquement trois fonctions économiques : medium d’échange, réserve de valeur (possibilité de transférer des valeurs dans le temps) et unité de compte (métrique / libellé de référence pour des acteurs).
  • Vous dites aussi qu’une autre caractéristique de la monnaie est qu’elle n’a peu ou pas de valeur intrinsèque.En effet. La valeur qu’on lui accorde dépasse de loin sa valeur fondamentale. Nul doute que le poids du métal d’une pièce de deux euros valle bien moins que deux euros. La valeur d’une monnaie repose sur la confiance, la croyance collective que lui apporte un groupe d’individus, le symbole. Nous aimons beaucoup les thèses de Yuval Noah Harari sur la construction collective des mythes et des croyances ; selon nous, une monnaie en est une. La monnaie est «l’avatar le plus représentatif de la capacité des hommes à créer des mondes intersubjectifs ». Ce constat est d’autant plus fort depuis que la fin de la convertibilité or du dollar a été actée en 1971.
  • ...7 more annotations...
  • Nous démontrons que les média d’échange ont toujours évolué dans l’histoire économique, prise dans le temps long. A ce titre, Bitcoin ne mérite pas de statut plus négatif que le billet de banque lors de son invention. Cette évolution historique n’est certes pas linéaire, et prudence doit être de mise pour ne pas tomber ni dans l’anachronisme ni dans un évolutionnisme mal placé. On peut toutefois identifier de grands changements associés au progrès technique : à chaque révolution industrielle son support. L’apprentissage de la manipulation des métaux a permis la création des pièces métalliques, l’invention de l’imprimerie a ouvert la voie à la création des billets et de la monnaie fiduciaire, la création de la comptabilité en partie double au XVe siècle a rendu possible la compensation de compte à compte sans déplacement physique de moyens d’échange. Il n’y a donc rien d’aberrant ou de surprenant à voir émerger de nouvelles formes d’échanges et de monnaies, comme le bitcoin, au gré des évolutions technologiques et sociétales. En cela, Bitcoin et la blockchain constituent une étape supplémentaire dans l’évolution de l’histoire monétaire et des transactions.
  • Pourtant, aujourd’hui, le bitcoin est rarement utilisé comme une monnaie.C’est vrai. Certes Bitcoin s’inscrit dans la continuité de l’histoire monétaire, repose sur un nouveau consensus, une nouvelle construction collective ; comme c’est le cas pour le dollar depuis des dizaines d’années. Cependant, nous pensons qu’à date Bitcoin remplit imparfaitement les fonctions monétaires, de médium d’échange, de réserve de valeur et dans une moindre mesure d’unité de compte. Imparfaitement puisque la volatilité reste trop importante et l’acceptation trop limitée pour prétendre au même statut que le dollar ou l’euro.
  • Avec le Bitcoin, c’est la première fois dans l’Histoire que l’évolution des médias d’échange se traduit par une décentralisation absolue, ou presque. Rappelons pour les novices que le protocole Bitcoin — et d’autres — permettent de transférer des valeurs en pair-à-pair, c’est-à-dire sans l’intervention de tiers centralisé, donc complètement à côté du système monétaire, financier et bancaire actuel. Bitcoin s’est donc construit selon une gouvernance diamétralement opposée au système monétaire actuel, sans lien aux Etats ou aux banques centrales ; mais aussi sans entreprise.
  • Le paradoxe en question réside dans le fait que se libérer d’un pouvoir ou d’une autorité donné ne signifie pas pour autant échapper à toute forme de contrôle. Ainsi, Bitcoin et d’autres protocoles parviennent à trouver des moyens d’échapper aussi bien au contrôle des États de manière générale, qu’à celui de la banque centrale pour ce qui concerne l’application monétaire de cette technologie. Mieux encore, elle abolit l’idée même d’autorité entre agents, ce qui constitue la condition sine qua non de l’accomplissement de la liberté dans l’optique crypto-anarchiste où fut élaborée cette technologie.
  • C’est précisément parce que tout est traçable et transparent au sein de la chaîne, que se crée une double situation dont on peut douter qu’elle soit propice à une liberté authentique. D’une part, par la sécurisation de l’information, chacun devient aliéné à son passé transactionnel, la blockchain enchaînant au sens propre l’utilisateur — fût-il anonyme — aux opérations qu’il accompli. D’autre part, au sein du système disparaissent les notions de secret et d’opacité, qui semblent constituer des fondements tout aussi décisifs d’une liberté concrète comme la volonté de ne pas être soumis à une surveillance continue.
  • Il ne faut pas confondre la dissimulation, qui est une négation — je ne suis pas identifiable — et la liberté, qui est une affirmation — je suis maître de ma volonté et de mes actes de telle sorte qu’ils me soient imputables. Or, à moins de disposer d’une définition extrêmement pauvre de la liberté — ne pas être identifié –, il semble impossible de déduire d’un anonymat la preuve d’une liberté effective ; par ailleurs, le propre de la blockchain consiste justement à rendre impossible (ou du moins difficile) l’attribution de transactions à l’identité réelle d’un individu donné. La condition même par laquelle l’individu échappe au contrôle devient la raison pour laquelle sa liberté perd son sens puisque que rien ne peut lui être imputé et que rien ne s’apparente de près ou de loin à une maîtrise responsable de sa volonté et de ses actes.
  • Enfin, la soustraction à l’endroit d’une certaine forme de contrôle (autorité, État, banques) ne garantit en rien d’éviter l’activation d’une autre forme de contrôle, plus contraignante encore puisqu’accomplie au nom de la sacro-sainte transparence mais supposant un contrôle autrement plus poussé et aliénant que le contrôle traditionnel de la puissance publique.
Aurialie Jublin

Tribune : "Penser demain" par Marie Ekeland, nouvelle présidente du CNNum - 1 views

  • Il nous faut penser demain car il se construit aujourd’hui. La technologie est un moyen. Ne compte que ce que nous en ferons. Ce moment est historique. La France est reconnue mondialement pour ses talents créatifs, scientifiques ou entrepreneuriaux. Peut-elle également imaginer et proposer sa vision de l’avenir technologique, c’est-à-dire sa propre vision du progrès ? Comment construire collectivement ce monde numérique de demain ? Comment faire en sorte qu’il soit, pour tous, juste, durable, sûr et heureux ?
  • Il nous faut penser demain car il se construit aujourd’hui. La technologie est un moyen. Ne compte que ce que nous en ferons. Ce moment est historique. La France est reconnue mondialement pour ses talents créatifs, scientifiques ou entrepreneuriaux. Peut-elle également imaginer et proposer sa vision de l’avenir technologique, c’est-à-dire sa propre vision du progrès ? Comment construire collectivement ce monde numérique de demain ? Comment faire en sorte qu’il soit, pour tous, juste, durable, sûr et heureux ?
Aurialie Jublin

Véhicule électrique urbain : mais où est donc passée la sobriété ? - 0 views

  •  
    "Les designers de l'industrie automobile sont-ils mélancoliques d'une Belle-Epoque des voitures, coincée entre les années 50 et 80 ? C'est du moins ce que pense Philippe Vallat, CEO de l'entreprise de design industriel Pilot Design, et auteur de cette tribune. Ayant la volonté de produire des véhicules tout en sobriété, les entreprises automobiles ne semblent trouver l'inspiration qu'à partir d'anciens modèles. Pourtant, ces nouvelles voitures sont obligées de ne ressembler qu'en apparence à leurs modèles d'inspiration : la technologie, et les normes, ayant évolués depuis ces années-là. Et cette progression technologique s'accompagne souvent d'une profusion de gagdets, plus ou moins utiles, trahissant quelque peu la volonté de sobriété des constructeurs de l'époque. "
Aurialie Jublin

affordance.info: La libellule et la muraille (Google en Chine) - 0 views

  • Nous sommes à un moment de l'histoire des technologies de l'information et du numérique qui est assez comparable à l'état du monde en 1949 c'est à dire au moment où l'autre superpuissance de l'époque (l'union soviétique) se dota également de la bombe nucléaire (voir notamment ici ou là). Ce que je veux dire par là c'est que désormais, la totalité des plateformes existantes "à l'Ouest" dispose d'équivalents "à l'Est". Et le rapport au nucléaire n'est pas seulement analogique ou symbolique comme je l'écrivais par ici :  "Le numérique est une technologie littéralement nucléaire. Une technologie de noyau. Au "cœur" fissible d’un éventail de possibles aussi prometteurs qu’angoissants et pour certains, incontrôlables."   L'analogie est également (géo)politique. Toutes les grandes plateformes vont devoir faire le choix politique de savoir dans quelle mesure elles acceptent de se censurer et donc de collaborer avec des régimes autoritaires pour conquérir un marché. Et à l'échelle des enjeux que représentent à la fois les audiences qu'elles touchent déjà et celles qu'elles visent à conquérir, chacun de ces choix est un peu plus qu'un simple choix économique ou même moral.   
  • La vraie nouveauté c'est que ce projet à suscité la colère d'une partie des salariés de Google, qui à l'image de la victoire - je pense temporaire - qu'ils avaient remporté pour obliger leur employeur à se retirer du projet militaire Maven, espèrent cette fois faire suffisamment de bruit pour que ce projet de moteur censuré n'aille pas à son terme.  La crise éthique de certains anciens cadres des GAFA qui agissent comme autant de "repentis" pour les technologies qu'ils ont contribué à créer n'est plus simplement externe mais elle s'étend désormais à l'interne et touche aussi bien Google que Facebook, Microsoft, Amazon (à propos d'un programme de reconnaissance faciale) ou Twitter (à propos du refus de Jack Dorsey de fermer le compte d'un leader de l'Alt-right complotiste). 
  • S'agissant du contrôle linguistique il opère pour l'instant uniquement au travers des dispositifs et des plateformes agréées par le gouvernement chinois ou opérant sous son autorité directe. C'est le cas par exemple du moteur de recherche Baïdu. Comme d'autres, la Chine n'échappe pas à la multiplication des terminaux de connexion. Là où il y a quelques années il suffisait de surveiller l'ordinateur familial pour capter l'ensemble des pratiques connectées de 5 ou 6 personnes, il faut aujourd'hui étendre et démultiplier les moyens de surveillance sur chaque Smartphone ou tablette. Après la surveillance "de masse" c'est la surveillance "de chacun" qui prime. D'où d'ailleurs, le renforcement du contrôle "social" et du micro-ciblage comportemental qui devient le plus petit dénominateur commun efficient dans le cadre d'une volonté politique de contrôle de la population comme dans le cadre d'une volonté marketing d'expansion commerciale. Les deux aspects finissant d'ailleurs par se rejoindre, ce qui n'est pas le moindre des problèmes que nous avons aujourd'hui à résoudre, car pour citer encore Zeynep Tufekci :  "Nous créons une dystopie simplement pour pousser les gens à cliquer sur des publicités". Il me semble que nous sommes aujourd'hui à la phase d'après. Celle où les gens ont cliqué sur suffisamment de publicités et ont, ce faisant, accepté suffisamment de technologies de traçage actif ou passif pour que les conditions d'existence d'une forme de pouvoir autoritaire soient réunies et surtout pour qu'elle soient en passe d'être acceptées comme naturelles ou, pire, comme légitimes. 
  • ...8 more annotations...
  • La question essentielle se déplace donc : il ne s'agit plus de savoir si nous acceptons ou si nous refusons ce traçage publicitaire (débat permis et en partie résolu par le RGPD) ; il s'agit de savoir si nous acceptons ou si nous refusons cette forme de néo-fascisme documentaire propre au totalitarisme littéral des plateformes et le cadre économico-politique qui est sa condition d'existence première. Les "repentis" de la Silicon Valley l'ont dénoncé de l'extérieur. Désormais les employés de ces firmes tentent de s'y opposer de l'intérieur. Il reste aux citoyens, c'est à dire à nous-mêmes, à terminer le boulot. Et ce ne sera pas facile. Car il nous faut retrouver l'envie de le faire. Or ...
  • Le même article - à lire dans la continuité des leçons que nous propose Zeynep Tufekci - rappelle qu'à rebours du postulat d'une inéluctable émancipation dont serait porteur le numérique et ses plateformes pour des populations sous le joug de régimes autoritaires, c'est l'inverse qui est en train de se produire : c'est le modèle chinois d'un internet censuré qui est en train de s'exporter dès aujourd'hui au Vietnam, en Tanzanie ou en Ethiopie, mais également sous un autre aspect en Australie où le réveil est déjà douloureux, et probablement demain dans l'ensemble de ces pays "émergents" et politiquement instables ou non-démocratiques, les mêmes que visent également les occidentaux GAFA pour aller y puiser leur prochain milliard d'utilisateurs. Et cette guerre là n'est pas que commerciale. Elle est avant tout culturelle. Et d'un cynisme est sans égal. Car lorsque toutes les ressources naturelles auront été épuisées, lorsque le dernier gisement du dernier minerai aura été extrait et raffiné, il restera encore à tous ces états la possibilité de vendre le visage de leurs citoyens. Ils n'ont d'ailleurs pas attendu.
  • Les intérêts des GAFA et des gouvernements disons, "autoritaires", sont donc aujourd'hui peu ou prou les mêmes. Ils cherchent à exporter un modèle d'affaire qui est le prétexte à une forme renouvelée de Soft Power qui fait du risque de dystopie et de la mise en oeuvre de son architecture de surveillance un simple dégât collatéral voire un biais nécessaire. Et leurs stratégies sont également semblables par bien des aspects : là encore elles visent une anecdotisation, une discrétisation des régimes de surveillance qui leur permettent de perpétuer et de légitimer leur modèle d'affaire. Quand aux questions d'éthique et aux scrupules, là encore ... on apprenait récemment que pour que Google cesse réellement de nous géolocaliser via notre smartphone, il ne suffisait pas simplement de lui dire de cesser de nous géolocaliser.
  • l'hystérisation récente autour du "fichage" supposé de milliers de Twittos en est un symptôme qui me semble aussi explicite que malheureux, et rappelle à quel point la question des "sans papiers" ou des furtifs échappant à l'hyper-surveillance des plateformes et des états est aujourd'hui plus que jamais politiquement centrale.
  • Souvenons-nous que le démantèlement ou la nationalisation desdites plateformes ont d'abord prêté à sourire avant de finalement être envisagées même si cela ne fut que d'un point de vue purement théorique.  Comme le rappelle encore Zeynep Tufekci :  "Pour comprendre pleinement ce qui se passe, nous avons aussi besoin d'étudier comment les dynamiques des sociétés humaines, la connectivité ubiquitaire, et le modèle d'affaire des géants du numérique se combinent pour créer des environnements dans lesquels la désinformation prospère et où même une information authentique et vérifiée peut nous paralyser et nous rendre confus plutôt que de nous informer et de nous éclairer."
  • Croire que les états n'ont pas à se mêler de la stratégie d'entreprises comme Google, Facebook ou Amazon au motif que nous ne serions, justement, pas en Chine ou dans un pays communiste est aujourd'hui le triple aveu d'un dépassement, d'une impuissance et d'une incapacité à penser ce qui se joue réellement à l'échelle politique.  Et en même temps ... imaginer que des états, que nos états actuels, gouvernés par des bouffons narcissiques de la finance ou par des clowns égocentriques ivres de leur nationalisme, imaginer que ces états puissent aujourd'hui se mêler du projet politique de ces mêmes firmes n'apparaît pas davantage comme une solution souhaitable. 
  • Le drame est que nous n'avons plus confiance ni dans les murailles ni dans les libellules. Et que cette érosion totale de la confiance à l'égard du politique et de la technique (numérique) s'ajoute à l'incapacité du premier à penser la seconde alors même que les infrastructures techniques du numérique n'ont de sens que si elles servent un projet politique. 
  • S'agissant du contrôle de la sphère sociale, on se réfèrera à la littérature pléthorique sur le "Social Credit Score" qui permet d'accorder à certains des droits refusés à d'autres en fonction de comportements sociaux mesurés et scrutés en permanence par le gouvernement (voir notamment sur Wired ou dans Wikipedia). 
  •  
    "Au coeur de l'été. Une libellule. Et une muraille. "Libellule" (en anglais "Dragonfly") c'est le nom de code du projet de Google pour retourner implanter une version censurée de son moteur de recherche en Chine d'après les révélations de The Intercept. En Chine, d'où la "muraille" du titre de ce billet. "
Aurialie Jublin

Pour une planète viable, arrêtons la 5G - 0 views

  •  
    L'offensive de l'industrie des télécommunications pour le déploiement du réseau sans fil de cinquième génération (5G) se déroule avec l'appui des gouvernements. Les signataires de cet appel demandent d'y mettre un terme à cause des conséquences irréversibles pour la santé et l'environnement que cette technologie va provoquer.
1 - 20 of 39 Next ›
Showing 20 items per page