Skip to main content

Home/ QN2019/ Group items tagged humain

Rss Feed Group items tagged

Aurialie Jublin

Demain, les nains… - Framablog - 0 views

  • Les géants du numérique, avec leurs « licornes » à plusieurs milliards de dollars, nous ont confisqué le potentiel d’Internet. Alimentée par la très courte vue et la rapacité du capital-risque et des start-ups, la vision utopique d’une ressource commune décentralisée et démocratique s’est transformée en l’autocratie dystopique des panopticons de la Silicon Valley que nous appelons le capitalisme de surveillance. Cette mutation menace non seulement nos démocraties, mais aussi l’intégrité même de notre personne à l’ère du numérique et des réseaux1.
  • Alors que la conception éthique décrit sans ambiguïté les critères et les caractéristiques des alternatives éthiques au capitalisme de surveillance, c’est l’éthique elle-même qui est annexée par les Big Tech dans des opérations de relations publiques qui détournent l’attention des questions systémiques centrales2 pour mettre sous les projecteurs des symptômes superficiels3.
  • Small Tech elle est conçue par des humains pour des humains 4 ; elle n’a pas de but lucratif 5 ; elle est créée par des individus et des organisations sans capitaux propres6 ; elle ne bénéficie d’aucun financement par le capitalisme de la surveillance des Big Tech7 ; elle respecte la vie privée par défaut8 ; elle fonctionne en pair à pair9 ; elle est copyleft10 ; elle favorise les petits plutôt que les grands, les simples plutôt que les complexes et tout ce qui est modulaire plutôt que monolithique11 ; elle respecte les droits humains, leurs efforts et leur expérience12 ; elle est à l’échelle humaine13.
  • ...6 more annotations...
  • Ces critères signifient que la Small Tech : est la propriété des individus qui la contrôlent, et non des entreprises ou des gouvernements ; respecte, protège et renforce l’intégrité de la personne humaine, des droits humains, de la justice sociale et de la démocratie à l’ère du numérique en réseau ; encourage une organisation politique non-hiérarchisée et où les décisions sont prises à l’échelle humaine ; alimente un bien commun sain ; est soutenable ; sera un jour financée par les communs, pour le bien commun. ne rapportera jamais des milliards à quiconque.
  • Des entreprises comme Google et Facebook sont des fermes industrielles pour les êtres humains. Leurs produits sont les machines agricoles. Ils doivent fournir une façade brillante pour garder notre attention et nous rendre dépendants afin que nous, le bétail, puissions volontairement nous autoriser à être exploités. Ces institutions ne peuvent être réformées. Les Big Tech ne peuvent être réglementées que de la même manière que la Big Tobacco pour réduire ses méfaits sur la société. Nous pouvons et devrions investir dans une alternative éthique : la Small Tech
  • Nous construisons la Small Tech principalement pour le bien commun, pas pour faire du profit. Cela ne signifie pas pour autant que nous ne tenons pas compte du système économique dans lequel nous nous trouvons actuellement enlisés ou du fait que les solutions de rechange que nous élaborons doivent être durables. Même si nous espérons qu’un jour Small Tech sera financé par les deniers publics, pour le bien commun, nous ne pouvons pas attendre que nos politiciens et nos décideurs politiques se réveillent et mettent en œuvre un tel changement social. Alors que nous devons survivre dans le capitalisme, nous pouvons vendre et faire des profits avec la Small Tech. Mais ce n’est pas notre but premier. Nos organisations se préoccupent avant tout des méthodes durables pour créer des outils qui donnent du pouvoir aux gens sans les exploiter, et non de faire du profit. Small Tech n’est pas une organisation caritative, mais une organisation à but non lucratif
  • La vie privée, c’est avoir le droit de décider de ce que vous gardez pour vous et de ce que vous partagez avec les autres. Par conséquent, la seule définition de la protection de la vie privée qui importe est celle de la vie privée par défaut. Cela signifie que nous concevons la Small Tech de sorte que les données des gens restent sur leurs appareils. S’il y a une raison légitime pour laquelle cela n’est pas possible (par exemple, nous avons besoin d’un nœud permanent dans un système de pair à pair pour garantir l’accessibilité et la disponibilité), nous nous assurons que les données sont chiffrées de bout en bout et que l’individu qui possède l’outil possède les clés des informations privées et puisse contrôler seul qui est à chacun des « bouts » (pour éviter le spectre du Ghosting)
  • La configuration de base de notre technologie est le pair à pair : un système a-centré dans lequel tous les nœuds sont égaux. Les nœuds sur lesquels les individus n’ont pas de contrôle direct (p. ex., le nœud toujours actif dans le système pair à pair mentionné dans la note précédente) sont des nœuds de relais non fiables et non privilégiés qui n’ont jamais d’accès aux informations personnelles des personnes.
  • La Small Tech est conçue par des humains, pour des humains ; c’est une approche résolument non-coloniale. Elle n’est pas créée par des humains plus intelligents pour des humains plus bêtes (par exemple, par des développeurs pour des utilisateurs – nous n’utilisons pas le terme utilisateur dans Small Tech. On appelle les personnes, des personnes.) Nous élaborons nos outils aussi simplement que possible pour qu’ils puissent être compris, maintenus et améliorés par le plus grand nombre. Nous n’avons pas l’arrogance de supposer que les gens feront des efforts excessifs pour apprendre nos outils. Nous nous efforçons de les rendre intuitifs et faciles à utiliser. Nous réalisons de belles fonctionnalités par défaut et nous arrondissons les angles.
  •  
    "Et si les géants de la technologie numérique étaient concurrencés et peut-être remplacés par les nains des technologies modestes et respectueuses des êtres humains ? Telle est l'utopie qu'expose Aral Balkan ci-dessous. Faut-il préciser que chez Framasoft, nous avons l'impression d'être en phase avec cette démarche et de cocher déjà des cases qui font de nous ce qu'Aral appelle une Small Tech (littéralement : les petites technologies) par opposition aux Big Tech, autrement dit les GAFAM et leurs successeurs déjà en embuscade pour leur disputer les positions hégémoniques. Article original sur le blog d'Aral Balkan : Small technology"
Aurialie Jublin

Relations humaines et artisanat : le futur des services publics - 0 views

  • La solution ? Changer la logique des services bureaucratiques afin de remettre la relation humaine au cœur du système. Pour cela, il faudrait pouvoir coordonner toutes les offres de services existantes, permettre aux professionnels, aux amateurs et aux particuliers de créer une expérience communautaire, où, parfois, les relations amicales qui auront pu se développer viendront se substituer aux services que les professionnels n’arrivent pas vraiment à rendre. La technologie permet comme jamais auparavant de mettre en réseau différents acteurs pour recréer des communautés qui ont disparu.
  • Les liens que nous formons nous rendent heureux, nous soutiennent et nous aident. Mais ces liens ont été intentionnellement éliminés des systèmes que nous avons construits dans l’après-guerre. Beveridge n’avait pas de foi dans les émotions. Il était convaincu qu’il fallait préférer un système impersonnel. La standardisation du service devait permettre la baisse du coût unitaire de production. C’est comme cela que l’on parviendrait à servir des millions de personnes à un coût abordable. Malheureusement, si ce système a indéniablement créé de la valeur pendant plusieurs décennies, il a aussi rapidement engendré une augmentation de la solitude et un affaiblissement des liens sociaux.
  • “Les relations humaines sont la ressource la plus précieuse dont nous disposons”, écrit Cottam. L’offre de services de proximité telle qu’elle est structurée aujourd’hui minimise l’importance des relations singulières entre individus. Le modèle fordiste et sa recherche des gains de productivité par l’organisation scientifique du travail ont façonné la manière dont on a structuré toutes les activités au XXe siècle, dans le secteur public comme dans le secteur privé.
  •  
    " « L'argent ne fait pas tout », explique Hilary Cottam. « Au cœur de cette nouvelle manière de travailler, il y a la relation humaine. J'ai constaté que lorsque les gens se sentaient soutenus par des relations humaines fortes, il pouvait y avoir du changement. » Il est temps de comprendre que les services de proximité, y compris (surtout ?) ceux rendus par la puissance publique ne doivent pas être condamnés à être dévalorisés par la logique de production de masse et d'organisation scientifique du travail. Nous avons tout à gagner à y mettre une logique artisanale, qui permet les relations singulières, la personnalisation, la créativité et l'autonomie. C'est sans doute ce dont notre siècle a le plus besoin."
Aurialie Jublin

Technologie : l'âge sombre | InternetActu.net - 0 views

  • Pire, la technologie s’est fait la complice de tous les défis auxquels nous sommes confrontés : à la fois d’un système économique hors de contrôle qui ne cesse d’élargir les inégalités, la polarisation politique comme le réchauffement climatique. Pour Bridle, la technologie n’est pas la solution à ces défis, elle est devenue le problème. Il nous faut la comprendre plus que jamais, dans sa complexité, ses interconnexions et ses interactions : mais cette compréhension fonctionnelle ne suffit pas, il faut en saisir le contexte, les conséquences, les limites, le langage et le métalangage.
  • Trop souvent, on nous propose de résoudre ce manque de compréhension de la technologie par un peu plus d’éducation ou son corollaire, par la formation d’un peu plus de programmeurs. Mais ces deux solutions se limitent bien souvent en une compréhension procédurale des systèmes. Et cette compréhension procédurale vise surtout à renforcer la « pensée computationnelle », c’est-à-dire la pensée des ingénieurs et des informaticiens qui n’est rien d’autre que le métalangage du solutionnisme technologique 
  • Les systèmes techniques sont devenus de plus en plus complexes. Trop critiques et interconnectés pour être compris, pensés ou conçus. Leur compréhension n’est disponible plus que pour quelques-uns et le problème est que ces quelques-uns sont les mêmes que ceux qui sont au sommet des structures de pouvoir. Pour James Bridle, il y a une relation causale entre la complexité des systèmes, leur opacité, et les violences et inégalités qu’ils propagent.
  • ...32 more annotations...
  • Le cloud (l’informatique en nuage) n’est plus une métaphore du réseau, c’est l’incarnation de ce système global et surpuissant qu’aucun d’entre nous ne peut désormais attraper. Ce nuage est pourtant une bien mauvaise métaphore. Rien de ce qu’il recèle n’y est sans poids, rien n’y est amorphe ou invisible. Le cloud cache une infrastructure physique complexe faite de lignes téléphoniques, de fibre optique, de satellite, de vastes entrepôts d’ordinateurs, qui consomment d’énormes quantités d’énergie et qui influent sur de multiples juridictions. Le cloud est l’incarnation d’une nouvelle industrie.
  • De la sécurité nationale aux secrets industriels, il y a beaucoup de raisons à obscurcir ce que recouvre ce nuage. Mais ce qui s’en évapore est assurément notre propriété (dans les nuages, tout appartient à d’autres) et notre agentivité, c’est-à-dire notre capacité à faire.
  • Le réseau donne l’impression d’être à la fois l’idéal de progrès le plus abouti et l’idéal de base de notre culture tout en paraissant avoir émergé inconsciemment, poursuivant son but d’interconnexion sans fin pour lui-même et par lui-même… « Nous présumons que l’interconnexion est inhérente et inévitable. Le réseau semble être devenu le résultat du progrès, son accomplissement ultime », à l’image de machines qui accompliraient ainsi leurs propres désirs. Internet semble avoir accompli l’idéal des Lumières, l’idéal du progrès : celui que plus de connaissance et plus d’information conduit toujours à prendre de meilleures décisions.
  • Mais n’est-ce pas plutôt le contraire auquel nous assistons ? « Ce qui était censé éclairer le monde l’a obscurci. L’abondance d’information et la pluralité d’opinion accessible à tous n’ont pas produit un consensus cohérent, mais au contraire a déchiré la réalité en narrations simplistes, en théories fumeuses et en politique d’opinion. Contrairement au Moyen Âge, où l’âge sombre était lié à une perte de connaissance antique, l’âge sombre moderne est lié à une abondance de connaissance dont nous ne savons plus démêler collectivement l’apport. »
  • L’obscurité dont parle Bridle c’est notre incapacité à voir clairement ce qui est devant nous, avec capacité et justice. Pour Bridle pourtant, ce constat ne doit pas être lu comme une condamnation de la technologie. Au contraire. Pour relever l’âge sombre qui s’annonce, il nous faut nous engager plus avant dans la technologie, avec elle, mais avec une compréhension radicalement différente de ce qu’il est possible d’en faire, en retrouver un sens que la seule recherche d’efficacité nous a fait perdre. Tout comme le changement climatique, les effets de la technologie s’étendent sur le globe et affectent tous les aspects de nos vies. Mais comme le changement climatique, ses effets sont potentiellement catastrophiques et résultent de notre incapacité à comprendre les conséquences de nos propres inventions. Nous devons changer de manière de voir et penser le monde, nous invite Bridle, un peu facilement ou naïvement.
  • « En rapprochant la simulation de l’approximation, les grands prêtres de la pensée computationnelle pensent remplacer le monde par des modèles biaisés de lui-même ; et en le faisant, les modeleurs s’assurent du contrôle du monde. » James Bridle s’inscrit dans la continuité des constats de l’historien des sciences David Noble qui, dans Le progrès sans le peuple notamment, soulignait combien la pensée des ingénieurs avait contribué à donner du pouvoir aux puissants plutôt que favoriser l’équité ou la démocratie ; comme dans celle de Richard Sclove du Loka Institute, qui dans Choix technologiques, choix de société, soulignait combien les enjeux démocratiques restaient le parent pauvre de la question technologique.
  • La pensée computationnelle s’infiltre partout : elle devient notre culture. Elle nous conditionne à la fois parce qu’elle nous est illisible et à la fois parce que nous la percevons comme neutre émotionnellement et politiquement. Les réponses automatisées nous semblent plus dignes de confiance que celles qui ne le sont pas. Dans la pensée computationnelle, nous sommes victimes du biais d’automatisation : « nous avons plus confiance dans l’information automatisée que dans notre propre expérience, même si elle est en conflit avec ce qu’on observe ». Les conducteurs de voitures comme les pilotes d’avion ont plus tendance à croire leurs instruments que leur expérience, même si celle-ci n’est pas alignée.
  • Pour Bridle, l’informatique, en ce sens, est un piratage de notre capacité cognitive, de notre capacité attentionnelle, qui renvoie toute responsabilité sur la machine. « À mesure que la vie s’accélère, les machines ne cessent de prendre en main de plus en plus de tâches cognitives, renforçant par là leur autorité – sans regarder les conséquences ». « Nous nous accommodons de mieux en mieux et de plus en plus aux confortables raccourcis cognitifs que nous proposent nos machines. L’informatique remplace la pensée consciente. Nous pensons de plus en plus comme des machines, ou plutôt nous ne pensons plus du tout ! ».
  • « Ce qui est difficile à modéliser, à calculer, à quantifier, ce qui est incertain ou ambigu, est désormais exclu du futur possible. » L’informatique projette un futur qui ressemble au passé (« Les algorithmes ne prédisent pas le futur, ils codifient le passé », disait déjà Cathy O’Neil). La pensée computationnelle est paresseuse. Elle propose finalement des réponses faciles. Elle nous fait croire qu’il y a toujours des réponses.
  • les réseaux souffrent d’une gouvernance fragmentée, sans responsabilités claires, peu cartographiés et sous-financés ; des infrastructures en silos ; des investissements privés comme publics insuffisants et plus encore un manque de compréhension de la complexité de leur fonctionnement… expliquent leur fragilité intrinsèque et la difficulté de leur maintenance. Ajoutez à cela les impacts du changement climatique sur leur maintenance et leur évolution et vous comprendrez que les réseaux ne sont pas dimensionnés pour faire face au futur. Bref, non seulement l’informatique contribue largement au réchauffement climatique, mais elle risque d’en être l’une des principales victimes.
  • Mais les grands volumes de données ne produisent pas de la connaissance automatiquement. Dans la recherche pharmacologique par exemple, les dépenses et investissements n’ont jamais été aussi forts alors que les découvertes, elles, n’ont jamais produit aussi peu de nouveaux traitements. On appelle cela la loi d’Eroom : l’exact inverse de la loi de Moore. Le nombre de résultats de recherche chute et ces résultats sont de moins en moins dignes de confiance. Si les publications scientifiques n’ont jamais été aussi volumineuses (au détriment de leur qualité), les rétractions ont augmenté et le nombre de recherches ayant un impact significatif, elles, ont diminué proportionnellement. La science connaît une crise de réplicabilité majeure.
  • Plusieurs facteurs expliquent ce revirement de la loi du progrès. La première est que les choses les plus évidentes à découvrir ont été exploitées. La régulation est également devenue plus exigeante et la société moins tolérante aux risques. Mais le problème principal relève certainement des méthodes désormais employées. Historiquement, la découverte de médicament était le fait de petites équipes de chercheurs qui se concentrait intensément sur de petits groupes de molécules. Mais depuis 20 ans, ces processus ont été largement automatisés, sous la forme de ce qu’on appelle le HTS (High-throughput screening pour criblage à haut débit) qui consiste en des recherches automatisées de réactions potentielles via de vastes bibliothèques de composants. Le HTS a priorisé le volume sur la profondeur. Ce qui a marché dans d’autres industries a colonisé la recherche pharmaceutique : automatisation, systématisation et mesures… Certains commencent à douter de l’efficacité de ces méthodes et voudraient revenir à l’empirisme humain, au hasard, au bordel, au jeu… À nouveau, « la façon dont nous pensons le monde est façonnée par les outils à notre disposition ». Nos instruments déterminent ce qui peut être fait et donc, ce qui peut être pensé. À mesure que la science est de plus en plus technologisée, tous les domaines de la pensée humaine le sont à leur tour. Les vastes quantités de données ne nous aident qu’à voir les problèmes des vastes quantités de données.
  • Les bourses et places de marchés d’antan ont été remplacées par des entrepôts, des data centers, anonymes, dans des banlieues d’affaires impersonnelles. La dérégulation et la numérisation ont transformé en profondeur les marchés financiers. La vitesse des échanges s’est accélérée avec la technologie. Les transactions à haute fréquence (HFT, High-frequency trading) reposent sur la latence et la visibilité. La latence, c’est-à-dire la rapidité d’échange où des millions peuvent s’échanger en quelques millisecondes et la visibilité (sauf pour les non-initiés), c’est-à-dire le fait que les échanges sont visibles de tous les participants, instantanément. Les échanges reposent sur des algorithmes capables de calculer des variations éclair et de masquer les mouvements de fonds. Les échanges sont plus opaques que jamais : ils s’imposent sur des forums privés, les « dark pools » (en 2015, la SEC, l’organisme américain de réglementation et de contrôle des marchés financiers, estimait que les échanges privés représentaient 1/5e du total des échanges)… Les échanges financiers ont été rendus obscurs et plus inégaux que jamais, rappelle Bridle.
  • Pour Bridle, l’une des clefs qui expliquent que les inégalités se renforcent avec la technologie est intrinsèquement liée à l’opacité des systèmes. Comme les robots des entrepôts d’Amazon et ses employés commandés par des commandes vocales émanant de robots, nous sommes en train d’arranger le monde pour rendre les machines toujours plus efficaces, quitte à ce que le monde devienne incompréhensible et inadapté aux humains. Les travailleurs deviennent le carburant des algorithmes, utiles seulement pour leurs capacités à se déplacer et à suivre des ordres. Pour Bridle, les startups et les Gafam signent le retour des barons voleurs, ces tyrans industriels du XIXe siècle. La technologie est venue couvrir d’un voile d’opacité la prédation : l’avidité s’est habillée de la logique inhumaine des machines. Amazon ou Uber cachent derrière des pixels lumineux un système d’exploitation sans faille
  • Pour la sociologue Deborah Cowen (@debcowen), nous sommes entrés dans la tyrannie de la techne explique-t-elle dans The Deadly Life of Logistics (2014) : l’efficacité est devenu primordiale sur tous les autres objectifs, sur toutes les autres valeurs
  • Autre exemple avec How-Old.net un outil de reconnaissance faciale qui tente de prédire l’âge d’une personne, et qui a été utilisée pour deviner l’âge de migrants arrivants au Royaume-Uni. Microsoft, qui a développé cette application, s’est défendu et a dénoncé cette utilisation… comme les 2 chercheurs chinois. Ceux-ci expliquaient néanmoins dans leur défense que leur système était « sans préjugé » (sic). Comme souvent, on nous explique que la technologie, et plus encore l’apprentissage automatisé, est neutre. Mais « la technologie n’émerge pas de nulle part. Elle est toujours la réification de croyances et de désirs, notamment de ses créateurs. Leurs biais sont encodés dans les machines et les bases de données ou les images que nous prenons du monde. »
  • Pour Bridle, le problème n’est pas tant que les machines puissent réécrire la réalité, mais que la réalité, le passé comme le futur, ne puissent plus être correctement racontés. DeepDream de Google illustre parfaitement cela. L’enjeu n’est pas pour nous de comprendre ce qu’est l’image, mais de nous demander ce que le réseau de neurones veut y voir ?
  • Pour Bridle, nous devrions ajouter une 4e loi aux trois lois de la robotique d’Asimov. Les machines intelligentes devraient être capables de s’expliquer aux humains. Ce devrait être une loi première, car éthique. Mais le fait que ce garde-fou ait déjà été brisé laisse peu d’espoir quant au fait que les autres règles le soient à leur tour. « Nous allons devoir affronter un monde où nous ne comprendrons plus nos propres créations et le résultat d’une telle opacité sera toujours et inévitablement violent ».
  • Pour Bridle, l’alliance entre l’humain et la machine peut encore fonctionner, comme l’a montré Garry Kasparov avec les échecs avancés, consistant à ce qu’une IA et qu’un humain jouent ensemble plutôt qu’ils ne s’affrontent. C’est dans la perspective d’associer les talents des humains et des machines, d’associer leurs différences d’une manière coopérative plutôt que compétitive que nous parviendrons à réduire l’opacité computationnelle. La perspective que l’intelligence des machines nous dépasse dans nombre de disciplines est une perspective destructrice. Nous devons trouver la voie d’une éthique de la coopération avec les machines, plutôt qu’un affrontement.
  • Bridle s’en prend également longuement à la surveillance et notamment à la surveillance d’Etat pour souligner combien elle nous est masquée et continue à l’être, malgré les révélations d’Edward Snowden. Vous pouvez lire n’importe quel e-mail dans le monde d’une personne dont vous avez l’adresse. Vous pouvez regarder le trafic de tout site web. Vous pouvez suivre les mouvements de tout ordinateur portable à travers le monde. Pour Bridle, cela nous a montré qu’il n’y a pas de restriction possible à la capacité de surveillance du réseau. L’échelle et la taille de la surveillance a excédé ce que nous pensions comme étant techniquement possible.
  • En opposition au secret, nous demandons de la transparence, mais elle n’est peut-être pas le bon levier. La NSA et Wikileaks partagent la même vision du monde avec des finalités différentes, rappelle Bridle. Les deux pensent qu’il y a des secrets au coeur du monde qui, s’ils étaient connus, pourraient rendre le monde meilleur. Wikileaks veut la transparence pour tous. La NSA veut la transparence pour elle. Les deux fonctionnent sur une même vision du monde. Wikileaks ne voulait pas devenir le miroir de la NSA, mais voulait briser la machine de surveillance. En 2006, Assange a écrit « Conspiracy as Governance » (.pdf). Pour lui, tout système autoritaire repose sur des conspirations, car leur pouvoir repose sur le secret. Les leaks minent leur pouvoir, pas par ce qui fuite, mais parce que la peur et la paranoïa dégradent la capacité du système autoritaire à conspirer. Mais les fuites de données ne suffisent pas à remettre en cause ou à abattre l’autorité. Les révélations ne font pas bouger l’opinion, sinon, nous aurions réagi bien avant les révélations de Snowden. Tant que les organisations de surveillance ne changent pas de l’intérieur, ceux qui sont en dehors de ces organisations, comme les lanceurs d’alertes, n’ont pas de capacité d’action. Ils attendent que des fonctionnaires ou que la justice confirment ce qu’ils avancent.
  • Mais la lumière du calcul nous dépossède de pouvoir, car elle nous fait crouler sous l’information et nous donne un faux sens de la sécurité. C’est là encore une conséquence de la pensée computationnelle. « Notre vision est devenue universelle, mais notre capacité d’action, elle, s’est réduite plus que jamais. » A l’image du réchauffement climatique, à nouveau, « nous savons de plus en plus de choses sur le monde, mais nous sommes de moins en moins capable d’agir sur lui ». Au final, nous nous sentons plus démunis que jamais. Plutôt que de reconsidérer nos hypothèses, nous nous enfonçons dans la paranoïa et la désintégration sociale.
  • Le monde est devenu trop complexe pour des histoires simples. En fait, « la démultiplication de l’information ne produit pas plus de clarté, mais plus de confusion ». L’un des symptômes de la paranoïa consiste à croire que quelqu’un vous surveille. Mais cette croyance est désormais devenue raisonnable, s’amuse Bridle en évoquant la surveillance d’Etat comme la surveillance des services numériques. Nous sommes entièrement sous contrôle, tant et si bien qu’on peut se demander qui est paranoïaque désormais ?
  • « Les théories conspirationnistes sont le dernier ressort des sans pouvoirs, imaginant ce que serait que d’être puissant », avance Bridle. Pour le spécialiste de la postmodernité, Frederic Jameson, les théories conspirationnistes sont « la cartographie cognitive des plus démunis dans un âge postmoderne ». C’est la figure dégradée de la logique par ceux qui ont le moins de capital culturel, une tentative désespérée de se représenter un système qu’ils ne comprennent pas. Encerclé par l’évidence de la complexité, l’individu a recours à un récit simpliste pour tenter de regagner un peu de contrôle sur la situation. À mesure que la technologie augmente et accélère le monde, celui-ci devient plus complexe. Les théories conspirationnistes deviennent alors des réponses, étranges, intriquées et violentes, pour s’en accommoder.
  • Ainsi, si vous cherchez de l’information sur les vaccins, vous tomberez invariablement sur de l’information contre les vaccins. Si vous cherchez de l’information sur la rotondité de la terre, vous tomberez inexorablement sur ceux qui pensent qu’elle est plate. Ces opinions divergentes semblent devenir la majorité tant elles sont exprimées et répétées avec force. « Ce qui se passe quand vous désirez en savoir de plus en plus sur le monde entre en collision avec un système qui va continuer à assortir ses réponses à n’importe quelle question, sans résolution ». Vous trouverez toujours quelqu’un pour rejoindre vos points de vue. Et toujours un flux pour les valider. Voici l’âge de la radicalisation algorithmique (à l’image de ce que disait Zeynep Tufekci de YouTube). Les théories conspirationnistes sont devenues la narration dominante. Elles expliquent tout. Dans la zone grise des connaissances, tout prend un sens.
  • Les failles des algorithmes sont les dernières failles du capitalisme où certains s’infiltrent non pas pour le renverser, mais pour tenter de gratter un peu d’argent que les plus gros systèmes s’accaparent. Au final, des vidéos automatisées finissent par être vues par des enfants. Leurs personnages préférés y font n’importe quoi, parfois suggèrent des scènes de meurtre ou de viols. Ces effets de réseaux causent des problèmes réels. Les algorithmes de YouTube ont besoin d’exploitation pour produire leurs revenus. Derrière leurs aspects séduisants, ils encodent les pires aspects du marché, notamment l’avidité. « La capacité à exploiter l’autre est encodée dans les systèmes que nous construisons », pointe très justement James Bridle, puisque leur efficacité repose sur leur capacité à extraire de l’argent de nos comportements.
  • À défaut d’une solution, Google annonçait en avril que l’application YouTube Kids allait devenir « non-algorithmique »… À croire, comme le pointait très justement le chercheur Olivier Ertzscheid, que l’algorithimsation n’est pas une solution sans limites.
  • Pour Bridle, les humains sont dégradés des deux côtés de l’équation : à la fois dans l’exploitation qui est faite de leur attention et à la fois dans l’exploitation de leur travail. Ces nouvelles formes de violence sont inhérentes aux systèmes numériques et à leur motivation capitaliste. Le système favorise l’abus et ceux qui le produisent sont complices, accuse-t-il. L’architecture qu’ils ont construite pour extraire le maximum de revenus des vidéos en ligne a été hackée par d’autres systèmes pour abuser d’enfants à une échelle massive. Les propriétaires de ces plateformes ont une responsabilité forte dans l’exploitation qu’ils ont mise en place. « C’est profondément un âge sombre quand les structures qu’on a construites pour étendre la sphère de communications sont utilisées contre nous d’une manière systématique et automatique. »
  • Pour Bridle, les fausses nouvelles ne sont pas le produit de l’internet. Elles sont le produit de la cupidité et de la démocratisation de la propagande où tout a chacun peut devenir un propagandiste. Elles sont un amplificateur de la division qui existe déjà dans la société, comme les sites conspirationnistes amplifient la schizophrénie.
  • Mais ce qu’il y a de commun avec le Brexit, les élections américaines ou les profondeurs de YouTube, c’est que malgré tous les soupçons, il reste impossible de savoir qui fait ça, qu’elles sont leurs motivations, leurs intentions. On peut regarder sans fin ces flux vidéos, on peut parcourir sans fin les murs de mises à jour de statuts ou de tweets… cela ne permet pas de discerner clairement ce qui est généré algorithmiquement ou ce qui est construit délibérément et soigneusement pour générer des revenus publicitaires. On ne peut pas discerner clairement la fiction paranoïaque, l’action d’États, la propagande du spam… Ces confusions servent les manipulateurs quels qu’ils soient bien sûr, mais cela les dépasse aussi. C’est la manière dont le monde est. Personne ne semble réellement décider de son évolution… « Personne ne veut d’un âge sombre, mais nous le construisons quand même et nous allons devoir y vivre. »
  • Exploiter plus de données pour construire de meilleurs systèmes est une erreur. Cette méthode ne parviendra pas à prendre en compte la complexité humaine ni à la résoudre. Le développement de l’information n’a pas conduit à une meilleure compréhension du monde, mais au développement de points de vue alternatifs et concurrents. Nous devons changer nos façons de penser comme nous y invitait Lovecraft. Nous ne survivrons pas plus à l’information brute qu’à la bombe atomique. Le nouvel âge sombre est un lieu où le futur devient radicalement incertain et où le passé devient irrévocablement contesté. Mais c’est le présent dans lequel nous devons vivre et penser. Nous ne sommes pas sans pouvoir ni capacités. Mais pour cela nous devons nous défaire des promesses illusoires de la pensée computationnelle. Penser le monde autre, c’est ce à quoi nous invite James Bridle dans le nouvel âge sombre.
  • Reste à savoir si cet âge sombre des technologies est vraiment notre avenir. L’âge sombre du Moyen Âge n’a jamais vraiment existé ailleurs que dans les lacunes des historiens. On peut douter également de cette nouvelle obscurité ou regretter le titre faussement prophétique. Reste que la complexité et l’intrication du monde que décrit James Bridle, montrent combien il nous faut, plus que jamais, nous défaire justement d’une vision simple et manichéenne de la technologie.
  •  
    "Ce New Dark Age porte un titre prophétique et apocalyptique. Un peu trop peut-être. C'est effectivement un livre très critique sur notre rapport à la technologie, très éloigné du rapport souvent curieux et amusé que Bridle portait aux technologies avec la nouvelle esthétique. En une dizaine de chapitres, Bridle explore les glitchs qui sont désormais devenus des schismes, des scissions, des ruptures… comme s'ils n'étaient plus aussi distrayants. Dans son livre, il montre combien les bugs se cristallisent en caractéristiques. Combien la complexité technique que nous avons construite s'entremêle pour produire des effets en réseau, complexes, profonds, intriqués que nous ne parvenons plus vraiment à démêler. Son constat principal consiste à dire que ces dysfonctionnements ne sont pas amenés à être corrigés. Ils sont au contraire intrinsèques à la nature même des technologies qui se déploient aujourd'hui. Contrairement à ce que nous annonçaient les pionniers et les prophètes des technologies, pour Bridle, la technologie n'annonce pas de nouvelles Lumières ou une Renaissance, mais, comme Jules Michelet parlait du Moyen Âge, un âge sombre, une ère d'obscurité pour ne pas dire d'obscurantisme. Ni les réseaux sociaux, ni l'intelligence artificielle, ni les systèmes techniques ne vont nous aider à faire monde commun. Au contraire."
Aurialie Jublin

« Avec la blockchain, on peut surveiller les humains comme du bétail » - 0 views

  • Certaines technologies telles que le chiffrement des messages ou l’anonymisation sont émancipatrices et contribuent à créer un monde plus libre. En revanche, elles coexistent avec des innovations principalement coercitives dont la reconnaissance faciale automatique. Les crypto-monnaies, elles, se situent à mi-chemin : elles peuvent à la fois être vecteur d’oppression et de liberté. Cela dépend vraiment de la façon dont elles sont mises en œuvre. Libres d’accès et anonymes, elle peuvent accélérer l’innovation positive et connecter un grand nombre de personnes « non bancarisées », et ainsi les aider à sortir de la pauvreté. Contrôlées centralement et traçables, elles pourraient rigidifier l’innovation et exclure les « individus subversifs » des services financiers.
  • Mais l’effet serait totalement déshumanisant. Pourquoi ? Parce que la technologie conditionnerait massivement et automatiquement des individus à adopter un comportement souhaité.
  • le totalitarisme technologique est le totalitarisme efficacement et massivement mis en œuvre avec l’aide de la technologie, tout simplement. Il est une forme plus subreptice et molle du totalitarisme que l’on connaît, les forces oppressives étant moins visibles. Vous avez l’illusion du choix et de la liberté, tout en étant conditionné. Les personnes non conformes sont simplement exclues des systèmes technologiques qui composent le tissu de la société. Elles ne sont plus visibles parce que leurs voix sont filtrées et isolées.
  • ...3 more annotations...
  • Iansiti, Marco Lakhani et Karim R dans la revue de Harvard Business The Truth About Blockchain définissaient la blockchain ainsi : « La blockchain est un registre ouvert et distribué qui peut enregistrer les transactions entre deux parties de manière efficace, vérifiable et permanente.» Autrement dit, les blockchains sont publiques et non modifiables. S’il n’y a pas de couche cryptographique qui anonymise les transactions (comme dans Monero ou Zcash), tout le monde peut voir qui sont les destinataires et les expéditeurs. De plus, cette information est permanente. Il y a plusieurs projets qui veulent mettre des identifiants « sur la blockchain ». Cela signifie que chaque être humain puisse toujours être identifié.
  • Si vous combinez une blockchain d’identification avec une blockchain de paiement, une blockchain de propriété de voiture, une blockchain de suivi de vaccination, etc. vous vous retrouvez dans une situation où chaque humain et toutes ses actions sont stockées de manière permanente et publique. Les humains sont finalement étiquetés et surveillés comme du bétail. Si vous combinez cela avec des contrats intelligents, ce qui est une idée vraiment stupide, ce sont finalement les algorithmes qui régissent la vie des humains, sans aucune marge de manœuvre pour réagir à des situations inattendues. Pour moi, c’est la définition même de la technologie déshumanisante.
  • Le contrôle totalitaire consiste à détecter les « comportements déviants » et à les punir. La blockchain a le potentiel de rendre ces deux fonctions plus efficaces.
  •  
    "La blockchain ne trouve pas grâce aux yeux de Frank Braun, figure reconnue du crypto-anarchisme. C'est le moins qu'on puisse dire : pour le militant allemand, elle pourrait potentiellement servir le « totalitarisme technologique » déjà à l'oeuvre aujourd'hui, surtout si différentes blockchains sont combinées. Elles élargissent alors les possibilités de surveillance des citoyens. Un entretien réalisé par Blocs, le média de la blockchain. "
Aurialie Jublin

Facebook n'est pas un réseau social, c'est un scanner qui nous numérise - Fra... - 0 views

  • Le modèle économique de Facebook, Google et de la cohorte des startups financées par le capital-risque de la Silicon Valley, j’appelle ça de l’élevage d’être humains. Facebook est une ferme industrielle pour les êtres humains. Et le manifeste de Mark n’est rien d’autre que la dernière tentative d’un milliardaire paniqué pour enjoliver un modèle d’affaires répugnant fondé sur la violation des droits humains avec l’objectif faussement moral de se débarrasser de la réglementation et de justifier un désir décomplexé de créer une seigneurie à l’échelle planétaire, en connectant chacun d’entre nous à Facebook, Inc.
  • Ce n’est pas le rôle d’une entreprise de « développer l’infrastructure sociale d’une communauté » comme Mark veut le faire. L’infrastructure sociale doit faire partie des biens communs, et non pas appartenir aux entreprises monopolistiques géantes comme Facebook. La raison pour laquelle nous nous retrouvons dans un tel bazar avec une surveillance omniprésente, des bulles de filtres et des informations mensongères (de la propagande) c’est que, précisément, la sphère publique a été totalement détruite par un oligopole d’infrastructures privées qui se présente comme un espace public.
  • Il est grand temps que nous commencions à financer et à construire l’équivalent numérique de parcs à l’ère du numérique au lieu de construire des centres commerciaux de plus en plus grands.
  • ...7 more annotations...
  • Nous ne pouvons plus nous offrir le luxe de ne pas comprendre la nature du « moi » à l’âge numérique. L’existence même de nos libertés et de la démocratie en dépend. Nous sommes (et nous le sommes depuis un moment maintenant) des organismes cybernétiques. Nous devons résister de toutes nos forces à toute tentative de réduire les personnes à des propriétés.
  • il s’ensuit que nous devons étendre les protections du moi au-delà de nos limites biologiques pour y inclure toutes ces technologies qui servent à nous prolonger. Par conséquent, toute tentative par des tierces parties de posséder, contrôler et utiliser ces technologies comme une marchandise est une tentative de posséder, contrôler et monétiser les éléments constitutionnels des individus comme des marchandises. Pour faire court, c’est une tentative de posséder, contrôler et utiliser les êtres humains comme des marchandises.
  • Inutile de dire que nous devons résister avec la plus grande vigueur à toute tentative de réduire les êtres humains à de la marchandise. Car ne pas le faire, c’est donner notre consentement tacite à une nouvelle servitude : une servitude qui ne fait pas commerce des aspects biologiques des êtres humains mais de leurs paramètres numériques. Les deux, bien sûr, n’existent pas séparément et ne sont pas réellement séparables lorsque la manipulation de l’un affecte nécessairement l’autre.
  • Il s’ensuit également que toute tentative de violation des limites de ce moi doit être considérée comme une attaque du moi cybernétique. C’est précisément cette violation qui constitue aujourd’hui le modèle économique quotidien de Facebook, Google et des majors de la technologie de la Sillicon Valley. Dans ce modèle, que Shoshana Zuboff appelle le capitalisme de surveillance, ce que nous avons perdu, c’est notre souveraineté individuelle. Les personnes sont à nouveau redevenues des possessions, bien que sous forme numérique et non biologique.
  • Imaginez un monde où chacun possède son propre espace sur Internet, fondé sur les biens communs. Cela représente un espace privé (un organe de notre être cybernétique) auquel nos appareils dits intelligents (qui sont aussi des organes), peuvent se connecter.
  • Au lieu d’envisager cet espace comme un nuage personnel, nous devons le considérer comme un nœud particulier, permanent, dans une infrastructure de pair à pair dans laquelle nos appareils divers (nos organes) se connectent les uns aux autres. En pratique, ce nœud permanent est utilisé pour garantir la possibilité de trouver la localisation (à l’origine en utilisant des noms de domaine) et la disponibilité (car il est hébergé/toujours en service) tandis que nous passerons de l’architecture client/serveur du Web actuel à l’architecture de pair à pair de la prochaine génération d’Internet.
  • Les fournisseurs de services doivent, naturellement, être libres d’étendre les fonctionnalités du système tant qu’ils partagent les améliorations en les remettant dans les biens communs (« partage à l’identique »), évitant ainsi le verrouillage. Afin de fournir des services au-dessus et au-delà des services de base fondés sur les biens communs, les organisations individuelles doivent leur attribuer un prix et faire payer les services selon leur valeur ajoutée. De cette manière, nous pouvons construire une économie saine basée sur la compétition reposant sur un socle éthiquement sain à la place du système de monopoles que nous rencontrons aujourd’hui reposant sur une base éthiquement pourrie.
  •  
    "Dans son manifeste récent Mark Zuckerberg mettait en valeur sa vision d'une colonie mondiale centralisée dont les règles seraient dictées par l'oligarchie de la Silicon Valley. J'affirme que nous devons faire exactement l'inverse et œuvrer à un monde fondé sur la souveraineté individuelle et un patrimoine commun sain."
Aurialie Jublin

[Fake] Internet serait-il devenu complètement fake? - Digital Society Forum - 0 views

  • Sur Internet, moins de 60% du trafic serait humain, explique l’auteur. Le reste des Internautes seraient des bots, des logiciels opérant de manière autonome sur le réseau. Au point de brouiller la frontière entre Internautes humains et non-humains. En 2013, la moitié des usagers de Youtube étaient ainsi des bots se faisant passer pour des êtres humains, ce qui avait fait craindre aux employés de la multinationale l’avènement d’une ère où les systèmes de détection du trafic frauduleux jugeraient réelle l’activité des bots, et fausse celle des êtres humains.
  • Au cours des deux dernières années, Facebook aurait également publié des chiffres erronés sur le renvoi du trafic depuis Facebook vers des sites externes, la portée des publications, ou encore le nombre de “vues” des vidéos postées sur la plateforme. Ce qui interroge, là encore, sur la notion de “réel” sur Internet.
  • “Tout ce qui semblait auparavant incontestablement réel semble maintenant légèrement faux; tout ce qui semblait auparavant légèrement faux a maintenant le pouvoir et la présence du réel”, déplore l’auteur. Et de multiplier les exemples: entre les vidéos complotistes pullulant sur Youtube, les trolls russes se faisant passer pour des soutiens de Donald Trump sur Facebook et le “deepfake”, une technique de synthèse permettant de falsifier le visage ou la voix d’une personne sur une vidéo grâce à l’intelligence artificielle, l’auteur s’inquiète de l’effondrement de toute distinction claire entre le réel et l’irréel sur Internet.
  • ...2 more annotations...
  • L’exemple de Lil Miquela , une “influenceuse” suivie par plus d’un million et demi de personnes sur Instagram, est à ce titre particulièrement révélateur. Partageant régulièrement ses états d’âme, ses séances de shopping et ses sorties entre amis sur le réseau social entre deux selfies, ce mannequin américano-brésilien est en réalité un avatar, créé grâce à l’imagerie de synthèse par une start-up californienne spécialisée en intelligence artificielle et en robotique. Un faux mannequin, donc, mais une influence bien réelle: là aussi, avertit l’auteur, la frontière entre le vrai et le faux s’émousse.
  • “Ce qui a vraiment disparu d’internet, ce n’est pas la réalité, c’est la confiance : le sentiment que les personnes et les choses que l’on y rencontre sont ce qu’elles prétendent être,” conclut l’auteur. Remédier à cet état de fait nécessite selon lui une réforme du modèle économique d’Internet qui a permis au mensonge, à la déformation et à la falsification de devenir lucratifs. Sans une telle réforme, estime-t-il, Internet risque de devenir une usine à “fakes”, et les revenus publicitaires qu’ils génèrent la seule réalité.
  •  
    "Une chronique du New York Magazine alerte sur l'abondance de contenus faux sur Internet. Selon son auteur, les manipulations de données et de faits y auraient atteint un seuil critique, au point de compromettre notre capacité à distinguer le réel de l'irréel."
Aurialie Jublin

François Taddéi : « Il faut plus d'argent sur les manières d'apprendre » - 0 views

  •  
    "Dans une autre vie, François Taddéi, aujourd'hui directeur du CRI (centre de recherche interdisciplinaire) était un chercheur spécialisé dans la biologie de l'évolution. Il observait comment les organismes du vivant s'adaptent aux environnements qui changent. Et il se trouve, martèle-t-il depuis quelques années et tout particulièrement dans son nouvel ouvrage Apprendre au XXIe siècle (Calmann-Lévy), que les êtres humains vont devoir évoluer pour s'adapter à un environnement qui change toujours plus vite. Un environnement dans lequel les machines cohabitent avec les humains. Et pourtant, pointe-t-il, notre système éducatif nous sélectionne toujours sur la base de ce que n'importe quelle machine est capable de faire, souvent plus efficacement, la mémorisation et le calcul. A l'occasion de la sortie de son ouvrage Apprendre au XXIe siècle, on a discuté avec lui des nouveaux apprentissages à intégrer pour appréhender cette « menace » artificielle. Et ces nouveaux apprentissages se conjuguent d'abord collectivement."
Aurialie Jublin

Acrasie : l'intime désaccord - 0 views

  • Ce phénomène que nous essayons de mettre en lumière ici, qui fait que nous prenons des décisions qui vont à l’encontre de nos valeurs, est plus fréquent qu’on ne pourrait le croire. Il est même quasi-quotidien chez certains d’entre nous. En philo éthique, c’est ce qu’on appelle l’acrasie (du grec akrasia). « Je vois le bien, je l’approuve, et je fais le mal ». C’est ce que Médée explique à Jason dans Métamorphoses d’Ovide (non, ce n’est pas une sitcom). Et ça résume bien la situation dans laquelle beaucoup d’entre nous se trouvent quotidiennement : ils ne sont pas d’accord avec le fait d’être assis sur leur canapé devant Netflix, à s’empiffrer de chips et à scroller sur Instagram, cependant, ils sont confrontés à des choix qu’ils n’arrivent (apparemment) pas à résoudre.
  • Cette caractéristique du comportement, propre à pas mal d’entre nous, c’est ce que Alain Anquetil, auteur d’un travail de recherche sur la question, appelle « l’expression molle d’une préférence pour le statu quo ».
  • L’acrasie par contre, c’est bien cette incontinence, cette faiblesse de ne pas arriver à prendre la bonne décision, alors que précisément nous savons quelle est cette « bonne » décision. Parce que je ne reçois aucune gratification instantanée dans le fait d’utiliser Qwant à la place de Google. Cependant, si je suis d’accord avec les arguments énoncés un peu plus haut, je devrais opter pour un autre moteur de recherche.
  • ...7 more annotations...
  • Vous l’aurez compris : les pays avec le plus haut score d’acceptation étaient ceux dans lesquels les gens devaient faire un effort, et une démarche, afin de se désinscrire, alors que ceux dans lesquels il fallait tout simplement s’inscrire (ce qui semble, il est vrai, le plus logique) ont eu beaucoup de mal à fédérer plus de 10 % de réponses positives. Les conclusions de l’enquête ? Que ce soit en Suède, en Autriche ou même en France, les personnes interrogées ne sont certainement pas CONTRE le don d’organe, mais encore faudrait-il qu’elle fasse l’effort de le dire et d’exprimer leur choix. Nous sommes donc là en face d’un pur cas d’acrasie (les gens ont d’ailleurs souvent un vrai avis moral et éthique sur la question du don d’organe) : peu importe la raison, quand il s’agit de passer à l’action, l’incontinence reprend le dessus.
  • Comme le souligne Attali, l’engagement citoyen de façade est parfois doublé d’un égoïsme social présent lorsqu’il s’agit de nos intérêts personnels et de nos habitudes.
  • Le philosophe Ruwen Ogien pose la question de façon très ouverte dans La Faiblesse de la Volonté : « À quelles conditions un agent rationnel peut-il choisir le pire alors que le meilleur est accessible ? ». Quel est l’effet de dissonance cognitive qui est à l’œuvre, et qui nous fait penser que ces baskets, chèrement payées, valent l’argent que nous y mettons ? Le mimétisme ? La sensibilité aux histoires et aux émotions véhiculées par les marques ? 
  • Le « pré-engagement ». C’est la façon dont vous allez vous engager socialement par rapport à vos convictions, en les exprimant à vos proches, amis ou collègues. Reprenons l’exemple de la consommation de viande : une fois que vous avez dit à tous vos collègues que vous ne mangez plus de viande parce que vous êtes choqués par le traitement fait aux animaux dans l’élevage industriel, vous pourrez bien sur en reprendre, mais vous risquez quand même de passer pour quelqu’un de pas très « fiable ».
  • Les « intentions de mise en œuvre ». Contrairement au pré-engagement, les intentions de mise en œuvre s’adressent uniquement à vous même. Il s’agit tout simplement d’outils pour vous motiver et vous organiser de façon à mettre en œuvre ce que vous avez prévu. Un exemple très parlant, et pourtant totalement banal, est celui de la to-do list.
  • Les « embûches ». La légende dit que pour finaliser Notre-Dame de Paris dans le temps imparti, Victor Hugo s’est débarrassé de ses vêtements, afin de ne plus avoir de moyen de sortir de chez lui, et de s'obliger à rester assis devant son bureau – n’ayant plus rien d’autre à faire que d’écrire. Résultat : il a rendu son ouvrage plusieurs jours avant la date limite.
  • Si l’acrasie représente cette faiblesse de volonté, l’encrasie serait donc cette force de caractère nous permettant d’agir conformément à nos valeurs, à ce que nous pensons profondément être bon, et non à ce qui nous arrange ou ce qui peut arranger nos petites affaires sur le moment présent. C’est un long chemin, mais il ne faut pas le considérer comme hors d'atteinte pour autant. Au contraire.
  •  
    "Nous avons pris l'habitude de blâmer les géants du numérique pour tous les maux de la Terre. Serait-ce de leur faute si nos données personnelles sont revendues et utilisées contre notre gré ? Est-ce à cause d'eux que nous devenons de vraies loques humaines, incapables de faire autre chose de que scroller une quantité invraisemblable de contenu par jour, et d'emmagasiner des informations dont nous n'avons (en vrai) rien à faire ? Bonne nouvelle : les individus derrière l'excellente newsletter Tech Trash vous révèlent dans cet article initialement publié sur leur site le principal responsable de vos faits et gestes (qui ne sont pas, contrairement à ce que vous pensez peut-être, téléguidés par la Silicon Valley) : VOUS. Et un mécanisme de nos cerveaux baptisé acrasie : le fait de ne pas parvenir à prendre la bonne décision, alors que précisément nous savons quelle est cette « bonne » décision. "
Aurialie Jublin

Bruno Latour : Comment représenter les forêts, les pôles et les océans - 0 views

  • Or les Etats, on l’a compris avec la lenteur des décisions sur le climat, poursuivent les intérêts des populations humaines, mais nullement des territoires dont ceux-ci dépendent. Le système de sécurité mondiale est donc schizophrène : on prétend protéger des populations que l’on prive de leurs conditions d’existence. Les Etats sont pensés hors sol, à peu près comme on cultive des salades hydroponiques…
  • Le principe des deux Chambres évite, dit-on, des décisions trop absurdes en compensant les intérêts et les passions des populations par les intérêts contrastés des territoires. Mais, jusqu’ici, ce beau principe n’a fait que défendre une définition des humains contre une autre, en oubliant que, pour une autre partie, les humains dépendent d’êtres qui ne jouissent pour l’instant d’aucune reconnaissance institutionnelle.
  • Représenter, on le sait depuis les Romains, et encore mieux depuis Hobbes, c’est toujours donner à un individu, à une personne physique, la tâche d’incarner le collectif, la personne morale. Tant que les territoires véritables dont nous dépendons ne sont pas représentés dans une deuxième Chambre par des individus en chair et en os, nous n’entendrons pas les protestations de l’océan, la révolte des sols, l’indignation des bêtes. Par conséquent, nous serons incapable de définir nos propres intérêts. Les populations resteront sans défense.
  •  
    "Il est vain de prétendre protéger les populations sans défendre leurs conditions d'existence. Pour le sociologue, seul un Sénat onusien pourrait représenter les territoires et les ressources."
Aurialie Jublin

De l'imbrication algorithmique | InternetActu.net - 0 views

  • Pour la programmeuse et essayiste Ellen Ullman, le problème est que la programmation est de plus en plus éloignée de la compréhension humaine du fait de l’intrication des programmes, algorithmes et données. Les gens pensent souvent que les algorithmes peuvent être modifiés, mais le plus souvent, ils s’exécutent et évoluent par eux-mêmes (cf. notre dossier, réinventer la programmation). Leurs concepteurs ne les contrôlent pas vraiment et ce d’autant plus qu’ils font appellent à des bases de données, à des bibliothèques de programmes distants, à d’autres algorithmes qui évoluent également.
  • Mais désormais, les algorithmes désignent des systèmes logiciels de prise de décision complexes, avec un nombre de règles et de critères volumineux, souvent interreliés et interdépendants. Or, ils nous ont été toujours présentés comme des promesses d’objectivité, d’où le fait qu’ils se soient étendus à nombre de décisions de la vie courante : octroi de prêts, de prestations, de places… Pourtant, ces décisions ne sont pas sans biais, du fait de la manière même dont ces relations sont conçues par les ingénieurs.
  • Le problème, c’est que quand l’algorithme apprend, nous ne savons plus quels sont les règles et les paramètres qu’il utilise puisqu’il les transforme. Ces algorithmes-là ne sont plus prévisibles et peuvent se mettre à produire des résultats erratiques. Pour Smith ce sont des « algorithmes Frankenstein », des machines qui créent leurs propres règles, comme ceux qui dominent désormais les marchés financiers via les transactions à haute fréquence. Pour Neil Johnson, physicien de la complexité à l’université George Washington, Facebook peut ainsi avoir des algorithmes simples pour reconnaître un visage dans une photo… Mais que se passe-t-il quand des milliers d’algorithmes travaillent ensemble sur des milliards de profils ? « Vous ne pouvez pas prédire le comportement global appris à partir de règles microscopiques ».
  • ...3 more annotations...
  • Pour la mathématicienne Cathy O’Neil (@mathbabedotorg), dans l’environnement algorithmique complexe actuel, il est difficile de définir les responsabilités des différents segments de codes imbriqués les uns aux autres. Les Flash Crash, ces krachs financiers éclair, n’ont pas lieu que sur les marchés financiers. La tarification algorithmique d’Amazon s’emballe aussi parfois en faisant grimper le prix de livres à des hauteurs folles. Or, comprendre où se situe la responsabilité de ces emballements n’est pas si simple. « Comme dans la finance, le déni est intégré au système ».
  • Éviter les conflits de code sur des millions de lignes de code alimentés par des flux d’information constants est extrêmement difficile. Pour l’historien des sciences George Dyson, le problème est que nous construisons des systèmes qui vont au-delà de nos moyens intellectuels pour les contrôler. Or, nous pensons que si un système est déterministe (c’est-à-dire qu’il agit selon des règles fixes), alors il est prévisible et que s’il est prévisible alors il peut être contrôlé. Mais ces deux hypothèses sont fausses, estime Dyson. « La loi d’Ashby dit qu’un système de contrôle doit être aussi complexe que le système qu’il contrôle ». Mais cela se révèle difficile. Nous ne savons pas tester cette complexité de manière exhaustive.
  • Une étude sur les attaques par drones au Pakistan entre 2003 et 2013 a ainsi montré que 2 % des personnes tuées par drones étaient des cibles présentant une menace. 20 % étaient considérés comme des non-combattants… Et 75 % étaient des cibles… « non identifiés ». Pour elle, nous sommes face à une technologie d’identification très grossière. Dans ce contexte, la perspective du développement d’armes autonomes laisse plus que perplexe. Pour Lilly Irani (@gleemie) de l’université de Californie, les choix des concepteurs d’algorithmes nous sont trop souvent présentés comme objectifs quand ils cachent des enjeux politiques.
  •  
    "On se souvient de la mort d'Elaine Herzberg, première humaine tuée par une voiture autonome en mars 2018 (voir l'enquête qu'en dressait l'écrivain Thierry Crouzet). Pour le Guardian, le journaliste Andrew Smith (@wiresmith) revient sur les hésitations de l'algorithme de la voiture à reconnaître ce qu'il se passait."
Asso Fing

« On cherche à éveiller la conscience éthique des développeurs et data scient... - 0 views

  • Comment la communauté Data For Good utilise-t-elle les algorithmes ? Qu’est-ce qui vous différencie des grandes entreprises tech ? Avec Data For Good, on veut permettre aux associations, aux projets citoyens et aux institutions d’avoir accès à la data science, qui est utilisée uniquement par les grandes entreprises comme les GAFA et les start-up pour l’instant, car c’est un service qui coûte très cher. Notre communauté bénévole soutient certains projets comme celui de l’association Frateli, qui travaille sur du mentorat. On leur a créé une plateforme de matching, avec des algorithmes, pour matcher en un clic un mentor avec un mentoré, alors qu’avant tout était fait à la main sur un tableur Excel. L’humain garde la décision finale, il peut changer les résultats donnés par l’algorithme, mais cela reste beaucoup plus rapide.
  • Notre but n’est pas de récolter des données, on ne fait pas des algorithmes qui utilisent les données des utilisateurs pour faire de la publicité. De plus, les codes sources produits par Data For Good sont tous en open source, donc si une autre association veut les utiliser, elle peut le faire gratuitement et librement. Les GAFA ouvrent certains de leurs codes sources, mais c’est avant tout pour attirer des développeurs, et ils n’ouvrent que des bribes de leurs codes. Et ils savent très bien que sans les données qu’ils possèdent, ces extraits de codes ne servent à rien.
  • Vous travaillez aussi chez AlgoTransparency, une plateforme qui cherche à décrypter les mécanismes de l’algorithme de YouTube : avez-vous réussi à savoir comment était construit cet algorithme, qui est un secret bien gardé par YouTube ? Sur YouTube, on est enfermé dans une spirale de recommandations qui ne montre pas forcément le meilleur de l’humanité... Sur AlgoTransparency, on a mis en place un robot qui est capable de mesurer quelle vidéo est recommandée, à partir de quelle vidéo. On a donc des données sur ces vidéos, mais comprendre comment fonctionne l’algorithme est très compliqué car celui-ci est très complexe, et il évolue en permanence car il est ré-entraîné tous les jours. Nous, on a décidé d’étudier nos données, en rentrant des mots clés, et de voir ce qu’il en sort.
  • ...4 more annotations...
  • L’algorithme de la plateforme, et YouTube le dit lui-même, c’est de maximiser le temps passé sur la plateforme, le « watch time ». Et quand l’algorithme voit que les gens passent plus de temps sur la plateforme quand ils regardent des vidéos complotistes par exemple, il va plus recommander ce contenu. Il fait juste le boulot pour lequel on l’a programmé.
  • Et dans un second temps, on pourrait créer pour la plateforme un statut hybride, qui serait entre l’hébergeur, qui n’a pas de responsabilité sur le contenu qu’il héberge, et le média, qui a toute la responsabilité sur ce qu’il partage. Pour l’instant, YouTube dit être un hébergeur, car il ne peut pas éditorialiser tout le contenu qui se trouve sur la plateforme. Pourtant, les algorithmes ont un rôle éditorial : quand ils recommandent un million de fois une vidéo à des êtres humains, il y a un choix fait derrière, l’algorithme a privilégié un contenu plutôt qu’un autre.
  • Par contre, là où on peut avoir peur, c’est quand ces algorithmes, notamment de machine learning (c’est-à-dire des algorithmes qui vont apprendre à partir des données qu’on leur a fourni pour prédire des choses), impactent la vie humaine : par exemple, lorsqu’on les utilise dans l’espace public pour faire de la reconnaissance faciale, ou quand les décisions concernant les peines de prison sont prises par des algorithmes. Si on ne sait pas quels sont les critères choisis pour définir les algorithmes, c’est là que ça devient dangereux. Et c’est pour cela qu’on demande l’ouverture de tous les codes sources utilisés dans les administrations (comme la loi Le Maire le recommande).
  • Est-ce que le problème de l’algorithme ne serait pas de décontextualiser les données ? Normalement, c’est aux data scientists de garder en tête le contexte des données qu’ils étudient, et de savoir qu’elles peuvent être biaisées : par exemple, connaître le quartier où habitent les utilisateurs peut être un biais sur leur niveau social. Dans le serment d’Hippocrate de Data For Good, on cherche au mieux à éveiller la conscience éthique des data scientist, en « informant les parties prenantes sur (…) l’utilisation des données », en assurant que « les individus ne soient pas discriminés par rapport à des critères illégaux ou illégitimes », en « respectant la vie privée et la dignité humaine » et en « assumant ses responsabilités en cas de difficulté ou de conflits d’intérêts ».
  •  
    "Et si les développeurs et data scientists prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ? Data For Good, une communauté de data scientists et de développeurs bénévoles au service de projets d'intérêt général, en a fait une de ses missions. Ce « serment d'Hippocrate » des data scientists sera mis en ligne le 26 juin, lors d'un « Demo Day » qui présentera les projets soutenus par Data For Good. Curieux d'en savoir plus, nous avons interrogé Frédéric Bardolle, membre de Data For Good et d'Algotransparency, une plateforme qui décrypte les mécanismes de l'algorithme de YouTube. "
Aurialie Jublin

De la tyrannie des métriques | InternetActu.net - 0 views

  • Pour Muller, nous sommes obsédés par les chiffres. Nous avons une pression irrépressible à mesurer la performance, à en publier les chiffres, et à récompenser les performances depuis ceux-ci, quand bien même l’évidence nous montre que cela ne fonctionne pas si bien. Pour Muller, notre problème n’est pas tant la mesure que ses excès. Trop souvent nous préférons substituer des chiffres, des mesures, à un jugement personnel. Trop souvent le jugement est compris comme personnel, subjectif, orienté par celui qui le produit, alors que les chiffres, en retour, eux, sont supposés fournir une information sûre et objective.
  • Trop souvent, les métriques sont contre-productives, notamment quand elles peinent à mesurer ce qui ne l’est pas, à quantifier ce qui ne peut l’être.
  • Muller montre par de nombreux exemples comment nous nous ingénions à contourner les mesures, à l’image des hôpitaux britanniques qui avaient décidé de pénaliser les services dont les temps d’attente aux urgences étaient supérieurs à 4 heures. La plupart des hôpitaux avaient résolu le problème en faisant attendre les ambulances et leurs patients en dehors de l’hôpital !
  • ...10 more annotations...
  • Pour Muller, l’obsession des métriques repose sur : la croyance qu’il est possible et désirable de remplacer le jugement acquis par l’expérience personnelle et le talent, avec des indicateurs numériques de performance comparative basés sur des données standardisées ; la croyance que rendre ces mesures publiques (c’est-à-dire transparentes) assure que les institutions effectuent leurs buts (c’est-à-dire leur responsabilité) ; la croyance que la meilleure façon de motiver les gens dans les organisations est de les attacher à des récompenses ou des pénalités depuis ces mesures de performance (que les récompenses soient monétaires ou réputationnelles)
  • Il souligne que trop souvent, on mesure le plus ce qui est le plus facile à mesurer, le plus simple. Mais c’est rarement le plus important. En mesurant le plus simple, on en oublie la complexité : ainsi quand on mesure les objectifs d’un employé, on oublie souvent que son travail est plus complexe que cela. On mesure plus facilement les sommes dépensées ou les ressources qu’on injecte dans un projet que les résultats des efforts accomplis. Les organisations mesurent plus ce qu’elles dépensent que ce qu’elles produisent.
  • Bien souvent, la mesure, sous prétexte de standardisation, dégrade l’information, notamment pour rendre les choses comparables au détriment des ambiguïtés et de l’incertitude.
  • Quant aux manières de se jouer des métriques, elles sont là aussi nombreuses : simplifier les objectifs permet souvent de les atteindre au détriment des cas difficiles ; améliorer les chiffres se fait souvent en abaissant les standards… sans parler de la triche, on ne peut plus courante.
  • C’est vraiment avec Frederick Taylor, cet ingénieur américain qui va inventer le management scientifique au début du 20e siècle, que la mesure va s’imposer. Le but même du taylorisme était de remplacer le savoir implicite des ouvriers avec des méthodes de production de masse, développées, planifiées, surveillées et contrôlées par les managers. Le Taylorisme va s’imposer en promouvant l’efficacité par la standardisation et la mesure, d’abord dans l’industrie avant de coloniser avec le siècle, tous les autres secteurs productifs.
  • Les métriques se sont imposées dans les secteurs où la confiance était faible. Les décisions humaines sont devenues trop dangereuses à mesure qu’elles impliquaient une trop grande complexité de facteurs : d’où la prolifération des métriques, des process, des règles… La demande d’un flux constant de rapports, de données, de chiffres… a finalement diminué l’autonomie de ceux qui étaient les plus bas dans les organisations.
  • Dans son livre, Muller évoque nombre de secteurs où les chiffres n’ont pas produit ce qu’on attendait d’eux. Dans le domaine scolaire, en médecine, dans le domaine militaire, dans la police et bien sûr dans les affaires… les chiffres sont souvent mal utilisés et ne parviennent pas à mesurer l’important. Bien souvent, les chiffres déplacent les objectifs, favorisent le court-termisme, découragent la prise de risque, l’innovation, la coopération… coûtent du temps
  • voire sont dommageable pour la productivité elle-même (« Une question qui devrait être posée est de savoir dans quelle mesure la culture des métriques a elle-même contribué à la stagnation économique ? »)…
  • Pour lui, il faut d’abord se poser la question de ce que l’on cherche à mesurer en se souvenant que plus un objet mesuré est influencé par la procédure de mesure, moins il est fiable. Et que ce constat empire quand la mesure repose sur l’activité humaine, plus capable de réagir au fait d’être mesurée, et pire encore quand des systèmes de récompenses ou de punition sont introduits…
  • L’information est-elle utile ? Le fait que quelque chose soit mesurable ne signifie pas qu’il faille le faire (au contraire, bien souvent la facilité à mesurer est inversement proportionnelle à sa signification !). « Posez-vous la question de ce que vous voulez vraiment savoir ! », conseille l’historien.
  •  
    "On n'a pas attendu le numérique pour produire des métriques, mais celui-ci a incontestablement simplifié et amplifié leur production. Quitte à produire un peu n'importe quelles mesures puisque celles-ci semblent désormais accessibles et ajustables en quelques clics. On connaît la rengaine : « ce qui ne peut être mesuré ne peut être géré » (même si la formule de Peter Drucker est en fait plus pertinente que ce que nous en avons retenu). Est-ce pour autant qu'on ne gère que ce que l'on sait chiffrer ?"
Aurialie Jublin

Jean Haëntjens : comment les géants du numérique veulent gouverner nos villes... - 0 views

  •  
    "La ville est le lieu où l'on vit, où l'on travaille et où l'on se déplace, où l'on se socialise et parfois même où l'on fonde une famille. Questionner son futur est une tâche immense. En France, un tiers du PIB est dédié à la construction et à la maintenance de nos villes sous tous leurs aspects : immeubles, maisons, réseaux de transports individuels et collectifs, etc. En 2050, trois milliards d'êtres humains vivront dans des villes qui seront des territoires de plus en plus complexes qu'habiteront une multitude d'acteurs aux intérêts parfois convergents, parfois non. Cet entremêlement de contextes renouvelle la question de la bonne administration des villes, qui de plus, se confronte à l'entrée des technologies numériques dans la vie publique. Selon l'urbaniste et économiste Jean Haëntjens, l'avenir des villes pourrait schématiquement suivre deux voies : la première serait celle de la cité politique, une agora humaniste au service du bien commun. La seconde serait la « smart-city » : une ville régie et optimisée par les algorithmes, dans ses qualités comme dans ses défauts. Dans son ouvrage Comment les géants du numérique veulent gouverner nos villes. La cité face aux algorithmes (Editions Rue de l'Echiquier, 2018), l'auteur nous explique ce qui différencie ces deux modèles, leurs forces et faiblesses respectives, au-delà des discours illuminés et sans entretenir une quelconque « nostalgie du village »."
Aurialie Jublin

Le Défenseur des droits appelle le Gouvernement à respecter les droits des us... - 0 views

  •  
    "Or la responsabilité de l'État est de ne pas dématérialiser un service sans mettre à disposition une alternative papier ou humaine faute de quoi l'usager perd toute possibilité d'échanger avec l'administration lorsqu'un bug informatique se produit ou lorsqu'un dossier est perdu. Nombreux sont les usagers qui ont perdu leur permis et donc leur emploi. Le Défenseur des droits recommande notamment que les services préfectoraux et les centres d'expertise et de ressources des titres (CERT) cessent d'orienter les usagers vers des prestataires privés pour la réalisation de leurs démarches et recommande à l'État de faire en sorte que le site de l'ANTS apparaisse avant les sites privés dans les résultats des moteurs de recherche afin que l'usager ne soit pas amené à payer, par erreur, des prestations qui sont gratuites. Prenant en considération les objectifs du gouvernement de dématérialiser l'ensemble des démarches administratives d'ici 2022, le Défenseur des droits recommande également d'introduire dans la loi une clause de protection des usagers, prévoyant l'obligation d'offrir une voie alternative au service numérique lors de la dématérialisation d'un service public ou d'une procédure administrative. En effet, l'enjeu est celui du maintien de la cohésion sociale : une dématérialisation trop rapide des services publics entraîne des risques d'exclusion et une augmentation du non-recours aux droits, mettant en péril l'égalité de toutes et tous devant le service public qui constitue un principe fondamental de la République. "
Aurialie Jublin

Des impacts énergétiques et sociaux de ces data-centers qu'on ne voit pas - M... - 0 views

  • Côté consommation pour commencer, les études les plus pessimistes avancent que ceux-ci pourraient représenter jusqu’à 13% de l’électricité mondiale en 2030 (avec un secteur informatique qui consommerait jusqu’à 51% du total de la consommation électrique mondiale). Des chiffres qui ne font pas l’unanimité, The Shift Project prévoyant plutôt 25% pour le secteur informatique et 5% pour les data centers en 2025 (ces 5% équivaudraient tout de même à toute la consommation électrique actuelle du secteur numérique).
  • Même si l’on constate de nombreux efforts faits pour améliorer l’efficacité énergétique des infrastructures, par exemple du côté des « big tech », l’ADEME rapporte que les géants du numérique ne portent pas un véritable discours sur la « sobriété énergétique et numérique nécessaire pour rester sous la perspective d’une augmentation des températures planétaires de 1,5°.»
  • Le rapport insiste ensuite sur les déséquilibres qui résultent de certaines implantations dans les territoires. Première constatation : ces impacts sociaux sont très peu documentés. Bien souvent, les data centers arrivent sans dire leur nom, en périphérie des villes, aux Etats-Unis ou en France, à Saclay par exemple ou encore Plaine Commune. Cette furtivité des bâtiments rend d’autant plus difficile les contestations ou demandes de participation de la part des populations locales.
  • ...14 more annotations...
  • Ils sont considérés comme de simples entrepôts par les pouvoirs publics alors même que leur consommation électrique a des répercussions à l’échelle d’un territoire tout entier.
  • Autre phénomène important : les data centers attirent les data centers, pour des questions de mutualisation d’énergie et de réseaux de télécommunication. Bien souvent, les hiérarchies urbaines en place sont renforcées par ces mécanismes. Les élus eux, peinent à lutter contre des acteurs puissants qui imposent leurs conditions « dans une négociation asymétrique qui pousse certains territoires à sur-calibrer des infrastructures énergétiques, hydrauliques et viaires pour pouvoir accueillir quelques dizaines, ou centaines d’emploi si l’on inclut les phases de construction. »
  • Aujourd’hui, c’est plutôt pour installer des hangars logistiques et des fermes de serveurs qu’on artificialise les sols. Autre effet non négligeable qui mériterait sans doute une discussion plus ample avec les populations locales : l’étalement urbain.
  • Le rapport souligne ensuite les possibles synergies entre les infrastructures numériques et le territoire. La réutilisation de la chaleur générée par les data centers  est à ce titre un cas d’usage bien connu. A Bailly-Romainvilliers, par exemple, le data center de BNP Parisbas chauffe le centre nautique voisin. Celui de Céleste à Noisy-Champs, chauffe ses propres bureaux. D’autres systèmes très chauffants comme les chaudières numériques de Stimergy chauffent une partie de l’eau de la piscine de la Butte-aux-Cailles, dans le treizième arrondissement de Paris.
  • Cependant, ces exemples restent anecdotiques. Dans l’immense majorité des cas, la chaleur n’est pas récupérée. D’abord pour des questions de coût et de rentabilité économique : les promoteurs des data-centers attendent des rendements sur des périodes courtes incompatibles avec la contractualisation pour les réseaux de chaleur (des engagements qui coulent sur 25 à 30 ans
  • Il existe aussi un frein technique : il est préférable de prévoir ces éventuels contrats dès la construction du data center car le modifier a posteriori peut représenter des risques que les promoteurs ne sont pas prêts à prendre.
  • La cinquième partie du rapport, qui m’a particulièrement plu, fait la part belle aux initiatives citoyennes, associatives et publiques des « infrastructures numériques alternatives ». Du côté des fournisseurs d’accès, de nombreux acteurs associatifs comme franciliens.net ou Aquilenet dans le Sud-Ouest sont regroupés au sein de la Fédération FFDN. Ils viennent compléter l’offre des fournisseurs principaux (Bouygues, Free, Orange et SFR). Le grand atout de ces solutions est de miser sur le social, l’éducation et la démocratie : « Ils participent d’une gouvernance partagée du commun qu’est Internet en portant des valeurs de transparence, d’inclusion, de lien social, d’apprentissage technique, et d’incitation à la participation à la vie citoyenne. »
  • La socioanthropologue des techniques Laure Dobigny affirme que quand cette gestion inclut et implique, alors les consommateurs vont vers plus de sobriété : « la mise en place de systèmes techniques de plus petite échelle ont permis, en modifiant les usages, une réduction des consommations. » La question est ensuite de savoir comment passer d’une gestion commune de réseaux à une gestion commune de data-centers.
  • Le rapport présente un certain nombre de solutions, comme le cloud de pair-à-pair : « l’idée centrale sous-tendant ces dispositifs est que les fichiers et les contenus téléchargés par les utilisateurs dans le système sont stockés, totalement ou en partie, sur un nuage de stockage composé d’une partie des disques durs de chaque utilisateur, reliés entre eux en architecture P2P. » L’idée est plutôt simple : re-décentraliser internet, réduire le besoin de grands data-centers et atténuer l’impact spatial de ces infrastructures. Les limites de ces solutions sont nombreuses bien sûr : pertes de données, erreur, taille critique non atteinte… Il existe également des data centers « de proximité » comme les chatons (« Collectif d’Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires ») ou encore SCANI dans l’Yonne et Tetaneutral à Toulouse.
  • Pour terminer, le rapport dessine trois « mondes numériques possibles ». Le premier scénario parie sur l’extrême croissance et l’ultracentralisation numérique. Pour faire simple, c’est aujourd’hui mais en pire : tout est numérisé, plateformisé, big-daté et concentré dans les mains des GAFAMS ou d’autres acteurs similaires. La ville se conforme aux modèles numériques de la smart-city, la consommation de data explose. C’est la fuite en avant, la croyance qu’un monde infini existe. Côté C02, c’est la catastrophe, la température globale monte de 2,5° en 2050. Pics de chaleur dans les villes, problèmes sociaux, etc.
  • Le deuxième scénario est en demie teinte. On stabilise le système technique numérique en permettant la coexistence de deux mondes : celui des big tech et celui, plus centralisé, des infrastructures à plus petite échelle. L’Union Européenne taxe les « Net Goinfres », ce qui modifie les comportements : on échange moins de photos de chats et on tend à les stocker sur nos terminaux personnels plutôt que dans le cloud, idem pour la musique. Côté consommation, on parvient à réduire les émissions de CO2 du secteur de 5% par an entre 2025 et 2050, ce qui nous ramène au niveau de 2013.
  • Le dernier scénario propose une forme de décentralisation ultime du numérique qui signe plus ou moins la fin des data-centers tels que nous les connaissons. Internet devient plus local et dépendant des énergies renouvelables, ce qui ne permet plus d’assurer sa continuité. Le projet Greenstar au Canada suit ces principes et accepte les intermittences du réseau (follow the wind/follow the sun), de même, le blog du Low Tech Magazine s’arrête de fonctionner quand le vent ne souffle plus (le scénario nucléaire n’est pas vraiment envisagé car l’exercice prospectif est global). Ce scénario « effondrement » se base sur des infrastructures totalement low-tech (c’est-à-dire peu coûteuses en énergie) et permet assez ironiquement un « retour aux principes fondateurs d’internet (horizontal et distribué) ». Côté service, on se contente du local et l’international devient l’exception
  • L’ADEME invite également à soutenir les FAI indépendants et à créer un « service public du numérique et des data centers publics », notamment pour améliorer l’intégration spatiale des infrastructures. Les questions énergétiques font également l’objet de propositions : sobriété, récupération de chaleur, décentralisation.
  • Le chercheur Clément Marquet cité plus haut dans l’article me rappelle que ces différents rapports (Shift, ADEME) arrivent dans un moment particulier puisque le gouvernement a voté en octobre 2018 une loi visant à réduire la fiscalité énergétique pour attirer les gros data centers. Je le cite : « il y a une tension entre le projet de souveraineté numérique par les infrastructures (et des bénéfices économiques qui iraient avec bien sûr) et celui de réduction de la consommation énergétique. »
  •  
    "L'ADEME, via le projet Enernum, vient de publier une étude approfondie sur les impacts à la fois énergétiques et sociétaux de l'installation et du déploiement des data centers, en France et ailleurs. Ce travail vient confirmer les conclusions du Think tank The Shift Project qui alertait déjà des coûts carbone importants de ces infrastructures qui soutiennent tous nos usages numériques. Par delà les chiffres, l'ADEME replace les data-centers dans leur contexte humain et géographique et interroge la gestion de ce type d'infrastructure sur le territoire."
Aurialie Jublin

Réseau Libre-entreprise [Libre-Entreprise] - 0 views

  •  
    "Le réseau Libre-entreprise regroupe des entreprises à taille humaine ayant des spécialités proches ou complémentaires dans le domaine du logiciel libre. Toutes partagent les mêmes valeurs et modes de fonctionnement, basés sur la démocratie d'entreprise, la transparence et la compétence. Le réseau est présent en France (Bayonne, Grenoble, Laval, Liévin, Lille, Montpellier, Nantes (Saint Sébastien sur Loire), Paris, Rennes, Tours) et en Belgique (Bruxelles, Liège, Mons). "
Aurialie Jublin

Une Charte mondiale contre l'uberisation du travail - Pôle emploi - Emploi Pa... - 0 views

  • L’élaboration d’un système de gouvernance internationale qui établisse un socle de droits et protections et impose aux plateformes (et à leurs clients) de les respecter devient donc un enjeu essentiel pour l’OIT qui estime qu’aucune régulation ne pourra se faire en dehors d’instances internationales.
  • Elle propose, entre autres, un droit universel à l’apprentissage tout au long de la vie, une protection sociale universelle de la naissance à la vieillesse, une garantie universelle permettant à tous les travailleurs, quels que soient leur régime contractuel ou leur statut professionnel, de jouir des droits fondamentaux des travailleurs et d’un « salaire assurant des conditions d’existence convenables », etc. Le programme est non seulement très ambitieux mais il est entièrement axé autour de l’idée que l’action majeure est celle de la gestion de la technologie et de sa mise au service d’un travail décent et durable. Et cela passe par une approche dans laquelle l’intelligence artificielle reste sous contrôle humain et implique que « les décisions finales touchant le travail soient prises par des êtres humains ».
  •  
    "Pour son centenaire, l'OIT (Organisation Internationale du Travail) veut faire adopter un programme d'actions mondial pour réguler les évolutions du travail et garantir des droits à tous les travailleurs. Les actions proposées sont extrêmement ambitieuses et seront discutées en juin."
Aurialie Jublin

Les technologies P2P sont-elles bonnes ou mauvaises ? | Solidarités Émergentes - 0 views

  • Ce qui nous intéresse est la manière dont les gens peuvent utiliser des technologies en réseau pour leurs propres fins et, ce faisant, changer la société pour le meilleur, au regard des trois critères que sont l’équité, la durabilité et l’ouverture. Si, dans le même élan, nous parvenons à dépasser le modèle extractif et exploiteur du capitalisme global, au profit d’un système de création et d’échange de valeur, fondé sur les communs, il en résultera un changement profond de la nature même de notre civilisation.
  • Les technologies numériques « de beaucoup a beaucoup » facilitent non seulement l’auto-organisation de masse à l’échelle globale, mais aussi le développement de nouveaux modes de production, d’un nouveau mode d’échange et de nouveaux types de relations de production, en dehors de l’emprise conjointe de l’État et du marché.
  • Mais il est désormais possible de développer des projets à grande échelle grâce à de nouveaux mécanismes de coordination qui permettent de rester dans une dynamique de petits groupes à l’échelle globale. Il devient donc possible de combiner des structures plus horizontales tout en opérant de manière efficace à grande échelle. Ce qui n’avait jamais été le cas auparavant.
  •  
    "Notre thèse n'est pas qu'une technologie particulière mènera inévitablement à un État social déterminé. Nous reconnaissons néanmoins le rôle clé joué par les technologies dans l'évolution de la société, les nouvelles possibilités qu'elles ouvrent dès lors que certains groupes humains les utilisent avec succès. Différentes forces sociales investissent ces possibilités et tentent de les tourner à leur avantage en luttant pour tirer profit de leur utilisation. La meilleure manière d'appréhender la technologie est donc de la considérer comme un enjeu de lutte sociale, et non comme un déterminisme qui ne peut mener qu'à un seul avenir possible."
Aurialie Jublin

Une IA concertée et open source comme outil éducatif pour les citoyens et les... - 0 views

  • Un autre aspect particulier du projet est d'explorer le concept de "privacy by using" et de faire du projet un outil de sensibilisation et d'éducation aux problématiques d'éthique et de protection de la vie privée dans les services intégrant de l'IA. 
  • Dans ce sens, nous travaillons sur des contenus et des formats (ateliers et rencontres de type barcamp) spécifiquement pensés de manière ludique pour les écoles afin de sensibiliser dès le plus jeune âge aux problématiques liées aux biais et à l'économie de l'attention, problématiques inhérentes à la "vie numérique" de l'époque actuelle et qui vont s'avérer toujours plus critiques avec le développement de l'IA (de plus en plus d'enfants sont confrontés très tôt à des services potentiellement problématiques, en particulier avec le boom des assistants vocaux).
  • Ainsi, en combinant la méthode "society in the loop" et l'approche "privacy by using", le projet permet de constituer de façon concertée une base de connaissances libre et ouverte tout en participant à l'éducation de la société sur les enjeux et les bonnes pratiques d'une intelligence artificielle d'intérêt général éthique et responsable.
  •  
    "Je travaille depuis quelques temps avec Matteo Mazzeri sur un projet de recherche appliquée en partenariat avec le CERN (cf. https://twitter.com/Genial_Project) qui propose une approche assez singulière de l'articulation entre intelligence artificielle (IA) et service public. Il s'agit de concevoir une "IA concertée" et open source qui permette de développer des services d'intérêt général / à vocation de service public. L'originalité de notre approche est d'appliquer le concept de "society in the loop" exposé par le MIT Medialab (concept très bien expliqué en français par Irénée Régnauld dans cet article) de manière à proposer une méthodologie, un travail humain sur les données et des modèles d'apprentissage qui permettent de refléter au plus près les besoins de "la société" et d'aboutir à une IA éthique et responsable."
Aurialie Jublin

[GAFA] Facebook est aussi néfaste pour la démocratie que fumer l'est pour la ... - 0 views

  • "Pour inciter à manipuler l'attention, il s'agit avant tout de s'attaquer aux éléments les plus faibles de la psychologie humaine. Il ne suffit plus de savoir beaucoup de choses sur nous. L'objectif est maintenant de changer ce que nous pensons et ce que nous faisons."
  • Jim Steyer a ajouté: "À mon avis, la comparaison avec les cigarettes était impressionnante parce que tout le monde la comprend... Il faut une conversation mondiale à ce sujet et une réglementation sensée des entreprises du secteur de la technologie".
  • Le PDG de Common Sense Media a participé à l'élaboration de nouvelles lois sur la protection de la vie privée en Californie et était à Bruxelles la semaine dernière pour discuter avec les législateurs de la loi européenne sur la protection de la vie privée, du RGPD, ainsi que d'autres réglementations relatives aux technologies.
  • ...1 more annotation...
  • Roger McNamee pense que le pouvoir d'entreprises telles que Facebook, Google et Amazon devrait être limité. Dans un article du magazine Time avant la sortie de son livre le mois prochain, il a suggéré de les empêcher de faire des acquisitions et d'empêcher le partage de données entre filiales.
  •  
    "Lors de la réunion annuelle du forum économique mondial à Davos, certains experts tech ont évoqué la comparaison entre Facebook et le tabagisme faite par le patron de Salesforce, Marc Benioff.  "Les incitations à manipuler l'attention concernent uniquement les éléments les plus faibles de la psychologie humaine", a déclaré Roger McNamee, ancien mentor de Mark Zuckerberg, à Business Insider. McNamee et Jim Steyer, fondateur de Common Sense Media, estiment qu'il est temps de réglementer de manière stricte - et même de démanteler Facebook."
1 - 20 of 49 Next › Last »
Showing 20 items per page