Skip to main content

Home/ QN2019/ Group items tagged histoire

Rss Feed Group items tagged

Aurialie Jublin

Les objets connectés sont de plus en plus utilisés pour le harcèlement et l'i... - 0 views

  •  
    "Lors de son entretien avec les agents de centres d'appel, une femme rapportait par exemple qu'elle avait allumé son climatiseur, mais celui-ci s'est éteint sans qu'elle y touche. Une autre expliquait que les numéros de code de la serrure numérique de sa porte d'entrée changeaient tous les jours et elle n'arrivait pas à comprendre pourquoi. Une autre femme encore expliquait qu'elle entendait toujours la sonnerie de la porte se déclencher, mais personne n'était à la porte. Selon le New York Times, ces histoires font partie d'un nouveau modèle de menaces ou de violences qui s'est invité dans les maisons avec la montée en puissance des objets connectés. Ces objets connectés sont de plus en plus utilisés par des personnes malveillantes pour harceler, surveiller, contrôler ou se venger sur d'autres personnes, souligne le New York Times. Graciela Rodriguez, qui gère un refuge d'urgence de 30 lits au Centre for Domestic Peace à San Rafael, en Californie, aurait déclaré au New York Times que certaines personnes sont déjà venues la voir avec des histoires de « ;trucs fous ;» comme des thermostats connectés allant soudainement jusqu'à 100 degrés ou des haut-parleurs intelligents qui se mettaient à jouer la musique à fond. Sans explication sur ce problème qui pourrait ressembler à un mauvais film d'exorcisme, ces personnes ont déclaré qu'elles commençaient à perdre le contrôle de leur maison et à devenir folles. Il faut préciser que les personnes malveillantes utilisant ces objets connectés à mauvais escient ne sont pas forcément des personnes hors de la vie des maisons ciblées. Quelques fois, il s'agirait d'un conjoint ayant mal digéré une rupture et disposant toujours des mots de passe des objets intelligents installés dans la maison. Une négligence donc de la part des victimes qui serait aggravée par le manque de connaissance sur le fonctionnement de ces appareils, soutient le New York Tim
Aurialie Jublin

De l'imprimerie à l'internet, la contre-histoire des médias de Félix Tréguer ... - 0 views

  •  
    "Dans son ouvrage L'utopie déchue, Une contre-histoire d'Internet (XVe-XXIe siècle) - Fayard, 2019, le sociologue Félix Tréguer retrace l'histoire longue des moyens de communication, que la censure d'Etat rattrape inlassablement. De l'imprimerie à l'informatique, le même schéma semble se répéter. Ce constat amer interroge au plus près l'efficacité des nouvelles formes de résistance ainsi que la sensibilité des citoyens aux questions de liberté. Tréguer, chercheur et membre de la Quadrature du Net, nous rappelle la nécessité de cultiver une technocritique vive et de lutter coûte que coûte contre nos mémoires trop courtes. Nous avons échangé quelques mots."
Aurialie Jublin

Le Minitel : réhabiliter un contre-modèle pour penser l'Internet d'aujourd'hu... - 0 views

  • Cette culture industrielle a été rendue possible par « les vertus de la centralisation » (Mailland et Driscoll). En effet, elle a permis la création du Kiosque, la « killer app » du Minitel : un système très simple, mis en place par l’Administration pour simplifier les transactions économiques autour des services Minitel. Kiosque reversait directement 2/3 des profits de connexion aux fournisseurs d’accès, leur évitant des démarches. Les utilisateurs, eux, ne payaient qu’à la fin du mois, en bloc, en même temps que leur facture téléphonique. Cette simplicité d’utilisation a été essentielle, en encourageant les entrepreneurs à se lancer sur le Minitel, et les utilisateurs à se connecter aux services. Cette centralisation a été largement critiquée, car elle fait dépendre le modèle économique et les connexions d’un acteur unique et ici étatique. Mais les chercheurs notent que son efficacité ne fait pas de doute, au plan économique. On retrouve une organisation similaire chez les géants du Web : l’Apple Store, par exemple, fonctionne un peu comme une version privée du Kiosque. Mais ce n’est pas tout : pour Mailland et Driscoll, Minitel offre une version publique des marchés multifaces, mettant en relation des usagers/consommateurs et des fournisseurs de services, en prélevant une rente — modèle devenu le filon des économies de plateforme comme Uber ou Air BnB.
  • Le Minitel a été un « succès domestique », qui a permis à la France de devenir un pays extrêmement connecté, et à toute une population de découvrir des activités en ligne. Il a surtout favorisé l’« émergence d’une pratique collective de la communication numérique qui a généré des systèmes de représentations variés, des formes de discours et de comportements qui apparaissent aujourd’hui comme matriciels ». Ainsi, les forums de discussion, la communication anonyme par écran interposé, l’usage de pseudonymes, l’explosion de la pornographie, les débats sur la liberté d’expression ou la censure qu’on associe souvent aux cultures numériques... ont leur origine dans le Minitel.
  • Les messageries roses en sont l’exemple le plus célèbre (et le plus lucratif) mais les usages du Minitel ne se limitaient pas à l’annuaire et aux messageries coquines. D’autres usages, éclipsés par ce folklore, se sont aussi développés dans ces années-là, préfigurant les usages numériques : achat et vente par correspondance, services bancaires, consultation d’informations (horaires de train, de spectacle — ou autres : sur le service Minitel de Libération, on peut accéder dès 12h aux infos qui seront publiées le lendemain), usages administratifs, enseignement (informations, corrigés, inscriptions...), jeux (black jack, bridges, quizz et même un 3615 PENDU)...
  • ...4 more annotations...
  • Certains s’emparent également du Minitel pour organiser des actions politiques, préfigurant l’usage qui est fait aujourd’hui des outils numériques : en 1986, des étudiants utilisent la messagerie de Libé pour organiser l’opposition à la loi Devaquet. Ils sont imités en 1988 et 89 par des infirmières, puis en 1992 par des syndicalistes du Ministère des Finances.
  • Pour Mailland et Driscoll, la réussite du Minitel permet de repenser l’opposition simpliste entre un système public et centralisé (mal) et un système privé et décentralisé (bien). Ils soulignent que ce sont les investissements stratégiques de l’État qui ont permis l’explosion du réseau — tout comme, aux États-Unis, c’est la décision du gouvernement de privatiser le « backbone » du réseau dans les années 1990 qui a conduit au boom commercial que l’on connaît. « L’intervention d’un état dans un système en ligne ne signifie pas automatiquement une perte de liberté. Au contraire : s’ils sont bien pensés, les fonds publics peuvent encourager la créativité et le développement dans le réseau. ».
  • Les auteurs se demandent alors si « des interventions ciblées du gouvernement ne pourraient pas réintroduire de la compétition et de l’ouverture, dans des champs d’Internet où les intérêts du secteur privé et du public ont cessé depuis longtemps de coïncider. » A l’heure où les appels à la régulation du secteur des GAFA par les Etats ou les instances supra-étatiques se multiplient, le Minitel aurait donc des choses à nous apprendre. « L’histoire du Minitel, et de ses trois décennies de fonctionnement, montre la voie vers un avenir différent, marqué par l’engagement envers l’intérêt public. (...) »
  • C’est cette défense des intérêts publics qui semble peu à peu reculer, selon les auteurs : « A moins d’une intervention stratégique des gouvernements ne préserve les éléments d’ouverture et d’équilibre des pouvoirs public/privé présents dans l’Internet des débuts et qui y ont attiré tant de hackeurs, d’entrepreneurs, d’expérimentateurs et d’explorateurs... l’Internet tel que nous le connaissons depuis les années 1990 ne vivra peut-être même pas trente ans. »
  •  
    "Suite de notre cycle sur les histoires d'Internet : reconsidérer le Minitel. Longtemps considéré comme une impasse française, l'incarnation du grand projet technocratique incapable d'évoluer, le Minitel est de plus en plus réhabilité par les historiens. Pas comme un modèle à suivre, mais comme une innovation radicale en son temps, qui fut pour les Français la première entrée dans les cultures numériques et dont le modèle dépendant des fonds publics peut nous aider à penser autrement l'Internet contemporain."
Aurialie Jublin

The next billion users : une immersion dans l'internet des pauvres - Digital Society Forum - 0 views

  • Rien n’y fait : équipés d’Internet, les pauvres ne font pas du tout ce qu’on attend d’eux, à savoir se sortir de la pauvreté. Les cabines numériques disposées dans les villages indiens deviennent des bornes d’arcade et, surprise, les cent millions d’ordinateurs de l’opération « One laptop per child » (financée par des entreprises, notamment AMD, Brightstar Corporation, eBay, Google, Marvell, etc.) n’ont pas réduit le fossé éducatif, sans doute parce qu’ils avaient été distribués à des enfants ne sachant parfois ni lire ni écrire. Des absurdités de ce type, l’autrice en dresse une longue liste, comme ces smartphones que l’on distribue à de jeunes femmes n’ayant le droit de s’en servir que pour passer des appels d’urgence. A New Delhi, d’autres jeunes femmes (les « computer girls ») deviennent des craques de l’informatique, mais restent assignées à leur statut traditionnel, système de castes oblige. Le constat est sans ambiguïté : non seulement la technologie tombe du ciel sans être intégrée dans une quelconque stratégie sociale, mais toute tentative de réappropriation est méprisée et découragée.
  • Histoire similaire en Chine, où l’on craignait que les cybercafés populaires ne favorisent les activités anti-régime. Ils furent rapidement interdits aux mineurs et on y généralisa le tracking, une pratique désormais monnaie courante dans l’Empire du Milieu. D’exemple en exemple, Payal Arora démontre que les décisions prises par les pouvoirs en place n’ont eu de cesse de réduire l’accès à Internet et à la culture aux personnes les moins dotées, sous prétexte que l’usage qui en serait fait n’entrerait pas dans les bons standards de moralité. Comme souvent, les pauvres font l’objet de politiques paternalistes : on leur demande d’être vertueux et le moindre faux pas les condamne.
  • A l’inverse, la débrouille des quartiers défavorisés est érigée en exemple à suivre. La mode de l’innovation frugale (ou « Jugaad innovation » ) qui consiste à innover avec des ressources limitées, en témoigne. En Inde par exemple, la customisation des véhicules afin de transporter plus de passagers est souvent mise en avant. Cependant, elle augmente sensiblement le nombre d’accidents : « la frugalité a un coût, celui de la sécurité », écrit Arora. Les Nano cars de Tata – des petites voitures accessibles au plus grand nombre – quant à elles, sont certes pratiques mais occasionnent de lourds dégâts environnementaux : rien ne dit aujourd’hui que ces innovations améliorent réellement la vie des pauvres, affirme la chercheuse
  • ...9 more annotations...
  • Plus grave encore, il y a fort à parier qu’elles freinent les solutions de plus long terme comme par exemple le développement de transports publics accessibles à tous. Côté mobile, une application comme AquaSift permet de détecter la toxicité de l’eau mais ne résout en rien le fait que dans beaucoup de communautés pauvres, y accéder reste difficile. On ne change pas le gouvernement avec une application. Si l’innovation frugale rencontre un succès fulgurant en Occident, ce n’est que parce que nous en avons totalement romantisé l’image.
  • En somme, la frugalité (Jugaad en Inde, « Shan-zaï » en Chine, « Gambiarra », « Bacalhau » ou « Jeitinho » au Brésil) est aussi une forme de solutionnisme technologique qui repose, une fois encore, sur la confortable conviction que les pauvres ont toutes les ressources en eux pour s’en sortir, pourvu qu’ils articulent habilement leurs problèmes aux dernières technologies disponibles.
  • Payal Arora n’a pas de mots assez durs pour dénoncer la vaste supercherie du système. Non seulement aucune relation de causalité n’a prouvé son efficacité, mais en plus, il structure l’éducation dans un sens qui pose une multitude de questions d’ordre éthiques et politiques. Ainsi, ces appareils et les programmes soi-disant éducatifs avec lesquels ils fonctionnent restent des boîtes noires, indisponibles à tout audit sérieux. L’expérimentation, qui dure 75 jours, nécessite la présence d’un ou plusieurs adultes dont on ne connaît pas la rémunération et le protocole de suivi des enfants est tout sauf rigoureux scientifiquement. Des études plus sérieuses ont rapporté que la plupart des machines ne fonctionnaient pas, faute de connexion Internet. Et quand elles marchaient, elles étaient souvent monopolisés par de jeunes garçons devant des jeux vidéos. Enfin, les contenus pédagogiques, souvent en anglais, présentent un danger pour la pérennité des langues traditionnelles. Pour le professeur Mark Warschauer (University of California), cité par Arora, ces dispositifs sont un échec total. Pourtant, Mitra a bien récolté un million d’euros grâce au Ted Prize pour cette « école dans le cloud » résolument inefficace… Pour Arora, cette triste histoire trouve ses racines dans la foi encore trop peu contestée dans le constructivisme , une théorie qui stipule que l’enfant peut apprendre seul et sans professeur.
  • En prenant un peu de hauteur, la chercheuse critique plus largement une certaine forme de philanthropie très à la mode dans les milieux technologiques. Elle l’accuse ouvertement d’être contre-productive et de servir les intérêts de grandes corporations plus que des populations pauvres : « la technologie est devenue une institution en soi, la pauvreté une opportunité. La croyance néolibérale en l’efficacité absolue du marché transforme n’importe quelle inégalité en actif pour l’innovation. » Pour Arora, cette idéologie vient justifier la nécessité de tester sur les moins aisés de nouvelles solutions qu’un riche Occidental n’imaginerait même pas pour ses propres enfants. Les pauvres n’ont pas besoin de plus d’innovation, mais de moins d’innovation, affirme-telle : « Si l’innovation est une courroie de transmission pour des projets pilote, alors les pauvres seront mieux sans. Ils ne devraient pas servir de rats de laboratoires pour les nouvelles technologies. Le simple fait qu’une technologie est nouvelle ne devrait pas justifier en soi qu’on l’expérimente sur des pauvres ».
  • Sa dénonciation englobe aussi le projet « AltSchool » largement financé par Mark Zuckerberg et Priscilla Chan, une sorte de « classe Ikea », où les enfants terminent seuls devant des écrans, pour un prix conséquent et sans que son efficacité réelle soit démontrée. Le plus grand problème selon elle, reste que le marché pardonne plus facilement les défaillances technologiques qu’humaines : la Silicon Valley peut réinjecter des millions de dollars pour trouver une nouvelle solution technique à un problème ancien, mais elle refuse de réfléchir aux problèmes de fond, comme le manque de professeurs ou l’état désastreux des écoles dans certains quartiers.
  • En dernière partie d’ouvrage, Payal Arora attaque les questions liant surveillance et vie privée. On le savait déjà, les pauvres en ont toujours été surveillés. Le « social credit system » chinois et son cousin indien « Unique Digital Number » (UID) sont ainsi connus pour conforter les hiérarchies sociales en place et agir par contagion : en Chine, fréquenter une personne dont le score est bas revient à prendre le risque de voir baisser son propre score. On en déduirait un peu rapidement que dans les pays pauvres, et plus généralement en dehors de l’Occident, la vie privée aurait moins de valeur aux yeux des individus. A y regarder de près, cela semble un peu plus compliqué. En interrogeant plus largement les usages quotidiens des réseaux sociaux dans les favelas et autres bidonvilles, Arora montre qu’ici comme là-bas, la vie privée n’est pas sans valeur ni abstraite, mais un concept avant tout lié à des particularités culturelles. Au Brésil par exemple, une jeune femme déclare ne pas en vouloir à sa mère de la « stalker » en ligne (c’est-à-dire à suivre ces déplacements, fouiller ses messages et autres réseaux d’amis)
  • En Inde, Facebook est pour de nombreux jeunes l’occasion de parler au sexe opposé, chose difficile dans la vie réelle. Le Chat est à ce titre tout à fait adapté à la romance, à travers des poèmes et autres conversations romantiques. Cependant, à l’échelle mondiale, un tiers de ces échanges se font anonymement, avant tout pour protéger les données personnelles et par souci de réputation, notamment en Asie.
  • Arora en profite pour démonter les profonds préjugés qui tendent nous à faire croire que parce que l’on est pauvre, parce que l’on vit dans une communauté étroitement liée, parfois à plusieurs dans une même pièce, on ne valoriserait pas la vie privée. En réalité, les pauvres, dans les pays étudiés par Arora, ne sont pas moins attachés à la confidentialité que les Occidentaux, même si celle-ci prend différentes significations en fonction des pays, des cultures et des genres. Dans un village en Jordanie, la confidentialité sert avant tout à protéger la vertu féminine et l’honneur masculin (préserver son image dans la communauté, ne pas s’exposer publiquement pour les femmes). Dans une famille aisée du Royaume-Uni, elle préserve l’innocence des jeunes (notamment à travers le filtrage des contenus). Plus encore qu’en Occident, préserver sa confidentialité dans les pays pauvres relève de la lutte car le succès immense des réseaux amène aussi son lot de danger : « revenge porn » et harcèlement peuvent ruiner la réputation d’un individu, conduire à l’exil et même au suicide.
  • The Next Billion Users, Digital Life Beyond the West est, en résumé, une étude inestimable, formidablement documentée et regorgeant d’illustrations plus pertinentes les unes que els autres. Loin des théories globalisantes qui tendent à mettre dans un même sac « Les Chinois », « Les Indiens », quitte à les opposer à l’Occident dans une lutte pour la puissance technologique, cette enquête de terrain vient au contraire contredire nos préjugés sur ce monde que nous jugeons bien souvent à l’emporte-pièce et sans nous embarrasser de détails. A travers son étude et notamment ses entretiens et anecdotes, la chercheuse met en lumière les relents colonialistes qui ponctuent les relations Nord-Sud, notamment en matière numérique. Arora brise notre propension à romantiser la pauvreté, à ne l’envisager qu’à travers nos lunettes postcoloniales, comme une tribu de bons sauvages qu’il faudrait éduquer à notre mode de vie. Enfin, elle réduit en poussière le fantasme du pauvre débrouillard, entrepreneur par nature, auto-organisé et vertueux. Cette vision, biaisée, n’a pour objet que d’asseoir les projets technocratiques de l’Occident, qui ne regarde que ses intérêts propres et surtout pas ceux des populations « à civiliser ».
  •  
    "A quoi ressemble l'Internet des pauvres ? Pas à l'image romantique forgée par la philanthropie occidentale, explique l'anthropologue Payal Arora. Pourtant, cette conception paternaliste de la pauvreté informe toujours nombre d'initiatives de développement par la technologie, qui s'apparentent à une nouvelle forme de solutionnisme."
Aurialie Jublin

Acrasie : l'intime désaccord - 0 views

  • Ce phénomène que nous essayons de mettre en lumière ici, qui fait que nous prenons des décisions qui vont à l’encontre de nos valeurs, est plus fréquent qu’on ne pourrait le croire. Il est même quasi-quotidien chez certains d’entre nous. En philo éthique, c’est ce qu’on appelle l’acrasie (du grec akrasia). « Je vois le bien, je l’approuve, et je fais le mal ». C’est ce que Médée explique à Jason dans Métamorphoses d’Ovide (non, ce n’est pas une sitcom). Et ça résume bien la situation dans laquelle beaucoup d’entre nous se trouvent quotidiennement : ils ne sont pas d’accord avec le fait d’être assis sur leur canapé devant Netflix, à s’empiffrer de chips et à scroller sur Instagram, cependant, ils sont confrontés à des choix qu’ils n’arrivent (apparemment) pas à résoudre.
  • Cette caractéristique du comportement, propre à pas mal d’entre nous, c’est ce que Alain Anquetil, auteur d’un travail de recherche sur la question, appelle « l’expression molle d’une préférence pour le statu quo ».
  • L’acrasie par contre, c’est bien cette incontinence, cette faiblesse de ne pas arriver à prendre la bonne décision, alors que précisément nous savons quelle est cette « bonne » décision. Parce que je ne reçois aucune gratification instantanée dans le fait d’utiliser Qwant à la place de Google. Cependant, si je suis d’accord avec les arguments énoncés un peu plus haut, je devrais opter pour un autre moteur de recherche.
  • ...7 more annotations...
  • Vous l’aurez compris : les pays avec le plus haut score d’acceptation étaient ceux dans lesquels les gens devaient faire un effort, et une démarche, afin de se désinscrire, alors que ceux dans lesquels il fallait tout simplement s’inscrire (ce qui semble, il est vrai, le plus logique) ont eu beaucoup de mal à fédérer plus de 10 % de réponses positives. Les conclusions de l’enquête ? Que ce soit en Suède, en Autriche ou même en France, les personnes interrogées ne sont certainement pas CONTRE le don d’organe, mais encore faudrait-il qu’elle fasse l’effort de le dire et d’exprimer leur choix. Nous sommes donc là en face d’un pur cas d’acrasie (les gens ont d’ailleurs souvent un vrai avis moral et éthique sur la question du don d’organe) : peu importe la raison, quand il s’agit de passer à l’action, l’incontinence reprend le dessus.
  • Comme le souligne Attali, l’engagement citoyen de façade est parfois doublé d’un égoïsme social présent lorsqu’il s’agit de nos intérêts personnels et de nos habitudes.
  • Le philosophe Ruwen Ogien pose la question de façon très ouverte dans La Faiblesse de la Volonté : « À quelles conditions un agent rationnel peut-il choisir le pire alors que le meilleur est accessible ? ». Quel est l’effet de dissonance cognitive qui est à l’œuvre, et qui nous fait penser que ces baskets, chèrement payées, valent l’argent que nous y mettons ? Le mimétisme ? La sensibilité aux histoires et aux émotions véhiculées par les marques ? 
  • Le « pré-engagement ». C’est la façon dont vous allez vous engager socialement par rapport à vos convictions, en les exprimant à vos proches, amis ou collègues. Reprenons l’exemple de la consommation de viande : une fois que vous avez dit à tous vos collègues que vous ne mangez plus de viande parce que vous êtes choqués par le traitement fait aux animaux dans l’élevage industriel, vous pourrez bien sur en reprendre, mais vous risquez quand même de passer pour quelqu’un de pas très « fiable ».
  • Les « intentions de mise en œuvre ». Contrairement au pré-engagement, les intentions de mise en œuvre s’adressent uniquement à vous même. Il s’agit tout simplement d’outils pour vous motiver et vous organiser de façon à mettre en œuvre ce que vous avez prévu. Un exemple très parlant, et pourtant totalement banal, est celui de la to-do list.
  • Les « embûches ». La légende dit que pour finaliser Notre-Dame de Paris dans le temps imparti, Victor Hugo s’est débarrassé de ses vêtements, afin de ne plus avoir de moyen de sortir de chez lui, et de s'obliger à rester assis devant son bureau – n’ayant plus rien d’autre à faire que d’écrire. Résultat : il a rendu son ouvrage plusieurs jours avant la date limite.
  • Si l’acrasie représente cette faiblesse de volonté, l’encrasie serait donc cette force de caractère nous permettant d’agir conformément à nos valeurs, à ce que nous pensons profondément être bon, et non à ce qui nous arrange ou ce qui peut arranger nos petites affaires sur le moment présent. C’est un long chemin, mais il ne faut pas le considérer comme hors d'atteinte pour autant. Au contraire.
  •  
    "Nous avons pris l'habitude de blâmer les géants du numérique pour tous les maux de la Terre. Serait-ce de leur faute si nos données personnelles sont revendues et utilisées contre notre gré ? Est-ce à cause d'eux que nous devenons de vraies loques humaines, incapables de faire autre chose de que scroller une quantité invraisemblable de contenu par jour, et d'emmagasiner des informations dont nous n'avons (en vrai) rien à faire ? Bonne nouvelle : les individus derrière l'excellente newsletter Tech Trash vous révèlent dans cet article initialement publié sur leur site le principal responsable de vos faits et gestes (qui ne sont pas, contrairement à ce que vous pensez peut-être, téléguidés par la Silicon Valley) : VOUS. Et un mécanisme de nos cerveaux baptisé acrasie : le fait de ne pas parvenir à prendre la bonne décision, alors que précisément nous savons quelle est cette « bonne » décision. "
Aurialie Jublin

Internet Libre ou minitel 2.O conférence de Benjamin Bayart conf lors des rml... - 0 views

  • En fait la formulation qu'on retient habituellement c'est qu'on dit que sur Internet on a mis l'intelligence en périphérie du réseau. Dans Minitel on a mis l'intelligence au centre, c'est le contenu, c'est les bases de données avec des terminaux débiles autour. Internet c'est le contraire, on a mis des routeurs idiots au centre et on a mis en périphérie des ordinateurs qui réfléchissent. C'est ça le modèle d'Internet, la grande révolution qu'a été Internet, ça a été d'apporter ça. Les réseaux télé-informatiques centrés, on en fait depuis les années 50 à peu près
  • Ça j'aime bien aussi, Google, Yahoo, MSN c'est à peu près les trois moteurs de recherche qui font 95% de la recherche sur Internet et de l'indexation. À une époque, quand on cherchait le site Minitel qui permet quelque chose, on tapait 3615 et au lieu de taper le nom du site dans la case « nom du site » on allait dans la case « rechercher », on tapait des mots-clés, puis France Télécom proposait les services Minitel auxquels on pouvait se connecter. Bon ben ça ça s'appelle Google. Ils l'ont fait en couleur, ils l'ont fait en grand, ils l'ont fait avec de la pub sur le côté, mais c'est le moteur de recherche du Minitel, c'est pas ça Internet. Internet c'est pas les 8000 machines de Google qui détiennent le savoir de l'humanité. Internet c'est le contraire de ça. Donc finalement côté réseau sur la technique c'est pas du net, ce que vous utilisez couramment, c'est pas du net, c'est du Minitel.
  • Et on est venu sur un modèle qui est assez bizarre qui a beaucoup émergé ces dernières années de publicité/publication. Parce que si Monsieur France 2 veut être proprement diffusé il paye un droit de publication, c'est-à-dire qu'il paye les opérateurs réseau pour être diffusé. Si y'en a certains parmi vous qui ont suivi les débats sur la liste FRnOG il y a quelques mois, la trame sous-jacente c'était Monsieur Free qui disait à Monsieur Dailymotion « je transporterai pas ta merde si tu me donnes pas des sous ». Ça c'est le droit de publication. Curieusement y'a pas ça d'habitude sur Internet .C'est quelque chose d'assez récent. Et puis y'a la publicité, c'est-à-dire que, comme vous êtes des gens très partageurs, vous avez vos vidéos perso, aguichantes ou non, que vous mettez sur Dailymotion histoire que tout le monde en profite, curieusement les reversements publicitaires que perçoit Dailymotion, vous, vous les percevez pas. Parce qu'en fait vous leur confiez votre contenu pour qu'il y gagnent leur publicité. Ça c'est un modèle assez particulier et si vous regardez bien le mode publicité/publication on paye aux deux bouts, c'est-à-dire que celui qui a du contenu paye pour qu'il soit diffusé, et puis celui qui vient regarder le contenu il paye sous forme de publicité. On est bien revenu au modèle du téléphone. Maintenant c'est plus des communications à la minute c'est des publicités, mais le modèle est vraiment le même.
  • ...18 more annotations...
  • → Pluralité À la place du monopole local, on a une certaine pluralité, c'est-à-dire que les, on vous a parlé d'ouverture de la concurrence, de l'ouverture du marché tout ça... Moi quand on me parlait pas d'ouverture de la concurrence et d'ouverture du marché, c'est-à-dire quand je me suis abonné à FDN, c'était en 96, y'avait 5-6 opérateurs chez qui je pouvais m'abonner sur Paris et je pouvais prendre l'opérateur que je voulais. Y'avait pas de souci, y'en avait bien plusieurs.
  • → Transporteurs L'opérateur de réseau se comporte comme un transporteur, c'est-à-dire quand je commande un paquet chez un commerçant, pas forcément sur Internet, dans les années 80, chez Les 3 redoutes quand je commandais des chaussettes je payais mes chaussettes à Les 3 redoutes et Les 3 redoutes payaient le transport à La Poste, La Poste ne s'occupait que du transport. Ça c'est à peu près le modèle d'Internet. Mon FAI il transporte mes données, c'est tout, il regarde pas ce qu'il y a dedans c'est pas sa sauce. Finalement d'où ça vient, c'est-à-dire savoir si ça vient d'un contenu payant ou si ça vient d'un contenu gratuit, lui, il s'en fiche. Il transporte de manière neutre.
  • Alors quelques exemples d'opérateurs: bon forcément j'ai cité FDN, c'est le mien, j'ai cité Neuronnexion parce qu'on est à Amiens, et puis le gros national à l'époque c'était Oléane, c'est-à-dire que Oléane qui était un gros opérateur à l'époque, dans les débuts du net au milieu des années 90, Oléane était connecté à des dizaines d'autres opérateurs en France. Y'avait pas de problème pour obtenir un accord d'interconnexion, dans des conditions relativement équitables entre Neuronnexion qui était une PME avec quelques personnes sur Amiens et Oléane qui était une PME avec quelques dizaines ou quelques centaines de personnes sur la fin à Paris.
  • → Free Free même punition. C'est pas vraiment un opérateur Internet, c'est plus vraiment un opérateur Internet, c'est en train de basculer tout doucement vers un opérateurs Minitel. Y'a trois ans l'idée qui a été tenue sur FRnOG de dire à Dailymotion « je transporterai ta merde si tu me donnes des sous » elle aurait fait bondir les gens de chez Free. À l'époque où ils étaient petits ça leur aurait fait très peur parce que c'était un moyen de les empêcher de grossir. → SFR SFR, oui alors pour les gens qui savent pas SFR c'est le nom complet de Neuf-Cegetel, bah je sais pas c'est le plus gros actionnaire, moi je veux bien les appeler autrement, m'enfin voilà, l'actionnaire c'est SFR, donc eux, même chose, c'est plutôt un opérateur de téléphonie qui vend du net avec du vrai Minitel dessus.
  • Alors on n'a pas basculé du modèle à Internet qui commençait à émerger au milieu des années 90 au modèle Minitel qui est en train d'émerger aux États-Unis au début des années 2000 complètement par hasard. Il a fallu plusieurs morceaux pour en venir là. Même chose je vais me centrer plutôt sur les effets franco-français mais vous verrez le modèle s'étend assez bien.
  • → DRM : exclusivité D'abord les DRM, ça, ça vous parle on en a parlé beaucoup ici, DADVSI, Droits d'Auteur et Droits Voisins dans la Société de l'Information, pour les gens qu'oublient ce que veut dire l'acronyme. Créer des DRM c'est créer de l'exclusivité. C'est un morceau qui manquait sur Internet on pouvait pas créer de l'accès exclusif de manière simple. En mettant des DRM dedans on peut bien, c'est facile. C'est-à-dire qu'une fois qu'on aura bien mis des DRM dans tous les fichiers, l'opérateur pourra dire « je transporte, ou pas, les fichiers signés par Machin », Microsoft n'a pas envie de transporter les fichiers signés par Torvalds, simple, suffit de pas les transporter.
  • → Brevets : fermeture Les brevets ça crée de la fermeture. Je vous le disais tout à l'heure, Internet et le logiciel libre c'est très exactement la même chose, ce ne sont que deux facettes du même objet. À partir du moment où je mets des brevets je ferme le jeu. Si c'est breveté ça veut dire que quelqu'un d'autre n'a pas le droit de le refaire pour venir s'interconnecter. En fait une fois que j'ai bien breveté le mode de fonctionnement du Minitel, un méchant concurrent ne peut pas fabriquer des Minitel, ça ne sert qu'à ça les brevets, c'est même la définition du brevet.
  • → Filtrage : demi-connexions Le filtrage que nous demandent régulièrement les différents gouvernements, on pourrait croire que c'est de la censure fasciste, y'en a sans doute un ptit peu, je pense que quand les Renseignements Généraux demandent en loucedé à un opérateur de filtrer un gars ça pourrait ne pas être parce qu'il est terroriste mais juste parce qu'il fait chier, disons que ça s'est déjà vu. Mais ça a un effet de bord très amusant, une fois que les opérateurs ont mis dans leurs réseaux, c'est pas encore le cas mais ça vient, des boîtiers qui sont capables de filtrer, le boîtier qui est capable de filtrer je pense qu'il y a quelques informaticiens dans la salle, il filtre ce que l'admin sys demande de filtrer, c'est-à-dire ce que le gouvernement lui demande de filtrer parce qu'il est plutôt obéissant, pour pas aller en taule, et puis ce que son patron lui demande de filtrer. C'est-à-dire que le filtrage qu'est demandé par le gouvernement, pour des raisons probablement de sécurité publique, enfin on espère, il permet également de rétablir le modèle des demi-connexions, c'est-à-dire que je filtre les sites nazis et les filtres qui n'ont pas payé. Ça permet de bien faire rentrer ce modèle économique.
  • → Responsabilité : centré. La responsabilité, alors j'étends un ptit peu le titre, c'est les différents débats qu'on a eu depuis l'affaire Altern1 en, c'était quand l'affaire Altern 97, non 98, 99 par là, c'est la responsabilité des hébergeurs, c'est-à-dire que l'hébergeur est responsable de ce qu'il y a sur le site, et si on lui signale un contenu supposément illégal, il se doit de l'enlever avec diligence. Il pourrait l'enlever avec voiture mais diligence c'est mieux. Ça, ça veut dire que si je prends le risque de permettre à quelqu'un de poser son site web sur ma machine, s'il dit de la merde c'est moi qui vais en taule. Moi je peux pas l'assumer. France Télécom peut l'assumer parce que quand il aura un procès, France Télécom enverra son armée d'avocats, expliquera que dès qu'on lui a signalé le contenu elle l'a enlevé, je veux dire c'est vrai, c'était un dissident d'un endroit où on n'a pas le droit de dissider, qu'il aille donc dissider ailleurs, donc ça a été tout bien enlevé, et ils pourront dire, nous on est blanc bleus ils vont au procès, ils payent des avocats, ils s'en sortent. Par contre la PME de banlieue qui essayait de faire pareil, ben quand elle s'est retrouvée devant le juge, ça lui a coûté un œil de payer l'avocat, et puis comme le mec qui dissidait il disait des trucs finalement qu'en France on a le droit, ils ont estimé qu'ils allaient pas supprimer le site, et donc ça va jusqu'au procès et ça coûte cher. Donc la responsabilité des hébergeurs ça tend à faire que les petits hébergeurs ont du mal à exister parce qu'ils existent en vivant dangereusement, donc ça crée du réseau centrés, puisque les petits ont du mal à exister il restera que les gros.
  • → Régulation : interco La régulation c'est aussi quelque chose de fabuleux. Ce qu'on appelle régulation dans le monde Internet professionnel, c'est l'ARCEP, Autorité de Régulation des Communications Éléctroniques et des Postes, ex-ART, Autorité de Régulation des Télécommunications, c'est des gens qui ont été mis en place à l'époque où, suite à certaines directives européennes, on a ouvert le marché des télécom. J'ai assisté, alors, enfin si un ptit peu en tant que président de FDN, mais aussi avec d'autres casquettes, à une des réunions de l'ARCEP sur les réseaux d'initiatives publiques où y'avait le monsieur responsable du dégroupage en France, qui nous expliquait mort de rire que, y'a 10 ans quand ils ont commencé et qu'ils ont fait les premières réunions sur le dégroupage, il fallait une salle de réunion gigantesque pour asseoir les 50 opérateurs alors qu'aujourd'hui quand ils font les réunions sur le dégroupage, ils font ça dans son bureaux parce qu'ils sont 4, et il avait l'air content de lui pépère. C'est-à-dire que lui, il a été mis en poste pour ouvrir le marché, il est passé de 50 acteurs à 4 et il est content. Fabuleux! Moi je trouve fabuleux. Et donc ce petit jeu où on se retrouve avec 4 opérateurs qui vendent du Minitel-net 2.0 ben ça fait qu'ils sont suffisamment gros pour envoyer chier tous les autres, je veux dire quand on s'appelle Free et qu'on a 2 millions d'abonnés, ou quand on s'appelle France Télécom et qu'on en a 4, ou quand on s'appelle Neuf et qu'on en a je-sais-plus-combien à force de racheter leur clients je sais plus où ils en sont, 2,5 probablement, forcément, un Schtroumpf qui vient avec 20 000 comme Nérim rien à battre, parle pas aux ptits. Donc la difficulté d'interconnexion des réseaux, elle vient en bonne partie des erreurs de régulation ou des choix de régulation, parce que c'est ptet pas par erreur qui font qu'il y a plus de petits opérateurs.
  • → Gouvernance : assurance Et puis pour ceux qui étaient à la table ronde politique hier, y'a des problèmes de gouvernance. Les problèmes de gouvernances, ce sont tous ces braves gens qui se réunissent entre eux pour décider si oui ou non on va permettre aux gens d'acheter des noms de domaines sans leurs papiers, ou si on va distribuer des adresses IP aux pas gentils, ou comment on va faire en sorte que les pédo-nazis puissent pas faire ci ou ça, ou que les terroristes puissent pas poster, donc comment Google va filtrer tous les sites écrits en arabe parce que ça doit être suspect, sauf ceux bien évidemment signés par le gouvernement qui vend du pétrole. Tout ça c'est ce qu'on appelle la gouvernance Internet, c'est l'IANA, c'est l'ICANN, c'est le RIPE c'est etc. Ça en fait c'est une assurance. Une fois que c'est convenablement tenu par les quelques juristes des très gros opérateurs - vous pouvez y aller, y'a pas un technicien à poil dur, y'a quelques vieux barbus tout gris qui parlent BGP, le reste c'est tout du cravateux juriste docteur en droit, envoyé par les opérateurs pour vérifier que tout va bien. Ça c'est une assurance, c'est l'assurance du fait qu'ils resteront dans la position où ils sont.
  • Ils sont en train d’éteindre Internet D'où ça sort tout ça ? Ça sort schématiquement de l'histoire, c'est-à-dire que les gens qui ont de quoi fabriquer du réseau sont les gens qui ont fabriqué le téléphone et qui étaient en situation de monopole, ce sont les gens qui ont fabriqué la diffusion télé qui étaient en situation de monopole. Internet est né, à un moment ils se sont dit « tiens ça va se vendre » alors ils en ont vendu et puis, sans forcément être méchants, on pourrait croire à la théorie du complot mais j'y crois pas, je pense qu'ils sont pas assez malins pour s'être dit « tiens on va se liguer pour attaquer sur tous les fronts en même temps pour faire taire les pénibles »; moi je pense qu'ils l'ont pas fait exprès, mais ils sont en train d'éteindre Internet; et c'est un effet de bord naturel, c'est-à-dire qu'Internet remettait en cause leur monopole, ils ont fait chacun les petites actions dont ils avaient besoin pour essayer de maintenir leur monopole: les gros éditeurs de musique en faisant des DRM, les auteurs de logiciels tout pourris propriétaires en faisant des brevets, les marchands de contenu qui veulent pas qu'on aille acheter le contenu des autres en faisant du filtrage etc etc etc. Je pense même pas qu'ils se soient concertés pour faire tous les mêmes conneries.
  • On va manger du numérique avarié Et quand ils vous disent qu'on passe à l'heure du numérique, c'est vrai. Ils font bien du numérique, si vous regardez la télé autrefois y'avait de la neige, maintenant elle pixélise, c'est ben qu'elle est numérique ! Mais c'est pas de l'Internet, c'est du numérique. Du numérique, ça peut être le baladeur fermé propriétaire d'une grande marque japonaise en quatre lettres commençant pas S finissant par Y qui met des rootkit dans les CD ou ça peut être le fait que je fasse écouter la musique que j'aime bien à ma ptite sœur. Dans les deux cas, c'est du numérique, juste moi je trouve y'en a un il est avarié, je vous laisse deviner lequel.
  • L'apparition d'Internet a permis l'apparition du libre et l'apparition du libre a permis l'apparition d'Internet, les deux ont crû en même temps. Il va y a voir un décrochage. Le numérique va continuer à croître mais Internet a commencé sa décroissance il y a déjà quelques années. Il y a de moins en moins de gens qui s'hébergent eux-mêmes sur leur ligne ADSL. La décroissance d'Internet a commencé, la décroissance du libre c'est juste après. Même si vous arrivez à ce qu'ils ne fassent pas passer les brevets logiciels cette année et les DRM l'année prochaine, si vous arrêtez Internet, si vous les laisser arrêter Internet libre, vous allez mourir.
  • Donc je crois que ce sont les deux piliers, le premier c'est: il faut éduquer, aller expliquer aux gens ce que c'est qu'Internet, aller dire aux gens que Internet c'est pas de mettre des vidéos marrantes sur Dailymotion, Internet c'est de mettre les vidéos marrantes sur mon PC et que vous veniez les voir. C'est fondamental comme différence; ça c'est le premier pilier, éduquer les gens, c'est très long. Je veux dire on savait, 'fin moi ça fait très longtemps que je suis sur Internet, ça fait 10 ans que je suis président de FDN, ça fait longtemps que je réfléchis sur ces questions, là je sais que c'est long d'éduquer les gens. La croissance actuelle des ventes de Machin Box en Minitel 2.0 c'est pas la croissance de l'éducation au net. Le type qui publie son blog sur un ordinateur qu'il ne possède pas, il fait du Minitel alors il apprend à faire du Minitel amélioré où il peut parler, mais il n'a pas encore appris à faire du net, c'est-à-dire à mettre son blog sur une machine qu'il est le seul à pouvoir couper du réseau. C'est très différent, cette éducation-là va prendre un ptit peu de temps. Et le deuxième pilier c'est: faites votre réseau, faites vos serveurs IRC qui ne sont pas ceux des gros opérateurs, faites vos serveurs mail qui ne sont pas ceux des gros opérateurs. Faites votre réseau. Avec ces deux piliers-là, on aura quelques résistants qui sont ceux qui font le réseau, et quelques enseignants pour propager la bonne parole, ce sont les deux fondamentaux dont on a besoin. Je sais pas ce qu'on peut faire d'autre. Si, on peut essayer de se battre sur le juridique, mais on y va vraiment avec un lance-pierre contre des chars d'assaut.
  • y'a deux objections classiques au « hébergez-vous vous-mêmes », y'en a des moins classiques qui sont en général pas très intéressantes, en tout cas j'en ai pas encore entendu, y'en a deux qui sont vraiment classiques, y'a celle que tu indiques qui est intelligente, y'en a une autre qui est bête. Je vais commencer par celle qui est bête pour m'en débarrasser. Le « c'est compliqué techniquement », ça, c'est juste faux, je veux dire si le débile de base il est capable de poster une vidéo sur Dailymotion et il est capable de poster dans son blog, faire une Internet box qui contient le serveur Apache*4 qui contient son blog et les plug in type Dailymotion, il aura qu'à uploader vers sa boîte, c'est pas plus dur. Donc le « techniquement c'est compliqué » ça c'est juste faux.
  • Après y'a le problème écologique. La question écolo là-dedans c'est « si je laisse mon PC allumé tout le temps pour héberger mon pauvre site web qui a 12 visiteurs par jour, je brûle le courant plein pour rien ». Ça c'est un vrai problème. Mais dire « je vais m'héberger en salle machine avec tout le monde comme ça si on pose une bombe tout le monde se tait », c'est la mauvaise réponse. Quand les écolo disent « la consommation d'électricité fabriquée avec du charbon et du nucléaire c'est vachement dangereux » ils ont raison. Quand on apporte comme réponse « y'a qu'à se passer d'électricité », c'est pas la bonne. Un ordinateur capable d'héberger un site web c'est pas l'énorme machin avec 12 ventilos que tu utilises pour jouer au dernier jeu à la mode. Un ordinateur capable d'héberger un site web ça a une puissance de calcul similaire à celle qu'on trouve dans un palm aujourd'hui, ou dans un téléphone; c'est-à-dire que ton téléphone là, s'il était pas en Java avec de la merde dedans, il serait capable de faire des sites web comme on n'en rêvait pas en 95. Il consomme peau de balle en courant. Lui tu peux le laisser chez toi branché, et pour peu qu'en plus tu lui donnes du courant que t'as fabriqué avec des fines herbes et avec du bois, ou avec du solaire, ça va être nickel. Un ptit ordinateur qui ne mange que du solaire et qui est autonome tout seul dans sa boîte avec du solaire ça existe, les fous qui font des réseaux wifi bizarres ouverts etc, ils ont ça, des espèces de routeurs qu'ils viennent mettre sur le toit collés à la borne wifi, c'est 100% autonome si c'est sur du solaire, ça mange pas d'énergie.
  • -Hébergeur hébergé, c'est pas forcément une bonne réponse dans le sens « on se met à 3 et on loue une bécane dans une salle machine », c'est dans cet esprit-là? Dans cet esprit-là, dans la balance entre Internet et le Minitel quand tu mets ton site web chez OVH*6 tu es purement dans Minitel, quand tu mets dans le serveur des pages perso Wanadoo c'est pire, quand tu commences à le mettre sur le serveur hébergé en salle machine d'une assoss sympathique, l'Autre.net, Ouvaton des gens comme ça, Tuxfamily*7 tu rééquilibres un peu, quand tu le mets sur les machines auto-hébergées des gens comme RHIEN*8, le Réseau d'Hébergeurs Indépendants ENgagés, je vous invite à aller les voir si vous ne les connaissez pas, R-H-I-E-N, c'est super bien ce qu'ils font, ça penche presque vers de l'Internet parce que, eux, ils s'y mettent à 10-15-20-30 à héberger sur la machine du gars qui sait faire leur site web derrière leur ligne ADSL. On est quasiment sur de l'Internet, on est sur du beaucoup-net. Donc oui c'est mieux. Je veux dire si t'as à choisir entre les pages perso de ton fournisseur d'accès moisi qui retirera le contenu si ça lui plait pa,s et te faire héberger dans la même machine que ta bande de potes, c'est plutôt mieux la deuxième solution, maintenant si la machine en question elle est dans une salle machine qui t'appartient pas, où les flics ils rentrent quand ils veulent avec même pas un mandat, juste ils demandent poliment au monsieur à l'entrée, pas top.
  •  
    "Internet, logiciel libre, c'est la même chose En fait ce à quoi je veux en venir c'est que c'est la même chose: c'est-à-dire que sans logiciel libre pas d'Internet: si BIND n'avait pas été libre, si le protocole de routage IP n'avait pas été libre et ouvert Internet ne serait pas né. Donc sans logiciel libre pas d'Internet. Sans Internet pas de logiciel libre, évident. Si on supprime le mail et les échanges électroniques de code entre développeurs pour faire murir les softs, ça ne peut pas marcher. Les deux sont intimement liés: en fait ce sont deux facettes d'un même objet. Cet objet, si vous voulez on débattra tout à l'heure, je pense que c'est ce qu'on appelle la société du savoir, l'économie du savoir. Mais ce sont deux facettes du même objet on peut pas différencier, on peut pas dissocier Internet et logiciel libre, c'était ça le bout d'historique que je voulais vous raconter."
Aurialie Jublin

Technologie : l'âge sombre | InternetActu.net - 0 views

  • Pire, la technologie s’est fait la complice de tous les défis auxquels nous sommes confrontés : à la fois d’un système économique hors de contrôle qui ne cesse d’élargir les inégalités, la polarisation politique comme le réchauffement climatique. Pour Bridle, la technologie n’est pas la solution à ces défis, elle est devenue le problème. Il nous faut la comprendre plus que jamais, dans sa complexité, ses interconnexions et ses interactions : mais cette compréhension fonctionnelle ne suffit pas, il faut en saisir le contexte, les conséquences, les limites, le langage et le métalangage.
  • Trop souvent, on nous propose de résoudre ce manque de compréhension de la technologie par un peu plus d’éducation ou son corollaire, par la formation d’un peu plus de programmeurs. Mais ces deux solutions se limitent bien souvent en une compréhension procédurale des systèmes. Et cette compréhension procédurale vise surtout à renforcer la « pensée computationnelle », c’est-à-dire la pensée des ingénieurs et des informaticiens qui n’est rien d’autre que le métalangage du solutionnisme technologique 
  • Les systèmes techniques sont devenus de plus en plus complexes. Trop critiques et interconnectés pour être compris, pensés ou conçus. Leur compréhension n’est disponible plus que pour quelques-uns et le problème est que ces quelques-uns sont les mêmes que ceux qui sont au sommet des structures de pouvoir. Pour James Bridle, il y a une relation causale entre la complexité des systèmes, leur opacité, et les violences et inégalités qu’ils propagent.
  • ...32 more annotations...
  • Le cloud (l’informatique en nuage) n’est plus une métaphore du réseau, c’est l’incarnation de ce système global et surpuissant qu’aucun d’entre nous ne peut désormais attraper. Ce nuage est pourtant une bien mauvaise métaphore. Rien de ce qu’il recèle n’y est sans poids, rien n’y est amorphe ou invisible. Le cloud cache une infrastructure physique complexe faite de lignes téléphoniques, de fibre optique, de satellite, de vastes entrepôts d’ordinateurs, qui consomment d’énormes quantités d’énergie et qui influent sur de multiples juridictions. Le cloud est l’incarnation d’une nouvelle industrie.
  • De la sécurité nationale aux secrets industriels, il y a beaucoup de raisons à obscurcir ce que recouvre ce nuage. Mais ce qui s’en évapore est assurément notre propriété (dans les nuages, tout appartient à d’autres) et notre agentivité, c’est-à-dire notre capacité à faire.
  • Le réseau donne l’impression d’être à la fois l’idéal de progrès le plus abouti et l’idéal de base de notre culture tout en paraissant avoir émergé inconsciemment, poursuivant son but d’interconnexion sans fin pour lui-même et par lui-même… « Nous présumons que l’interconnexion est inhérente et inévitable. Le réseau semble être devenu le résultat du progrès, son accomplissement ultime », à l’image de machines qui accompliraient ainsi leurs propres désirs. Internet semble avoir accompli l’idéal des Lumières, l’idéal du progrès : celui que plus de connaissance et plus d’information conduit toujours à prendre de meilleures décisions.
  • Mais n’est-ce pas plutôt le contraire auquel nous assistons ? « Ce qui était censé éclairer le monde l’a obscurci. L’abondance d’information et la pluralité d’opinion accessible à tous n’ont pas produit un consensus cohérent, mais au contraire a déchiré la réalité en narrations simplistes, en théories fumeuses et en politique d’opinion. Contrairement au Moyen Âge, où l’âge sombre était lié à une perte de connaissance antique, l’âge sombre moderne est lié à une abondance de connaissance dont nous ne savons plus démêler collectivement l’apport. »
  • L’obscurité dont parle Bridle c’est notre incapacité à voir clairement ce qui est devant nous, avec capacité et justice. Pour Bridle pourtant, ce constat ne doit pas être lu comme une condamnation de la technologie. Au contraire. Pour relever l’âge sombre qui s’annonce, il nous faut nous engager plus avant dans la technologie, avec elle, mais avec une compréhension radicalement différente de ce qu’il est possible d’en faire, en retrouver un sens que la seule recherche d’efficacité nous a fait perdre. Tout comme le changement climatique, les effets de la technologie s’étendent sur le globe et affectent tous les aspects de nos vies. Mais comme le changement climatique, ses effets sont potentiellement catastrophiques et résultent de notre incapacité à comprendre les conséquences de nos propres inventions. Nous devons changer de manière de voir et penser le monde, nous invite Bridle, un peu facilement ou naïvement.
  • « En rapprochant la simulation de l’approximation, les grands prêtres de la pensée computationnelle pensent remplacer le monde par des modèles biaisés de lui-même ; et en le faisant, les modeleurs s’assurent du contrôle du monde. » James Bridle s’inscrit dans la continuité des constats de l’historien des sciences David Noble qui, dans Le progrès sans le peuple notamment, soulignait combien la pensée des ingénieurs avait contribué à donner du pouvoir aux puissants plutôt que favoriser l’équité ou la démocratie ; comme dans celle de Richard Sclove du Loka Institute, qui dans Choix technologiques, choix de société, soulignait combien les enjeux démocratiques restaient le parent pauvre de la question technologique.
  • La pensée computationnelle s’infiltre partout : elle devient notre culture. Elle nous conditionne à la fois parce qu’elle nous est illisible et à la fois parce que nous la percevons comme neutre émotionnellement et politiquement. Les réponses automatisées nous semblent plus dignes de confiance que celles qui ne le sont pas. Dans la pensée computationnelle, nous sommes victimes du biais d’automatisation : « nous avons plus confiance dans l’information automatisée que dans notre propre expérience, même si elle est en conflit avec ce qu’on observe ». Les conducteurs de voitures comme les pilotes d’avion ont plus tendance à croire leurs instruments que leur expérience, même si celle-ci n’est pas alignée.
  • Pour Bridle, l’informatique, en ce sens, est un piratage de notre capacité cognitive, de notre capacité attentionnelle, qui renvoie toute responsabilité sur la machine. « À mesure que la vie s’accélère, les machines ne cessent de prendre en main de plus en plus de tâches cognitives, renforçant par là leur autorité – sans regarder les conséquences ». « Nous nous accommodons de mieux en mieux et de plus en plus aux confortables raccourcis cognitifs que nous proposent nos machines. L’informatique remplace la pensée consciente. Nous pensons de plus en plus comme des machines, ou plutôt nous ne pensons plus du tout ! ».
  • « Ce qui est difficile à modéliser, à calculer, à quantifier, ce qui est incertain ou ambigu, est désormais exclu du futur possible. » L’informatique projette un futur qui ressemble au passé (« Les algorithmes ne prédisent pas le futur, ils codifient le passé », disait déjà Cathy O’Neil). La pensée computationnelle est paresseuse. Elle propose finalement des réponses faciles. Elle nous fait croire qu’il y a toujours des réponses.
  • les réseaux souffrent d’une gouvernance fragmentée, sans responsabilités claires, peu cartographiés et sous-financés ; des infrastructures en silos ; des investissements privés comme publics insuffisants et plus encore un manque de compréhension de la complexité de leur fonctionnement… expliquent leur fragilité intrinsèque et la difficulté de leur maintenance. Ajoutez à cela les impacts du changement climatique sur leur maintenance et leur évolution et vous comprendrez que les réseaux ne sont pas dimensionnés pour faire face au futur. Bref, non seulement l’informatique contribue largement au réchauffement climatique, mais elle risque d’en être l’une des principales victimes.
  • Mais les grands volumes de données ne produisent pas de la connaissance automatiquement. Dans la recherche pharmacologique par exemple, les dépenses et investissements n’ont jamais été aussi forts alors que les découvertes, elles, n’ont jamais produit aussi peu de nouveaux traitements. On appelle cela la loi d’Eroom : l’exact inverse de la loi de Moore. Le nombre de résultats de recherche chute et ces résultats sont de moins en moins dignes de confiance. Si les publications scientifiques n’ont jamais été aussi volumineuses (au détriment de leur qualité), les rétractions ont augmenté et le nombre de recherches ayant un impact significatif, elles, ont diminué proportionnellement. La science connaît une crise de réplicabilité majeure.
  • Plusieurs facteurs expliquent ce revirement de la loi du progrès. La première est que les choses les plus évidentes à découvrir ont été exploitées. La régulation est également devenue plus exigeante et la société moins tolérante aux risques. Mais le problème principal relève certainement des méthodes désormais employées. Historiquement, la découverte de médicament était le fait de petites équipes de chercheurs qui se concentrait intensément sur de petits groupes de molécules. Mais depuis 20 ans, ces processus ont été largement automatisés, sous la forme de ce qu’on appelle le HTS (High-throughput screening pour criblage à haut débit) qui consiste en des recherches automatisées de réactions potentielles via de vastes bibliothèques de composants. Le HTS a priorisé le volume sur la profondeur. Ce qui a marché dans d’autres industries a colonisé la recherche pharmaceutique : automatisation, systématisation et mesures… Certains commencent à douter de l’efficacité de ces méthodes et voudraient revenir à l’empirisme humain, au hasard, au bordel, au jeu… À nouveau, « la façon dont nous pensons le monde est façonnée par les outils à notre disposition ». Nos instruments déterminent ce qui peut être fait et donc, ce qui peut être pensé. À mesure que la science est de plus en plus technologisée, tous les domaines de la pensée humaine le sont à leur tour. Les vastes quantités de données ne nous aident qu’à voir les problèmes des vastes quantités de données.
  • Les bourses et places de marchés d’antan ont été remplacées par des entrepôts, des data centers, anonymes, dans des banlieues d’affaires impersonnelles. La dérégulation et la numérisation ont transformé en profondeur les marchés financiers. La vitesse des échanges s’est accélérée avec la technologie. Les transactions à haute fréquence (HFT, High-frequency trading) reposent sur la latence et la visibilité. La latence, c’est-à-dire la rapidité d’échange où des millions peuvent s’échanger en quelques millisecondes et la visibilité (sauf pour les non-initiés), c’est-à-dire le fait que les échanges sont visibles de tous les participants, instantanément. Les échanges reposent sur des algorithmes capables de calculer des variations éclair et de masquer les mouvements de fonds. Les échanges sont plus opaques que jamais : ils s’imposent sur des forums privés, les « dark pools » (en 2015, la SEC, l’organisme américain de réglementation et de contrôle des marchés financiers, estimait que les échanges privés représentaient 1/5e du total des échanges)… Les échanges financiers ont été rendus obscurs et plus inégaux que jamais, rappelle Bridle.
  • Pour Bridle, l’une des clefs qui expliquent que les inégalités se renforcent avec la technologie est intrinsèquement liée à l’opacité des systèmes. Comme les robots des entrepôts d’Amazon et ses employés commandés par des commandes vocales émanant de robots, nous sommes en train d’arranger le monde pour rendre les machines toujours plus efficaces, quitte à ce que le monde devienne incompréhensible et inadapté aux humains. Les travailleurs deviennent le carburant des algorithmes, utiles seulement pour leurs capacités à se déplacer et à suivre des ordres. Pour Bridle, les startups et les Gafam signent le retour des barons voleurs, ces tyrans industriels du XIXe siècle. La technologie est venue couvrir d’un voile d’opacité la prédation : l’avidité s’est habillée de la logique inhumaine des machines. Amazon ou Uber cachent derrière des pixels lumineux un système d’exploitation sans faille
  • Pour la sociologue Deborah Cowen (@debcowen), nous sommes entrés dans la tyrannie de la techne explique-t-elle dans The Deadly Life of Logistics (2014) : l’efficacité est devenu primordiale sur tous les autres objectifs, sur toutes les autres valeurs
  • Autre exemple avec How-Old.net un outil de reconnaissance faciale qui tente de prédire l’âge d’une personne, et qui a été utilisée pour deviner l’âge de migrants arrivants au Royaume-Uni. Microsoft, qui a développé cette application, s’est défendu et a dénoncé cette utilisation… comme les 2 chercheurs chinois. Ceux-ci expliquaient néanmoins dans leur défense que leur système était « sans préjugé » (sic). Comme souvent, on nous explique que la technologie, et plus encore l’apprentissage automatisé, est neutre. Mais « la technologie n’émerge pas de nulle part. Elle est toujours la réification de croyances et de désirs, notamment de ses créateurs. Leurs biais sont encodés dans les machines et les bases de données ou les images que nous prenons du monde. »
  • Pour Bridle, le problème n’est pas tant que les machines puissent réécrire la réalité, mais que la réalité, le passé comme le futur, ne puissent plus être correctement racontés. DeepDream de Google illustre parfaitement cela. L’enjeu n’est pas pour nous de comprendre ce qu’est l’image, mais de nous demander ce que le réseau de neurones veut y voir ?
  • Pour Bridle, nous devrions ajouter une 4e loi aux trois lois de la robotique d’Asimov. Les machines intelligentes devraient être capables de s’expliquer aux humains. Ce devrait être une loi première, car éthique. Mais le fait que ce garde-fou ait déjà été brisé laisse peu d’espoir quant au fait que les autres règles le soient à leur tour. « Nous allons devoir affronter un monde où nous ne comprendrons plus nos propres créations et le résultat d’une telle opacité sera toujours et inévitablement violent ».
  • Pour Bridle, l’alliance entre l’humain et la machine peut encore fonctionner, comme l’a montré Garry Kasparov avec les échecs avancés, consistant à ce qu’une IA et qu’un humain jouent ensemble plutôt qu’ils ne s’affrontent. C’est dans la perspective d’associer les talents des humains et des machines, d’associer leurs différences d’une manière coopérative plutôt que compétitive que nous parviendrons à réduire l’opacité computationnelle. La perspective que l’intelligence des machines nous dépasse dans nombre de disciplines est une perspective destructrice. Nous devons trouver la voie d’une éthique de la coopération avec les machines, plutôt qu’un affrontement.
  • Bridle s’en prend également longuement à la surveillance et notamment à la surveillance d’Etat pour souligner combien elle nous est masquée et continue à l’être, malgré les révélations d’Edward Snowden. Vous pouvez lire n’importe quel e-mail dans le monde d’une personne dont vous avez l’adresse. Vous pouvez regarder le trafic de tout site web. Vous pouvez suivre les mouvements de tout ordinateur portable à travers le monde. Pour Bridle, cela nous a montré qu’il n’y a pas de restriction possible à la capacité de surveillance du réseau. L’échelle et la taille de la surveillance a excédé ce que nous pensions comme étant techniquement possible.
  • En opposition au secret, nous demandons de la transparence, mais elle n’est peut-être pas le bon levier. La NSA et Wikileaks partagent la même vision du monde avec des finalités différentes, rappelle Bridle. Les deux pensent qu’il y a des secrets au coeur du monde qui, s’ils étaient connus, pourraient rendre le monde meilleur. Wikileaks veut la transparence pour tous. La NSA veut la transparence pour elle. Les deux fonctionnent sur une même vision du monde. Wikileaks ne voulait pas devenir le miroir de la NSA, mais voulait briser la machine de surveillance. En 2006, Assange a écrit « Conspiracy as Governance » (.pdf). Pour lui, tout système autoritaire repose sur des conspirations, car leur pouvoir repose sur le secret. Les leaks minent leur pouvoir, pas par ce qui fuite, mais parce que la peur et la paranoïa dégradent la capacité du système autoritaire à conspirer. Mais les fuites de données ne suffisent pas à remettre en cause ou à abattre l’autorité. Les révélations ne font pas bouger l’opinion, sinon, nous aurions réagi bien avant les révélations de Snowden. Tant que les organisations de surveillance ne changent pas de l’intérieur, ceux qui sont en dehors de ces organisations, comme les lanceurs d’alertes, n’ont pas de capacité d’action. Ils attendent que des fonctionnaires ou que la justice confirment ce qu’ils avancent.
  • Mais la lumière du calcul nous dépossède de pouvoir, car elle nous fait crouler sous l’information et nous donne un faux sens de la sécurité. C’est là encore une conséquence de la pensée computationnelle. « Notre vision est devenue universelle, mais notre capacité d’action, elle, s’est réduite plus que jamais. » A l’image du réchauffement climatique, à nouveau, « nous savons de plus en plus de choses sur le monde, mais nous sommes de moins en moins capable d’agir sur lui ». Au final, nous nous sentons plus démunis que jamais. Plutôt que de reconsidérer nos hypothèses, nous nous enfonçons dans la paranoïa et la désintégration sociale.
  • Le monde est devenu trop complexe pour des histoires simples. En fait, « la démultiplication de l’information ne produit pas plus de clarté, mais plus de confusion ». L’un des symptômes de la paranoïa consiste à croire que quelqu’un vous surveille. Mais cette croyance est désormais devenue raisonnable, s’amuse Bridle en évoquant la surveillance d’Etat comme la surveillance des services numériques. Nous sommes entièrement sous contrôle, tant et si bien qu’on peut se demander qui est paranoïaque désormais ?
  • « Les théories conspirationnistes sont le dernier ressort des sans pouvoirs, imaginant ce que serait que d’être puissant », avance Bridle. Pour le spécialiste de la postmodernité, Frederic Jameson, les théories conspirationnistes sont « la cartographie cognitive des plus démunis dans un âge postmoderne ». C’est la figure dégradée de la logique par ceux qui ont le moins de capital culturel, une tentative désespérée de se représenter un système qu’ils ne comprennent pas. Encerclé par l’évidence de la complexité, l’individu a recours à un récit simpliste pour tenter de regagner un peu de contrôle sur la situation. À mesure que la technologie augmente et accélère le monde, celui-ci devient plus complexe. Les théories conspirationnistes deviennent alors des réponses, étranges, intriquées et violentes, pour s’en accommoder.
  • Ainsi, si vous cherchez de l’information sur les vaccins, vous tomberez invariablement sur de l’information contre les vaccins. Si vous cherchez de l’information sur la rotondité de la terre, vous tomberez inexorablement sur ceux qui pensent qu’elle est plate. Ces opinions divergentes semblent devenir la majorité tant elles sont exprimées et répétées avec force. « Ce qui se passe quand vous désirez en savoir de plus en plus sur le monde entre en collision avec un système qui va continuer à assortir ses réponses à n’importe quelle question, sans résolution ». Vous trouverez toujours quelqu’un pour rejoindre vos points de vue. Et toujours un flux pour les valider. Voici l’âge de la radicalisation algorithmique (à l’image de ce que disait Zeynep Tufekci de YouTube). Les théories conspirationnistes sont devenues la narration dominante. Elles expliquent tout. Dans la zone grise des connaissances, tout prend un sens.
  • Les failles des algorithmes sont les dernières failles du capitalisme où certains s’infiltrent non pas pour le renverser, mais pour tenter de gratter un peu d’argent que les plus gros systèmes s’accaparent. Au final, des vidéos automatisées finissent par être vues par des enfants. Leurs personnages préférés y font n’importe quoi, parfois suggèrent des scènes de meurtre ou de viols. Ces effets de réseaux causent des problèmes réels. Les algorithmes de YouTube ont besoin d’exploitation pour produire leurs revenus. Derrière leurs aspects séduisants, ils encodent les pires aspects du marché, notamment l’avidité. « La capacité à exploiter l’autre est encodée dans les systèmes que nous construisons », pointe très justement James Bridle, puisque leur efficacité repose sur leur capacité à extraire de l’argent de nos comportements.
  • À défaut d’une solution, Google annonçait en avril que l’application YouTube Kids allait devenir « non-algorithmique »… À croire, comme le pointait très justement le chercheur Olivier Ertzscheid, que l’algorithimsation n’est pas une solution sans limites.
  • Pour Bridle, les humains sont dégradés des deux côtés de l’équation : à la fois dans l’exploitation qui est faite de leur attention et à la fois dans l’exploitation de leur travail. Ces nouvelles formes de violence sont inhérentes aux systèmes numériques et à leur motivation capitaliste. Le système favorise l’abus et ceux qui le produisent sont complices, accuse-t-il. L’architecture qu’ils ont construite pour extraire le maximum de revenus des vidéos en ligne a été hackée par d’autres systèmes pour abuser d’enfants à une échelle massive. Les propriétaires de ces plateformes ont une responsabilité forte dans l’exploitation qu’ils ont mise en place. « C’est profondément un âge sombre quand les structures qu’on a construites pour étendre la sphère de communications sont utilisées contre nous d’une manière systématique et automatique. »
  • Pour Bridle, les fausses nouvelles ne sont pas le produit de l’internet. Elles sont le produit de la cupidité et de la démocratisation de la propagande où tout a chacun peut devenir un propagandiste. Elles sont un amplificateur de la division qui existe déjà dans la société, comme les sites conspirationnistes amplifient la schizophrénie.
  • Mais ce qu’il y a de commun avec le Brexit, les élections américaines ou les profondeurs de YouTube, c’est que malgré tous les soupçons, il reste impossible de savoir qui fait ça, qu’elles sont leurs motivations, leurs intentions. On peut regarder sans fin ces flux vidéos, on peut parcourir sans fin les murs de mises à jour de statuts ou de tweets… cela ne permet pas de discerner clairement ce qui est généré algorithmiquement ou ce qui est construit délibérément et soigneusement pour générer des revenus publicitaires. On ne peut pas discerner clairement la fiction paranoïaque, l’action d’États, la propagande du spam… Ces confusions servent les manipulateurs quels qu’ils soient bien sûr, mais cela les dépasse aussi. C’est la manière dont le monde est. Personne ne semble réellement décider de son évolution… « Personne ne veut d’un âge sombre, mais nous le construisons quand même et nous allons devoir y vivre. »
  • Exploiter plus de données pour construire de meilleurs systèmes est une erreur. Cette méthode ne parviendra pas à prendre en compte la complexité humaine ni à la résoudre. Le développement de l’information n’a pas conduit à une meilleure compréhension du monde, mais au développement de points de vue alternatifs et concurrents. Nous devons changer nos façons de penser comme nous y invitait Lovecraft. Nous ne survivrons pas plus à l’information brute qu’à la bombe atomique. Le nouvel âge sombre est un lieu où le futur devient radicalement incertain et où le passé devient irrévocablement contesté. Mais c’est le présent dans lequel nous devons vivre et penser. Nous ne sommes pas sans pouvoir ni capacités. Mais pour cela nous devons nous défaire des promesses illusoires de la pensée computationnelle. Penser le monde autre, c’est ce à quoi nous invite James Bridle dans le nouvel âge sombre.
  • Reste à savoir si cet âge sombre des technologies est vraiment notre avenir. L’âge sombre du Moyen Âge n’a jamais vraiment existé ailleurs que dans les lacunes des historiens. On peut douter également de cette nouvelle obscurité ou regretter le titre faussement prophétique. Reste que la complexité et l’intrication du monde que décrit James Bridle, montrent combien il nous faut, plus que jamais, nous défaire justement d’une vision simple et manichéenne de la technologie.
  •  
    "Ce New Dark Age porte un titre prophétique et apocalyptique. Un peu trop peut-être. C'est effectivement un livre très critique sur notre rapport à la technologie, très éloigné du rapport souvent curieux et amusé que Bridle portait aux technologies avec la nouvelle esthétique. En une dizaine de chapitres, Bridle explore les glitchs qui sont désormais devenus des schismes, des scissions, des ruptures… comme s'ils n'étaient plus aussi distrayants. Dans son livre, il montre combien les bugs se cristallisent en caractéristiques. Combien la complexité technique que nous avons construite s'entremêle pour produire des effets en réseau, complexes, profonds, intriqués que nous ne parvenons plus vraiment à démêler. Son constat principal consiste à dire que ces dysfonctionnements ne sont pas amenés à être corrigés. Ils sont au contraire intrinsèques à la nature même des technologies qui se déploient aujourd'hui. Contrairement à ce que nous annonçaient les pionniers et les prophètes des technologies, pour Bridle, la technologie n'annonce pas de nouvelles Lumières ou une Renaissance, mais, comme Jules Michelet parlait du Moyen Âge, un âge sombre, une ère d'obscurité pour ne pas dire d'obscurantisme. Ni les réseaux sociaux, ni l'intelligence artificielle, ni les systèmes techniques ne vont nous aider à faire monde commun. Au contraire."
Aurialie Jublin

The Secret History of Women in Coding - The New York Times - 0 views

  •  
    "Computer programming once had much better gender balance than it does today. What went wrong?"
Aurialie Jublin

[Écologie] Le monde du logiciel est en train de se détruire... Manifeste pour... - 0 views

  • Tout est lent, et cela ne va pas dans le bon sens. Certaines voix s’élèvent. Je vous invite notamment à lire “Le désenchantement du logiciel”. Tout est insupportablement lent, tout est ÉNORME, tout finit par devenir obsolète… La taille des sites web explose. Un site web est aussi gros que le jeu Doom. Le phénomène ne touche pas que le Web mais aussi l’IoT, le mobile… Le saviez-vous ? Il faut 13% de CPU pour faire clignoter un curseur…
  • Tout grossit : la taille des applications, les données stockées, la taille des pages web, la mémoire des téléphones… Les téléphones ont maintenant 2 Go de mémoire, échanger une photo de 10 Mo par mail est maintenant classique… À la limite, cela ne serait peut-être pas un problème si tous les logiciels étaient utilisés, efficaces et performants… Mais cela n’est pas le cas,
  • Alors tout le monde se cale sur une lenteur. Tout est uniformément lent. On se cale sur cela et tout va bien. Être performant aujourd’hui, c’est arriver à atteindre un ressenti utilisateur qui correspond à cette lenteur uniforme. On élague les choses qui pourraient être trop visibles. Une page qui met plus de 20 secondes à se charger, c’est trop lent. Par contre, 3 secondes c’est bien. 3 secondes ? Avec les multicoeurs de nos téléphones/PC et les data centers partout dans le monde, le tout relié par des supers technologies de communication (4G, fibre…),c’est un peu bizarre non ? Si on regarde la débauche de ressources pour le résultat obtenu, 3 secondes, c’est énorme. D’autant plus que les bits circulent dans nos processeurs avec des unités de temps du niveau de la nanoseconde. Donc oui, tout est uniformément lent.
  • ...29 more annotations...
  • Il est nécessaire de revenir à plus d’efficience, de « challenger » les besoins en matériel, de redéfinir ce qu’est la performance. Tant que l’on se satisfera de cette lenteur uniforme avec des solutions pour ne pas ralentir plus (comme l’ajout de matériel), nous n’avancerons pas. La dette technique, notion largement assimilée par les équipes de développement, n’est malheureusement pas adaptée à ce problème (on y reviendra). Nous sommes sur une dette de ressources matérielles et de mauvaise adéquation entre le besoin utilisateur et la solution technique. On parle ici d’efficience et non pas uniquement de performance. L’efficience est une histoire de mesure du gaspillage. L’ISO définie l’efficience avec comme domaine : Time behaviour, Resource utilization et Capacity. Pourquoi ne pas pousser plus ces concepts ?
  • Développez du code Java pour un serveur J2EE ou pour un téléphone Android, ce n’est pas pareil. Des structures spécifiques existent par exemple pour traiter des données en Android mais les structures classiques sont toujours utilisées. Les développeurs ont perdu le lien avec le hardware. C’est malheureux car c’est passionnant (et utile) de savoir comment fonctionne un processeur. Pourquoi : abstraction et spécialisation (nous verrons cela plus loin). Car en perdant ce lien, on perd une des forces du développement. Ce lien est important chez les hackers ou chez les développeurs d’informatique embarquée mais malheureusement de moins en moins présent chez les autres développeurs.
  • Les pratiques devops pourraient répondre à cette perte de lien. Là, c’est pareil, nous n’allons pas jusqu’au au bout : généralement le devops va se focaliser à bien gérer le déploiement d’une solution logicielle sur une infrastructure mixte (matérielle et un peu logicielle). Il faudrait aller plus loin en remontant par exemple les métriques de consommation, en discutant sur les contraintes d’exécution… plutôt que de “scaler” juste parce que c’est plus simple.
  • Certaines technologies ont une utilité mais sont maintenant systématiquement utilisées. C’est le cas par exemple des ORM qui sont devenus systématiques. Aucune réflexion n’est faite sur son intérêt en début des projets. Résultat : on a rajouté une surcouche qui consomme, qu’il faut maintenir et des développeurs qui n’ont plus l’habitude d’effectuer des requêtes natives. Cela ne serait pas un problème si chaque développeur connaissait très bien le fonctionnement des couches d’abstraction : comment fonctionne HIBERNATE par exemple ? On s’appuie hélas de façon aveugle sur ces frameworks.
  • Le besoin d’abstraction est lié à un autre défaut: nous attendons toujours des outils miracles. La silver bullet qui améliorera encore plus nos pratiques. Le langage idéal, le framework pour aller plus vite, l’outil de gestion miracle des dépendances… C’est la promesse à chaque fois d’un nouveau framework : gagner du temps en développement, être plus performant… Et on y croit, on fonce. On abandonne les frameworks sur lesquels nous avions investi, sur lesquels on avait passé du temps… et on passe au nouveau. C’est le cas actuellement des frameworks JS. L’histoire du développement est pavé de framework oubliés, non maintenus, abandonnés… Nous sommes les champions pour réinventer ce qui existe déjà. Si on le gardait suffisamment longtemps, on aurait le temps de maîtriser un framework, de l’optimiser, de le comprendre. Mais ce n’est pas le cas. Et que l’on ne me dise pas que si on n’avait pas continuellement réinventé la roue, on aurait encore des roues en pierre… Innover serait d’améliorer les frameworks existants .
  • Sur les langages, c’est la même rengaine. Attention, je ne préconise pas de rester sur l’assembleur et sur le C… C’est le cas par exemple dans le monde Android, pendant plus de 10 ans les développeurs ont pu travailler sur des outils et des frameworks Java. Et comme cela, par magie, le nouveau Langage de la communauté est Kotlin. On imagine l’impact sur les applications existantes (si elles doivent changer), il faut recréer des outils, retrouver des bonnes pratiques… Pour quel gain?
  • Sincèrement, on ne voit aucun ralentissement sur les cycles de renouvellement des technologies. C’est toujours un rythme frénétique. Nous trouverons bien le Graal un jour. Le problème est ensuite l’empilement de ses technologies. Comme aucune ne meurt vraiment et que l’on en maintient toujours des parties, on développe d’autres couches pour s’adapter et continuer à maintenir ces bouts de code ou ces librairies. Le problèmen’est pas le code legacy,, c’est la glue que l’on développe autour qui pêche.
  • Au final, on passe du temps à résoudre des problèmes techniques internes, on recherche des outils pour résoudre les problèmes que l’on ajoute, on passe son temps à s’adapter à ses nouveaux outils, on ajoute des surcouches (voir chapitre précédent…) … et on n’a pas améliorer la qualité intrinsèque du logiciel ou les besoins auxquels on doit répondre.
  • Au final, le rythme frénétique des changements ne nous permet pas de nous stabiliser sur une technologie. J’avoue qu’en tant que vieux développeur que je suis, j’ai été découragé par le changement Java vers Kotlin pour Android. C’est peut-être pour certains de véritables challenges, mais quand je repense au temps que j’ai passé sur l’apprentissage, sur la mise en place d’outils
  • Ensuite, comme aucune solution ne meurt vraiment, que de nouvelles arrivent… on se retrouve avec des projets avec des multitudes de technologies à gérer avec les compétences associées aussi… On s’étonne ensuite que le marché du recrutement de développeur soit bouché. Pas étonnant.. Il y a énormément de développeurs mais il est difficile de trouver un développeur React avec 5 ans d’expérience qui connaîsse le Go. Le marché est fractionné, comme les technologies. C’est peut-être bon pour les développeurs car cela crée de la rareté et cela fait monter les prix, mais pas pour le projet !
  • Cependant, cet apprentissage continu des technologies pose le problème d’apprentissage de domaines transverses : accessibilité, agilité, performance… En effet, qu’est-ce qui nous prouve que les outils et les langages que nous allons choisir ne vont pas changer dans 4 ans ? Rust, Go… dans 2 ans ? Rien ne tend à donner une tendance.
  • On ne se remet pas en question car on veut s’amuser. Le fun est important, car si l’on s’ennuie dans son boulot, on va déprimer. Par contre, on ne peut pas, sous prétexte de vouloir du fun tout le temps, changer nos outils continuellement. Il y a un déséquilibre entre l’expérience du développeur et l’expérience de l’utilisateur. On veut du fun, mais qu’est-ce que cela va réellement apporter à l’utilisateur ? Un produit plus « joyeux » ? Non, nous ne sommes pas des acteurs.
  • On ne se pose pas de question sur l’éthique de notre domaine, sur sa durabilité… Cela vient peut-être du fait que notre domaine n’a pas réellement de code éthique (comme par exemple les médecins ou les avocats). Mais sommes-nous en tant que développeurs réellement libres si l’on ne peut pas avoir une autocritique ? Nous sommes peut être asservis à une cause portée par d’autres personnes ? Le problème n’est pas simple mais nous avons dans tous les cas une responsabilité. Sans code éthique, c’est le plus fort et le plus malhonnête qui est le plus fort. Le buzz et les pratiques pour manipuler les utilisateurs sont de plus en plus répandus. Sans Dark Pattern ton produit ne sera rien. Les plus gros (GAFA…) n’en sont pas arrivés là pour rien.
  • Est-ce que la solution est politique ? Il faut légiférer pour mieux gouverner le monde du logiciel. On le voit avec les dernières réponses législatives aux problèmes concrets : RGPD, notification des cookies… la source du problème n’est pas résolue. Peut-être parce que les politiques ne comprennent que très mal le monde du logiciel.
  • Car si cette structuration n’est pas faite, les développeurs vont perdre la main sur ce qu’ils font. Or le manque d’éthique de la profession est critiqué à l’extérieur. Rachel Coldicutt (@rachelcoldicutt) directrice de DotEveryOne, un think tank britannique qui promeut une technologie plus responsable, encourage à former des diplômés non-informaticiens qui traiteraient de ces problèmes (Voir plus précisément dans l’article d’Internet Actu). Pour poursuivre sur ce dernier article, cela serait dans la droite ligne de l’informatique, domaine issu du monde militaire où les ingénieurs et développeurs seraient formés à suivre des décisions et des commandements.
  • Le monde du logiciel s’intègre dans un système organisationnel classique. Grands groupes, sous-traitances via des ESN, web agencies… Tous suivent les mêmes techniques de gestion des projets informatiques. Et tout le monde va « dans le mur ». Aucune analyse sérieuse n’est faite sur le coût global d’un logiciel (TCO), sur son impact sur la société, sur son bénéfice, sa qualité… C’est la rapidité de release(Time to Market), la surcharge featurale (fonctionnelle), la productivité immédiate, qui comptent. Premièrement car les gens externes à ce monde ne connaissent que trop peu la technicité du logiciel et son monde. Il est virtuel donc simple (sic). Mais ce n’est pas le cas. Les écoles de commerce et autres usines de managers n’ont pas de cours de développement. Comment peuvent-ils bien diriger et piloter des projets ?
  • On continue a vouloir chiffrer des projets informatiques comme de simples projets alors que des mouvements comme le no estimate propose des approches innovantes. Les projets continuent d’échouer : le chaos report rapporte que simplement 30% des projets réussissent bien. Et face à cette mauvaise gouvernance, les équipes techniques continuent de se battre sur les technologies. Dommages collatéraux : la qualité, l’éthique, l’environnement… et au final l’utilisateur. Cela ne serait pas si critique si le logiciel n’avait pas un impact aussi fort sur le monde. Software eats the world… et oui, on le « bouffe »…
  • Si ces décisions absurdes arrivent, ce n’est pas uniquement la faute du développeur mais bien de l’organisation. Et qui dit organisation dit management (sous-différente forme). Si l’on revient au livre de Morel, il parle de piège cognitif dans lesquels les managers et les techniciens tombent souvent. C’est le cas de la navette Challenger qui a été quand même lancée malgré la connaissance du problème d’un joint défectueux. Les managers ont sous-évalué les risques et les ingénieurs ne les ont pas prouvés. Chacun a reproché à l’autre de ne pas fournir assez de preuves scientifiques. C’est souvent ce qui se passe dans les entreprises : des warnings sont levés par certains développeurs mais le management ne les prend pas assez au sérieux.
  • En même temps, on revient aux causes précédentes (silver bullet, on s’amuse…), il est nécessaire d’avoir une vraie ingénierie et une vraie analyse des technologies. Sans cela, les équipes techniques seront toujours non-écoutées par le management. Des outils et benchmark existent mais ils sont encore trop peu connus. Par exemple, Technologie Radar qui classe les technologies en terme d’adoption.
  • Ce phénomène de décision absurde est renforcé par le tissu complexe du développement logiciel : Les sociétés historiquement hors du numérique sous-traitent à des entreprises du numérique, les ESN sous-traitent aux freelances… Le partage de responsabilité technique / management est encore plus complexe et les décisions absurdes plus nombreuses.
  • Mais cela ne s’arrête pas là. On peut aussi voir l’usage de l’open-source comme une sorte de sous-traitance. Idem pour l’usage de framework. On est juste consommateur passif, on se déleste de plein de problématiques (qui ont un impact sur les ressources, la qualité…).
  • C’est d’autant plus facile que le domaine est passionnant et que la pratique des sides-projects, du temps passé sur les projets open-source hors des horaires de bureau est chose commune… La recherche de “fun” et le temps passé bénéficient alors plus aux organisations qu’aux développeurs. Difficile dans ce cas de chiffrer le coût réel d’un projet. Et pourtant, cela ne serait pas un problème si on arrivait à des logiciels « au top ».
  • Le développeur n’est ici plus un artisan du code, mais plutôt un pion dans un système critiquable du point de vue humain. Cela n’est pas visible, tout va bien et on s’amuse. En apparence seulement, car certains domaines du développement logiciel vont plus loin et rendent beaucoup plus visible cette exploitation : Le domaine du jeux-vidéo où les heures explosent.
  • Et donc, toutes ces maladresses (logiciel trop lourd, sans qualité…) se retrouvent chez les utilisateurs. Comme on doit releaser au plus vite les logiciels, que l’on ne tente pas de résoudre les inefficiences internes, et que l’on ne met pas plus de ressource pour faire de la qualité, on arrive à des logiciels médiocres. Mais on a tellement d’outils de monitoring et de suivi des utilisateurs pour détecter ce qui se passe directement chez eux qu’au final, on pense que ce n’est pas grave. Cela serait une bonne idée si les outils étaient bien utilisés. Or la multitude d’informations récoltées (en plus des bugs remontés par les utilisateurs) n’est que faiblement utilisée. Trop d’information, difficulté de cibler la vraie source du problème… on s’y perd et au final, c’est l’utilisateur qui trinque. Tous les logiciels sont maintenant en bêta-test. A quoi bon faire de la sur-qualité, autant attendre que l’utilisateur le demande. Et on revient ainsi au premier chapitre : un logiciel uniformément lent … et médiocre.
  • Heureusement, on est sauvé par la non-sensibilisation des utilisateurs au monde du logiciel. C’est un monde effectivement virtuel et magique qu’ils ont l’habitude d’utiliser. On leur a mis en main les outils mais sans notice explicative. Comment évaluer la qualité d’un logiciel, les risques sur l’environnement, les problèmes de sécurité… si l’on n’a pas des notions d’informatique, même rudimentaires ?
  • L’informatique du 21ème siècle est ce que l’agroalimentaire était pour les consommateurs au 20ème siècle. Pour des raisons de productivité, on a poussé des solutions médiocres avec un calcul court-termiste : mise sur le marché de plus en plus rapide, profit en hausse constante… agriculture intensive, malbouffe, pesticides… avec des impacts importants sur la santé, sur l’environnement… Les consommateurs savent maintenant (de plus en plus) les conséquences désastreuses de ces dérives, l’industrie agroalimentaire doit donc se réinventer, techniquement, commercialement et éthiquement. Pour le logiciel, quand les utilisateurs comprendront les tenants et les aboutissants des choix techniques, l’industrie du logiciel devra gérer les mêmes problèmes. En effet, le retour au bon sens et aux bonnes pratiques n’est pas une chose simple pour l’agroalimentaire. Dans l’IT, on commence à le voir avec ses conséquence sur la vie privée des utilisateurs (mais nous n’en sommes qu’aux balbutiements).
  • On va dans la mauvaise direction. L’industrie de l’informatique a déjà effectué dans les années 70 des erreurs avec des impacts non-négligeables. L’exclusion des femmes de l’informatique en fait partie. Non seulement cela a été fatal pour certaines industries mais on peut se poser la question de comment on peut maintenant adresser des réponses à seulement 50% de la population informatique, avec une représentativité très faible. Le chemin est maintenant difficile à retrouver.
  • Mais l’impact du monde IT ne s’arrête pas là. La source et le modèle d’une grosse partie de l’informatique sont issus de la Silicon valley. Si l’on écarte les gagnants de la Silicon Valley, les populations locales subissent la montée des prix, le déclassement, la pauvreté…
  • Dans sa lancée vers le progrès technique, le monde du logiciel crée aussi sa dette environnementale…
  •  
    "Le monde du logiciel va mal et si l'on n'agit pas, on risque de le regretter. Environnement, qualité, exclusion… Software Eats The World (Le logiciel mange le monde…) ? Oui un peu trop. "
Aurialie Jublin

[Logiciel libre] Logiciels libres, connaissances ouvertes et cultures libres - 0 views

  •  
    Histoire de la culture et des logiciels libres
Aurialie Jublin

« La small tech sera le poison de la Silicon Valley » - Usbek&Rica - 0 views

  • Votre existence numérique est une extension de vous-même, de votre esprit. Et c’est quelque chose de précieux car, si j'ai des informations sur vous, je peux les utiliser pour manipuler votre comportement. Écoutez les mots que j’utilise : je regarde ce que vous faites, j’en fais la liste, j’essaie de comprendre votre psychologie et de vous manipuler pour que vous fassiez ce que je veux. C’est horrible, c’est de l’abus, non ? C’est une relation de pouvoir. Pourtant, c’est ce que font Google et Facebook, que vous utilisez quotidiennement.
  • Quand Tim Berners Lee l’a imaginé, il l’a voulu en Read-Write (lecture-écriture), c’est-à-dire que vous pouviez écrire sur le web, et pas simplement lire. Mais ce qui est arrivé, c'est le capitalisme : les États-Unis ont perçu le potentiel du Web non pas en tant que média en lecture-écriture, mais en tant que média de diffusion. Et le capital-risque est entré dans la partie. Si vous avez un système basé sur des nœuds (nodes) avec des privilèges inégaux, que vous ajoutez du capital-risque, ces nœuds grandissent et deviennent les monopoles que sont Google et Facebook.
  • La conception du web n’a jamais été décentralisée, seule sa philosophie l’était. Nous savons maintenant qu’une centralisation du pouvoir est insoutenable, que ça détruit littéralement notre habitat. La technologie joue le rôle d'amplificateur : peut-être que toutes ces inégalités existaient avant, mais nous n’avions pas la technologie pour « détruire » le monde. Enfin pas le monde, pardon, plutôt notre habitat : la bactérie va survivre quoi qu'il arrive.
  • ...6 more annotations...
  • Deux choses : nous devons d’abord réglementer les abus du capitalisme de surveillance auxquels se livrent Google et Facebook, puis nous devons financer des alternatives. Nous ne pouvons pas attendre des alternatives qu’elles poussent sur des arbres : ça n’arrivera pas.
  • Il faut se demander quels sont les aspects du problème que vous pouvez changer. J’ai retiré Google de ma vie très facilement : vous n’avez pas besoin d’utiliser Gmail, vous pouvez utiliser Fastmail, qui ne vend pas vos informations personnelles. Et les gens peuvent toujours vous envoyer un email. Framasoft est un bel exemple d’organisation qui œuvre pour la bonne cause : protéger l’être humain et sa dignité à l’ère numérique. C’est une organisation fantastique mais, comparé à Google, ils ne sont qu'une poignée de personnes. Framasoft n'est financé par personne. Le réseau social décentralisé Mastodon est un autre exemple qui va dans ce sens. Et pourtant, le système de taxe de la Commission Européenne bénéficie à des start-up qui construisent la même technologie de surveillance que Google. Mais nous ne finançons pas Mastodon, ni Framasoft, ni Indie, notre minuscule organisme à but non lucratif. Nous n’obtenons aucun fonds de qui que ce soit, si ce n’est parfois de particuliers.
  • Si nous voulons une alternative, nous devons la financer alternativement. Elle ne pourra pas être financée par le capital-risque made in Silicon Valley. Ils ont financé les Google et les Facebook, et ils vont financer le prochain Google et le prochain Facebook, car ils chassent des licornes, des entreprises valant des milliards de dollars.
  • Le Danemark, par exemple, a été le premier pays au monde à nommer un ambassadeur auprès de ses entreprises, un ambassadeur pour la Silicon Valley. C’est la chose la plus absurde qui puisse être faite. Le seul pouvoir que le gouvernement danois a sur ces entreprises, c’est la démocratie. Via son mandat, le gouvernement danois devrait protéger les personnes de Facebook. Au lieu de cela, il élève les entreprises au même niveau que lui. Alors oui, un dispositif comme celui du Grand Barouf a du potentiel.
  • La plupart du temps, lorsque les gens parlent de « décentralisation » du pouvoir, ils disent que la solution, c'est la blockchain. Mais vous avez dit que « la blockchain est un fantasme de masturbation libertaire » : qu’est-ce que vous avez voulu dire par là ? Voilà un bon guide : si vous voyez dans la Silicon Valley des investisseurs en capital-risque investir dans quelque chose, ce n’est pas pour la justice sociale, ce n’est pas pour améliorer les choses. C’est pour enrichir un petit groupe d’hommes riches. Pourquoi parle-t-on aujourd’hui à ce point de la blockchain ? À cause du Bitcoin et des crypto-monnaies, à cause de la possibilité pour certaines personnes de gagner des millions ou des milliards avec ça... Les personnes qui veulent généralement un système totalement digne de confiance sont de vrais libertaires, ils ne veulent pas de justice sociale, ils veulent être ceux qui détiennent les rouages du système.
  • Ce projet, que vous appelez Hypha ou Peer-Web, est-ce une nouvelle version du Web ? Comment cela fonctionne-t-il ? Déjà, la différence avec la blockchain, c’est que nous n’essayons pas d’avoir des milliards de copies de la même base de données, mais de donner à un milliard de personnes leurs propres bases de données, toutes séparées, toutes différentes, à notre image. Avec Hypha, nous faisons une chose simple : nous vous donnons un espace que vous possédez et contrôlez. Vous pouvez ensuite définir ce qui est public de ce qui est privé. Vous avez ce choix initial car vous partez d’un espace que vous possédez.
  •  
    "À l'heure où Facebook essaie de se dépêtrer de ses affaires de chiffrement et où Google se prend les pieds dans un bug qui a rendu publique la vie privée des utilisateurs d'Android TV, l'activiste Aral Balkan revient sur les origines de ce qu'il appelle « le capitalisme de surveillance », en amont de sa venue à Lille le 21 mars à l'occasion du Grand Barouf Numérique."
Aurialie Jublin

Qu'est devenue l'utopie d'Internet ? | Revue Projet - 0 views

  • Si les années 1990 constituent bien une sorte d’âge d’or de l’utopie numérique, l’expansion d’Internet va progressivement remettre en cause cette vision enchantée du cyberespace. Afin de financer le développement de l’infrastructure, l’administration scientifique en charge d’Internet décide, en 1993, d’ouvrir le réseau aux entreprises privées. Jusqu’alors soutenu par la puissance publique, il était considéré comme un outil de coordination scientifique dont les usages se devaient d’être strictement non lucratifs. Mais le développement de services commerciaux d’accès favorise la découverte du web par un plus large public.
  • La deuxième trahison tient à l’accroissement du contrôle des communications dans un espace numérique jusqu’ici marqué par le principe d’auto-régulation et de responsabilisation de chaque participant. Dans les années 1990, les premières « affaires du net » révèlent la face sombre du web : incitations à la haine, pédopornographie, piratage informatique, propagande, etc. Ces menaces favorisent un retour progressif des États, jusqu’alors remarquablement absents, pour réguler les échanges et protéger les droits sur Internet. Depuis les années 2000, les initiatives législatives se multiplient pour lutter contre le piratage, la prolifération de contenus haineux ou, plus récemment, la manipulation de l’information.
  • Retour du contrôle des communications, règne de la marchandisation et centralisation du web autour des grandes plateformes : ces transformations d’Internet sont dénoncées comme autant de coups portés au projet initial de « l’Internet libre », principalement de la part des Gafam. Pour autant, on aurait tort d’opposer schématiquement les défenseurs aux fossoyeurs de l’utopie numérique. Google s’est parfois trouvé aux côtés des militants du net pour défendre la libre circulation de l’information, la neutralité du net ou l’assouplissement de la propriété intellectuelle. Le projet « Google books » de numérisation de livres, par exemple, n’est pas sans rappeler celui de bibliothèque universelle formulé par les premiers concepteurs du réseau. On songe également aux prises de position très strictes d’Apple au sujet de la protection de la vie privée5. Ces affinités s’expliquent aussi par les racines culturelles de l’utopie numérique. Les fondateurs d’entreprises numériques, les développeurs qui y travaillent, sont bien souvent des utilisateurs pionniers et passionnés d’Internet. Pour certains, l’esprit de la Silicon Valley, loin de marquer une trahison de l’utopie numérique, en constitue l’expression la plus aboutie en tant que synthèse entre l’esprit de la contre-culture et l’enthousiasme technologique d’entrepreneurs innovants.
  •  
    "Aux débuts d'Internet, un idéal d'horizontalité, de gratuité, de liberté. Trente ans après, le web s'est centralisé, marchandisé, et a été colonisé par les géants du numérique. Ces derniers ont-ils trahi l'utopie des pionniers d'Internet ?"
1 - 12 of 12
Showing 20 items per page