Skip to main content

Home/ QN2019/ Group items tagged informatique

Rss Feed Group items tagged

Aurialie Jublin

L'Internet mondial visé par une vague d'attaques informatiques inédite - 0 views

  • Des pirates informatiques ont attaqué l'annuaire central de l'internet, l'Icann, ce qui leur a donné potentiellement accès à toutes sortes de données, a confirmé ce lundi matin le secrétaire d'État français chargé du numérique, Mounir Mahjoubi. Fondée en 1998, l'Icann coordonne à l'échelle internationale les identifiants uniques qui permettent aux ordinateurs du monde entier de s'identifier entre eux. C'est cette organisation à but non lucratif qui a donné l'alerte le 22 février dernier.
  • « Ce que les pirates ont réussi à faire est quelque chose de très rare : ils ont piraté l'annuaire et chaque fois que vous mettez l'adresse (d'un site internet), au lieu d'aller sur la vraie machine, ils nous amenaient sur une autre machine qui leur appartient. Vous avez l'impression d'être sur le site (...) sauf qu'en fait vous êtes sur la machine de ceux qui vous attaquent (...) Ils peuvent récupérer vos données, ils peuvent les utiliser pour se reconnecter, pour prendre de l'argent. »
  • Selon des experts extérieurs à l'ICANN interrogés par l'AFP, les pirates ciblent aussi bien des gouvernements que des services de renseignements ou de police, des compagnies aériennes ou l'industrie pétrolière et ce, au Moyen-Orient ou en Europe. L'un d'entre eux estime, en outre, que ces attaques ont pour origine l'Iran. Ils « s'attaquent à l'infrastructure internet elle-même », a indiqué vendredi à l'AFP David Conrad un des responsables de l'ICANN, qui évoque une campagne « inédite à très grande échelle », qui s'est extraordinairement intensifiée très récemment.
  •  
    "L'internet mondial est actuellement visé par une vague d'attaques informatiques d'une ampleur inédite, qui consistent à modifier les adresses des sites internet pour les pirater. L'information a été confirmée ce lundi 25 février par le secrétaire d'État français chargé du numérique, Mounir Mahjoubi."
Aurialie Jublin

Comment gagne-t-on de l'argent avec un produit gratuit ? - 0 views

  • Déjà, un logiciel n'est pas un produit Ensuite, l'économie du logiciel libre est une économie de services. En effet, gagner de l'argent en rendant des services informatiques basés sur du logiciel libre, c'est possible et c'est d'ailleurs vivement encouragé par la Fondation pour le Logiciel Libre (FSF). À ceux qui se demandent ce que sont les services informatiques : on peut les classer en trois branches : L'installation de logiciels libres et la maintenance des ordinateurs tournant sous logiciels libres. La formation aux logiciels libres (ainsi que le conseil). L'intégration. C'est-à-dire le développement sur commande de fonctions nouvelles, voire de logiciels libres complets, autour des logiciels libres existants. Et ces trois façons de gagner honnêtement de l'argent dans l'informatique s'ajoutent à la vente de matériel (qui est une véritable économie de biens).
  • Chacun reconnaît également qu'il serait malhonnête de gagner de l'argent : en cuisinant des recettes non-libres sur lesquelles il est rendu impossible, par des voies tant légales que techniques, d'effectuer une analyse indépendante, entre autres graves dysfonctionnements pourtant courants en informatique, en revendant des droits d'utilisation d'articles de loi non-libre, ou en revendant des droits à soigner. Cela constituerait de véritables arnaques envers la société toute entière ! 2 Cela conduirait à des oligopoles, étouffant la concurrence et l'innovation, et abusant des consommateurs, comme on le constate dans l'informatique privatrice. La restauration non-libre, la loi non-libre, la médecine non-libre, ça ne marche pas !
  • D'abord, plus personne ne devrait s'étonner qu'un informaticien gagne de l'argent dans le logiciel libre : il le fait simplement de la même manière qu'un cuisinier, qu'un juriste ou qu'un médecin : en rendant des services. (Et il peut aussi vendre du matériel.) Mais ensuite, la question à se poser ne doit plus être « Comment gagne-t-on de l'argent avec des logiciels libres ? » mais plutôt « Comment peux-t-on laisser des gens gagner de l'argent avec des logiciels non-libres ? » Car si la société libre ne peut pas tolérer la cuisine non-libre, le droit non-libre, ou la médecine non-libre ; la société libre ne peut pas non plus tolérer le logiciel privateur.
  •  
    "Certains opposent le logiciel libre et l'argent. En effet, la question qui vient à l'esprit quand on découvre le logiciel libre est la suivante : « Mais comment gagne-t-on de l'argent avec un produit gratuit ?! » En fait, c'est une question bête… et je me la suis posée ! ^^ "
Aurialie Jublin

[Écologie] Le monde du logiciel est en train de se détruire... Manifeste pour... - 0 views

  • Tout est lent, et cela ne va pas dans le bon sens. Certaines voix s’élèvent. Je vous invite notamment à lire “Le désenchantement du logiciel”. Tout est insupportablement lent, tout est ÉNORME, tout finit par devenir obsolète… La taille des sites web explose. Un site web est aussi gros que le jeu Doom. Le phénomène ne touche pas que le Web mais aussi l’IoT, le mobile… Le saviez-vous ? Il faut 13% de CPU pour faire clignoter un curseur…
  • Tout grossit : la taille des applications, les données stockées, la taille des pages web, la mémoire des téléphones… Les téléphones ont maintenant 2 Go de mémoire, échanger une photo de 10 Mo par mail est maintenant classique… À la limite, cela ne serait peut-être pas un problème si tous les logiciels étaient utilisés, efficaces et performants… Mais cela n’est pas le cas,
  • Alors tout le monde se cale sur une lenteur. Tout est uniformément lent. On se cale sur cela et tout va bien. Être performant aujourd’hui, c’est arriver à atteindre un ressenti utilisateur qui correspond à cette lenteur uniforme. On élague les choses qui pourraient être trop visibles. Une page qui met plus de 20 secondes à se charger, c’est trop lent. Par contre, 3 secondes c’est bien. 3 secondes ? Avec les multicoeurs de nos téléphones/PC et les data centers partout dans le monde, le tout relié par des supers technologies de communication (4G, fibre…),c’est un peu bizarre non ? Si on regarde la débauche de ressources pour le résultat obtenu, 3 secondes, c’est énorme. D’autant plus que les bits circulent dans nos processeurs avec des unités de temps du niveau de la nanoseconde. Donc oui, tout est uniformément lent.
  • ...29 more annotations...
  • Il est nécessaire de revenir à plus d’efficience, de « challenger » les besoins en matériel, de redéfinir ce qu’est la performance. Tant que l’on se satisfera de cette lenteur uniforme avec des solutions pour ne pas ralentir plus (comme l’ajout de matériel), nous n’avancerons pas. La dette technique, notion largement assimilée par les équipes de développement, n’est malheureusement pas adaptée à ce problème (on y reviendra). Nous sommes sur une dette de ressources matérielles et de mauvaise adéquation entre le besoin utilisateur et la solution technique. On parle ici d’efficience et non pas uniquement de performance. L’efficience est une histoire de mesure du gaspillage. L’ISO définie l’efficience avec comme domaine : Time behaviour, Resource utilization et Capacity. Pourquoi ne pas pousser plus ces concepts ?
  • Développez du code Java pour un serveur J2EE ou pour un téléphone Android, ce n’est pas pareil. Des structures spécifiques existent par exemple pour traiter des données en Android mais les structures classiques sont toujours utilisées. Les développeurs ont perdu le lien avec le hardware. C’est malheureux car c’est passionnant (et utile) de savoir comment fonctionne un processeur. Pourquoi : abstraction et spécialisation (nous verrons cela plus loin). Car en perdant ce lien, on perd une des forces du développement. Ce lien est important chez les hackers ou chez les développeurs d’informatique embarquée mais malheureusement de moins en moins présent chez les autres développeurs.
  • Les pratiques devops pourraient répondre à cette perte de lien. Là, c’est pareil, nous n’allons pas jusqu’au au bout : généralement le devops va se focaliser à bien gérer le déploiement d’une solution logicielle sur une infrastructure mixte (matérielle et un peu logicielle). Il faudrait aller plus loin en remontant par exemple les métriques de consommation, en discutant sur les contraintes d’exécution… plutôt que de “scaler” juste parce que c’est plus simple.
  • Certaines technologies ont une utilité mais sont maintenant systématiquement utilisées. C’est le cas par exemple des ORM qui sont devenus systématiques. Aucune réflexion n’est faite sur son intérêt en début des projets. Résultat : on a rajouté une surcouche qui consomme, qu’il faut maintenir et des développeurs qui n’ont plus l’habitude d’effectuer des requêtes natives. Cela ne serait pas un problème si chaque développeur connaissait très bien le fonctionnement des couches d’abstraction : comment fonctionne HIBERNATE par exemple ? On s’appuie hélas de façon aveugle sur ces frameworks.
  • Le besoin d’abstraction est lié à un autre défaut: nous attendons toujours des outils miracles. La silver bullet qui améliorera encore plus nos pratiques. Le langage idéal, le framework pour aller plus vite, l’outil de gestion miracle des dépendances… C’est la promesse à chaque fois d’un nouveau framework : gagner du temps en développement, être plus performant… Et on y croit, on fonce. On abandonne les frameworks sur lesquels nous avions investi, sur lesquels on avait passé du temps… et on passe au nouveau. C’est le cas actuellement des frameworks JS. L’histoire du développement est pavé de framework oubliés, non maintenus, abandonnés… Nous sommes les champions pour réinventer ce qui existe déjà. Si on le gardait suffisamment longtemps, on aurait le temps de maîtriser un framework, de l’optimiser, de le comprendre. Mais ce n’est pas le cas. Et que l’on ne me dise pas que si on n’avait pas continuellement réinventé la roue, on aurait encore des roues en pierre… Innover serait d’améliorer les frameworks existants .
  • Sur les langages, c’est la même rengaine. Attention, je ne préconise pas de rester sur l’assembleur et sur le C… C’est le cas par exemple dans le monde Android, pendant plus de 10 ans les développeurs ont pu travailler sur des outils et des frameworks Java. Et comme cela, par magie, le nouveau Langage de la communauté est Kotlin. On imagine l’impact sur les applications existantes (si elles doivent changer), il faut recréer des outils, retrouver des bonnes pratiques… Pour quel gain?
  • Sincèrement, on ne voit aucun ralentissement sur les cycles de renouvellement des technologies. C’est toujours un rythme frénétique. Nous trouverons bien le Graal un jour. Le problème est ensuite l’empilement de ses technologies. Comme aucune ne meurt vraiment et que l’on en maintient toujours des parties, on développe d’autres couches pour s’adapter et continuer à maintenir ces bouts de code ou ces librairies. Le problèmen’est pas le code legacy,, c’est la glue que l’on développe autour qui pêche.
  • Au final, on passe du temps à résoudre des problèmes techniques internes, on recherche des outils pour résoudre les problèmes que l’on ajoute, on passe son temps à s’adapter à ses nouveaux outils, on ajoute des surcouches (voir chapitre précédent…) … et on n’a pas améliorer la qualité intrinsèque du logiciel ou les besoins auxquels on doit répondre.
  • Au final, le rythme frénétique des changements ne nous permet pas de nous stabiliser sur une technologie. J’avoue qu’en tant que vieux développeur que je suis, j’ai été découragé par le changement Java vers Kotlin pour Android. C’est peut-être pour certains de véritables challenges, mais quand je repense au temps que j’ai passé sur l’apprentissage, sur la mise en place d’outils
  • Ensuite, comme aucune solution ne meurt vraiment, que de nouvelles arrivent… on se retrouve avec des projets avec des multitudes de technologies à gérer avec les compétences associées aussi… On s’étonne ensuite que le marché du recrutement de développeur soit bouché. Pas étonnant.. Il y a énormément de développeurs mais il est difficile de trouver un développeur React avec 5 ans d’expérience qui connaîsse le Go. Le marché est fractionné, comme les technologies. C’est peut-être bon pour les développeurs car cela crée de la rareté et cela fait monter les prix, mais pas pour le projet !
  • Cependant, cet apprentissage continu des technologies pose le problème d’apprentissage de domaines transverses : accessibilité, agilité, performance… En effet, qu’est-ce qui nous prouve que les outils et les langages que nous allons choisir ne vont pas changer dans 4 ans ? Rust, Go… dans 2 ans ? Rien ne tend à donner une tendance.
  • On ne se remet pas en question car on veut s’amuser. Le fun est important, car si l’on s’ennuie dans son boulot, on va déprimer. Par contre, on ne peut pas, sous prétexte de vouloir du fun tout le temps, changer nos outils continuellement. Il y a un déséquilibre entre l’expérience du développeur et l’expérience de l’utilisateur. On veut du fun, mais qu’est-ce que cela va réellement apporter à l’utilisateur ? Un produit plus « joyeux » ? Non, nous ne sommes pas des acteurs.
  • On ne se pose pas de question sur l’éthique de notre domaine, sur sa durabilité… Cela vient peut-être du fait que notre domaine n’a pas réellement de code éthique (comme par exemple les médecins ou les avocats). Mais sommes-nous en tant que développeurs réellement libres si l’on ne peut pas avoir une autocritique ? Nous sommes peut être asservis à une cause portée par d’autres personnes ? Le problème n’est pas simple mais nous avons dans tous les cas une responsabilité. Sans code éthique, c’est le plus fort et le plus malhonnête qui est le plus fort. Le buzz et les pratiques pour manipuler les utilisateurs sont de plus en plus répandus. Sans Dark Pattern ton produit ne sera rien. Les plus gros (GAFA…) n’en sont pas arrivés là pour rien.
  • Est-ce que la solution est politique ? Il faut légiférer pour mieux gouverner le monde du logiciel. On le voit avec les dernières réponses législatives aux problèmes concrets : RGPD, notification des cookies… la source du problème n’est pas résolue. Peut-être parce que les politiques ne comprennent que très mal le monde du logiciel.
  • Car si cette structuration n’est pas faite, les développeurs vont perdre la main sur ce qu’ils font. Or le manque d’éthique de la profession est critiqué à l’extérieur. Rachel Coldicutt (@rachelcoldicutt) directrice de DotEveryOne, un think tank britannique qui promeut une technologie plus responsable, encourage à former des diplômés non-informaticiens qui traiteraient de ces problèmes (Voir plus précisément dans l’article d’Internet Actu). Pour poursuivre sur ce dernier article, cela serait dans la droite ligne de l’informatique, domaine issu du monde militaire où les ingénieurs et développeurs seraient formés à suivre des décisions et des commandements.
  • Le monde du logiciel s’intègre dans un système organisationnel classique. Grands groupes, sous-traitances via des ESN, web agencies… Tous suivent les mêmes techniques de gestion des projets informatiques. Et tout le monde va « dans le mur ». Aucune analyse sérieuse n’est faite sur le coût global d’un logiciel (TCO), sur son impact sur la société, sur son bénéfice, sa qualité… C’est la rapidité de release(Time to Market), la surcharge featurale (fonctionnelle), la productivité immédiate, qui comptent. Premièrement car les gens externes à ce monde ne connaissent que trop peu la technicité du logiciel et son monde. Il est virtuel donc simple (sic). Mais ce n’est pas le cas. Les écoles de commerce et autres usines de managers n’ont pas de cours de développement. Comment peuvent-ils bien diriger et piloter des projets ?
  • On continue a vouloir chiffrer des projets informatiques comme de simples projets alors que des mouvements comme le no estimate propose des approches innovantes. Les projets continuent d’échouer : le chaos report rapporte que simplement 30% des projets réussissent bien. Et face à cette mauvaise gouvernance, les équipes techniques continuent de se battre sur les technologies. Dommages collatéraux : la qualité, l’éthique, l’environnement… et au final l’utilisateur. Cela ne serait pas si critique si le logiciel n’avait pas un impact aussi fort sur le monde. Software eats the world… et oui, on le « bouffe »…
  • Si ces décisions absurdes arrivent, ce n’est pas uniquement la faute du développeur mais bien de l’organisation. Et qui dit organisation dit management (sous-différente forme). Si l’on revient au livre de Morel, il parle de piège cognitif dans lesquels les managers et les techniciens tombent souvent. C’est le cas de la navette Challenger qui a été quand même lancée malgré la connaissance du problème d’un joint défectueux. Les managers ont sous-évalué les risques et les ingénieurs ne les ont pas prouvés. Chacun a reproché à l’autre de ne pas fournir assez de preuves scientifiques. C’est souvent ce qui se passe dans les entreprises : des warnings sont levés par certains développeurs mais le management ne les prend pas assez au sérieux.
  • En même temps, on revient aux causes précédentes (silver bullet, on s’amuse…), il est nécessaire d’avoir une vraie ingénierie et une vraie analyse des technologies. Sans cela, les équipes techniques seront toujours non-écoutées par le management. Des outils et benchmark existent mais ils sont encore trop peu connus. Par exemple, Technologie Radar qui classe les technologies en terme d’adoption.
  • Ce phénomène de décision absurde est renforcé par le tissu complexe du développement logiciel : Les sociétés historiquement hors du numérique sous-traitent à des entreprises du numérique, les ESN sous-traitent aux freelances… Le partage de responsabilité technique / management est encore plus complexe et les décisions absurdes plus nombreuses.
  • Mais cela ne s’arrête pas là. On peut aussi voir l’usage de l’open-source comme une sorte de sous-traitance. Idem pour l’usage de framework. On est juste consommateur passif, on se déleste de plein de problématiques (qui ont un impact sur les ressources, la qualité…).
  • C’est d’autant plus facile que le domaine est passionnant et que la pratique des sides-projects, du temps passé sur les projets open-source hors des horaires de bureau est chose commune… La recherche de “fun” et le temps passé bénéficient alors plus aux organisations qu’aux développeurs. Difficile dans ce cas de chiffrer le coût réel d’un projet. Et pourtant, cela ne serait pas un problème si on arrivait à des logiciels « au top ».
  • Le développeur n’est ici plus un artisan du code, mais plutôt un pion dans un système critiquable du point de vue humain. Cela n’est pas visible, tout va bien et on s’amuse. En apparence seulement, car certains domaines du développement logiciel vont plus loin et rendent beaucoup plus visible cette exploitation : Le domaine du jeux-vidéo où les heures explosent.
  • Et donc, toutes ces maladresses (logiciel trop lourd, sans qualité…) se retrouvent chez les utilisateurs. Comme on doit releaser au plus vite les logiciels, que l’on ne tente pas de résoudre les inefficiences internes, et que l’on ne met pas plus de ressource pour faire de la qualité, on arrive à des logiciels médiocres. Mais on a tellement d’outils de monitoring et de suivi des utilisateurs pour détecter ce qui se passe directement chez eux qu’au final, on pense que ce n’est pas grave. Cela serait une bonne idée si les outils étaient bien utilisés. Or la multitude d’informations récoltées (en plus des bugs remontés par les utilisateurs) n’est que faiblement utilisée. Trop d’information, difficulté de cibler la vraie source du problème… on s’y perd et au final, c’est l’utilisateur qui trinque. Tous les logiciels sont maintenant en bêta-test. A quoi bon faire de la sur-qualité, autant attendre que l’utilisateur le demande. Et on revient ainsi au premier chapitre : un logiciel uniformément lent … et médiocre.
  • Heureusement, on est sauvé par la non-sensibilisation des utilisateurs au monde du logiciel. C’est un monde effectivement virtuel et magique qu’ils ont l’habitude d’utiliser. On leur a mis en main les outils mais sans notice explicative. Comment évaluer la qualité d’un logiciel, les risques sur l’environnement, les problèmes de sécurité… si l’on n’a pas des notions d’informatique, même rudimentaires ?
  • L’informatique du 21ème siècle est ce que l’agroalimentaire était pour les consommateurs au 20ème siècle. Pour des raisons de productivité, on a poussé des solutions médiocres avec un calcul court-termiste : mise sur le marché de plus en plus rapide, profit en hausse constante… agriculture intensive, malbouffe, pesticides… avec des impacts importants sur la santé, sur l’environnement… Les consommateurs savent maintenant (de plus en plus) les conséquences désastreuses de ces dérives, l’industrie agroalimentaire doit donc se réinventer, techniquement, commercialement et éthiquement. Pour le logiciel, quand les utilisateurs comprendront les tenants et les aboutissants des choix techniques, l’industrie du logiciel devra gérer les mêmes problèmes. En effet, le retour au bon sens et aux bonnes pratiques n’est pas une chose simple pour l’agroalimentaire. Dans l’IT, on commence à le voir avec ses conséquence sur la vie privée des utilisateurs (mais nous n’en sommes qu’aux balbutiements).
  • On va dans la mauvaise direction. L’industrie de l’informatique a déjà effectué dans les années 70 des erreurs avec des impacts non-négligeables. L’exclusion des femmes de l’informatique en fait partie. Non seulement cela a été fatal pour certaines industries mais on peut se poser la question de comment on peut maintenant adresser des réponses à seulement 50% de la population informatique, avec une représentativité très faible. Le chemin est maintenant difficile à retrouver.
  • Mais l’impact du monde IT ne s’arrête pas là. La source et le modèle d’une grosse partie de l’informatique sont issus de la Silicon valley. Si l’on écarte les gagnants de la Silicon Valley, les populations locales subissent la montée des prix, le déclassement, la pauvreté…
  • Dans sa lancée vers le progrès technique, le monde du logiciel crée aussi sa dette environnementale…
  •  
    "Le monde du logiciel va mal et si l'on n'agit pas, on risque de le regretter. Environnement, qualité, exclusion… Software Eats The World (Le logiciel mange le monde…) ? Oui un peu trop. "
Aurialie Jublin

L'écoconception des services numériques comme filière d'excellence, Transform... - 1 views

  • A l'heure où le numérique représenterait 10 % de la consommation mondiale d'électricité et autant d'émissions de gaz à effet de serre que l'aviation civile, il est temps de réduire son empreinte environnementale.  Parmi les leviers d'action, l'écoconception des services numériques est fondamentale . L'enjeu est aussi social car l'absence d'écoconception accentue la fracture numérique. Le phénomène d'« obésiciel » rend certains services numériques trop lents ou inutilisables, notamment sur de vieux équipements et dans les territoires où la connexion et le pouvoir d'achat sont faibles. Il est enfin économique : c'est une promesse d'activité, d'emplois et de réduction de coûts pour nos entreprises.
  • Pour faire émerger la filière d'écoconception de service numérique, nous proposons trois actions. Un, rendre obligatoire la formation à l'écoconception de services numériques dans les formations aux métiers du numérique certifiées par l'Etat. Deux, établir un référentiel de conformité de l'écoconception de service numérique  _ en commençant par les sites Web _ à l'image du référentiel de conformité RGAA (Référentiel général d'accessibilité pour les administrations) pour les personnes en situation de handicap. Trois, inscrire l'obligation d'écoconception des services numériques dans le cadre législatif français (en commençant par les sites Web).
  • Certaines idées reçues nous détournent d'une hiérarchisation des actions. Certes, les centres informatiques consomment beaucoup d'énergie. Il convient d'augmenter encore leur efficience énergétique et de les alimenter en électricité issue d'une énergie renouvelable. Certes, les écogestes numériques sont un levier d'action. L'Ademe publie régulièrement des guides de bonnes pratiques. Mais c'est la fabrication et le renouvellement accéléré de nos 22 milliards de terminaux qui concentre l'essentiel de l'empreinte écologique et des gaz à effet de serre.
  • ...6 more annotations...
  • A l'échelle de l'internet mondial, les terminaux concentrent 65 % du bilan énergétique, 67 % des émissions de gaz à effet de serre, 73 % du potentiel d'épuisement des ressources naturelles non renouvelables et 82 % de la consommation d'eau.
  • Il faut donc en priorité fabriquer moins d'équipements et allonger leur durée de vie. Pour y parvenir, d'une part développons le réemploi de ces produits. D'autre part, déployons l'écoconception des services numériques.
  • Lorsque la mémoire était comptée, les informaticiens étaient plus enclins à concevoir des logiciels à l'architecture et au code synthétiques. Songeons que l'ordinateur, qui a emmené l'homme sur la Lune, disposait d'une mémoire d'environ 70 kilo-octets, soit environ le poids d'un e-mail. Aujourd'hui, les contraintes informatiques étant moindres, il y a inflation de logiciels, plus gourmands en puissance informatique. En vingt ans, de 1995 à 2015, le poids des pages Web a été multiplié par 115, passant de 14 Ko à 1.600 Ko.
  • Les applications de smartphones, conçues et développées en hâte, consomment d'autant plus d'énergie qu'elles sont grasses et actives jour et nuit. Les systèmes d'exploitation de nos ordinateurs ou smartphones imposent des mises à jour évolutives de plus en plus lourdes.
  • Grâce à l'écoconception des services numériques, les retours d'expérience du Collectif conception numérique responsable montrent, sur des cas concrets en France et en Europe, des réductions d'impact environnemental d'un facteur 2 à 70 (changement climatique, épuisement des ressources rares, etc.).
  • Concepteurs d'applications mobiles, de sites Web, d'intelligence artificielle ou tout autre service numérique, les pionniers seront demain, en France, ambassadeurs d'une conception visionnaire des services numériques. En Europe et au-delà, ils seront ces lanternes qui éclairent une troisième voie.
  •  
    " Le numérique français, par la voix de son secrétariat d'Etat, a dessiné une troisième voie entre la Silicon Valley et le modèle chinois en la matière. Lettre à Monsieur Cédric O, nouveau secrétaire d'Etat au numérique"
Asso Fing

La consommation électrique des logiciels, un enjeu pour les industriels et… l... - 0 views

  • Troisièmement, parce que le législateur pourrait intervenir… « En 2020 entrera en vigueur une législation européenne sur l'écoconception des serveurs et des unités de stockage en ligne, rappelle Rabih Bashroush, professeur en systèmes distribués et génie logiciel à l'Université de Londres-Est, qui a  participé à l'élaboration de ce texte . Il faut un cadre similaire pour la consommation des logiciels. » En France, un député, Fabrice Brun (LR), vient de  demander au gouvernement d'obliger les éditeurs de logiciels à « pratiquer une écriture plus vertueuse, en terme environnemental, du code informatique. »
  • Enfin, parce que jusqu'ici fabricants et gestionnaires ont tenté de réguler la consommation en jouant sur des solutions « matérielles » : utilisation de processeurs ou de cartes mères qui chauffent moins, de mémoires moins énergivores ; déclenchement des sauvegardes la nuit quand les serveurs sont moins occupés… Or, pour certains experts, ces gisements d'économies sont désormais épuisés. « Dans les dix ans à venir, il n'y aura pas de révolution technologique, facilement déployable à grande échelle, qui permettra de réduire la consommation énergétique du numérique : la seule voie possible est celle de la sobriété », affirme Hugues Ferreboeuf, qui dirige les réflexions sur l'empreinte carbone du numérique  au sein du think tank The Shift Project . « Nos data centers comptent d'ores et déjà parmi les plus économes du marché, mais nous devons aller plus loin, s'inquiète François Sterin, directeur industriel chez l'hébergeur Web OVH. Cet enjeu est crucial pour les fournisseurs de cloud, tant du point de vue commercial que sociétal. »
  • Reste donc une seule piste : la consommation induite par les logiciels. La mesurer est assez simple pour les smartphones et les objets connectés, plus compliqué pour les serveurs et PC. « On peut brancher des appareils de mesures - des sortes de wattmètres - sur les smartphones pour récupérer les données de la batterie, explique Thierry Leboucq. La mesure réelle permettra demain d'établir des normes et des labels pour valider l'éco-consommation d'un service numérique. » Pour les objets connectés, qui ne comportent que quelques composants, Alexandre Boé et son collègue Thomas Vantroys, de l'université de Lille, proposent déjà une solution. « Nous avons mis au point un petit appareil de mesure, composé d'un microprocesseur et d'un écran, coûtant une soixantaine d'euros, détaillent-ils. Couplé à des marqueurs introduits dans le logiciel, qui repèrent les fonctions les plus gourmandes, il permet aux fabricants et aux développeurs d'optimiser le fonctionnement et la consommation. »
  • ...6 more annotations...
  • La mesure est plus compliquée sur les serveurs et les PC. « Par exemple, les couches d'abstraction matérielle, ces logiciels intermédiaires entre le système d'exploitation et le matériel informatique, consomment de l'énergie que vous ne voyez pas », met en garde Marc Vautier, qui anime la communauté des Orange Experts « Energie et environnement » au sein du groupe Orange. Dès 2016, Jean-Patrick Gelas, docteur en informatique, avait publié, avec son équipe de l'université Lyon-1, un article exploratoire sur la mesure en temps réel de la consommation, dans la revue « International Journal of Electronic Business Management ». « L'idée était de coupler les mesures de puissance électrique, réalisées par un wattmètre, avec les instructions du logiciel et les tables de correspondance 'fonction réalisée/énergie dépensée' publiées par les constructeurs », explique-t-il.
  • Romain Rouvoy, professeur d'informatique à l'université de Lille, propose une approche basée sur l'estimation. En collaboration avec Orange et le cabinet Davidson Consulting, il a mis au point PowerAPI, un prototype de recherche distribué sous licence open source, disponible sur la plate-forme GitHub.  « Une fois installée sur un serveur, un ordinateur portable ou un robot, notre logiciel va évaluer, à l'aide de modèles mathématiques que nous avons développés, la consommation électrique des applications qui tournent sur ces machines », relate-t-il. Plusieurs industriels de l'automobile et de la robotique se disent intéressés par sa technologie.
  • « Les développeurs ne doivent pas s'empêcher de discuter des cahiers des charges avec les services marketing, qui peuvent, par exemple demander des serveurs disponibles 99,99 % du temps, là où 99,9 % suffiraient et permettraient d'économiser de l'énergie », conseille Erwan Diverrez, architecte logiciels chez Orange.
  • « On peut jouer sur le stockage de données - par exemple les données d'usage qui décrivent la relation de l'utilisateur avec sa machine - et ne les envoyer que lorsque le smartphone est en Wifi ; cela évite d'essayer continuellement de se connecter au réseau mobile », ajoute Sébastien Brault, développeur sur mobile chez Orange.
  • « Pour le Web, il existe des astuces comme la gestion du cache de la mémoire, par exemple, pour ne pas avoir à télécharger plusieurs fois une image qui apparaît sur plusieurs pages d'un site », ajoute Romain Petiot.  « On peut aussi jouer sur les langages de programmation utilisés et les bonnes pratiques de développement associées à ce langage », estime Romain Rouvoy, professeur d'informatique à l'université de Lille.
  • « La moitié de l'empreinte carbone du numérique provient de la production des équipements », résume Hugues Ferreboeuf, coordinateur du rapport « Pour une sobriété numérique » publié par le think tank Shift Project. L'autre moitié se répartit en trois tiers : la consommation des serveurs dans les data centers, les réseaux de télécommunication et les quelque 15 milliards de terminaux et périphériques sur lesquels tournent des logiciels.
  •  
    "Des logiciels tournent sur 15 milliards de terminaux et périphériques à travers le monde. Ce sont eux qui en commandent les besoins en énergie."
  •  
    "Des logiciels tournent sur 15 milliards de terminaux et périphériques à travers le monde. Ce sont eux qui en commandent les besoins en énergie."
Aurialie Jublin

Ce nuage que je ne saurais voir. Promouvoir, contester et réguler les data ce... - 0 views

  •  
    Tandis que les données informatiques deviennent un enjeu commercial et politique majeur, une infrastructure occupe une place croissante sur les territoires : les centres de stockage de données ou data centers. Les façades aveugles des entrepôts massifs dans lesquels s'installent leurs opérateurs nous projettent bien loin des nuages qu'évoquent le cloud ou des discours sur la dématérialisation permise par le numérique. Le nord de Paris connaît l'essor entre 1990 et 2015 de la plus importante concentration de centre de données en Europe, générant des interrogations croissantes et des controverses entre riverains, élus, agents territoriaux et employés en charge de la gestion des réseaux électriques. L'article propose d'éclairer ces tensions en montrant la pluralité des manières de rendre visibles les data centers, c'est-à-dire, en analysant les dimensions matérielles, économiques, juridiques et écologiques qui sont saisies par les acteurs du territoire pour promouvoir l'implantation de ces infrastructures, ou au contraire pour les contester. Ce faisant, l'article qualifie différentes modalités de l'invisibilité qui facilitent l'implantation des centres de données : il rend compte des conditions politiques et sociales de leur implantation. Il identifie également deux démarches initiées par les acteurs pour qualifier ce que font les infrastructures numériques au territoire. D'abord, les centres de données se développent initialement comme des projets immobiliers ordinaires, puis sont légitimés a posteriori par les acteurs qui les soutiennent afin de les rendre acceptables à moindres frais. Or ces infrastructures sont aussi ciblées par une critique écologique du numérique, portée par des contestations qui en dénoncent l'empreinte environnementale et qui s'appuient sur les centres de données pour en matérialiser les conséquences.
Aurialie Jublin

Le Défenseur des droits appelle le Gouvernement à respecter les droits des us... - 0 views

  •  
    "Or la responsabilité de l'État est de ne pas dématérialiser un service sans mettre à disposition une alternative papier ou humaine faute de quoi l'usager perd toute possibilité d'échanger avec l'administration lorsqu'un bug informatique se produit ou lorsqu'un dossier est perdu. Nombreux sont les usagers qui ont perdu leur permis et donc leur emploi. Le Défenseur des droits recommande notamment que les services préfectoraux et les centres d'expertise et de ressources des titres (CERT) cessent d'orienter les usagers vers des prestataires privés pour la réalisation de leurs démarches et recommande à l'État de faire en sorte que le site de l'ANTS apparaisse avant les sites privés dans les résultats des moteurs de recherche afin que l'usager ne soit pas amené à payer, par erreur, des prestations qui sont gratuites. Prenant en considération les objectifs du gouvernement de dématérialiser l'ensemble des démarches administratives d'ici 2022, le Défenseur des droits recommande également d'introduire dans la loi une clause de protection des usagers, prévoyant l'obligation d'offrir une voie alternative au service numérique lors de la dématérialisation d'un service public ou d'une procédure administrative. En effet, l'enjeu est celui du maintien de la cohésion sociale : une dématérialisation trop rapide des services publics entraîne des risques d'exclusion et une augmentation du non-recours aux droits, mettant en péril l'égalité de toutes et tous devant le service public qui constitue un principe fondamental de la République. "
Aurialie Jublin

Des impacts énergétiques et sociaux de ces data-centers qu'on ne voit pas - M... - 0 views

  • Côté consommation pour commencer, les études les plus pessimistes avancent que ceux-ci pourraient représenter jusqu’à 13% de l’électricité mondiale en 2030 (avec un secteur informatique qui consommerait jusqu’à 51% du total de la consommation électrique mondiale). Des chiffres qui ne font pas l’unanimité, The Shift Project prévoyant plutôt 25% pour le secteur informatique et 5% pour les data centers en 2025 (ces 5% équivaudraient tout de même à toute la consommation électrique actuelle du secteur numérique).
  • Même si l’on constate de nombreux efforts faits pour améliorer l’efficacité énergétique des infrastructures, par exemple du côté des « big tech », l’ADEME rapporte que les géants du numérique ne portent pas un véritable discours sur la « sobriété énergétique et numérique nécessaire pour rester sous la perspective d’une augmentation des températures planétaires de 1,5°.»
  • Le rapport insiste ensuite sur les déséquilibres qui résultent de certaines implantations dans les territoires. Première constatation : ces impacts sociaux sont très peu documentés. Bien souvent, les data centers arrivent sans dire leur nom, en périphérie des villes, aux Etats-Unis ou en France, à Saclay par exemple ou encore Plaine Commune. Cette furtivité des bâtiments rend d’autant plus difficile les contestations ou demandes de participation de la part des populations locales.
  • ...14 more annotations...
  • Ils sont considérés comme de simples entrepôts par les pouvoirs publics alors même que leur consommation électrique a des répercussions à l’échelle d’un territoire tout entier.
  • Autre phénomène important : les data centers attirent les data centers, pour des questions de mutualisation d’énergie et de réseaux de télécommunication. Bien souvent, les hiérarchies urbaines en place sont renforcées par ces mécanismes. Les élus eux, peinent à lutter contre des acteurs puissants qui imposent leurs conditions « dans une négociation asymétrique qui pousse certains territoires à sur-calibrer des infrastructures énergétiques, hydrauliques et viaires pour pouvoir accueillir quelques dizaines, ou centaines d’emploi si l’on inclut les phases de construction. »
  • Aujourd’hui, c’est plutôt pour installer des hangars logistiques et des fermes de serveurs qu’on artificialise les sols. Autre effet non négligeable qui mériterait sans doute une discussion plus ample avec les populations locales : l’étalement urbain.
  • Le rapport souligne ensuite les possibles synergies entre les infrastructures numériques et le territoire. La réutilisation de la chaleur générée par les data centers  est à ce titre un cas d’usage bien connu. A Bailly-Romainvilliers, par exemple, le data center de BNP Parisbas chauffe le centre nautique voisin. Celui de Céleste à Noisy-Champs, chauffe ses propres bureaux. D’autres systèmes très chauffants comme les chaudières numériques de Stimergy chauffent une partie de l’eau de la piscine de la Butte-aux-Cailles, dans le treizième arrondissement de Paris.
  • Cependant, ces exemples restent anecdotiques. Dans l’immense majorité des cas, la chaleur n’est pas récupérée. D’abord pour des questions de coût et de rentabilité économique : les promoteurs des data-centers attendent des rendements sur des périodes courtes incompatibles avec la contractualisation pour les réseaux de chaleur (des engagements qui coulent sur 25 à 30 ans
  • Il existe aussi un frein technique : il est préférable de prévoir ces éventuels contrats dès la construction du data center car le modifier a posteriori peut représenter des risques que les promoteurs ne sont pas prêts à prendre.
  • La cinquième partie du rapport, qui m’a particulièrement plu, fait la part belle aux initiatives citoyennes, associatives et publiques des « infrastructures numériques alternatives ». Du côté des fournisseurs d’accès, de nombreux acteurs associatifs comme franciliens.net ou Aquilenet dans le Sud-Ouest sont regroupés au sein de la Fédération FFDN. Ils viennent compléter l’offre des fournisseurs principaux (Bouygues, Free, Orange et SFR). Le grand atout de ces solutions est de miser sur le social, l’éducation et la démocratie : « Ils participent d’une gouvernance partagée du commun qu’est Internet en portant des valeurs de transparence, d’inclusion, de lien social, d’apprentissage technique, et d’incitation à la participation à la vie citoyenne. »
  • La socioanthropologue des techniques Laure Dobigny affirme que quand cette gestion inclut et implique, alors les consommateurs vont vers plus de sobriété : « la mise en place de systèmes techniques de plus petite échelle ont permis, en modifiant les usages, une réduction des consommations. » La question est ensuite de savoir comment passer d’une gestion commune de réseaux à une gestion commune de data-centers.
  • Le rapport présente un certain nombre de solutions, comme le cloud de pair-à-pair : « l’idée centrale sous-tendant ces dispositifs est que les fichiers et les contenus téléchargés par les utilisateurs dans le système sont stockés, totalement ou en partie, sur un nuage de stockage composé d’une partie des disques durs de chaque utilisateur, reliés entre eux en architecture P2P. » L’idée est plutôt simple : re-décentraliser internet, réduire le besoin de grands data-centers et atténuer l’impact spatial de ces infrastructures. Les limites de ces solutions sont nombreuses bien sûr : pertes de données, erreur, taille critique non atteinte… Il existe également des data centers « de proximité » comme les chatons (« Collectif d’Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires ») ou encore SCANI dans l’Yonne et Tetaneutral à Toulouse.
  • Pour terminer, le rapport dessine trois « mondes numériques possibles ». Le premier scénario parie sur l’extrême croissance et l’ultracentralisation numérique. Pour faire simple, c’est aujourd’hui mais en pire : tout est numérisé, plateformisé, big-daté et concentré dans les mains des GAFAMS ou d’autres acteurs similaires. La ville se conforme aux modèles numériques de la smart-city, la consommation de data explose. C’est la fuite en avant, la croyance qu’un monde infini existe. Côté C02, c’est la catastrophe, la température globale monte de 2,5° en 2050. Pics de chaleur dans les villes, problèmes sociaux, etc.
  • Le deuxième scénario est en demie teinte. On stabilise le système technique numérique en permettant la coexistence de deux mondes : celui des big tech et celui, plus centralisé, des infrastructures à plus petite échelle. L’Union Européenne taxe les « Net Goinfres », ce qui modifie les comportements : on échange moins de photos de chats et on tend à les stocker sur nos terminaux personnels plutôt que dans le cloud, idem pour la musique. Côté consommation, on parvient à réduire les émissions de CO2 du secteur de 5% par an entre 2025 et 2050, ce qui nous ramène au niveau de 2013.
  • Le dernier scénario propose une forme de décentralisation ultime du numérique qui signe plus ou moins la fin des data-centers tels que nous les connaissons. Internet devient plus local et dépendant des énergies renouvelables, ce qui ne permet plus d’assurer sa continuité. Le projet Greenstar au Canada suit ces principes et accepte les intermittences du réseau (follow the wind/follow the sun), de même, le blog du Low Tech Magazine s’arrête de fonctionner quand le vent ne souffle plus (le scénario nucléaire n’est pas vraiment envisagé car l’exercice prospectif est global). Ce scénario « effondrement » se base sur des infrastructures totalement low-tech (c’est-à-dire peu coûteuses en énergie) et permet assez ironiquement un « retour aux principes fondateurs d’internet (horizontal et distribué) ». Côté service, on se contente du local et l’international devient l’exception
  • L’ADEME invite également à soutenir les FAI indépendants et à créer un « service public du numérique et des data centers publics », notamment pour améliorer l’intégration spatiale des infrastructures. Les questions énergétiques font également l’objet de propositions : sobriété, récupération de chaleur, décentralisation.
  • Le chercheur Clément Marquet cité plus haut dans l’article me rappelle que ces différents rapports (Shift, ADEME) arrivent dans un moment particulier puisque le gouvernement a voté en octobre 2018 une loi visant à réduire la fiscalité énergétique pour attirer les gros data centers. Je le cite : « il y a une tension entre le projet de souveraineté numérique par les infrastructures (et des bénéfices économiques qui iraient avec bien sûr) et celui de réduction de la consommation énergétique. »
  •  
    "L'ADEME, via le projet Enernum, vient de publier une étude approfondie sur les impacts à la fois énergétiques et sociétaux de l'installation et du déploiement des data centers, en France et ailleurs. Ce travail vient confirmer les conclusions du Think tank The Shift Project qui alertait déjà des coûts carbone importants de ces infrastructures qui soutiennent tous nos usages numériques. Par delà les chiffres, l'ADEME replace les data-centers dans leur contexte humain et géographique et interroge la gestion de ce type d'infrastructure sur le territoire."
Aurialie Jublin

(S)Lowtech - déprogrammer l'obsolescence (pdf) - PING - 0 views

  •  
    (S)lowtech est un projet amorcé par PiNG en 2013 à l'occasion de Nantes Capitale Verte. Depuis ses débuts, le projet a pour ambition d'explorer avec les citoyens des solutions alternatives pour résister à l'obsolescence des équipements informatiques et électroniques : réparer et détourner !
Asso Fing

IBM rachète Red Hat, le numéro un de l'« open source », pour 34 milliards de ... - 0 views

  • En pleine croissance, Red Hat n'a, au contraire, cessé d'augmenter ses revenus ces dernières années, jusqu'à frôler les 3 milliards de dollars lors de son dernier exercice annuel.Lancée en 1993, la société a mis au point une version de Linux (un système d'exploitation dont le code du logiciel est libre et gratuit) stable, testée et approuvée par ses soins, qu'elle vend aux entreprises.
  • Nommée GNU/Linux, celle-ci est une alternative aux offres sous licence propriétaire de Microsoft, dont l'ancien PDG, Steve Ballmer, avait qualifié les logiciels « open source » de « cancer » au début des années 2000. Mais les temps changent et les géants de l'informatique s'adaptent.En juin dernier, la firme de Redmond a  déboursé 7,5 milliards de dollars pour acheter GitHub, l'outil favori de quelque 30 millions de développeurs à travers le monde qui collaborent et partagent idées et extraits de codes informatiques. En avril dernier, le groupe dirigé par Satya Nadella avait aussi annoncé qu'il  allait s'appuyer sur Linux pour sécuriser ses objets connectés.
  • « Je suis incroyablement fier du rôle qu'a joué Red Hat pour faire [du logiciel libre] une réalité dans les entreprises », déclare Jim Whitehurst, le patron de Red Hat, dans le communiqué de presse. Ce dernier va continuer à diriger l'entité Red Hat au sein d'IBM, qui assure que celle-ci fonctionnera comme une « unité distincte ». « Il y a encore quelques années, le logiciel libre était l'alternative, l'option bon marché. Désormais, c'est la norme », se félicitait le même Jim Whitehurst, il y a deux ans, auprès des « Echos ». Ce rachat à 34 milliards de dollars en est aujourd'hui la preuve la plus éclatante.
  •  
    "C'est la plus grosse acquisition jamais réalisée par IBM. Le groupe centenaire vient de débourser près de 34 milliards de dollars (soit environ 30 milliards d'euros) pour racheter Red Hat, le numéro un mondial de l'« open source » (logiciel libre). Les deux groupes se connaissent déjà bien et travaillent sur des projets communs depuis plus de dix-sept ans. En mai dernier, ils avaient annoncé qu'ils collaboraient dans le domaine du cloud hybride (un mélange entre stockage chez des opérateurs tiers et sur ses propres serveurs), un segment de marché qui rencontre un véritable engouement. C'est sur ce pan-là qu'IBM met l'accent pour expliquer cette méga-acquisition et la prime qu'il paie (+63 %) par rapport au dernier cours de clôture de l'éditeur."
Aurialie Jublin

Pire to pire : le fantasme de la perfection sociale - P2P Foundation France - 0 views

  • Car cette liberté retrouvée semble à tout prix devoir être mise au service d’un but « noble » qui serait une espèce d’efficacité sociale, et d’une rationalisation de nos comportements. Il semble acquis que si « nous » communiquons mieux, et sans intermédiaires pour nous en empêcher, « nous » arriverons plus rapidement au but. Mais lequel ? Et qui est ce « nous » ? Tout se passe comme si, effrayés par l’autonomie à laquelle ils sont peut-être en train d’accéder, les chantres de la décentralisation inventent en même temps la méta-organisation qui remplacera la figure du père, à défaut de savoir s’en passer.
  • Le passage d’un système fondé sur la confiance en l’humain vers un système fondé sur la preuve (où la confiance est déléguée à la technologie) semble ainsi pouvoir panser toutes les plaies, éviter toutes les trahisons, désillusions, imperfections… et l’on imagine que ce système parfait, à la fois incorruptible et incontrôlable, rendra nos vies meilleures et nous mettra à l’abri des tricheurs, des abuseurs et des voleurs.
  • celui qui gouverne, c’est celui qui indique la direction, qui donne un sens, qui guide. Ils défendent donc avec ardeur un système qui va aider à coordonner les mouvements des rameurs de la galère, sans considérer que si le projet social de la-dite embarcation diffère de ce qu’ils ont imaginé, ils sont en train de fabriquer eux-mêmes l’instrument de leur propre aliénation : une boussole autogène !
  • ...5 more annotations...
  • On en arrive à des propositions dites « démocratiques » entièrement basées sur la machine, où l’évaluation du nombre et de la qualité des contributions individuelles deviendrait une monnaie d’échange universelle et infalsifiable. On imagine même que les individus pourraient participer aux prises de décisions de façon proportionnelle à leurs contributions. Le bon vieux système de bons points remis au goût du jour ! Tant pis pour ceux qui ne souhaitent ou ne peuvent pas contribuer ? Tant pis si nous devenons esclaves de notre propre auto-évaluation ? La vie deviendrait un grand jeu vidéo où je chercherais à accumuler plus d’étoiles sur mon profil que le voisin pour gagner des points de gouvernance ou de rétribution ?
  • La gouvernance, si elle n’est pas humaine, prend le risque d’un réductionnisme mortifère et le chemin d’un égalitarisme totalitaire qui n’aura rien à envier aux dictatures que le monde a connues jusqu’ici.
  • Il me semble donc que les communs et le pair-à-pair ne pourront se développer harmonieusement qu’à la seule condition que les individus intègrent profondément que «pair», contrairement à son homonyme informatique, n’est pas synonyme de ce qui est «identique à moi» mais parle de connexion et d’amour d’une radicale altérité.
  • Ce que la blockchain, qui n’est qu’un outil, ne nous dit pas, c’est comment nous allons réussir à faire société et quelle société nous voulons. Cette perspective passe peut-être par trouver ce que nous avons en commun, ce qui ne signifie pas effacer nos singularités et nos défauts via une hypothétique technologie de la transaction. Il ne s’agit pas non plus de fantasmer un monde sans limites régi par une sémantique universelle, mythique Tour de Babel moderne.
  • Il s’agirait plutôt d’apprendre à travailler et à gouverner ensemble avec nos imperfections et nos limites, dans le but de créer quelque chose en commun au cœur de la relation. C’est probablement très difficile à réaliser (sans doute le travail de toute une vie !), inefficace et bancal, mais peut-être aussi tellement plus gratifiant et créateur de sens qu’une chaîne de chiffres infalsifiable…
  •  
    "Décentralisation, distribution, peer-to-peer, blockchain : on assiste à un déferlement de termes censé ouvrir un nouvel horizon de libertés individuelles et collectives. Pourtant, quelque chose cloche dans les discours et un frisson me parcourt souvent l'échine à l'écoute de certaines vidéos ou à la lecture de certains articles…"
Aurialie Jublin

Mariana Mazzucato, une économiste qui fait des vagues - 0 views

  • Elle pense que les décideurs du secteur public en Grande Bretagne sont otages du discours si souvent servi par les lobbyistes de l’industrie selon lequel “ils ne devraient pas prendre trop de risques, ils ne devraient pas choisir les gagnants”. Les conséquences en sont l’hémorragie des talents qui quittent le secteur public, et la validation sans remise en cause du mantra des lobbyistes : baisses d’impôts et assouplissement de la réglementation sont la recette pour attirer investisseurs et entrepreneurs.
  • “Aux États-Unis, ils parlent comme Jefferson mais ils agissent comme Hamilton” dit-elle. “Ici, en Grande-Bretagne, ils parlent et ils agissent comme Jefferson.” (Thomas Jefferson écrivait qu’il “n’était pas un ami d’un gouvernement très énergique”, alors que son grand rival insistait pour que les États-Unis lancent une politique industrielle volontariste). Un contre-exemple : le Government Digital Service [administration britannique chargée de la transformation numérique, ndt]. Des fonctionnaires, et non les habituels sous-traitants informatiques, ont créé un site qui répond vraiment aux besoins des citoyens, et, souligne-t-elle, “ils en ont fait un endroit vraiment, vraiment cool où travailler, au point que les types de la tech à la City avaient du mal à les recruter”.
  • Marianna Mazzucato défend ces idées depuis longtemps. Elle a publié en 2013 ‘The Entrepreneurial State’ (L’État entrepreneur) pour protester contre les politiques d’austérité post-crise. Elle voulait démontrer à quel point le succès de la Silicon Valley reposait sur les recherches financées par l’État, et qu’ailleurs, dans beaucoup d’autres économies, des agences gouvernementales jouaient ce même rôle essentiel. Son dernier livre veut donner une assise théorique à ses idées. Un long chapitre décortique comment différentes écoles d’économie ont traité le concept de la valeur au cours des siècles, avant que s’imposent les mantras “les prix sont fixés par l’offre et la demande” et “la valeur est dans l’œil de celui qui regarde”.
  • ...2 more annotations...
  • L’influence de Mariana Mazzucato est particulièrement visible dans la politique publique. Elle est généralement vue comme une sympathisante de gauche, mais elle affirme n’avoir pas d’agenda politique et être prête à conseiller “ceux qui écouteront”. Au Royaume-Uni, on reconnaît son empreinte dans le projet de politique industrielle du gouvernement conservateur actuel, publié en novembre dernier, tout autant que dans le manifeste du Parti travailliste de l’an dernier. Elle désapprouve le nationalisme “sous toutes ses formes”, mais elle joue aussi un rôle officiel de conseillère du Parti nationaliste écossais de Nicola Sturgeon, et revendique l’idée de la création par le gouvernement écossais d’une banque nationale d’investissement.
  • Elle admet que ce qui a “probablement le plus d’impact, dans tout ce que j’ai écrit et que j’écrirai” est le rapport publié en février sur les programmes de recherche et d’innovation européens. Il concrétise son idée que les gouvernements devraient piloter la croissance en coordonnant des “missions” – dotées de visées sociales ambitieuses et d’objectifs quantifiables – qui propageront l’innovation de secteurs en secteurs. Un précédent connu est la décision américaine d’envoyer un homme sur la lune. De nos jours, un objectif pourrait être d’atteindre les cent villes à bilan carbone neutre d’ici 2030.
  •  
    "Elle souhaite avant tout contrer l'opinion dominante selon laquelle l'innovation naît dans le secteur privé, et le rôle du gouvernement se limite à redistribuer, à délimiter le terrain de jeu et à réparer les erreurs du marché. En réalité, argumente-t-elle, beaucoup d'acteurs du privé, de la finance aux grands laboratoires pharmaceutiques, extraient ou détruisent de la valeur créée par autrui. Pour elle, le secteur public peut et devrait être un co-créateur de richesses qui pilote volontairement la croissance pour atteindre ses objectifs, que ce soit dans le domaine des énergies alternatives, du vieillissement des sociétés ou de la participation des citoyens à l'économie numérique."
Aurialie Jublin

« La technologie offre aux quartiers la possibilité de devenir des espaces pr... - 0 views

  • La plupart du temps, nous n’avons pas besoin des multinationales. C’est d’ailleurs la raison pour laquelle la maire de Barcelone, Ada Colau, a pris une décision historique en interdisant les franchises dans sa ville. Changer de paradigme est un grand projet, mais changer des éléments à une échelle locale, c’est tout à fait faisable et ça commence à se faire dans de plus en plus de villes. Par exemple, moi qui suis investie dans le mouvement des fermes verticales, je constate que l'agriculture urbaine essaime : aujourd’hui, à New York, on peut même obtenir un permis pour élever une poule chez soi.
  • La technologie offre aux quartiers la possibilité de devenir des espaces productifs. Prenons le cas des quartiers défavorisés, par exemple. Très souvent, le voisin y est perçu comme un « ennemi » simplement parce qu’il est accessible : un gouvernement est hors d’atteinte, tandis qu'un voisin est un excellent souffre-douleur. Il est donc essentiel de favoriser le lien social dans ces quartiers.
  • si ces personnes doivent faire face à un problème urgent de garde d'enfant, ils n'ont souvent pas le temps de passer un coup de fil dans la journée pour trouver une solution, et s'ils s'absentent, ils risquent d'être licenciés. The Emergency Nanny permet à un groupe de personnes de confiance habitant un même quartier (coiffeur, épicier, voisin, etc.) de se rendre disponible tel jour à telle heure pour garder les enfants de la personne qui les solliciterait d'un clic via l'appli.
  • ...2 more annotations...
  • Oui, les citoyens sont des acteurs clés pour orienter les usages de la technologie. Mais aux États-Unis, les maires procèdent à l’envers. Ils font appel à des entreprises informatiques et leur achètent des solutions préconçues pour des problèmes qui n’ont pas été clairement exposés en amont. La plupart du temps, ces technologies sont inutiles. Or, c’est l’inverse qui devrait se passer : les maires devraient réunir leurs équipes et établir quels sont les besoins, en bonne intelligence avec les citoyens. Il est regrettable que les classes dirigeantes refusent à ce point de comprendre la technologie et ses potentialités. Elles ont établi que c’était l’apanage des experts et s’en sont détournées
  • Les différents habitants d'un quartier ont des connaissances spécifiques de leur zone d’habitation que n'ont ni les élus locaux, ni les experts en urbanisme. On doit utiliser cette connaissance. Chacun devrait pouvoir accéder à une plateforme pour signaler une fuite d'eau, un nid-de-poule ou autre chose. Ça mobilise les habitants dans un effort commun, ça crée du tissu social et, à terme, cela peut aussi réduire la souffrance dans les quartiers défavorisés.
  •  
    "À l'occasion du Fab City Summit, qui s'est tenu à Paris du 11 au 22 juillet, nous avons rencontré Saskia Sassen. Connue pour ses travaux autour du concept de « ville mondiale » (« global city » en VO) - qui désigne les mégapoles devenues le coeur battant de la mondialisation tant elles concentrent tous les pouvoirs - la sociologue néerlando-américaine, qui enseigne notamment à l'Université Columbia de New York, a pris le temps d'échanger sur les leviers à actionner aujourd'hui pour mieux associer les citoyens à la gouvernance urbaine et recréer du lien social en ville."
Aurialie Jublin

Internet Libre ou minitel 2.O conférence de Benjamin Bayart conf lors des rml... - 0 views

  • En fait la formulation qu'on retient habituellement c'est qu'on dit que sur Internet on a mis l'intelligence en périphérie du réseau. Dans Minitel on a mis l'intelligence au centre, c'est le contenu, c'est les bases de données avec des terminaux débiles autour. Internet c'est le contraire, on a mis des routeurs idiots au centre et on a mis en périphérie des ordinateurs qui réfléchissent. C'est ça le modèle d'Internet, la grande révolution qu'a été Internet, ça a été d'apporter ça. Les réseaux télé-informatiques centrés, on en fait depuis les années 50 à peu près
  • Ça j'aime bien aussi, Google, Yahoo, MSN c'est à peu près les trois moteurs de recherche qui font 95% de la recherche sur Internet et de l'indexation. À une époque, quand on cherchait le site Minitel qui permet quelque chose, on tapait 3615 et au lieu de taper le nom du site dans la case « nom du site » on allait dans la case « rechercher », on tapait des mots-clés, puis France Télécom proposait les services Minitel auxquels on pouvait se connecter. Bon ben ça ça s'appelle Google. Ils l'ont fait en couleur, ils l'ont fait en grand, ils l'ont fait avec de la pub sur le côté, mais c'est le moteur de recherche du Minitel, c'est pas ça Internet. Internet c'est pas les 8000 machines de Google qui détiennent le savoir de l'humanité. Internet c'est le contraire de ça. Donc finalement côté réseau sur la technique c'est pas du net, ce que vous utilisez couramment, c'est pas du net, c'est du Minitel.
  • Et on est venu sur un modèle qui est assez bizarre qui a beaucoup émergé ces dernières années de publicité/publication. Parce que si Monsieur France 2 veut être proprement diffusé il paye un droit de publication, c'est-à-dire qu'il paye les opérateurs réseau pour être diffusé. Si y'en a certains parmi vous qui ont suivi les débats sur la liste FRnOG il y a quelques mois, la trame sous-jacente c'était Monsieur Free qui disait à Monsieur Dailymotion « je transporterai pas ta merde si tu me donnes pas des sous ». Ça c'est le droit de publication. Curieusement y'a pas ça d'habitude sur Internet .C'est quelque chose d'assez récent. Et puis y'a la publicité, c'est-à-dire que, comme vous êtes des gens très partageurs, vous avez vos vidéos perso, aguichantes ou non, que vous mettez sur Dailymotion histoire que tout le monde en profite, curieusement les reversements publicitaires que perçoit Dailymotion, vous, vous les percevez pas. Parce qu'en fait vous leur confiez votre contenu pour qu'il y gagnent leur publicité. Ça c'est un modèle assez particulier et si vous regardez bien le mode publicité/publication on paye aux deux bouts, c'est-à-dire que celui qui a du contenu paye pour qu'il soit diffusé, et puis celui qui vient regarder le contenu il paye sous forme de publicité. On est bien revenu au modèle du téléphone. Maintenant c'est plus des communications à la minute c'est des publicités, mais le modèle est vraiment le même.
  • ...18 more annotations...
  • → Pluralité À la place du monopole local, on a une certaine pluralité, c'est-à-dire que les, on vous a parlé d'ouverture de la concurrence, de l'ouverture du marché tout ça... Moi quand on me parlait pas d'ouverture de la concurrence et d'ouverture du marché, c'est-à-dire quand je me suis abonné à FDN, c'était en 96, y'avait 5-6 opérateurs chez qui je pouvais m'abonner sur Paris et je pouvais prendre l'opérateur que je voulais. Y'avait pas de souci, y'en avait bien plusieurs.
  • → Transporteurs L'opérateur de réseau se comporte comme un transporteur, c'est-à-dire quand je commande un paquet chez un commerçant, pas forcément sur Internet, dans les années 80, chez Les 3 redoutes quand je commandais des chaussettes je payais mes chaussettes à Les 3 redoutes et Les 3 redoutes payaient le transport à La Poste, La Poste ne s'occupait que du transport. Ça c'est à peu près le modèle d'Internet. Mon FAI il transporte mes données, c'est tout, il regarde pas ce qu'il y a dedans c'est pas sa sauce. Finalement d'où ça vient, c'est-à-dire savoir si ça vient d'un contenu payant ou si ça vient d'un contenu gratuit, lui, il s'en fiche. Il transporte de manière neutre.
  • Alors quelques exemples d'opérateurs: bon forcément j'ai cité FDN, c'est le mien, j'ai cité Neuronnexion parce qu'on est à Amiens, et puis le gros national à l'époque c'était Oléane, c'est-à-dire que Oléane qui était un gros opérateur à l'époque, dans les débuts du net au milieu des années 90, Oléane était connecté à des dizaines d'autres opérateurs en France. Y'avait pas de problème pour obtenir un accord d'interconnexion, dans des conditions relativement équitables entre Neuronnexion qui était une PME avec quelques personnes sur Amiens et Oléane qui était une PME avec quelques dizaines ou quelques centaines de personnes sur la fin à Paris.
  • → Free Free même punition. C'est pas vraiment un opérateur Internet, c'est plus vraiment un opérateur Internet, c'est en train de basculer tout doucement vers un opérateurs Minitel. Y'a trois ans l'idée qui a été tenue sur FRnOG de dire à Dailymotion « je transporterai ta merde si tu me donnes des sous » elle aurait fait bondir les gens de chez Free. À l'époque où ils étaient petits ça leur aurait fait très peur parce que c'était un moyen de les empêcher de grossir. → SFR SFR, oui alors pour les gens qui savent pas SFR c'est le nom complet de Neuf-Cegetel, bah je sais pas c'est le plus gros actionnaire, moi je veux bien les appeler autrement, m'enfin voilà, l'actionnaire c'est SFR, donc eux, même chose, c'est plutôt un opérateur de téléphonie qui vend du net avec du vrai Minitel dessus.
  • Alors on n'a pas basculé du modèle à Internet qui commençait à émerger au milieu des années 90 au modèle Minitel qui est en train d'émerger aux États-Unis au début des années 2000 complètement par hasard. Il a fallu plusieurs morceaux pour en venir là. Même chose je vais me centrer plutôt sur les effets franco-français mais vous verrez le modèle s'étend assez bien.
  • → DRM : exclusivité D'abord les DRM, ça, ça vous parle on en a parlé beaucoup ici, DADVSI, Droits d'Auteur et Droits Voisins dans la Société de l'Information, pour les gens qu'oublient ce que veut dire l'acronyme. Créer des DRM c'est créer de l'exclusivité. C'est un morceau qui manquait sur Internet on pouvait pas créer de l'accès exclusif de manière simple. En mettant des DRM dedans on peut bien, c'est facile. C'est-à-dire qu'une fois qu'on aura bien mis des DRM dans tous les fichiers, l'opérateur pourra dire « je transporte, ou pas, les fichiers signés par Machin », Microsoft n'a pas envie de transporter les fichiers signés par Torvalds, simple, suffit de pas les transporter.
  • → Brevets : fermeture Les brevets ça crée de la fermeture. Je vous le disais tout à l'heure, Internet et le logiciel libre c'est très exactement la même chose, ce ne sont que deux facettes du même objet. À partir du moment où je mets des brevets je ferme le jeu. Si c'est breveté ça veut dire que quelqu'un d'autre n'a pas le droit de le refaire pour venir s'interconnecter. En fait une fois que j'ai bien breveté le mode de fonctionnement du Minitel, un méchant concurrent ne peut pas fabriquer des Minitel, ça ne sert qu'à ça les brevets, c'est même la définition du brevet.
  • → Filtrage : demi-connexions Le filtrage que nous demandent régulièrement les différents gouvernements, on pourrait croire que c'est de la censure fasciste, y'en a sans doute un ptit peu, je pense que quand les Renseignements Généraux demandent en loucedé à un opérateur de filtrer un gars ça pourrait ne pas être parce qu'il est terroriste mais juste parce qu'il fait chier, disons que ça s'est déjà vu. Mais ça a un effet de bord très amusant, une fois que les opérateurs ont mis dans leurs réseaux, c'est pas encore le cas mais ça vient, des boîtiers qui sont capables de filtrer, le boîtier qui est capable de filtrer je pense qu'il y a quelques informaticiens dans la salle, il filtre ce que l'admin sys demande de filtrer, c'est-à-dire ce que le gouvernement lui demande de filtrer parce qu'il est plutôt obéissant, pour pas aller en taule, et puis ce que son patron lui demande de filtrer. C'est-à-dire que le filtrage qu'est demandé par le gouvernement, pour des raisons probablement de sécurité publique, enfin on espère, il permet également de rétablir le modèle des demi-connexions, c'est-à-dire que je filtre les sites nazis et les filtres qui n'ont pas payé. Ça permet de bien faire rentrer ce modèle économique.
  • → Responsabilité : centré. La responsabilité, alors j'étends un ptit peu le titre, c'est les différents débats qu'on a eu depuis l'affaire Altern1 en, c'était quand l'affaire Altern 97, non 98, 99 par là, c'est la responsabilité des hébergeurs, c'est-à-dire que l'hébergeur est responsable de ce qu'il y a sur le site, et si on lui signale un contenu supposément illégal, il se doit de l'enlever avec diligence. Il pourrait l'enlever avec voiture mais diligence c'est mieux. Ça, ça veut dire que si je prends le risque de permettre à quelqu'un de poser son site web sur ma machine, s'il dit de la merde c'est moi qui vais en taule. Moi je peux pas l'assumer. France Télécom peut l'assumer parce que quand il aura un procès, France Télécom enverra son armée d'avocats, expliquera que dès qu'on lui a signalé le contenu elle l'a enlevé, je veux dire c'est vrai, c'était un dissident d'un endroit où on n'a pas le droit de dissider, qu'il aille donc dissider ailleurs, donc ça a été tout bien enlevé, et ils pourront dire, nous on est blanc bleus ils vont au procès, ils payent des avocats, ils s'en sortent. Par contre la PME de banlieue qui essayait de faire pareil, ben quand elle s'est retrouvée devant le juge, ça lui a coûté un œil de payer l'avocat, et puis comme le mec qui dissidait il disait des trucs finalement qu'en France on a le droit, ils ont estimé qu'ils allaient pas supprimer le site, et donc ça va jusqu'au procès et ça coûte cher. Donc la responsabilité des hébergeurs ça tend à faire que les petits hébergeurs ont du mal à exister parce qu'ils existent en vivant dangereusement, donc ça crée du réseau centrés, puisque les petits ont du mal à exister il restera que les gros.
  • → Régulation : interco La régulation c'est aussi quelque chose de fabuleux. Ce qu'on appelle régulation dans le monde Internet professionnel, c'est l'ARCEP, Autorité de Régulation des Communications Éléctroniques et des Postes, ex-ART, Autorité de Régulation des Télécommunications, c'est des gens qui ont été mis en place à l'époque où, suite à certaines directives européennes, on a ouvert le marché des télécom. J'ai assisté, alors, enfin si un ptit peu en tant que président de FDN, mais aussi avec d'autres casquettes, à une des réunions de l'ARCEP sur les réseaux d'initiatives publiques où y'avait le monsieur responsable du dégroupage en France, qui nous expliquait mort de rire que, y'a 10 ans quand ils ont commencé et qu'ils ont fait les premières réunions sur le dégroupage, il fallait une salle de réunion gigantesque pour asseoir les 50 opérateurs alors qu'aujourd'hui quand ils font les réunions sur le dégroupage, ils font ça dans son bureaux parce qu'ils sont 4, et il avait l'air content de lui pépère. C'est-à-dire que lui, il a été mis en poste pour ouvrir le marché, il est passé de 50 acteurs à 4 et il est content. Fabuleux! Moi je trouve fabuleux. Et donc ce petit jeu où on se retrouve avec 4 opérateurs qui vendent du Minitel-net 2.0 ben ça fait qu'ils sont suffisamment gros pour envoyer chier tous les autres, je veux dire quand on s'appelle Free et qu'on a 2 millions d'abonnés, ou quand on s'appelle France Télécom et qu'on en a 4, ou quand on s'appelle Neuf et qu'on en a je-sais-plus-combien à force de racheter leur clients je sais plus où ils en sont, 2,5 probablement, forcément, un Schtroumpf qui vient avec 20 000 comme Nérim rien à battre, parle pas aux ptits. Donc la difficulté d'interconnexion des réseaux, elle vient en bonne partie des erreurs de régulation ou des choix de régulation, parce que c'est ptet pas par erreur qui font qu'il y a plus de petits opérateurs.
  • → Gouvernance : assurance Et puis pour ceux qui étaient à la table ronde politique hier, y'a des problèmes de gouvernance. Les problèmes de gouvernances, ce sont tous ces braves gens qui se réunissent entre eux pour décider si oui ou non on va permettre aux gens d'acheter des noms de domaines sans leurs papiers, ou si on va distribuer des adresses IP aux pas gentils, ou comment on va faire en sorte que les pédo-nazis puissent pas faire ci ou ça, ou que les terroristes puissent pas poster, donc comment Google va filtrer tous les sites écrits en arabe parce que ça doit être suspect, sauf ceux bien évidemment signés par le gouvernement qui vend du pétrole. Tout ça c'est ce qu'on appelle la gouvernance Internet, c'est l'IANA, c'est l'ICANN, c'est le RIPE c'est etc. Ça en fait c'est une assurance. Une fois que c'est convenablement tenu par les quelques juristes des très gros opérateurs - vous pouvez y aller, y'a pas un technicien à poil dur, y'a quelques vieux barbus tout gris qui parlent BGP, le reste c'est tout du cravateux juriste docteur en droit, envoyé par les opérateurs pour vérifier que tout va bien. Ça c'est une assurance, c'est l'assurance du fait qu'ils resteront dans la position où ils sont.
  • Ils sont en train d’éteindre Internet D'où ça sort tout ça ? Ça sort schématiquement de l'histoire, c'est-à-dire que les gens qui ont de quoi fabriquer du réseau sont les gens qui ont fabriqué le téléphone et qui étaient en situation de monopole, ce sont les gens qui ont fabriqué la diffusion télé qui étaient en situation de monopole. Internet est né, à un moment ils se sont dit « tiens ça va se vendre » alors ils en ont vendu et puis, sans forcément être méchants, on pourrait croire à la théorie du complot mais j'y crois pas, je pense qu'ils sont pas assez malins pour s'être dit « tiens on va se liguer pour attaquer sur tous les fronts en même temps pour faire taire les pénibles »; moi je pense qu'ils l'ont pas fait exprès, mais ils sont en train d'éteindre Internet; et c'est un effet de bord naturel, c'est-à-dire qu'Internet remettait en cause leur monopole, ils ont fait chacun les petites actions dont ils avaient besoin pour essayer de maintenir leur monopole: les gros éditeurs de musique en faisant des DRM, les auteurs de logiciels tout pourris propriétaires en faisant des brevets, les marchands de contenu qui veulent pas qu'on aille acheter le contenu des autres en faisant du filtrage etc etc etc. Je pense même pas qu'ils se soient concertés pour faire tous les mêmes conneries.
  • On va manger du numérique avarié Et quand ils vous disent qu'on passe à l'heure du numérique, c'est vrai. Ils font bien du numérique, si vous regardez la télé autrefois y'avait de la neige, maintenant elle pixélise, c'est ben qu'elle est numérique ! Mais c'est pas de l'Internet, c'est du numérique. Du numérique, ça peut être le baladeur fermé propriétaire d'une grande marque japonaise en quatre lettres commençant pas S finissant par Y qui met des rootkit dans les CD ou ça peut être le fait que je fasse écouter la musique que j'aime bien à ma ptite sœur. Dans les deux cas, c'est du numérique, juste moi je trouve y'en a un il est avarié, je vous laisse deviner lequel.
  • L'apparition d'Internet a permis l'apparition du libre et l'apparition du libre a permis l'apparition d'Internet, les deux ont crû en même temps. Il va y a voir un décrochage. Le numérique va continuer à croître mais Internet a commencé sa décroissance il y a déjà quelques années. Il y a de moins en moins de gens qui s'hébergent eux-mêmes sur leur ligne ADSL. La décroissance d'Internet a commencé, la décroissance du libre c'est juste après. Même si vous arrivez à ce qu'ils ne fassent pas passer les brevets logiciels cette année et les DRM l'année prochaine, si vous arrêtez Internet, si vous les laisser arrêter Internet libre, vous allez mourir.
  • Donc je crois que ce sont les deux piliers, le premier c'est: il faut éduquer, aller expliquer aux gens ce que c'est qu'Internet, aller dire aux gens que Internet c'est pas de mettre des vidéos marrantes sur Dailymotion, Internet c'est de mettre les vidéos marrantes sur mon PC et que vous veniez les voir. C'est fondamental comme différence; ça c'est le premier pilier, éduquer les gens, c'est très long. Je veux dire on savait, 'fin moi ça fait très longtemps que je suis sur Internet, ça fait 10 ans que je suis président de FDN, ça fait longtemps que je réfléchis sur ces questions, là je sais que c'est long d'éduquer les gens. La croissance actuelle des ventes de Machin Box en Minitel 2.0 c'est pas la croissance de l'éducation au net. Le type qui publie son blog sur un ordinateur qu'il ne possède pas, il fait du Minitel alors il apprend à faire du Minitel amélioré où il peut parler, mais il n'a pas encore appris à faire du net, c'est-à-dire à mettre son blog sur une machine qu'il est le seul à pouvoir couper du réseau. C'est très différent, cette éducation-là va prendre un ptit peu de temps. Et le deuxième pilier c'est: faites votre réseau, faites vos serveurs IRC qui ne sont pas ceux des gros opérateurs, faites vos serveurs mail qui ne sont pas ceux des gros opérateurs. Faites votre réseau. Avec ces deux piliers-là, on aura quelques résistants qui sont ceux qui font le réseau, et quelques enseignants pour propager la bonne parole, ce sont les deux fondamentaux dont on a besoin. Je sais pas ce qu'on peut faire d'autre. Si, on peut essayer de se battre sur le juridique, mais on y va vraiment avec un lance-pierre contre des chars d'assaut.
  • y'a deux objections classiques au « hébergez-vous vous-mêmes », y'en a des moins classiques qui sont en général pas très intéressantes, en tout cas j'en ai pas encore entendu, y'en a deux qui sont vraiment classiques, y'a celle que tu indiques qui est intelligente, y'en a une autre qui est bête. Je vais commencer par celle qui est bête pour m'en débarrasser. Le « c'est compliqué techniquement », ça, c'est juste faux, je veux dire si le débile de base il est capable de poster une vidéo sur Dailymotion et il est capable de poster dans son blog, faire une Internet box qui contient le serveur Apache*4 qui contient son blog et les plug in type Dailymotion, il aura qu'à uploader vers sa boîte, c'est pas plus dur. Donc le « techniquement c'est compliqué » ça c'est juste faux.
  • Après y'a le problème écologique. La question écolo là-dedans c'est « si je laisse mon PC allumé tout le temps pour héberger mon pauvre site web qui a 12 visiteurs par jour, je brûle le courant plein pour rien ». Ça c'est un vrai problème. Mais dire « je vais m'héberger en salle machine avec tout le monde comme ça si on pose une bombe tout le monde se tait », c'est la mauvaise réponse. Quand les écolo disent « la consommation d'électricité fabriquée avec du charbon et du nucléaire c'est vachement dangereux » ils ont raison. Quand on apporte comme réponse « y'a qu'à se passer d'électricité », c'est pas la bonne. Un ordinateur capable d'héberger un site web c'est pas l'énorme machin avec 12 ventilos que tu utilises pour jouer au dernier jeu à la mode. Un ordinateur capable d'héberger un site web ça a une puissance de calcul similaire à celle qu'on trouve dans un palm aujourd'hui, ou dans un téléphone; c'est-à-dire que ton téléphone là, s'il était pas en Java avec de la merde dedans, il serait capable de faire des sites web comme on n'en rêvait pas en 95. Il consomme peau de balle en courant. Lui tu peux le laisser chez toi branché, et pour peu qu'en plus tu lui donnes du courant que t'as fabriqué avec des fines herbes et avec du bois, ou avec du solaire, ça va être nickel. Un ptit ordinateur qui ne mange que du solaire et qui est autonome tout seul dans sa boîte avec du solaire ça existe, les fous qui font des réseaux wifi bizarres ouverts etc, ils ont ça, des espèces de routeurs qu'ils viennent mettre sur le toit collés à la borne wifi, c'est 100% autonome si c'est sur du solaire, ça mange pas d'énergie.
  • -Hébergeur hébergé, c'est pas forcément une bonne réponse dans le sens « on se met à 3 et on loue une bécane dans une salle machine », c'est dans cet esprit-là? Dans cet esprit-là, dans la balance entre Internet et le Minitel quand tu mets ton site web chez OVH*6 tu es purement dans Minitel, quand tu mets dans le serveur des pages perso Wanadoo c'est pire, quand tu commences à le mettre sur le serveur hébergé en salle machine d'une assoss sympathique, l'Autre.net, Ouvaton des gens comme ça, Tuxfamily*7 tu rééquilibres un peu, quand tu le mets sur les machines auto-hébergées des gens comme RHIEN*8, le Réseau d'Hébergeurs Indépendants ENgagés, je vous invite à aller les voir si vous ne les connaissez pas, R-H-I-E-N, c'est super bien ce qu'ils font, ça penche presque vers de l'Internet parce que, eux, ils s'y mettent à 10-15-20-30 à héberger sur la machine du gars qui sait faire leur site web derrière leur ligne ADSL. On est quasiment sur de l'Internet, on est sur du beaucoup-net. Donc oui c'est mieux. Je veux dire si t'as à choisir entre les pages perso de ton fournisseur d'accès moisi qui retirera le contenu si ça lui plait pa,s et te faire héberger dans la même machine que ta bande de potes, c'est plutôt mieux la deuxième solution, maintenant si la machine en question elle est dans une salle machine qui t'appartient pas, où les flics ils rentrent quand ils veulent avec même pas un mandat, juste ils demandent poliment au monsieur à l'entrée, pas top.
  •  
    "Internet, logiciel libre, c'est la même chose En fait ce à quoi je veux en venir c'est que c'est la même chose: c'est-à-dire que sans logiciel libre pas d'Internet: si BIND n'avait pas été libre, si le protocole de routage IP n'avait pas été libre et ouvert Internet ne serait pas né. Donc sans logiciel libre pas d'Internet. Sans Internet pas de logiciel libre, évident. Si on supprime le mail et les échanges électroniques de code entre développeurs pour faire murir les softs, ça ne peut pas marcher. Les deux sont intimement liés: en fait ce sont deux facettes d'un même objet. Cet objet, si vous voulez on débattra tout à l'heure, je pense que c'est ce qu'on appelle la société du savoir, l'économie du savoir. Mais ce sont deux facettes du même objet on peut pas différencier, on peut pas dissocier Internet et logiciel libre, c'était ça le bout d'historique que je voulais vous raconter."
Aurialie Jublin

affordance.info: Les algorithmes du Dr Frankenstein (ou pourquoi faut pas pou... - 0 views

  • néo-fascisme documentaire distinguant une humanité sur-documentée d'une humanité sous-documentée, néo-fascisme nourri d'un fétichisme du fichier (et du fichage). Et je milite et alerte comme je peux sur l'impérieuse nécessité et urgence de nourrir une réflexion politique radicale visant à une forme de "nationalisation" des grandes plateformes et du code informatique, et à réinstaurer des formes légitimes de "communs" (dont un index indépendant du web entre autres). 
  • Le problème n'est plus tant de se demander comment construire des technologies avec des sciences comportementales que de voir s'il est encore possible, pour en limiter l'impact politique et démocratique, de déconstruire la logique qui a mené quelques grandes plateformes à construire et à normer des comportements avec des technologies opérant dans le cadre d'architectures techniques toxiques.  
  • En gros le pitch de l'article du Guardian est, à partir notamment des travaux de Cathy O'Neil (les algorithmes comme "armes de destruction matheuse") et Neil Johnson, et en remobilisant des exemples issus du Trading Haute-fréquence ou du récent fait-divers sur le premier décès "accidentel" causé par une voiture autonome (dont je vous avais moi-même longuement parlé), de revenir en détail sur ces nouvelles "approches algorithmiques" ou "l'algorithme" ne désigne plus simplement la trivialité d'une série d'instructions logico-mathématiques mais un environnement complexe d'automatismes décisionnels sur la base de gigantesques jeux de données (Datasets) que plus personne n'est en mesure de comprendre ou d'englober dans leur totalité, à commencer par ceux-là mêmes qui développent lesdits algorithmes et jeux de données**.
  • ...6 more annotations...
  • Et l'article du Guardian évoque donc ces "Franken-algorithms" : ces algorithmes semblables à la créature du Dr Frankenstein, des Franken-algorithmes qui deviennent totalement imprévisibles (et donc potentiellement très dangereux) non seulement au travers de leur mode opératoire "auto-apprenant" (on parle aussi d'algorithmes "génétiques" et "d'apprentissage renforcé" - Reinforced Learning) mais aussi et surtout au travers de ce que leur marge d'incertitude et d'imprévisibilité intrinsèque peut donner lorsqu'elle entre en interaction avec d'autres algorithmes, avec des comportements sociaux individuels ou collectifs, ou avec le monde - et les objets - physique(s).
  • Voilà ce qui, sur mon petit schéma donne naissance au "SPA", une sorte de "Service Public de l'Algorithmie" que mon côté Marxiste idéalise peut-être mais que je crois nécessaire et urgent de bâtir si nous voulons éviter de prendre le risque d'un Hiroshima technologique désormais plus que probable à l'échelle de nos formes démocratiques de gouvernance qui ont déjà en partie basculé dans les formes assumées et délétères de surveillance.
  • Au-delà de la seule transmission de connaissances ou d'informations, l'enjeu de l'apprentissage est de permettre à "celui qui apprend" de pouvoir un jour s'affranchir de la dépendance à "celui qui lui enseigne" certaines règles et certains codes sociaux. Et d'être en capacité de pouvoir à son tour "faire", "transmettre", "produire", "jouer" mais aussi "tricher" ou "faire semblant". Le souci, me semble-t-il, est que nous sommes aujourd'hui majoritairement et collectivement incapables de formuler clairement la raison pour laquelle nous voulons que ces algorithmes apprennent et nous échappent autrement.
  • Voilà pourquoi sans aller vers un radicalisme luddite dont Eric Sadin et quelques autres sont les opportunistes ténors, il nous faut construire une alternative politique qui, après le temps numérique de la "désintermédiation", soit celui de formes de remédiations respectueuses du corps social et partant de sa partie la plus fragile, la plus pauvre, et la plus exposée.
  • La vie de la cité aujourd'hui (c'est à dire "le" politique au sens étymologique), notre vie, est prise entre des techno-craties qui organisent l'espace économique et des techno-structures qui organisent l'espace social. Les plateformes comme Facebook, Google ou Amazon ont comme point commun d'être les premières techno-craties algorithmiques dans lesquelles les données ont fonction d'infrastructure et qui organisent l'espace social pour satisfaire à des impératifs d'organisation économique. 
  • Dans la montée partout en Europe (et ailleurs) des néo-fascismes qu'une pudibonderie tout à fait déplacée nous désigne sous l'euphémisme de "droites extrêmes", au moment où chacun est conscient de l'impact que jouent les architectures techniques toxiques dans la polarisation de l'opinion, alors même qu'il est établi, comme le rappelait récemment Cory Doctorow que  "le problème de Facebook n'est pas un problème de contrôle des esprits mais un problème de corruption : Cambridge Analytica n'a pas convaincu des gens ordinaires de devenir racistes mais ils ont convaincu des racistes d'aller voter", il ne faudrait pas qu'aux algorithmes du Dr Frankenstein s'ajoutent les ambitions politiques d'Anénoïd Hynkel.
Aurialie Jublin

Technologie : l'âge sombre | InternetActu.net - 0 views

  • Pire, la technologie s’est fait la complice de tous les défis auxquels nous sommes confrontés : à la fois d’un système économique hors de contrôle qui ne cesse d’élargir les inégalités, la polarisation politique comme le réchauffement climatique. Pour Bridle, la technologie n’est pas la solution à ces défis, elle est devenue le problème. Il nous faut la comprendre plus que jamais, dans sa complexité, ses interconnexions et ses interactions : mais cette compréhension fonctionnelle ne suffit pas, il faut en saisir le contexte, les conséquences, les limites, le langage et le métalangage.
  • Trop souvent, on nous propose de résoudre ce manque de compréhension de la technologie par un peu plus d’éducation ou son corollaire, par la formation d’un peu plus de programmeurs. Mais ces deux solutions se limitent bien souvent en une compréhension procédurale des systèmes. Et cette compréhension procédurale vise surtout à renforcer la « pensée computationnelle », c’est-à-dire la pensée des ingénieurs et des informaticiens qui n’est rien d’autre que le métalangage du solutionnisme technologique 
  • Les systèmes techniques sont devenus de plus en plus complexes. Trop critiques et interconnectés pour être compris, pensés ou conçus. Leur compréhension n’est disponible plus que pour quelques-uns et le problème est que ces quelques-uns sont les mêmes que ceux qui sont au sommet des structures de pouvoir. Pour James Bridle, il y a une relation causale entre la complexité des systèmes, leur opacité, et les violences et inégalités qu’ils propagent.
  • ...32 more annotations...
  • Le cloud (l’informatique en nuage) n’est plus une métaphore du réseau, c’est l’incarnation de ce système global et surpuissant qu’aucun d’entre nous ne peut désormais attraper. Ce nuage est pourtant une bien mauvaise métaphore. Rien de ce qu’il recèle n’y est sans poids, rien n’y est amorphe ou invisible. Le cloud cache une infrastructure physique complexe faite de lignes téléphoniques, de fibre optique, de satellite, de vastes entrepôts d’ordinateurs, qui consomment d’énormes quantités d’énergie et qui influent sur de multiples juridictions. Le cloud est l’incarnation d’une nouvelle industrie.
  • De la sécurité nationale aux secrets industriels, il y a beaucoup de raisons à obscurcir ce que recouvre ce nuage. Mais ce qui s’en évapore est assurément notre propriété (dans les nuages, tout appartient à d’autres) et notre agentivité, c’est-à-dire notre capacité à faire.
  • Le réseau donne l’impression d’être à la fois l’idéal de progrès le plus abouti et l’idéal de base de notre culture tout en paraissant avoir émergé inconsciemment, poursuivant son but d’interconnexion sans fin pour lui-même et par lui-même… « Nous présumons que l’interconnexion est inhérente et inévitable. Le réseau semble être devenu le résultat du progrès, son accomplissement ultime », à l’image de machines qui accompliraient ainsi leurs propres désirs. Internet semble avoir accompli l’idéal des Lumières, l’idéal du progrès : celui que plus de connaissance et plus d’information conduit toujours à prendre de meilleures décisions.
  • Mais n’est-ce pas plutôt le contraire auquel nous assistons ? « Ce qui était censé éclairer le monde l’a obscurci. L’abondance d’information et la pluralité d’opinion accessible à tous n’ont pas produit un consensus cohérent, mais au contraire a déchiré la réalité en narrations simplistes, en théories fumeuses et en politique d’opinion. Contrairement au Moyen Âge, où l’âge sombre était lié à une perte de connaissance antique, l’âge sombre moderne est lié à une abondance de connaissance dont nous ne savons plus démêler collectivement l’apport. »
  • L’obscurité dont parle Bridle c’est notre incapacité à voir clairement ce qui est devant nous, avec capacité et justice. Pour Bridle pourtant, ce constat ne doit pas être lu comme une condamnation de la technologie. Au contraire. Pour relever l’âge sombre qui s’annonce, il nous faut nous engager plus avant dans la technologie, avec elle, mais avec une compréhension radicalement différente de ce qu’il est possible d’en faire, en retrouver un sens que la seule recherche d’efficacité nous a fait perdre. Tout comme le changement climatique, les effets de la technologie s’étendent sur le globe et affectent tous les aspects de nos vies. Mais comme le changement climatique, ses effets sont potentiellement catastrophiques et résultent de notre incapacité à comprendre les conséquences de nos propres inventions. Nous devons changer de manière de voir et penser le monde, nous invite Bridle, un peu facilement ou naïvement.
  • « En rapprochant la simulation de l’approximation, les grands prêtres de la pensée computationnelle pensent remplacer le monde par des modèles biaisés de lui-même ; et en le faisant, les modeleurs s’assurent du contrôle du monde. » James Bridle s’inscrit dans la continuité des constats de l’historien des sciences David Noble qui, dans Le progrès sans le peuple notamment, soulignait combien la pensée des ingénieurs avait contribué à donner du pouvoir aux puissants plutôt que favoriser l’équité ou la démocratie ; comme dans celle de Richard Sclove du Loka Institute, qui dans Choix technologiques, choix de société, soulignait combien les enjeux démocratiques restaient le parent pauvre de la question technologique.
  • La pensée computationnelle s’infiltre partout : elle devient notre culture. Elle nous conditionne à la fois parce qu’elle nous est illisible et à la fois parce que nous la percevons comme neutre émotionnellement et politiquement. Les réponses automatisées nous semblent plus dignes de confiance que celles qui ne le sont pas. Dans la pensée computationnelle, nous sommes victimes du biais d’automatisation : « nous avons plus confiance dans l’information automatisée que dans notre propre expérience, même si elle est en conflit avec ce qu’on observe ». Les conducteurs de voitures comme les pilotes d’avion ont plus tendance à croire leurs instruments que leur expérience, même si celle-ci n’est pas alignée.
  • Pour Bridle, l’informatique, en ce sens, est un piratage de notre capacité cognitive, de notre capacité attentionnelle, qui renvoie toute responsabilité sur la machine. « À mesure que la vie s’accélère, les machines ne cessent de prendre en main de plus en plus de tâches cognitives, renforçant par là leur autorité – sans regarder les conséquences ». « Nous nous accommodons de mieux en mieux et de plus en plus aux confortables raccourcis cognitifs que nous proposent nos machines. L’informatique remplace la pensée consciente. Nous pensons de plus en plus comme des machines, ou plutôt nous ne pensons plus du tout ! ».
  • « Ce qui est difficile à modéliser, à calculer, à quantifier, ce qui est incertain ou ambigu, est désormais exclu du futur possible. » L’informatique projette un futur qui ressemble au passé (« Les algorithmes ne prédisent pas le futur, ils codifient le passé », disait déjà Cathy O’Neil). La pensée computationnelle est paresseuse. Elle propose finalement des réponses faciles. Elle nous fait croire qu’il y a toujours des réponses.
  • les réseaux souffrent d’une gouvernance fragmentée, sans responsabilités claires, peu cartographiés et sous-financés ; des infrastructures en silos ; des investissements privés comme publics insuffisants et plus encore un manque de compréhension de la complexité de leur fonctionnement… expliquent leur fragilité intrinsèque et la difficulté de leur maintenance. Ajoutez à cela les impacts du changement climatique sur leur maintenance et leur évolution et vous comprendrez que les réseaux ne sont pas dimensionnés pour faire face au futur. Bref, non seulement l’informatique contribue largement au réchauffement climatique, mais elle risque d’en être l’une des principales victimes.
  • Mais les grands volumes de données ne produisent pas de la connaissance automatiquement. Dans la recherche pharmacologique par exemple, les dépenses et investissements n’ont jamais été aussi forts alors que les découvertes, elles, n’ont jamais produit aussi peu de nouveaux traitements. On appelle cela la loi d’Eroom : l’exact inverse de la loi de Moore. Le nombre de résultats de recherche chute et ces résultats sont de moins en moins dignes de confiance. Si les publications scientifiques n’ont jamais été aussi volumineuses (au détriment de leur qualité), les rétractions ont augmenté et le nombre de recherches ayant un impact significatif, elles, ont diminué proportionnellement. La science connaît une crise de réplicabilité majeure.
  • Plusieurs facteurs expliquent ce revirement de la loi du progrès. La première est que les choses les plus évidentes à découvrir ont été exploitées. La régulation est également devenue plus exigeante et la société moins tolérante aux risques. Mais le problème principal relève certainement des méthodes désormais employées. Historiquement, la découverte de médicament était le fait de petites équipes de chercheurs qui se concentrait intensément sur de petits groupes de molécules. Mais depuis 20 ans, ces processus ont été largement automatisés, sous la forme de ce qu’on appelle le HTS (High-throughput screening pour criblage à haut débit) qui consiste en des recherches automatisées de réactions potentielles via de vastes bibliothèques de composants. Le HTS a priorisé le volume sur la profondeur. Ce qui a marché dans d’autres industries a colonisé la recherche pharmaceutique : automatisation, systématisation et mesures… Certains commencent à douter de l’efficacité de ces méthodes et voudraient revenir à l’empirisme humain, au hasard, au bordel, au jeu… À nouveau, « la façon dont nous pensons le monde est façonnée par les outils à notre disposition ». Nos instruments déterminent ce qui peut être fait et donc, ce qui peut être pensé. À mesure que la science est de plus en plus technologisée, tous les domaines de la pensée humaine le sont à leur tour. Les vastes quantités de données ne nous aident qu’à voir les problèmes des vastes quantités de données.
  • Les bourses et places de marchés d’antan ont été remplacées par des entrepôts, des data centers, anonymes, dans des banlieues d’affaires impersonnelles. La dérégulation et la numérisation ont transformé en profondeur les marchés financiers. La vitesse des échanges s’est accélérée avec la technologie. Les transactions à haute fréquence (HFT, High-frequency trading) reposent sur la latence et la visibilité. La latence, c’est-à-dire la rapidité d’échange où des millions peuvent s’échanger en quelques millisecondes et la visibilité (sauf pour les non-initiés), c’est-à-dire le fait que les échanges sont visibles de tous les participants, instantanément. Les échanges reposent sur des algorithmes capables de calculer des variations éclair et de masquer les mouvements de fonds. Les échanges sont plus opaques que jamais : ils s’imposent sur des forums privés, les « dark pools » (en 2015, la SEC, l’organisme américain de réglementation et de contrôle des marchés financiers, estimait que les échanges privés représentaient 1/5e du total des échanges)… Les échanges financiers ont été rendus obscurs et plus inégaux que jamais, rappelle Bridle.
  • Pour Bridle, l’une des clefs qui expliquent que les inégalités se renforcent avec la technologie est intrinsèquement liée à l’opacité des systèmes. Comme les robots des entrepôts d’Amazon et ses employés commandés par des commandes vocales émanant de robots, nous sommes en train d’arranger le monde pour rendre les machines toujours plus efficaces, quitte à ce que le monde devienne incompréhensible et inadapté aux humains. Les travailleurs deviennent le carburant des algorithmes, utiles seulement pour leurs capacités à se déplacer et à suivre des ordres. Pour Bridle, les startups et les Gafam signent le retour des barons voleurs, ces tyrans industriels du XIXe siècle. La technologie est venue couvrir d’un voile d’opacité la prédation : l’avidité s’est habillée de la logique inhumaine des machines. Amazon ou Uber cachent derrière des pixels lumineux un système d’exploitation sans faille
  • Pour la sociologue Deborah Cowen (@debcowen), nous sommes entrés dans la tyrannie de la techne explique-t-elle dans The Deadly Life of Logistics (2014) : l’efficacité est devenu primordiale sur tous les autres objectifs, sur toutes les autres valeurs
  • Autre exemple avec How-Old.net un outil de reconnaissance faciale qui tente de prédire l’âge d’une personne, et qui a été utilisée pour deviner l’âge de migrants arrivants au Royaume-Uni. Microsoft, qui a développé cette application, s’est défendu et a dénoncé cette utilisation… comme les 2 chercheurs chinois. Ceux-ci expliquaient néanmoins dans leur défense que leur système était « sans préjugé » (sic). Comme souvent, on nous explique que la technologie, et plus encore l’apprentissage automatisé, est neutre. Mais « la technologie n’émerge pas de nulle part. Elle est toujours la réification de croyances et de désirs, notamment de ses créateurs. Leurs biais sont encodés dans les machines et les bases de données ou les images que nous prenons du monde. »
  • Pour Bridle, le problème n’est pas tant que les machines puissent réécrire la réalité, mais que la réalité, le passé comme le futur, ne puissent plus être correctement racontés. DeepDream de Google illustre parfaitement cela. L’enjeu n’est pas pour nous de comprendre ce qu’est l’image, mais de nous demander ce que le réseau de neurones veut y voir ?
  • Pour Bridle, nous devrions ajouter une 4e loi aux trois lois de la robotique d’Asimov. Les machines intelligentes devraient être capables de s’expliquer aux humains. Ce devrait être une loi première, car éthique. Mais le fait que ce garde-fou ait déjà été brisé laisse peu d’espoir quant au fait que les autres règles le soient à leur tour. « Nous allons devoir affronter un monde où nous ne comprendrons plus nos propres créations et le résultat d’une telle opacité sera toujours et inévitablement violent ».
  • Pour Bridle, l’alliance entre l’humain et la machine peut encore fonctionner, comme l’a montré Garry Kasparov avec les échecs avancés, consistant à ce qu’une IA et qu’un humain jouent ensemble plutôt qu’ils ne s’affrontent. C’est dans la perspective d’associer les talents des humains et des machines, d’associer leurs différences d’une manière coopérative plutôt que compétitive que nous parviendrons à réduire l’opacité computationnelle. La perspective que l’intelligence des machines nous dépasse dans nombre de disciplines est une perspective destructrice. Nous devons trouver la voie d’une éthique de la coopération avec les machines, plutôt qu’un affrontement.
  • Bridle s’en prend également longuement à la surveillance et notamment à la surveillance d’Etat pour souligner combien elle nous est masquée et continue à l’être, malgré les révélations d’Edward Snowden. Vous pouvez lire n’importe quel e-mail dans le monde d’une personne dont vous avez l’adresse. Vous pouvez regarder le trafic de tout site web. Vous pouvez suivre les mouvements de tout ordinateur portable à travers le monde. Pour Bridle, cela nous a montré qu’il n’y a pas de restriction possible à la capacité de surveillance du réseau. L’échelle et la taille de la surveillance a excédé ce que nous pensions comme étant techniquement possible.
  • En opposition au secret, nous demandons de la transparence, mais elle n’est peut-être pas le bon levier. La NSA et Wikileaks partagent la même vision du monde avec des finalités différentes, rappelle Bridle. Les deux pensent qu’il y a des secrets au coeur du monde qui, s’ils étaient connus, pourraient rendre le monde meilleur. Wikileaks veut la transparence pour tous. La NSA veut la transparence pour elle. Les deux fonctionnent sur une même vision du monde. Wikileaks ne voulait pas devenir le miroir de la NSA, mais voulait briser la machine de surveillance. En 2006, Assange a écrit « Conspiracy as Governance » (.pdf). Pour lui, tout système autoritaire repose sur des conspirations, car leur pouvoir repose sur le secret. Les leaks minent leur pouvoir, pas par ce qui fuite, mais parce que la peur et la paranoïa dégradent la capacité du système autoritaire à conspirer. Mais les fuites de données ne suffisent pas à remettre en cause ou à abattre l’autorité. Les révélations ne font pas bouger l’opinion, sinon, nous aurions réagi bien avant les révélations de Snowden. Tant que les organisations de surveillance ne changent pas de l’intérieur, ceux qui sont en dehors de ces organisations, comme les lanceurs d’alertes, n’ont pas de capacité d’action. Ils attendent que des fonctionnaires ou que la justice confirment ce qu’ils avancent.
  • Mais la lumière du calcul nous dépossède de pouvoir, car elle nous fait crouler sous l’information et nous donne un faux sens de la sécurité. C’est là encore une conséquence de la pensée computationnelle. « Notre vision est devenue universelle, mais notre capacité d’action, elle, s’est réduite plus que jamais. » A l’image du réchauffement climatique, à nouveau, « nous savons de plus en plus de choses sur le monde, mais nous sommes de moins en moins capable d’agir sur lui ». Au final, nous nous sentons plus démunis que jamais. Plutôt que de reconsidérer nos hypothèses, nous nous enfonçons dans la paranoïa et la désintégration sociale.
  • Le monde est devenu trop complexe pour des histoires simples. En fait, « la démultiplication de l’information ne produit pas plus de clarté, mais plus de confusion ». L’un des symptômes de la paranoïa consiste à croire que quelqu’un vous surveille. Mais cette croyance est désormais devenue raisonnable, s’amuse Bridle en évoquant la surveillance d’Etat comme la surveillance des services numériques. Nous sommes entièrement sous contrôle, tant et si bien qu’on peut se demander qui est paranoïaque désormais ?
  • « Les théories conspirationnistes sont le dernier ressort des sans pouvoirs, imaginant ce que serait que d’être puissant », avance Bridle. Pour le spécialiste de la postmodernité, Frederic Jameson, les théories conspirationnistes sont « la cartographie cognitive des plus démunis dans un âge postmoderne ». C’est la figure dégradée de la logique par ceux qui ont le moins de capital culturel, une tentative désespérée de se représenter un système qu’ils ne comprennent pas. Encerclé par l’évidence de la complexité, l’individu a recours à un récit simpliste pour tenter de regagner un peu de contrôle sur la situation. À mesure que la technologie augmente et accélère le monde, celui-ci devient plus complexe. Les théories conspirationnistes deviennent alors des réponses, étranges, intriquées et violentes, pour s’en accommoder.
  • Ainsi, si vous cherchez de l’information sur les vaccins, vous tomberez invariablement sur de l’information contre les vaccins. Si vous cherchez de l’information sur la rotondité de la terre, vous tomberez inexorablement sur ceux qui pensent qu’elle est plate. Ces opinions divergentes semblent devenir la majorité tant elles sont exprimées et répétées avec force. « Ce qui se passe quand vous désirez en savoir de plus en plus sur le monde entre en collision avec un système qui va continuer à assortir ses réponses à n’importe quelle question, sans résolution ». Vous trouverez toujours quelqu’un pour rejoindre vos points de vue. Et toujours un flux pour les valider. Voici l’âge de la radicalisation algorithmique (à l’image de ce que disait Zeynep Tufekci de YouTube). Les théories conspirationnistes sont devenues la narration dominante. Elles expliquent tout. Dans la zone grise des connaissances, tout prend un sens.
  • Les failles des algorithmes sont les dernières failles du capitalisme où certains s’infiltrent non pas pour le renverser, mais pour tenter de gratter un peu d’argent que les plus gros systèmes s’accaparent. Au final, des vidéos automatisées finissent par être vues par des enfants. Leurs personnages préférés y font n’importe quoi, parfois suggèrent des scènes de meurtre ou de viols. Ces effets de réseaux causent des problèmes réels. Les algorithmes de YouTube ont besoin d’exploitation pour produire leurs revenus. Derrière leurs aspects séduisants, ils encodent les pires aspects du marché, notamment l’avidité. « La capacité à exploiter l’autre est encodée dans les systèmes que nous construisons », pointe très justement James Bridle, puisque leur efficacité repose sur leur capacité à extraire de l’argent de nos comportements.
  • À défaut d’une solution, Google annonçait en avril que l’application YouTube Kids allait devenir « non-algorithmique »… À croire, comme le pointait très justement le chercheur Olivier Ertzscheid, que l’algorithimsation n’est pas une solution sans limites.
  • Pour Bridle, les humains sont dégradés des deux côtés de l’équation : à la fois dans l’exploitation qui est faite de leur attention et à la fois dans l’exploitation de leur travail. Ces nouvelles formes de violence sont inhérentes aux systèmes numériques et à leur motivation capitaliste. Le système favorise l’abus et ceux qui le produisent sont complices, accuse-t-il. L’architecture qu’ils ont construite pour extraire le maximum de revenus des vidéos en ligne a été hackée par d’autres systèmes pour abuser d’enfants à une échelle massive. Les propriétaires de ces plateformes ont une responsabilité forte dans l’exploitation qu’ils ont mise en place. « C’est profondément un âge sombre quand les structures qu’on a construites pour étendre la sphère de communications sont utilisées contre nous d’une manière systématique et automatique. »
  • Pour Bridle, les fausses nouvelles ne sont pas le produit de l’internet. Elles sont le produit de la cupidité et de la démocratisation de la propagande où tout a chacun peut devenir un propagandiste. Elles sont un amplificateur de la division qui existe déjà dans la société, comme les sites conspirationnistes amplifient la schizophrénie.
  • Mais ce qu’il y a de commun avec le Brexit, les élections américaines ou les profondeurs de YouTube, c’est que malgré tous les soupçons, il reste impossible de savoir qui fait ça, qu’elles sont leurs motivations, leurs intentions. On peut regarder sans fin ces flux vidéos, on peut parcourir sans fin les murs de mises à jour de statuts ou de tweets… cela ne permet pas de discerner clairement ce qui est généré algorithmiquement ou ce qui est construit délibérément et soigneusement pour générer des revenus publicitaires. On ne peut pas discerner clairement la fiction paranoïaque, l’action d’États, la propagande du spam… Ces confusions servent les manipulateurs quels qu’ils soient bien sûr, mais cela les dépasse aussi. C’est la manière dont le monde est. Personne ne semble réellement décider de son évolution… « Personne ne veut d’un âge sombre, mais nous le construisons quand même et nous allons devoir y vivre. »
  • Exploiter plus de données pour construire de meilleurs systèmes est une erreur. Cette méthode ne parviendra pas à prendre en compte la complexité humaine ni à la résoudre. Le développement de l’information n’a pas conduit à une meilleure compréhension du monde, mais au développement de points de vue alternatifs et concurrents. Nous devons changer nos façons de penser comme nous y invitait Lovecraft. Nous ne survivrons pas plus à l’information brute qu’à la bombe atomique. Le nouvel âge sombre est un lieu où le futur devient radicalement incertain et où le passé devient irrévocablement contesté. Mais c’est le présent dans lequel nous devons vivre et penser. Nous ne sommes pas sans pouvoir ni capacités. Mais pour cela nous devons nous défaire des promesses illusoires de la pensée computationnelle. Penser le monde autre, c’est ce à quoi nous invite James Bridle dans le nouvel âge sombre.
  • Reste à savoir si cet âge sombre des technologies est vraiment notre avenir. L’âge sombre du Moyen Âge n’a jamais vraiment existé ailleurs que dans les lacunes des historiens. On peut douter également de cette nouvelle obscurité ou regretter le titre faussement prophétique. Reste que la complexité et l’intrication du monde que décrit James Bridle, montrent combien il nous faut, plus que jamais, nous défaire justement d’une vision simple et manichéenne de la technologie.
  •  
    "Ce New Dark Age porte un titre prophétique et apocalyptique. Un peu trop peut-être. C'est effectivement un livre très critique sur notre rapport à la technologie, très éloigné du rapport souvent curieux et amusé que Bridle portait aux technologies avec la nouvelle esthétique. En une dizaine de chapitres, Bridle explore les glitchs qui sont désormais devenus des schismes, des scissions, des ruptures… comme s'ils n'étaient plus aussi distrayants. Dans son livre, il montre combien les bugs se cristallisent en caractéristiques. Combien la complexité technique que nous avons construite s'entremêle pour produire des effets en réseau, complexes, profonds, intriqués que nous ne parvenons plus vraiment à démêler. Son constat principal consiste à dire que ces dysfonctionnements ne sont pas amenés à être corrigés. Ils sont au contraire intrinsèques à la nature même des technologies qui se déploient aujourd'hui. Contrairement à ce que nous annonçaient les pionniers et les prophètes des technologies, pour Bridle, la technologie n'annonce pas de nouvelles Lumières ou une Renaissance, mais, comme Jules Michelet parlait du Moyen Âge, un âge sombre, une ère d'obscurité pour ne pas dire d'obscurantisme. Ni les réseaux sociaux, ni l'intelligence artificielle, ni les systèmes techniques ne vont nous aider à faire monde commun. Au contraire."
Aurialie Jublin

The Secret History of Women in Coding - The New York Times - 0 views

  •  
    "Computer programming once had much better gender balance than it does today. What went wrong?"
Aurialie Jublin

[Genre] "Pourquoi les femmes ont-elles disparu de la tech ?" - Numerama - 0 views

  •  
    Numerama sur Twitter : "
Aurialie Jublin

TRIBUNE. Comment la France s'est vendue aux Gafam - Le Point - 0 views

  • L'histoire du déclin du numérique français est une tragédie en trois actes. Il y eut d'abord les «  30 honteuses du numérique  », où une petite élite arrogante et dénuée de vision stratégique a démantelé notre industrie informatique et électronique grand public. Elle a débranché les travaux de recherches les plus intéressants et laissé nos meilleurs développeurs partir à l'étranger faute de pouvoir les associer à des projets ambitieux. Vient ensuite la capitulation vis-à-vis des grands acteurs américains. Ainsi, de nombreux politiques et hauts fonctionnaires français leur ont permis d'intégrer leurs technologies au cœur des prérogatives régaliennes de l'État : défense, renseignement, éducation, sécurité, mais aussi culture. Plusieurs d'entre eux quitteront leurs fonctions pour aller rejoindre ces sociétés. Le troisième acte se joue en ce moment. Alors que nos dirigeants se préparent à une vente à la découpe, il reste cependant un mince espoir d'inventer une autre manière d'utiliser le réseau plus en phase avec nos principes et nos valeurs. Mais pouvons-nous encore changer la doctrine des politiques numériques de la France  ? Quand on écoute nos hommes politiques, le déclassement de l'Europe vis-à-vis de l'Internet est présenté comme une fatalité. Un accident de l'Histoire à l'issue duquel les clés du monde de demain auraient été données aux États-Unis et à la Chine.
  • Nous aurions pu avoir un autre destin, car si les États-Unis avaient la vision et l'argent, c'est en Europe qu'ont été inventées deux des briques fondamentales de l'Internet : Linux et le Web. Mais à la différence du standard GSM, ces dernières ont eu le malheur d'être conçues par des individus talentueux hors des grandes institutions. Snobés chez nous, ces deux projets deviendront le moteur des plateformes numériques américaines et chinoises et l'instrument de leur domination mondiale.
  • Tout commence dans les années 70, avec l'abandon du réseau Cyclades de Louis Pouzin au profit du Minitel. Louis Pouzin en est le concepteur et il est l'inventeur de la segmentation des données en «  Datagramme  ». Il sera récompensé (avec Tim Berners-Lee et Vinton Cerf) par la reine d'Angleterre pour ses contributions essentielles à la création de l'Internet et il reste à ce jour un inconnu du grand public en France. Il faudra attendre 1994 pour que nos chercheurs acceptent enfin de s'intéresser à autre chose qu'à des technologies incompatibles avec l'Internet.
  • ...8 more annotations...
  • Quasiment au même moment, Alcatel décide de transférer ses usines vers la Chine. Son PDG veut appliquer la stratégie du «  fabless  », à savoir délocaliser la production tout en conservant le design en France. Ce sera une grossière erreur d'analyse. Lorsque les smartphones deviennent un succès international, la France n'a plus de capacités industrielles dans ce secteur, alors qu'elle était l'un des principaux fabricants dans le monde.
  • Alors que la Silicon Valley parie sur les talents et les start-up, la France préfère s'embourber dans des grands projets institutionnels sans avenir. Mais ces projets permettent aux politiques de faire des annonces et aux industriels déjà établis de bénéficier de la manne de l'argent public. Ainsi, le projet Quaero, qui visait à créer un «  Google Européen  », a été lancé par Jacques Chirac. Il terminera rapidement dans les oubliettes technologiques. Plus récemment, le Cloud souverain, qui se targuait d'être la réponse française à Amazon et Microsoft, sera abandonné en rase campagne puis revendu (et sans ironie aucune)… au chinois Huawei. Au final, beaucoup d'argent aura été dépensé soit pour concurrencer l'Internet lui-même soit pour contourner les start-up qui voulaient développer des solutions alternatives aux Gafam. C'est une génération entière d'entrepreneurs et de chercheurs que l'on a écartés pour redéfinir la politique industrielle du secteur. Tout récemment, le rapport sur l'intelligence artificielle de Cédric Villani n'a pas fait mention des deux meilleures solutions open sources dans le domaine : SciKit Learn et Keras qui se trouvent être… françaises.
  • L'acte deux commence avec le quinquennat Hollande. Un changement d'attitude va s'opérer vis-à-vis des grandes plateformes. La défaite est désormais entérinée en coulisses. Il ne s'agit plus d'exister au niveau mondial, mais de négocier avec les Gafam tout en faisant mine de s'indigner publiquement de leurs abus de position dominante.
  • Microsoft est devenue le partenaire de l'Éducation nationale, et Google le parrain de la Grande École du Numérique. La société de Big Data Palantir, proche des services secrets américains, a conclu un contrat avec la DGSI (et peut-être la DGSE  ?), et elle est également présente chez Airbus. Enfin, à l'échelon des collectivités territoriales, les régions vont s'appuyer sur Facebook pour «  la formation au numérique  ».Comment, dans ces conditions, se plaindre des conséquences des réseaux sociaux et de l'impact des Gafam sur notre démocratie quand nous leur avons ouvert si largement les portes de l'État  ?
  • En effet, ce gouvernement prend un risque inconsidéré en pariant notre avenir sur une hypothétique transformation numérique autour de «  l'intelligence artificielle  ». Si nous ne nous donnons pas les moyens de réguler la manière dont ses entreprises et ce type de technologies fonctionnent, nous pourrions détruire notre modèle social en tentant de copier ceux de la Chine ou des États-Unis. L'ironie du sort veut que, désormais, certains industriels et chercheurs américains s'appuient sur l'Europe et sa réglementation sur les données personnelles pour sortir d'un modèle numérique qui n'est pas «  durable  ». Aux États-Unis, le ministère de la Santé a ainsi lancé une grande étude sur l'impact des écrans et le Sénat a analysé, dans un rapport très détaillé, les manipulations des réseaux sociaux qui ont eu lieu lors de la dernière campagne présidentielle.
  • Il existe pourtant un scénario de sortie de crise. En effet, la meilleure réponse à la crise de confiance systémique vis-à-vis des Gafam est de soutenir les mouvements autour des technologies «  éthiques  ». Il s'agit d'un nouveau terrain de croissance industrielle pour l'Europe, comme le Bio l'a été pour l'agriculture. De nombreux entrepreneurs réfléchissent à d'autres façons de concevoir la technologie, s'appuyant beaucoup moins sur la donnée et créant moins d'intrusions vis-à-vis de leurs utilisateurs. C'est le mouvement autour des logiciels éthiques et du Slow Web. Ce mouvement, qui s'est réuni en septembre dernier à Copenhague, souhaite définir un meilleur équilibre entre usage numérique et monde réel pour ne pas rendre ces technologies aliénantes. Il prône notamment l'arrêt de certaines pratiques toxiques comme le profilage (micro targeting) ou la manipulation de nos émotions via des messages ciblés sur nos mobiles dont nous avons vu les conséquences désastreuses lors du référendum sur le Brexit ou l'élection américaine.
  • Nous devons désormais exiger que les choix technologiques faits par l'État (comme les décisions politiques dans ces domaines) soient lisibles et compréhensibles par l'ensemble des citoyens… Car s'il s'agit de faire de la France une colonie numérique des plateformes et qui ne profiterait qu'à une petite bourgeoisie d'Internet, alors il faudra le dire clairement  
  • Il est temps également de voir émerger une nouvelle forme de résistance citoyenne. Car l'usage de ces technologies n'est pas neutre, la substitution de l'action de l'État par des algorithmes rend caduque l'égalité de traitement entre chaque Français. Le remplacement de nos services publics par un «  État plateforme  » totalitaire (à l'instar du «  Crédit social  » qui voit chaque Chinois recevoir une note qui détermine leur capacité à se déplacer ou à obtenir un crédit) n'est pas la vision que nous souhaitons promouvoir. C'est pourtant ce qui se prépare dans certains cabinets ministériels lorsqu'il est question d'État plateforme…
  •  
    "Pour le pionnier du Web français Tariq Krim, l'histoire du déclin du numérique français est une tragédie en 3 actes. Il existe pourtant une sortie de crise."
Aurialie Jublin

Qu'est devenue l'utopie d'Internet ? | Revue Projet - 0 views

  • Si les années 1990 constituent bien une sorte d’âge d’or de l’utopie numérique, l’expansion d’Internet va progressivement remettre en cause cette vision enchantée du cyberespace. Afin de financer le développement de l’infrastructure, l’administration scientifique en charge d’Internet décide, en 1993, d’ouvrir le réseau aux entreprises privées. Jusqu’alors soutenu par la puissance publique, il était considéré comme un outil de coordination scientifique dont les usages se devaient d’être strictement non lucratifs. Mais le développement de services commerciaux d’accès favorise la découverte du web par un plus large public.
  • La deuxième trahison tient à l’accroissement du contrôle des communications dans un espace numérique jusqu’ici marqué par le principe d’auto-régulation et de responsabilisation de chaque participant. Dans les années 1990, les premières « affaires du net » révèlent la face sombre du web : incitations à la haine, pédopornographie, piratage informatique, propagande, etc. Ces menaces favorisent un retour progressif des États, jusqu’alors remarquablement absents, pour réguler les échanges et protéger les droits sur Internet. Depuis les années 2000, les initiatives législatives se multiplient pour lutter contre le piratage, la prolifération de contenus haineux ou, plus récemment, la manipulation de l’information.
  • Retour du contrôle des communications, règne de la marchandisation et centralisation du web autour des grandes plateformes : ces transformations d’Internet sont dénoncées comme autant de coups portés au projet initial de « l’Internet libre », principalement de la part des Gafam. Pour autant, on aurait tort d’opposer schématiquement les défenseurs aux fossoyeurs de l’utopie numérique. Google s’est parfois trouvé aux côtés des militants du net pour défendre la libre circulation de l’information, la neutralité du net ou l’assouplissement de la propriété intellectuelle. Le projet « Google books » de numérisation de livres, par exemple, n’est pas sans rappeler celui de bibliothèque universelle formulé par les premiers concepteurs du réseau. On songe également aux prises de position très strictes d’Apple au sujet de la protection de la vie privée5. Ces affinités s’expliquent aussi par les racines culturelles de l’utopie numérique. Les fondateurs d’entreprises numériques, les développeurs qui y travaillent, sont bien souvent des utilisateurs pionniers et passionnés d’Internet. Pour certains, l’esprit de la Silicon Valley, loin de marquer une trahison de l’utopie numérique, en constitue l’expression la plus aboutie en tant que synthèse entre l’esprit de la contre-culture et l’enthousiasme technologique d’entrepreneurs innovants.
  •  
    "Aux débuts d'Internet, un idéal d'horizontalité, de gratuité, de liberté. Trente ans après, le web s'est centralisé, marchandisé, et a été colonisé par les géants du numérique. Ces derniers ont-ils trahi l'utopie des pionniers d'Internet ?"
1 - 20 of 22 Next ›
Showing 20 items per page