Skip to main content

Home/ QN2019/ Group items tagged consommation

Rss Feed Group items tagged

Aurialie Jublin

Le Bitcoin va-t-il détruire la planète ? Contre point - LinuxFr.org - 0 views

  • « Si le Bitcoin consomme autant d’électricité que le Maroc, c’est une catastrophe, non ? » Actuellement le Bitcoin consommerait autant d’électricité que le Maroc. En fait, si on ne peut pas parler de catastrophe écologique c’est tout simplement parce que ce mot est plutôt employé pour une pollution flagrante (genre marée noire ou autre pollution chimique). Mais le fait est que le bitcoin consomme tous les jours et tous les jours un peu plus, la facture énergétique s’allonge et s'accroît ; c’est comme fumer : ça détruit un peu tous les jours les poumons et on ne parle de catastrophe que lorsque le cancer est là. Le Bitcoin seul ne crée pas le réchauffement climatique, mais il fait partie des nombreux systèmes qui tendent à l’aggraver. Donc : Si le Bitcoin consomme autant d’électricité que le Maroc, ce n’est pas une catastrophe mais ça n’est clairement pas bon du tout. Pour simplifier je vais diviser les erreurs de raisonnement en quatre parties : La fausse simplification consommation continue et gaspillée n’équivaut pas à pollution On ne compare que ce qui est comparable Oui, l’énergie du Bitcoin est gaspillée Les 2 phases d’optimisation en ingénierie
  • « …parfois l’électricité est là et inutilisée. C’est le cas des panneaux solaires, des barrages hydro-électriques ou des centrales nucléaires qui produisent de l’électricité, quoi qu’il arrive. On ne peut pas faire ON/OFF. Et l’électricité est pour le moment difficilement transportable. » 2 divisions par 0 et un verre de vin : Une plutôt évidente : “les panneaux solaires qui produisent de l’électricité quoi qu’il arrive” … sauf quand il fait nuit, quand la météo n’est pas clémente ou quand ils sont sales. L’autre division par 0 : “l’électricité est pour le moment difficilement transportable”. Difficilement par rapport à quoi ? Car en fait c’est sûrement la source d’énergie la plus transportable qui soit. D’ailleurs les pays européens sont interconnectés entre eux et s’échangent de l’électricité (bien plus rapidement qu’une transaction Bitcoin
  • Et même s’il est possible actuellement de perdre de l’énergie verte (en 2017 la Californie a perdu 300 000 MW faute d’utilisation). Cela démontre juste l’immaturité des réseaux électriques intelligents (smart grid).
  • ...6 more annotations...
  • “Les comparaisons que j’ai vues sont toutes plus absurdes les unes que les autres”, celle-ci en est un parfait exemple. Reprenons: qu’est ce que Bitcoin : Un système d’échange de valeurs. Ok, donc utiliser Bitcoin c’est comme payer avec sa carte bleue : le système a le même but. Donc ici, on essaye de nous faire avaler que 30 millions de personnes qui ne font que payer régulièrement avec leur carte bleue c’est pareil que 33 millions qui, en plus eux aussi, d’utiliser une carte bleue de temps en temps, se déplacent, s’éclairent, utilisent leurs ordinateurs, leurs machines, rechargent leurs téléphones, ont une climatisation, font fonctionner leurs entreprises … etc, bref 33 millions de personnes qui vivent. Non ce n’est pas du tout comparable : le fait que 30 millions d’utilisateurs de Bitcoin consomment autant que 33 millions de marocains démontre l’inefficacité énergétique extrême du Bitcoin.
  • « Surprise, le Bitcoin consomme à peine plus que la production des pièces de monnaies et des billets de banque ! Or, rappelons que les pièces et billets ne représentent que 8% de la masse monétaire totale et plus spécifiquement 6,2% pour la zone euro. » Effectivement je suis surpris ! Car je n’ai pas du tout les mêmes chiffres pour la production de monnaie. Mais j’ai l’impression que Ploum a intégré l’extraction de l’or dans le coût de production de monnaie ce qui est faux depuis de nombreuses années (j’y reviens juste après) Pour le coût de la monnaie fiduciaire je vais citer Emmanuelle Assouan, de la Banque de France :« le coût de fabrication d'un billet se situe entre 5 et 10 centimes d'euro. Une validation d'une transaction bitcoin c'est 215 kilowatts-heure… » 6.6. « Or, outre la consommation énergétique, l’extraction de l’or est extrêmement contaminante (notamment en termes de métaux lourds comme le mercure). » Donc l’excuse c’est “lui il pollue plus que moi, donc je peux polluer aussi”. C’est la défense Chewbacca !
  • 6.10. « Sans compter que nous n’en sommes qu’au début ! Bitcoin a le potentiel pour devenir une véritable plateforme décentralisée qui pourrait remplacer complètement le web tel que nous le connaissons et modifier nos interactions sociales et politiques : votes, communications, échanges sans possibilité de contrôle d’une autorité centralisée. » L’inefficience de Bitcoin a une conséquence lourde en plus de polluer : il ne scale pas (c’est à dire : très mauvaise montée en échelle). Il plafonne à 7 transactions par seconde, ce qui à l’échelle de la planète : 7 milliards d’utilisateurs potentiels, est vraiment … minable (presque sans mauvais jeux de mot). Pour comparer : VISA effectue en moyenne plus de 1600 transactions par seconde et des pics bien plus importants sont absorbés sans problème. Donc, non, sans résoudre le problème d’efficience, Bitcoin ne peut pas faire plus que ce qu’il fait aujourd’hui, c’est à dire finalement ne servir qu’à très peu d’utilisateurs.
  • Ploum ne parle que de la “Proof Of Work” comme concept de sécurisation. C’est pourtant une partie du système particulièrement inélégante qui devrait être remplacée par quelque chose de moins énergivore. Ethereum veut passer à la “Proof Of Stake” (preuve d’enjeux, moins énergivore) par exemple. Gridcoin remplace la “Proof Of Work” par des calculs utiles à l’humanité Duniter applique un handicap aux utilisateurs ayant trop de puissance de calcul ce qui évite la course à la puissance polluante. Bref, la consommation énergétique outrancière de Bitcoin n’est pas une fatalité pour les crypto monnaies.
  • Une image plus juste : le Bitcoin est actuellement comme un tracteur auquel on ajouterait des chariots, plus on lui ajoute de chariots, plus il crache de la fumée noire en faisant un boucan d'enfer et plus sa vitesse diminue … même si sa vitesse n’atteint jamais 0 km/h. A partir d’un certain nombre de chariots sa vitesse est tellement basse qu’il en devient inutilisable. Ici les chariots sont les utilisateurs et la vitesse représente les frais et la rapidité/lenteur des transactions. Ploum voudrait nous dire que ce tracteur rejette une fumée noire qui est une merveille d’écologie et que ce tracteur peut prendre l’autoroute sans rien y changer. Mais que c’est l’autoroute et notre perception de la vitesse qu’il faudrait adapter au système …
  • Je vous prie de croire que je n’ai aucune raison particulière de défendre les banques ou les états. Un système d’échange décentralisé est une bonne chose, mais pour moi laisser une planète dans le meilleur état possible à mes enfants est bien plus important.
  •  
    "Cet article est une réponse à celui de Ploum visible ici et ici. D'ordinaire j'aime bien les articles de Ploum, sa plume est plaisante et son analyse me paraît souvent juste; mais dans son article sur la consommation énergétique du Bitcoin, Ploum use de contre-vérités, de raccourcis et de métaphores inadaptées pour arriver à ses fins. Je vais m'attacher à démontrer qu'avec un minimum de connaissances des problèmes d'un réseau électrique, de la consommation d'énergie et de rendement il est impossible de considérer ce gaspillage d'énergie comme négligeable. Je reviendrai sur le pourquoi il est urgent d'être efficient dans tous les domaines. C'est-à-dire qu'il ne suffit pas "d'utiliser de l'énergie verte puis c'est tout", une telle affirmation relève d'une ignorance des problèmes liés à la transition énergétique."
Asso Fing

La consommation électrique des logiciels, un enjeu pour les industriels et… l... - 0 views

  • Troisièmement, parce que le législateur pourrait intervenir… « En 2020 entrera en vigueur une législation européenne sur l'écoconception des serveurs et des unités de stockage en ligne, rappelle Rabih Bashroush, professeur en systèmes distribués et génie logiciel à l'Université de Londres-Est, qui a  participé à l'élaboration de ce texte . Il faut un cadre similaire pour la consommation des logiciels. » En France, un député, Fabrice Brun (LR), vient de  demander au gouvernement d'obliger les éditeurs de logiciels à « pratiquer une écriture plus vertueuse, en terme environnemental, du code informatique. »
  • Enfin, parce que jusqu'ici fabricants et gestionnaires ont tenté de réguler la consommation en jouant sur des solutions « matérielles » : utilisation de processeurs ou de cartes mères qui chauffent moins, de mémoires moins énergivores ; déclenchement des sauvegardes la nuit quand les serveurs sont moins occupés… Or, pour certains experts, ces gisements d'économies sont désormais épuisés. « Dans les dix ans à venir, il n'y aura pas de révolution technologique, facilement déployable à grande échelle, qui permettra de réduire la consommation énergétique du numérique : la seule voie possible est celle de la sobriété », affirme Hugues Ferreboeuf, qui dirige les réflexions sur l'empreinte carbone du numérique  au sein du think tank The Shift Project . « Nos data centers comptent d'ores et déjà parmi les plus économes du marché, mais nous devons aller plus loin, s'inquiète François Sterin, directeur industriel chez l'hébergeur Web OVH. Cet enjeu est crucial pour les fournisseurs de cloud, tant du point de vue commercial que sociétal. »
  • Reste donc une seule piste : la consommation induite par les logiciels. La mesurer est assez simple pour les smartphones et les objets connectés, plus compliqué pour les serveurs et PC. « On peut brancher des appareils de mesures - des sortes de wattmètres - sur les smartphones pour récupérer les données de la batterie, explique Thierry Leboucq. La mesure réelle permettra demain d'établir des normes et des labels pour valider l'éco-consommation d'un service numérique. » Pour les objets connectés, qui ne comportent que quelques composants, Alexandre Boé et son collègue Thomas Vantroys, de l'université de Lille, proposent déjà une solution. « Nous avons mis au point un petit appareil de mesure, composé d'un microprocesseur et d'un écran, coûtant une soixantaine d'euros, détaillent-ils. Couplé à des marqueurs introduits dans le logiciel, qui repèrent les fonctions les plus gourmandes, il permet aux fabricants et aux développeurs d'optimiser le fonctionnement et la consommation. »
  • ...6 more annotations...
  • La mesure est plus compliquée sur les serveurs et les PC. « Par exemple, les couches d'abstraction matérielle, ces logiciels intermédiaires entre le système d'exploitation et le matériel informatique, consomment de l'énergie que vous ne voyez pas », met en garde Marc Vautier, qui anime la communauté des Orange Experts « Energie et environnement » au sein du groupe Orange. Dès 2016, Jean-Patrick Gelas, docteur en informatique, avait publié, avec son équipe de l'université Lyon-1, un article exploratoire sur la mesure en temps réel de la consommation, dans la revue « International Journal of Electronic Business Management ». « L'idée était de coupler les mesures de puissance électrique, réalisées par un wattmètre, avec les instructions du logiciel et les tables de correspondance 'fonction réalisée/énergie dépensée' publiées par les constructeurs », explique-t-il.
  • Romain Rouvoy, professeur d'informatique à l'université de Lille, propose une approche basée sur l'estimation. En collaboration avec Orange et le cabinet Davidson Consulting, il a mis au point PowerAPI, un prototype de recherche distribué sous licence open source, disponible sur la plate-forme GitHub.  « Une fois installée sur un serveur, un ordinateur portable ou un robot, notre logiciel va évaluer, à l'aide de modèles mathématiques que nous avons développés, la consommation électrique des applications qui tournent sur ces machines », relate-t-il. Plusieurs industriels de l'automobile et de la robotique se disent intéressés par sa technologie.
  • « Les développeurs ne doivent pas s'empêcher de discuter des cahiers des charges avec les services marketing, qui peuvent, par exemple demander des serveurs disponibles 99,99 % du temps, là où 99,9 % suffiraient et permettraient d'économiser de l'énergie », conseille Erwan Diverrez, architecte logiciels chez Orange.
  • « On peut jouer sur le stockage de données - par exemple les données d'usage qui décrivent la relation de l'utilisateur avec sa machine - et ne les envoyer que lorsque le smartphone est en Wifi ; cela évite d'essayer continuellement de se connecter au réseau mobile », ajoute Sébastien Brault, développeur sur mobile chez Orange.
  • « Pour le Web, il existe des astuces comme la gestion du cache de la mémoire, par exemple, pour ne pas avoir à télécharger plusieurs fois une image qui apparaît sur plusieurs pages d'un site », ajoute Romain Petiot.  « On peut aussi jouer sur les langages de programmation utilisés et les bonnes pratiques de développement associées à ce langage », estime Romain Rouvoy, professeur d'informatique à l'université de Lille.
  • « La moitié de l'empreinte carbone du numérique provient de la production des équipements », résume Hugues Ferreboeuf, coordinateur du rapport « Pour une sobriété numérique » publié par le think tank Shift Project. L'autre moitié se répartit en trois tiers : la consommation des serveurs dans les data centers, les réseaux de télécommunication et les quelque 15 milliards de terminaux et périphériques sur lesquels tournent des logiciels.
  •  
    "Des logiciels tournent sur 15 milliards de terminaux et périphériques à travers le monde. Ce sont eux qui en commandent les besoins en énergie."
  •  
    "Des logiciels tournent sur 15 milliards de terminaux et périphériques à travers le monde. Ce sont eux qui en commandent les besoins en énergie."
Aurialie Jublin

Des impacts énergétiques et sociaux de ces data-centers qu'on ne voit pas - M... - 0 views

  • Côté consommation pour commencer, les études les plus pessimistes avancent que ceux-ci pourraient représenter jusqu’à 13% de l’électricité mondiale en 2030 (avec un secteur informatique qui consommerait jusqu’à 51% du total de la consommation électrique mondiale). Des chiffres qui ne font pas l’unanimité, The Shift Project prévoyant plutôt 25% pour le secteur informatique et 5% pour les data centers en 2025 (ces 5% équivaudraient tout de même à toute la consommation électrique actuelle du secteur numérique).
  • Même si l’on constate de nombreux efforts faits pour améliorer l’efficacité énergétique des infrastructures, par exemple du côté des « big tech », l’ADEME rapporte que les géants du numérique ne portent pas un véritable discours sur la « sobriété énergétique et numérique nécessaire pour rester sous la perspective d’une augmentation des températures planétaires de 1,5°.»
  • Le rapport insiste ensuite sur les déséquilibres qui résultent de certaines implantations dans les territoires. Première constatation : ces impacts sociaux sont très peu documentés. Bien souvent, les data centers arrivent sans dire leur nom, en périphérie des villes, aux Etats-Unis ou en France, à Saclay par exemple ou encore Plaine Commune. Cette furtivité des bâtiments rend d’autant plus difficile les contestations ou demandes de participation de la part des populations locales.
  • ...14 more annotations...
  • Ils sont considérés comme de simples entrepôts par les pouvoirs publics alors même que leur consommation électrique a des répercussions à l’échelle d’un territoire tout entier.
  • Autre phénomène important : les data centers attirent les data centers, pour des questions de mutualisation d’énergie et de réseaux de télécommunication. Bien souvent, les hiérarchies urbaines en place sont renforcées par ces mécanismes. Les élus eux, peinent à lutter contre des acteurs puissants qui imposent leurs conditions « dans une négociation asymétrique qui pousse certains territoires à sur-calibrer des infrastructures énergétiques, hydrauliques et viaires pour pouvoir accueillir quelques dizaines, ou centaines d’emploi si l’on inclut les phases de construction. »
  • Aujourd’hui, c’est plutôt pour installer des hangars logistiques et des fermes de serveurs qu’on artificialise les sols. Autre effet non négligeable qui mériterait sans doute une discussion plus ample avec les populations locales : l’étalement urbain.
  • Le rapport souligne ensuite les possibles synergies entre les infrastructures numériques et le territoire. La réutilisation de la chaleur générée par les data centers  est à ce titre un cas d’usage bien connu. A Bailly-Romainvilliers, par exemple, le data center de BNP Parisbas chauffe le centre nautique voisin. Celui de Céleste à Noisy-Champs, chauffe ses propres bureaux. D’autres systèmes très chauffants comme les chaudières numériques de Stimergy chauffent une partie de l’eau de la piscine de la Butte-aux-Cailles, dans le treizième arrondissement de Paris.
  • Cependant, ces exemples restent anecdotiques. Dans l’immense majorité des cas, la chaleur n’est pas récupérée. D’abord pour des questions de coût et de rentabilité économique : les promoteurs des data-centers attendent des rendements sur des périodes courtes incompatibles avec la contractualisation pour les réseaux de chaleur (des engagements qui coulent sur 25 à 30 ans
  • Il existe aussi un frein technique : il est préférable de prévoir ces éventuels contrats dès la construction du data center car le modifier a posteriori peut représenter des risques que les promoteurs ne sont pas prêts à prendre.
  • La cinquième partie du rapport, qui m’a particulièrement plu, fait la part belle aux initiatives citoyennes, associatives et publiques des « infrastructures numériques alternatives ». Du côté des fournisseurs d’accès, de nombreux acteurs associatifs comme franciliens.net ou Aquilenet dans le Sud-Ouest sont regroupés au sein de la Fédération FFDN. Ils viennent compléter l’offre des fournisseurs principaux (Bouygues, Free, Orange et SFR). Le grand atout de ces solutions est de miser sur le social, l’éducation et la démocratie : « Ils participent d’une gouvernance partagée du commun qu’est Internet en portant des valeurs de transparence, d’inclusion, de lien social, d’apprentissage technique, et d’incitation à la participation à la vie citoyenne. »
  • La socioanthropologue des techniques Laure Dobigny affirme que quand cette gestion inclut et implique, alors les consommateurs vont vers plus de sobriété : « la mise en place de systèmes techniques de plus petite échelle ont permis, en modifiant les usages, une réduction des consommations. » La question est ensuite de savoir comment passer d’une gestion commune de réseaux à une gestion commune de data-centers.
  • Le rapport présente un certain nombre de solutions, comme le cloud de pair-à-pair : « l’idée centrale sous-tendant ces dispositifs est que les fichiers et les contenus téléchargés par les utilisateurs dans le système sont stockés, totalement ou en partie, sur un nuage de stockage composé d’une partie des disques durs de chaque utilisateur, reliés entre eux en architecture P2P. » L’idée est plutôt simple : re-décentraliser internet, réduire le besoin de grands data-centers et atténuer l’impact spatial de ces infrastructures. Les limites de ces solutions sont nombreuses bien sûr : pertes de données, erreur, taille critique non atteinte… Il existe également des data centers « de proximité » comme les chatons (« Collectif d’Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires ») ou encore SCANI dans l’Yonne et Tetaneutral à Toulouse.
  • Pour terminer, le rapport dessine trois « mondes numériques possibles ». Le premier scénario parie sur l’extrême croissance et l’ultracentralisation numérique. Pour faire simple, c’est aujourd’hui mais en pire : tout est numérisé, plateformisé, big-daté et concentré dans les mains des GAFAMS ou d’autres acteurs similaires. La ville se conforme aux modèles numériques de la smart-city, la consommation de data explose. C’est la fuite en avant, la croyance qu’un monde infini existe. Côté C02, c’est la catastrophe, la température globale monte de 2,5° en 2050. Pics de chaleur dans les villes, problèmes sociaux, etc.
  • Le deuxième scénario est en demie teinte. On stabilise le système technique numérique en permettant la coexistence de deux mondes : celui des big tech et celui, plus centralisé, des infrastructures à plus petite échelle. L’Union Européenne taxe les « Net Goinfres », ce qui modifie les comportements : on échange moins de photos de chats et on tend à les stocker sur nos terminaux personnels plutôt que dans le cloud, idem pour la musique. Côté consommation, on parvient à réduire les émissions de CO2 du secteur de 5% par an entre 2025 et 2050, ce qui nous ramène au niveau de 2013.
  • Le dernier scénario propose une forme de décentralisation ultime du numérique qui signe plus ou moins la fin des data-centers tels que nous les connaissons. Internet devient plus local et dépendant des énergies renouvelables, ce qui ne permet plus d’assurer sa continuité. Le projet Greenstar au Canada suit ces principes et accepte les intermittences du réseau (follow the wind/follow the sun), de même, le blog du Low Tech Magazine s’arrête de fonctionner quand le vent ne souffle plus (le scénario nucléaire n’est pas vraiment envisagé car l’exercice prospectif est global). Ce scénario « effondrement » se base sur des infrastructures totalement low-tech (c’est-à-dire peu coûteuses en énergie) et permet assez ironiquement un « retour aux principes fondateurs d’internet (horizontal et distribué) ». Côté service, on se contente du local et l’international devient l’exception
  • L’ADEME invite également à soutenir les FAI indépendants et à créer un « service public du numérique et des data centers publics », notamment pour améliorer l’intégration spatiale des infrastructures. Les questions énergétiques font également l’objet de propositions : sobriété, récupération de chaleur, décentralisation.
  • Le chercheur Clément Marquet cité plus haut dans l’article me rappelle que ces différents rapports (Shift, ADEME) arrivent dans un moment particulier puisque le gouvernement a voté en octobre 2018 une loi visant à réduire la fiscalité énergétique pour attirer les gros data centers. Je le cite : « il y a une tension entre le projet de souveraineté numérique par les infrastructures (et des bénéfices économiques qui iraient avec bien sûr) et celui de réduction de la consommation énergétique. »
  •  
    "L'ADEME, via le projet Enernum, vient de publier une étude approfondie sur les impacts à la fois énergétiques et sociétaux de l'installation et du déploiement des data centers, en France et ailleurs. Ce travail vient confirmer les conclusions du Think tank The Shift Project qui alertait déjà des coûts carbone importants de ces infrastructures qui soutiennent tous nos usages numériques. Par delà les chiffres, l'ADEME replace les data-centers dans leur contexte humain et géographique et interroge la gestion de ce type d'infrastructure sur le territoire."
Aurialie Jublin

« Carbonalyser » : découvrez combien surfer sur le web coûte au climat - 0 views

  •  
    "L'extension de navigateur (ou add-on) « Carbonalyser » vous permet de visualiser la consommation électrique et les émissions de gaz à effet de serre (GES) associées à votre navigation internet. Il permet de se représenter la matérialité de nos usages numériques, afin de comprendre que même cachés derrière notre écran, les impacts du Numérique sur le climat et les ressources sont véritables. Téléchargez « Carbonalyser » dans le répertoire du navigateur Firefox ici : https://addons.mozilla.org/fr/firefox/addon/carbonalyser/. Pour calculer ces impacts, le programme : Comptabilise la quantité de données transitant via le navigateur, Traduit ce trafic en consommation électrique (via le modèle « 1byte » développé par The Shift Project), Traduit cette consommation électrique en émissions de CO2e selon la zone géographique."
Aurialie Jublin

Le mythe de la technologie salvatrice | Esprit Presse - 0 views

  • Le débat entre les pessimistes, qui craignent pour l’environnement, et les optimistes, tenants du business as usual, ne porte donc pas sur la nécessité d’agir – personne n’est vraiment pour la disparition des éléphants ou la contamination des nappes phréatiques aux pesticides –, mais sur la gravité du problème, l’intensité et la vitesse avec laquelle il faudrait réagir, la possibilité de changer modes de production et habitudes de consommation, la manière (régulation, taxes, incitations, soutien public…) et les moyens (financiers, techniques) de mener la transition.
  • De fait, les solutions techniques sont présumées disponibles et abordables, sinon à portée de main, que ce soit pour les énergies « décarbonées », les solutions de mobilité du futur ou la capacité des rendements agricoles à toujours s’accroître – ou à se maintenir. Les plus audacieux, comme Jeremy Rifkin, vont jusqu’à promettre de telles « ruptures » technologiques – un vocable à la mode – que tout ou presque en deviendrait gratuit ou à « coût marginal zéro », à commencer par l’énergie issue de sources renouvelables2.
  • La pénurie a bien été un aiguillon essentiel, à l’origine d’une grande partie des innovations de la révolution industrielle, car la croissance permanente de la consommation allait bientôt dépasser les capacités de ponction sur les ressources renouvelables, locales ou importées. Jusque tard dans le xixe siècle, il y eut une limite purement « surfacique » à la production de produits essentiellement animaux et végétaux 
  • ...11 more annotations...
  • Globalement (hors l’épineux problème de répartition), le système technique, enchâssé dans un système social, moral et culturel qu’il modifiait à mesure, a plutôt bien répondu aux « besoins ». Mais cela a eu un prix : celui d’une fuite en avant, d’une accélération permanente entre des risques de pénuries et de nouvelles solutions pour y répondre, créant elles-mêmes de nouveaux besoins et de nouveaux risques ; celui de pollutions, de destructions sociales et environnementales sans précédent. Nos « ingénieurs thaumaturges » font rarement des omelettes sans casser des œufs.
  • À quoi ressembleraient nos campagnes, s’il avait fallu y monter les nouvelles usines – et assumer leurs rejets – pour notre consommation exponentielle de téléphonie, d’informatique, de jouets, de vêtements ? Pour y répondre, il faut regarder les zones industrielles chinoises. Mais grâce à la distance, nous nous berçons d’illusions sur la « dématérialisation » de l’économie et la croissance « verte » à base de nouvelles technologies.
  • Le numérique n’a rien de virtuel. Il mobilise toute une infrastructure, des serveurs, des bornes wifi, des antennes-relais, des routeurs, des câbles terrestres et sous-marins, des satellites, des centres de données… Il faut d’abord extraire les métaux (argent, lithium, cobalt, étain, indium, tantale, or, palladium…), engendrant destruction de sites naturels, consommation d’eau, d’énergie et de produits chimiques nocifs, rejets de soufre ou de métaux lourds et déchets miniers. Ensuite fabriquer les composants, comme les puces au silicium qui nécessitent quantité d’eau purifiée, mais aussi du coke de pétrole, du charbon, de l’ammoniaque, du chlore, des acides, etc., fournis par le cœur du capitalisme « carbonifère9 ». Puis faire fonctionner le tout, avec plus de 10 % de l’électricité mondiale ! Enfin, se débarrasser des déchets électroniques, parmi les plus complexes à traiter : une partie – majoritaire – est incinérée ou jetée en décharge ; une autre rejoint les circuits « informels » (Afrique de l’Ouest, Chine…), où ils sont brûlés à l’air libre et empoisonnent les sols et les eaux. Le reste rejoint quelques usines spécialisées, qui ne récupèrent que partiellement les ressources. In fine, le taux de recyclage de nombreux métaux rares est inférieur à 1 %, un terrible gâchis.
  • Pourtant, plus que jamais, nous vivons dans la religion exclusive du « techno-solutionnisme », en plaçant tous nos espoirs dans les innovations et les effets bénéfiques (futurs) du numérique, en fantasmant un monde où tout sera bien mieux optimisé, où les outils et les services numériques seront facteurs d’efficacité et de sobriété : énergies renouvelables distribuées par des smart grids, covoiturage bientôt servi par des véhicules autonomes, déplacements fluidifiés dans les smart cities, économie de la fonctionnalité réduisant les équipements individuels, etc., sans parler des biotechnologies et des applications médicales.
  • Mieux, les technologies de demain ne seront pas seulement propres, elles seront réparatrices : les bactéries modifiées génétiquement dépollueront les sols, les big data et les capteurs protégeront les forêts tropicales, la science ressuscitera même le mammouth laineux, dont l’Adn dégèle en même temps que le permafrost.
  • Peut-on compter sur une « sortie par le haut » à base d’innovation technologique ? Il serait périlleux de tout miser dessus. En premier lieu parce que la plupart des technologies prétendument « salvatrices » nécessitent, à plus ou moins grande échelle, des ressources métalliques, non renouvelables, et viennent accélérer, plutôt que remettre en cause, le paradigme « extractiviste » de notre société thermo-industrielle
  • En second lieu parce que les gains d’efficience sont balayés par un formidable effet « rebond ». Indéniablement, la consommation d’énergie des véhicules, des avions, des centres de données, des procédés industriels baisse régulièrement, les innovations sont nombreuses et les progrès réels. Mais la croissance du parc automobile, des kilomètres parcourus, des données échangées et stockées est largement supérieure aux gains unitaires. Entre 2000 et 2010, le trafic internet a été multiplié par cent. Que vaut alors une amélioration de quelques dizaines de points d’efficacité énergétique par octet ?
  • Il n’y a pas de solution technique permettant de maintenir – et encore moins de faire croître – la consommation globale d’énergie et de ressources. En continuant à alimenter la « chaudière du progrès11 », nous nous heurterons tôt ou tard aux limites planétaires, régulation climatique en tête. C’est donc – aussi – vers l’économie de matières qu’il faut orienter l’innovation. Avant tout par la sobriété, en réduisant les besoins à la source, en travaillant sur la baisse de la demande et pas seulement sur le remplacement de l’offre.
  • Mais on peut imaginer toute une gamme d’actions, comme bannir le jetable, les supports publicitaires, l’eau en bouteille, revenir à des emballages consignés, composter les déchets même en ville dense, brider progressivement la puissance des véhicules et les alléger, avant de passer au vélo, adapter les températures dans les bâtiments et enfiler des pull-overs, car il est bien plus efficace, plus simple, plus rapide, d’isoler les corps que les bâtiments !
  • Pour recycler au mieux les ressources et augmenter la durée de vie de nos objets, il faudra les repenser en profondeur, les concevoir simples et robustes (Ivan Illich aurait dit « conviviaux »), réparables et réutilisables, standardisés, modulaires, à base de matériaux simples, faciles à démanteler, n’utiliser qu’avec parcimonie les ressources rares et irremplaçables comme le cuivre, le nickel, l’étain ou l’argent, limiter le contenu électronique. Quitte à revoir le « cahier des charges », accepter le vieillissement ou la réutilisation de l’existant, une esthétique moindre pour les objets fonctionnels, parfois une moindre performance, de l’intermittence, une perte de rendement ou un côté moins « pratique ».
  • Pourquoi ne pas tenter plutôt la voie d’une transition post-croissance vers un nouveau « contrat social et environnemental » ?
  •  
    "Les coûts écologiques de la technique (déchets, pollution) sont rendus invisibles par la délocalisation de la production industrielle. Ils devraient nous inciter à promouvoir une technologie sobre et résiliente."
Aurialie Jublin

Le CES de Las Vegas ou l'urgence de la sobriété numérique | Perspectives sur ... - 0 views

  • Le numérique, c’est surement là où les logiques de surconsommation, de renouvellement accéléré des équipements, d’options ubuesques, et des traitements "chaotiques" des déchets sont les plus fortes. C’est donc pour tout cela que la sobriété doit pénétrer pleinement désormais le numérique. Il ne semble pas que ce soit le chemin pris aujourd’hui, même si plusieurs acteurs notables tentent quelques propositions en ce sens : La Fing avec une journée Agenda pour le futur sur la « sobriété numérique » en 2018 ou son appel Reset en 2019 pour réinventer le numérique, le think-tank The Shift Projet présidé par Jean-Marc Jancovici avec un conséquent et solide rapport « Lean ICT – pour une sobriété numérique » publié en octobre 2018.
  • Le constat de départ est simple, c'est « le grand gâchis énergétique » comme le CNRS le résume. Le numérique c’est de l’ordre de 10% de la consommation d’électricité mondiale. Pour comprendre ces consommations énergétiques qui plombent l’imaginaire immatériel derrière le « cloud », il faut avoir en tête la consommation énergétique (et de matière ensuite) associée aux objets connectés, écrans, mais aussi réseaux et data-center de plus en plus nombreux.
  • Anne-Cécile Orgeri chercheuse de l’Irisa le rappelle, les terminaux entre nos mains ne consomment que 30% de cette énergie, les 70% restants étant consommés dans les data-centers, routeurs, et infrastructures cachés pour l’usager. Et comme toujours, les infrastructures sont dimensionnées pour la pointe. En gros, c’est le pic de streaming du soir qui détermine l’infrastructure, comme les heures de sortie de travail déterminent les périphériques routiers ou les consommations de chauffage le système électrique avec ses centrales d’extrême pointe. Tout cela concoure donc à un surdimensionnement, très consommateur d'énergie et de ressources, et dont la majorité des impacts sont occultés, ou invisibles pour l’utilisateur. Et on ne parle même pas à ce stade des limites même du recyclage, et des filières défaillantes des déchets numériques.
  • ...5 more annotations...
  • L’énergie grise, ou embarquée, est telle que les équipements numériques doivent incontestablement augmenter leur durée de vie puis réduire leur nombre. Il n’est pas du tout certain que l’Internet des Objets (IoT) présente un quelconque intérêt environnemental, par contre, il viendra indubitablement rajouter quelques équipements à des foyers déjà suréquipés (une dizaine d'équipements pour les citoyens américains par exemple). Mais avec les poubelles ou toilettes connectées, on voit bien qu'il n'y a guère de limites.
  • Sur le design, mais aussi le code et les logiciels, aujourd’hui parfois écrits à la va-vite et surconsommant ressources et énergie, des principes d’efficacité et de sobriété doivent aussi être mis en oeuvre. Cela n’est évidemment pas qu’une question technique mais aussi économique : quand pour consulter la météo, une vidéo publicitaire s’ouvre systématiquement avant de vous permettre l’accès à l’information, il va sans dire que 90% du volume de données n’a rien à voir avec la demande initiale…
  • Un numérique sobre, c’est aussi et surtout un numérique qui s'intéresse à « sa périphérie ». Plus largement, tant dans le hard que le soft, des équipements aux logiciels, c’est un numérique au service de la transition énergétique. Pas un numérique qui « connecte » notre poubelle, nos toilettes, ou notre réfrigérateur, mais un numérique qui aide à consommer moins de ressources.
  • Il faudrait donc développer des d’outils numériques qui, plutôt que de cacher (et repousser) leurs impacts, rendent visible à l’utilisateur tout ce poids, cette énergie grise ou ce « sac-à-dos matières ». Les formes de restitution pour l’utilisateur sont nombreuses à imaginer : de l’étiquette énergie/environnement lors de l’achat, l’indice de réparabilité en préparation, aux applications adaptées dans le quotidien et le paysage urbain, en passant par les indicateurs à penser pour les différents usages (un voyant, box, écran ou autre dispositif « rouge » pour du streaming à l'heure de pointe par exemple), voire une fiscalité environnementale incitative sur les équipements (type bonus/malus)…
  • Là où le pouvoir du numérique est encore grand, c’est par exemple dans la mise en visibilité d’alternatives existantes. Par exemple des itinéraires cyclables ou "marchables". Les collectivités sont tellement en retard sur ces liaisons douces sur de très nombreux territoires, notamment en milieu rural, que la mise en visibilité d’une pratique, d’une demande, peut être le premier pas pour mettre dans le débat public un besoin. Et là, la puissance d’un Maps, Google map, ou encore Openstreetmap est intéressant. Redécouvrir cette cartographie au profit de mobilité douce ou active est une perspective réjouissante pour la sobriété numérique. Il faudra ensuite bien sûr le relais des collectivités pour équiper durablement, éclairer la nuit, nettoyer l’automne et l’hiver, sécuriser les chemins de halage… mais le point de départ peut être la cartographie numérique des pratiques.
  •  
    "A la lecture du compte rendu du Consumer Electronics Show de ce début 2019 faite par Bernard Le Moullec dans l'Usine Nouvelle, l'urgence de la sobriété numérique vous saute aux yeux. Un tel déluge d'innovations inutiles fait surement bien plus que tout le travail de fond de think-tanks ou chercheurs pour prendre conscience de l'absurdité de la voie empruntée."
Aurialie Jublin

Transition énergétique citoyenne - Le Labo de l'économie sociale et solidaire - 1 views

  •  
    "La transition énergétique recouvre un ensemble de modifications structurelles pour passer de l'utilisation de ressources énergétiques non renouvelables à des ressources renouvelables dans notre production et notre consommation : industrie, transports, éclairage et chauffage… La transition énergétique citoyenne est faite « avec des citoyens qui se réapproprient la gestion de l'énergie, de sa production à sa consommation en passant par sa maîtrise, dans un esprit d'intérêt général. » Depuis 2015, le Labo de l'ESS analyse les leviers de la participation citoyenne dans cette transformation de modèle à partir des expériences des acteurs de l'ESS qui apportent aujourd'hui des réponses par leurs valeurs, dont notamment la gouvernance démocratique et leur ancrage territorial."
Aurialie Jublin

La surconsommation numérique se révèle insoutenable pour l'environnement - 0 views

  • "La transition numérique telle qu'elle est actuellement mise en œuvre participe au dérèglement climatique plus qu'elle n'aide à le prévenir", alertent les experts, quelques jours avant la publication du rapport spécial du Giec sur les moyens permettant de limiter le réchauffement de la planète à 1,5°C. Des conclusions qui rejoignent les préconisations du livre blanc "Numérique et environnement" publié en mars dernier par l'Iddri, la Fing, WWF et GreenIT.fr.
  • Dans le collimateur des experts ? L'usage de la vidéo, en premier lieu, dont la consommation explose malgré sa surconsommation énergétique. En particulier les vidéos de "petits chats" et le porno pointées par les participants du colloque. "L'impact énergétique du visionnage de la vidéo est environ 1.500 fois plus grand que la simple consommation électrique du smartphone lui-même", illustre le rapport.
  • C'est ensuite le nombre et la fréquence de renouvellement des terminaux, essentiellement des smartphones, qui posent le plus gros problème. "Il faut consommer environ 80 fois plus d'énergie pour produire « un gramme de smartphone » que pour produire « un gramme de voiture »", explique Maxime Efoui-Hess, l'un des contributeurs du groupe de travail.
  • ...1 more annotation...
  • Cette surconsommation capte une part importante de l'électricité disponible ainsi que des métaux rares et critiques nécessaires à la fabrication des équipements. Aussi, le numérique apparaît plus comme un frein à la transition énergétique que comme un facilitateur, bien qu'il puisse aider à réduire les consommations de manière sectorielle et malgré l'efficacité énergétique croissante des technologies digitales. Son impact climatique se révèle préoccupant, la part du numérique dans les émissions de gaz à effet de serre ayant augmenté de moitié depuis 2013. "Les évolutions actuelles des impacts environnementaux du numérique vont à l'encontre des objectifs de découplage énergétique et climatique du PIB fixés par l'Accord de Paris", conclut le rapport.
  •  
    "La croissance exponentielle du numérique constitue une menace pour le climat et les ressources naturelles, révèle The Shift Project. Le think tank recommande d'adopter urgemment un scénario de sobriété numérique."
Aurialie Jublin

Acrasie : l'intime désaccord - 0 views

  • Ce phénomène que nous essayons de mettre en lumière ici, qui fait que nous prenons des décisions qui vont à l’encontre de nos valeurs, est plus fréquent qu’on ne pourrait le croire. Il est même quasi-quotidien chez certains d’entre nous. En philo éthique, c’est ce qu’on appelle l’acrasie (du grec akrasia). « Je vois le bien, je l’approuve, et je fais le mal ». C’est ce que Médée explique à Jason dans Métamorphoses d’Ovide (non, ce n’est pas une sitcom). Et ça résume bien la situation dans laquelle beaucoup d’entre nous se trouvent quotidiennement : ils ne sont pas d’accord avec le fait d’être assis sur leur canapé devant Netflix, à s’empiffrer de chips et à scroller sur Instagram, cependant, ils sont confrontés à des choix qu’ils n’arrivent (apparemment) pas à résoudre.
  • Cette caractéristique du comportement, propre à pas mal d’entre nous, c’est ce que Alain Anquetil, auteur d’un travail de recherche sur la question, appelle « l’expression molle d’une préférence pour le statu quo ».
  • L’acrasie par contre, c’est bien cette incontinence, cette faiblesse de ne pas arriver à prendre la bonne décision, alors que précisément nous savons quelle est cette « bonne » décision. Parce que je ne reçois aucune gratification instantanée dans le fait d’utiliser Qwant à la place de Google. Cependant, si je suis d’accord avec les arguments énoncés un peu plus haut, je devrais opter pour un autre moteur de recherche.
  • ...7 more annotations...
  • Vous l’aurez compris : les pays avec le plus haut score d’acceptation étaient ceux dans lesquels les gens devaient faire un effort, et une démarche, afin de se désinscrire, alors que ceux dans lesquels il fallait tout simplement s’inscrire (ce qui semble, il est vrai, le plus logique) ont eu beaucoup de mal à fédérer plus de 10 % de réponses positives. Les conclusions de l’enquête ? Que ce soit en Suède, en Autriche ou même en France, les personnes interrogées ne sont certainement pas CONTRE le don d’organe, mais encore faudrait-il qu’elle fasse l’effort de le dire et d’exprimer leur choix. Nous sommes donc là en face d’un pur cas d’acrasie (les gens ont d’ailleurs souvent un vrai avis moral et éthique sur la question du don d’organe) : peu importe la raison, quand il s’agit de passer à l’action, l’incontinence reprend le dessus.
  • Comme le souligne Attali, l’engagement citoyen de façade est parfois doublé d’un égoïsme social présent lorsqu’il s’agit de nos intérêts personnels et de nos habitudes.
  • Le philosophe Ruwen Ogien pose la question de façon très ouverte dans La Faiblesse de la Volonté : « À quelles conditions un agent rationnel peut-il choisir le pire alors que le meilleur est accessible ? ». Quel est l’effet de dissonance cognitive qui est à l’œuvre, et qui nous fait penser que ces baskets, chèrement payées, valent l’argent que nous y mettons ? Le mimétisme ? La sensibilité aux histoires et aux émotions véhiculées par les marques ? 
  • Le « pré-engagement ». C’est la façon dont vous allez vous engager socialement par rapport à vos convictions, en les exprimant à vos proches, amis ou collègues. Reprenons l’exemple de la consommation de viande : une fois que vous avez dit à tous vos collègues que vous ne mangez plus de viande parce que vous êtes choqués par le traitement fait aux animaux dans l’élevage industriel, vous pourrez bien sur en reprendre, mais vous risquez quand même de passer pour quelqu’un de pas très « fiable ».
  • Les « intentions de mise en œuvre ». Contrairement au pré-engagement, les intentions de mise en œuvre s’adressent uniquement à vous même. Il s’agit tout simplement d’outils pour vous motiver et vous organiser de façon à mettre en œuvre ce que vous avez prévu. Un exemple très parlant, et pourtant totalement banal, est celui de la to-do list.
  • Les « embûches ». La légende dit que pour finaliser Notre-Dame de Paris dans le temps imparti, Victor Hugo s’est débarrassé de ses vêtements, afin de ne plus avoir de moyen de sortir de chez lui, et de s'obliger à rester assis devant son bureau – n’ayant plus rien d’autre à faire que d’écrire. Résultat : il a rendu son ouvrage plusieurs jours avant la date limite.
  • Si l’acrasie représente cette faiblesse de volonté, l’encrasie serait donc cette force de caractère nous permettant d’agir conformément à nos valeurs, à ce que nous pensons profondément être bon, et non à ce qui nous arrange ou ce qui peut arranger nos petites affaires sur le moment présent. C’est un long chemin, mais il ne faut pas le considérer comme hors d'atteinte pour autant. Au contraire.
  •  
    "Nous avons pris l'habitude de blâmer les géants du numérique pour tous les maux de la Terre. Serait-ce de leur faute si nos données personnelles sont revendues et utilisées contre notre gré ? Est-ce à cause d'eux que nous devenons de vraies loques humaines, incapables de faire autre chose de que scroller une quantité invraisemblable de contenu par jour, et d'emmagasiner des informations dont nous n'avons (en vrai) rien à faire ? Bonne nouvelle : les individus derrière l'excellente newsletter Tech Trash vous révèlent dans cet article initialement publié sur leur site le principal responsable de vos faits et gestes (qui ne sont pas, contrairement à ce que vous pensez peut-être, téléguidés par la Silicon Valley) : VOUS. Et un mécanisme de nos cerveaux baptisé acrasie : le fait de ne pas parvenir à prendre la bonne décision, alors que précisément nous savons quelle est cette « bonne » décision. "
Aurialie Jublin

Des plateformes en leurs limites | InternetActu.net - 0 views

  • L’ouvrage commence par remettre la réalité des plateformes en perspective… Après le temps des promesses de l’avènement de « l’économie du partage » (voir notre dossier de 2014) voire de « la quatrième révolution industrielle », Srnicek rappelle que nous en sommes bien loin. Le secteur des technologies reste relativement modeste dans l’économie, tant en terme de valeur ajouté que d’emplois. Le secteur industriel, malgré la désindustrialisation, est encore bien plus flamboyant que le monde des nouvelles technologies.
  • Pour Srnicek, le capitalisme s’est tourné vers les données pour assurer la croissance et la vitalité de l’économie, à l’heure où l’industrie ralentissait. En ce sens, les plateformes sont un nouveau modèle d’entreprise, dont la fonction est d’extraire, de contrôler et de rendre productifs les données. Un « mirage compétitif », comme l’évoquaient Maurice Stucke et Ariel Ezrachi dans leur livre, qui tend à devenir de plus en plus monopolistique.
  • Le capitalisme s’est restructuré autour du numérique, réservoir de nouveaux concepts, d’innovations réelles ou à venir, reposant sur l’extraction des données. Les données sont devenues la matière première à extraire et les activités des usagers, leur source naturelle. Elles sont désormais au coeur du système capitaliste : « elles nourrissent les algorithmes et donnent [aux entreprises] des avantages concurrentiels, elles coordonnent la main d’oeuvre et permettent souvent de l’externaliser, elles optimisent et flexibilisent les processus de production, elles transforment des produits peu rentables en services hautement profitables et, après leur analyse, elles donnent accès à toujours plus de données – dans une sorte de cercle vertueux. »
  • ...21 more annotations...
  • La plupart des entreprises capitalistes n’étaient pas conçues pour extraire et utiliser des données, mais pour produire des marchandises. Pour améliorer l’extraction de données, un nouveau type d’entreprise s’est développée : la plateforme. Ce nouveau modèle est un intermédiaire entre différents usagers qui vise via des outils ou une infrastructure dédiée à produire des données à exploiter. Leur seconde caractéristique est de reposer sur des effets de réseaux qui favorisent le nombre et donc produits par nature des formes monopolistiques, très rapidement. Autre caractéristique des plateformes, contrairement aux entreprises allégées qui ne visaient qu’à conserver les compétences essentielles au coeur du projet, les plateformes démultiplient les activités rentables et non rentables pour diversifier les données, comme Google fourbit des services gratuits pour capter un maximum de données. Enfin, elles se présentent souvent comme des espaces ouverts, alors que les services sont entièrement déterminés par leurs propriétaires. Bien que se présentant comme des intermédiaires, les plateformes contrôlent et gouvernent les règles du jeu !
  • Srnicek distingue 5 catégories de plateformes : la plateforme publicitaire (type Google ou Facebook qui consiste à extraire de l’information pour vendre de l’espace publicitaire), la plateforme nuagique (type Amazon Web Services… qui loue de l’équipement à la demande), la plateforme industrielle (comme celles développées par GE ou Siemens… qui visent à transformer la production industrielle en processus produisant des données), la plateforme de produits (comme celles mises en place par Rolls Royce ou Spotify… qui transforment les produits en service sous forme de location ou d’abonnement) et enfin, la plateforme allégée (type Uber ou Airbnb… qui réduisent les actifs au minimum et dégage des profits en baissant au maximum leurs coûts de fonctionnement).
  • Plus qu’un digital labor, concept à l’égard duquel le philosophe semble méfiant, les plateformes publicitaires reposent sur l’appropriation des données et leur raffinage pour assortir annonceurs et usagers. Ce modèle n’est pas seulement prédominant sur internet : Dunnhumby, propriété de Tesco, est une entreprise d’analyse des habitudes de consommation. Ces plateformes publicitaires ont connu un grand succès. Leurs revenus, leurs profits sont élevés.
  • Les plateformes nuagiques permettent aux entreprises de sous-traiter leur développement technologique. Le modèle locatif permet aux entreprises qui développent des services en ligne de collecter de nouvelles données pour renforcer l’extraction. Là encore, les profits et revenus s’envolent.
  • Les plateformes industrielles, comme MindSphere de Siemens ou Predix de GE, sont certainement moins connues. Elles consistent à introduire des capteurs et des puces dans la chaîne de production pour améliorer la traçabilité logistique, afin d’optimiser l’efficacité du processus de production, de développer de la personnalisation dans la chaîne de montage et dans la chaîne de distribution. Ces plateformes construites pour collecter des mégadonnées de filières industrielles spécifiques, sont, elles aussi, particulièrement rentables.
  • Les plateformes de produits et de services en tant que produits reposent pour beaucoup sur le modèle de l’abonnement, à l’image de Spotify ou encore de Rolls Royce, qui, pour ses moteurs d’avion, fait payer les compagnies aériennes pour l’utilisation de ses moteurs plutôt que de les leur vendre. En retour, Rolls Royce prend en charge l’entretien et les pièces de rechange. En récupérant ainsi les données, ces plateformes améliorent leurs produits, à l’image de Rolls Royce qui a pu ainsi améliorer la consommation de carburant de ses moteurs et leur durée de vie, au détriment de ses compétiteurs.
  • Enfin, les plateformes allégées externalisent à maximum leurs coûts. La plateforme contrôle uniquement ce qui lui permet de percevoir une rente de monopole (un pourcentage sur les transactions qu’elle facilite). C’est là clairement le modèle d’Uber ou de Airbnb, de TaskRabbit ou Mechanical Turk. Mais, rappelle Srnicek, ce phénomène n’est pas propre au numérique. Le marché des travailleurs journaliers, des emplois informels, de la sous-traitance… bref du travail traditionnel… est également très proche de ce modèle.
  • Le numérique y ajoute une couche de surveillance. Aux États-Unis, les emplois non conventionnels représenteraient 15 millions de travailleurs soit 10 % de la main d’oeuvre du pays en 2005, et 15,8 % en 2015. Ces emplois non conventionnels ont même dépassé le nombre d’emplois créés entre 2005 et 2015 aux États-Unis (9,4 millions contre 9,1 millions). Reste que l’accélération de la précarisation de l’emploi n’est pas tout entier imputable aux plateformes numériques. On estime que l’économie du partage en ligne représente 1 % de la main-d’oeuvre américaine et que les chauffeurs d’Uber en représenteraient la grande majorité. En fait, ce secteur demeure encore relativement marginal, estime Srnicek. Ces plateformes prolongent la précarisation du travail initié par les entreprises allégées dès les années 70. Srnicek rappelle très justement que ce travail « autonome » demeure largement contraint 
  • Pour Srnicek, ces entreprises qui bénéficient de force investissements, sont un phénomène consécutif à la crise de 2008, mais Uber, Airbnb et Didi Chuxing (le concurrent chinois d’Uber), ont raflé à elles trois en 2015 59 % du financement des entreprises émergentes des services à la demande. Elles ont surtout bénéficié de capitaux excédentaires cherchant des opportunités de rendements élevés dans un contexte de faible taux d’intérêt. Pour Srnicek, la rentabilité des plateformes allégées est encore largement à prouver. Elle repose sur leur capacité à comprimer les coûts et à abaisser les salaires… comme on le constate dans le monde des livreurs à vélo où le prix de la course n’a cessé de s’effondrer.
  • Srnicek en tire un enseignement qui va à l’encontre des discours ambiants sur le modèle des plateformes : « le modèle allégé reste un joueur marginal », qui ne survit que par l’apport de capital-risque plutôt qu’en générant ses propres revenus. « Loin d’incarner l’avenir du travail ou de l’économie, il est fort probable que ces modèles finissent par s’écrouler dans les années à venir ».
  • Reste souligne Srnicek, que « nous n’assistons pas à la fin de la propriété, mais bien à sa concentration ». Les plateformes en imposant leur monopole sur l’extraction des données sont en passe de devenir « propriétaires de l’infrastructure même de la société ».
  • Le problème est que les monopoles qu’elles construisent sont donc de plus en plus importants. Qui pourrait aujourd’hui venir défaire le monopole d’un Google par exemple ? Pour autant, cela ne signifie pas que la concurrence est morte, souligne Srnicek, mais qu’elle a changé de forme. Pour lui, nous serions plutôt dans un colonialisme de plateforme, un moment où la capitalisation sur la quantité et la diversité des données importent plus que leur qualité.
  • Outre l’extraction de données, l’autre travail des plateformes repose sur leur capacité d’analyse et de traitement qui participe lui aussi à la concentration. D’où les investissements massifs dans l’intelligence artificielle : « le moindre goulot d’étranglement dans la circulation de données (…) contribue à entraver la production de valeur ». Pour Srnicek, l’expansionnisme des plateformes repose sur un modèle de convergence, tant et si bien que malgré leurs différences, les grandes plateformes se concurrencent de plus en plus entre elles.
  • Pour Srnicek, cette tendance devrait à terme se cristalliser dans des écosystèmes de plus en plus clos : « la concurrence capitaliste risque fort bien de mener à une fragmentation d’internet » que seule une intervention politique pourrait ralentir ou renverser.
  • Encore faudrait-il être sûr que la concurrence soit encore une caractéristique du capitalisme tel qu’il s’est transformé ces dernières années… C’est peut-être oublier combien celui-ci est en train de muter. Les comportements assez similaires des grandes plateformes, leurs ententes et collusions, montrent que si elles se font effectivement une petite guerre entre elles, leurs principes semblent imposer une vision du monde sans grande concurrence. Le retour des monopoles, le fait que d’énormes conglomérats dominent les marchés, souligne que nous ne sommes peut-être plus dans un capitalisme où la concurrence était un préalable. Peut-être que l’analyse de Srnicek n’est peut-être pas assez radicale ?
  • La conclusion de Srnicek est limpide. Le numérique ne nous conduit pas du tout à dépasser le capitalisme. Nous restons dans une économie où règne la concurrence et la rentabilité. Pour lui cependant, le modèle des plateformes fait face à un défi d’importance qui risque d’éprouver leurs limites : la crise de la production industrielle. Depuis 2008, la croissance est en berne. La Chine elle-même connaît une surcapacité industrielle, qui entraîne une baisse des prix… L’internet industriel est vu comme un espoir pour inverser la situation et ajuster la production à la demande. Or, souligne Srnicek, l’internet industriel lui-même ne semble pas capable de transformer le mode de production en profondeur : il se cantonne plutôt à réduire les coûts et le temps de production, plutôt que d’améliorer la productivité ou de développer de nouveaux marchés. L’internet industriel vise plutôt à agir sur la baisse des prix, et ce alors que l’austérité tend à diminuer la demande et à faire chuter la productivité. Quant au capital, explique-t-il, il cherche un peu partout les moindres opportunités, mais sans qu’elles soient raccord avec les difficultés actuelles.
  • Pour Srnicek, le scénario le plus probable est que les plateformes se propagent dans tous les secteurs, alors que la concurrence les entraîne à se refermer sur elles-mêmes. Les plateformes publicitaires pourraient être poussées à offrir des services payants, alors que les plateformes allégées pourraient être amenées à se transformer en plateformes de produits. « En dernière analyse, il semble que le capitalisme de plateforme tende inéluctablement à prendre la forme d’un échange d’une rente contre un service ». C’est-à-dire à construire des rentes par ceux qui souhaitaient les défaire…
  • La grande promesse de libération des plateformes, de fluidification de l’économie, se termine sous la forme de simples droits de péages (le fameux 30 % de marge qu’elles pratiquent toutes peu ou prou) pour accéder aux services, selon le modèle de bien des entreprises traditionnelles qu’elles prétendaient détrôner.
  • Dans une conclusion certainement trop rapide, Nick Srnicek, rappelle que les enjeux à venir consistent à s’opposer aux monopoles, à développer d’autres types de plateformes qui bénéficient à ceux qui les utilisent, à l’image du coopérativisme de plateforme, à lutter contre l’ubérisation, c’est-à-dire contre la précarisation, qu’induisent les plateformes allégées, à lutter contre l’évasion fiscale et l’exploitation des données… Pour lui, pour agir sur ce qui a permis le développement des plateformes, il est nécessaire de construire des plateformes publiques, de collectiviser les plateformes existantes pour mettre leurs données au service d’une meilleure redistribution des ressources, d’une plus grande participation… D’imaginer une autre innovation ne reposant plus sur l’optimisation capitalistique. Dommage que cette dernière partie ne dépasse pas l’appel d’intention.
  • Pour Erik Brynjolfsson et Andrew McAfee, dans Des machines, des plateformes et des foules (2018), la plateforme était encore définie comme une solution magique, puissante, sans réelle externalité (« la plateforme est un environnement numérique qui se caractérise par un coût marginal d’accès, de reproduction et de distribution proche de zéro »). La catégorisation de Srnicek apporte donc un peu de complexité et de mise en perspective et permet de relativiser l’enthousiasme et la fascination pour les plateformes, longtemps vues comme des infrastructures qui mettent en correspondance l’offre et la demande.
  • La plateforme était surtout un instrument pour industrialiser la création de valeurs et accélérer les rendements d’échelle nécessaires à l’établissement d’une position dominante sur les marchés, via un ensemble de mécanismes allant du crowdsourcing à l’appariement, en passant par des technologies comme les API et toutes les capacités offertes aux développeurs tiers. Reste que ces mécanismes et ces technologies ne sont plus magiques.
  •  
    "En attendant leurs nouvelles publications, intéressons-nous au précédent livre de Nick Srnicek Plaform Capitalism (2016), qui vient d'être traduit en français sous le titre Capitalisme de plateforme (Lux éditeur, 2018). Il est certainement moins ambitieux sur le plan politique que son manifeste, mais très stimulant pour comprendre les transformations concrètes de l'économie numérique. Ce court essai d'analyse de la réalité économique des plateformes nous aide à en saisir leur impact en les situant dans leur réalité économique."
Aurialie Jublin

Contributopia : Dégoogliser ne suffit pas ! Peut-on faire du libre sans visio... - 0 views

  •  
    "Peut-on faire du libre sans vision politique ? Suite à sa campagne « Dégooglisons Internet » (oct 2014 - oct 2017), l'association a fait le bilan, calmement. Et il n'est pas brillant. En quelques années, les GAFAM/BATX/NATU (Google, Apple, Facebook, Amazon, Microsoft, Baidu, Alibaba, Tencent, Xiaomi, Netflix, AirBnb, Tesla, Uber) ont « colonisé » le monde, en formatant nos interactions, en normalisant nos relations, en orientant nos consommations, en contrôlant notre pouvoir d'agir. À l'œuvre derrière cette mécanique, une mutation économique et sociale : le capitalisme de surveillance. Avec sa nouvelle feuille de route « Contributopia », Framasoft souhaite mettre en place des outils et accompagner des dynamiques collectives qui permettraient de pouvoir agir plutôt que de subir. Il ne s'agit plus seulement de savoir « ce que nous refusons » (le logiciel propriétaire, les attaques contre nos libertés fondamentales, etc.), mais aussi de définir « quel monde nous souhaitons », et comment le logiciel libre et les communs peuvent nous aider à y le mettre en œuvre. Nous essaierons donc de poser les faits qui démontrent que l'open source se porte (très) bien mais que le logiciel libre (= open source + valeurs + éthique) soit dans une ornière depuis plusieurs années. Pour sortir de l'ornière, mais aussi de l'épuisement, ne devrions-nous pas faire un pas de côté et réinterroger les pratiques, les fonctionnements et les visions de nos communautés libristes ? Ne plus voir le logiciel libre comme une fin en soi nous permettant de nous libérer nous (libristes), mais comme un outil inspirant capable de favoriser l'émancipation de toutes et tous, et d'accélérer des transformations sociales positives ? La question politique a toujours été centrale dans le mouvement du logiciel libre, mais les questions économiques, techniques et juridiques - elles aussi profondément politiques, mais évitant soigneusement notre capacit
Aurialie Jublin

Les logiciels libres meurent lentement sans contributions - Framablog - 0 views

  • Et bien sûr, ce comportement de consommation passive a des impacts négatifs sur l’écosystème des logiciels libres. Vraiment. Habituellement, après quelques années, le développeur principal abandonne le projet. À ce moment-là, vous pouvez généralement lire ce genre de commentaires furieux sur son blog ou dans les rapports de bug « Espèce de branleur t’as plus mis à jour ton logiciel depuis des années, feignant va, des gens sérieux l’utilisent, réponds ou je laisse des milliers de commentaires insultants 
  • De nombreux professionnels de l’informatique qui utilisent les logiciels libres affichent un comportement de pure consommation dans leur relation avec les logiciels libres. Par exemple ils essaient souvent d’utiliser un logiciel dans un environnement très spécifique (version spécifique d’une distribution GNU/Linux, version spécifique d’un logiciel). Ils ne réussissent pas à l’utiliser dans cet environnement ? Ce logiciel est évidemment de la merde, il devrait fonctionner avec les paramètres par défaut, sinon il n’est pas convivial. La documentation est disponible ? Qui lit le doc ? J’ai besoin de réponses maintenant, je n’ai pas le temps de lire la documentation ! Et qui a écrit cette merde d’ailleurs ?
  • Ça fait 5 ans que ce logiciel alimente toute l’informatique, ce qui aide l’entreprise à gagner beaucoup d’argent ? Tout à fait. Le développeur principal demande de l’argent / de la reconnaissance par le biais des réseaux sociaux ? Sale clodo ! Il a besoin d’argent ? Moi aussi ! Cette personne a-t-elle un Patreon ? On s’en fout ! Ce type me doit d’utiliser son logiciel, il me casse les pieds, il adore coder gratuitement de toute façon ce pigeon.
  • ...5 more annotations...
  • Afin de ne pas ressembler aux tristes personnages décrits plus haut, merci d’aider les projets que vous utilisez. Si votre entreprise gagne de l’argent grâce aux FOSS et que vous êtes chef d’entreprise, financer ou bloquer du temps pour que vos développeurs donnent un coup de main pour au moins un projet que vous utilisez quotidiennement semble un objectif raisonnable et démontre une certaine compréhension de l’écosystème FOSS.
  • 99,9 % des projets FOSS sont des projets maintenus par une seule personne. Cette petite bibliothèque JavaScript que le frontend du site web de votre entreprise utilise ou ce petit script de sauvegarde de base de données dont tout le monde se fout mais qui vous a déjà sauvé la vie 2 fois.
  • Si l’argent n’entre pas en jeu dans votre utilisation des FOSS et si vous fournissez un service gratuit à d’autres personnes, faites savoir aussi largement que possible que vous utilisez des FOSS et n’hésitez pas à remercier certains projets de temps en temps. Le simple fait de dire aux personnes par le biais de Mastodon ou Twitter que vous utilisez leurs logiciels peut leur remonter sacrément le moral. Mettez en vedette leurs projets sur Gitlab ou Github pour leur faire savoir (ainsi qu’aux autres) que ce projet est utile.
  • Ne soyez plus un consommateur passif de logiciels libres et open source. Le niveau moyen nécessaire pour contribuer à un projet et les attentes des créateurs de logiciels libres et open source augmentent de jour en jour dans un monde où la complexité et les interactions s’accroissent rapidement. Il n’y a souvent qu’une toute petite équipe (d’une seule à 5 personnes) qui est au cœur du développement fondamental des FOSS.
  • Les consommateurs passifs n’envoient jamais un rapport de bogue. C’est une perte de temps, qui réclame des efforts.
  •  
    "Dans une récente conférence où il présentait Contributopia, le projet pluriannuel de Framasoft, sous son angle politique, Pierre-Yves Gosset s'attachait à déboulonner quelques mensonges avec lesquels se rassurent les libristes. Le nombre présumé des contributeurs et contributrices, en particulier, était ramené à sa juste proportion (entre 0 et 10 personnes pour des projets comme VLC, Gimp, Inkscape, Etherpad, Thunerbird, ... et 50 à 100 commits). Bien sûr, tout le monde ne peut pas envoyer des commits de code, mais l'exemple est symptomatique : le Logiciel Libre c'est surtout des consommateurs et consommatrices. C'est ce que souligne également Carl Chenet, plume invitée ci-dessous. Il pointe en particulier le risque sérieux d'étiolement voire de disparition pure et simple des équipes parfois minuscules qui maintiennent des FOSS (Free and Open Source Software, appellation œcuménique qui joint Les logiciels libres et open source). Il en appelle à une contribution minimale qui consisterait au moins à faire connaître les projets et encourager les créateurs à continuer. Chez Framasoft, nous sommes tout à fait en phase avec cet appel, voyez par exemple cet article sur le Contribution Camp qui propose quelques pistes pour « avancer ensemble vers la contribution ». "
Aurialie Jublin

Bientôt une IA éco-friendly ? - 0 views

  •  
    "Des chercheurs d'IBM publiaient une étude le 6 juin 2018 dans la revue Nature présentant un prototype de puce intégrant un réseau neuronal artificiel, permettant un système machine learning plus rapide, efficace et surtout consommant moins d'énergie qu'un même réseau fabriqué à partir d'un logiciel. Serions-nous sur la piste d'une adéquation entre progrès numérique et régulation écologique ?"
Aurialie Jublin

Internet Libre ou minitel 2.O conférence de Benjamin Bayart conf lors des rml... - 0 views

  • En fait la formulation qu'on retient habituellement c'est qu'on dit que sur Internet on a mis l'intelligence en périphérie du réseau. Dans Minitel on a mis l'intelligence au centre, c'est le contenu, c'est les bases de données avec des terminaux débiles autour. Internet c'est le contraire, on a mis des routeurs idiots au centre et on a mis en périphérie des ordinateurs qui réfléchissent. C'est ça le modèle d'Internet, la grande révolution qu'a été Internet, ça a été d'apporter ça. Les réseaux télé-informatiques centrés, on en fait depuis les années 50 à peu près
  • Ça j'aime bien aussi, Google, Yahoo, MSN c'est à peu près les trois moteurs de recherche qui font 95% de la recherche sur Internet et de l'indexation. À une époque, quand on cherchait le site Minitel qui permet quelque chose, on tapait 3615 et au lieu de taper le nom du site dans la case « nom du site » on allait dans la case « rechercher », on tapait des mots-clés, puis France Télécom proposait les services Minitel auxquels on pouvait se connecter. Bon ben ça ça s'appelle Google. Ils l'ont fait en couleur, ils l'ont fait en grand, ils l'ont fait avec de la pub sur le côté, mais c'est le moteur de recherche du Minitel, c'est pas ça Internet. Internet c'est pas les 8000 machines de Google qui détiennent le savoir de l'humanité. Internet c'est le contraire de ça. Donc finalement côté réseau sur la technique c'est pas du net, ce que vous utilisez couramment, c'est pas du net, c'est du Minitel.
  • Et on est venu sur un modèle qui est assez bizarre qui a beaucoup émergé ces dernières années de publicité/publication. Parce que si Monsieur France 2 veut être proprement diffusé il paye un droit de publication, c'est-à-dire qu'il paye les opérateurs réseau pour être diffusé. Si y'en a certains parmi vous qui ont suivi les débats sur la liste FRnOG il y a quelques mois, la trame sous-jacente c'était Monsieur Free qui disait à Monsieur Dailymotion « je transporterai pas ta merde si tu me donnes pas des sous ». Ça c'est le droit de publication. Curieusement y'a pas ça d'habitude sur Internet .C'est quelque chose d'assez récent. Et puis y'a la publicité, c'est-à-dire que, comme vous êtes des gens très partageurs, vous avez vos vidéos perso, aguichantes ou non, que vous mettez sur Dailymotion histoire que tout le monde en profite, curieusement les reversements publicitaires que perçoit Dailymotion, vous, vous les percevez pas. Parce qu'en fait vous leur confiez votre contenu pour qu'il y gagnent leur publicité. Ça c'est un modèle assez particulier et si vous regardez bien le mode publicité/publication on paye aux deux bouts, c'est-à-dire que celui qui a du contenu paye pour qu'il soit diffusé, et puis celui qui vient regarder le contenu il paye sous forme de publicité. On est bien revenu au modèle du téléphone. Maintenant c'est plus des communications à la minute c'est des publicités, mais le modèle est vraiment le même.
  • ...18 more annotations...
  • → Pluralité À la place du monopole local, on a une certaine pluralité, c'est-à-dire que les, on vous a parlé d'ouverture de la concurrence, de l'ouverture du marché tout ça... Moi quand on me parlait pas d'ouverture de la concurrence et d'ouverture du marché, c'est-à-dire quand je me suis abonné à FDN, c'était en 96, y'avait 5-6 opérateurs chez qui je pouvais m'abonner sur Paris et je pouvais prendre l'opérateur que je voulais. Y'avait pas de souci, y'en avait bien plusieurs.
  • → Transporteurs L'opérateur de réseau se comporte comme un transporteur, c'est-à-dire quand je commande un paquet chez un commerçant, pas forcément sur Internet, dans les années 80, chez Les 3 redoutes quand je commandais des chaussettes je payais mes chaussettes à Les 3 redoutes et Les 3 redoutes payaient le transport à La Poste, La Poste ne s'occupait que du transport. Ça c'est à peu près le modèle d'Internet. Mon FAI il transporte mes données, c'est tout, il regarde pas ce qu'il y a dedans c'est pas sa sauce. Finalement d'où ça vient, c'est-à-dire savoir si ça vient d'un contenu payant ou si ça vient d'un contenu gratuit, lui, il s'en fiche. Il transporte de manière neutre.
  • Alors quelques exemples d'opérateurs: bon forcément j'ai cité FDN, c'est le mien, j'ai cité Neuronnexion parce qu'on est à Amiens, et puis le gros national à l'époque c'était Oléane, c'est-à-dire que Oléane qui était un gros opérateur à l'époque, dans les débuts du net au milieu des années 90, Oléane était connecté à des dizaines d'autres opérateurs en France. Y'avait pas de problème pour obtenir un accord d'interconnexion, dans des conditions relativement équitables entre Neuronnexion qui était une PME avec quelques personnes sur Amiens et Oléane qui était une PME avec quelques dizaines ou quelques centaines de personnes sur la fin à Paris.
  • → Free Free même punition. C'est pas vraiment un opérateur Internet, c'est plus vraiment un opérateur Internet, c'est en train de basculer tout doucement vers un opérateurs Minitel. Y'a trois ans l'idée qui a été tenue sur FRnOG de dire à Dailymotion « je transporterai ta merde si tu me donnes des sous » elle aurait fait bondir les gens de chez Free. À l'époque où ils étaient petits ça leur aurait fait très peur parce que c'était un moyen de les empêcher de grossir. → SFR SFR, oui alors pour les gens qui savent pas SFR c'est le nom complet de Neuf-Cegetel, bah je sais pas c'est le plus gros actionnaire, moi je veux bien les appeler autrement, m'enfin voilà, l'actionnaire c'est SFR, donc eux, même chose, c'est plutôt un opérateur de téléphonie qui vend du net avec du vrai Minitel dessus.
  • Alors on n'a pas basculé du modèle à Internet qui commençait à émerger au milieu des années 90 au modèle Minitel qui est en train d'émerger aux États-Unis au début des années 2000 complètement par hasard. Il a fallu plusieurs morceaux pour en venir là. Même chose je vais me centrer plutôt sur les effets franco-français mais vous verrez le modèle s'étend assez bien.
  • → DRM : exclusivité D'abord les DRM, ça, ça vous parle on en a parlé beaucoup ici, DADVSI, Droits d'Auteur et Droits Voisins dans la Société de l'Information, pour les gens qu'oublient ce que veut dire l'acronyme. Créer des DRM c'est créer de l'exclusivité. C'est un morceau qui manquait sur Internet on pouvait pas créer de l'accès exclusif de manière simple. En mettant des DRM dedans on peut bien, c'est facile. C'est-à-dire qu'une fois qu'on aura bien mis des DRM dans tous les fichiers, l'opérateur pourra dire « je transporte, ou pas, les fichiers signés par Machin », Microsoft n'a pas envie de transporter les fichiers signés par Torvalds, simple, suffit de pas les transporter.
  • → Brevets : fermeture Les brevets ça crée de la fermeture. Je vous le disais tout à l'heure, Internet et le logiciel libre c'est très exactement la même chose, ce ne sont que deux facettes du même objet. À partir du moment où je mets des brevets je ferme le jeu. Si c'est breveté ça veut dire que quelqu'un d'autre n'a pas le droit de le refaire pour venir s'interconnecter. En fait une fois que j'ai bien breveté le mode de fonctionnement du Minitel, un méchant concurrent ne peut pas fabriquer des Minitel, ça ne sert qu'à ça les brevets, c'est même la définition du brevet.
  • → Filtrage : demi-connexions Le filtrage que nous demandent régulièrement les différents gouvernements, on pourrait croire que c'est de la censure fasciste, y'en a sans doute un ptit peu, je pense que quand les Renseignements Généraux demandent en loucedé à un opérateur de filtrer un gars ça pourrait ne pas être parce qu'il est terroriste mais juste parce qu'il fait chier, disons que ça s'est déjà vu. Mais ça a un effet de bord très amusant, une fois que les opérateurs ont mis dans leurs réseaux, c'est pas encore le cas mais ça vient, des boîtiers qui sont capables de filtrer, le boîtier qui est capable de filtrer je pense qu'il y a quelques informaticiens dans la salle, il filtre ce que l'admin sys demande de filtrer, c'est-à-dire ce que le gouvernement lui demande de filtrer parce qu'il est plutôt obéissant, pour pas aller en taule, et puis ce que son patron lui demande de filtrer. C'est-à-dire que le filtrage qu'est demandé par le gouvernement, pour des raisons probablement de sécurité publique, enfin on espère, il permet également de rétablir le modèle des demi-connexions, c'est-à-dire que je filtre les sites nazis et les filtres qui n'ont pas payé. Ça permet de bien faire rentrer ce modèle économique.
  • → Responsabilité : centré. La responsabilité, alors j'étends un ptit peu le titre, c'est les différents débats qu'on a eu depuis l'affaire Altern1 en, c'était quand l'affaire Altern 97, non 98, 99 par là, c'est la responsabilité des hébergeurs, c'est-à-dire que l'hébergeur est responsable de ce qu'il y a sur le site, et si on lui signale un contenu supposément illégal, il se doit de l'enlever avec diligence. Il pourrait l'enlever avec voiture mais diligence c'est mieux. Ça, ça veut dire que si je prends le risque de permettre à quelqu'un de poser son site web sur ma machine, s'il dit de la merde c'est moi qui vais en taule. Moi je peux pas l'assumer. France Télécom peut l'assumer parce que quand il aura un procès, France Télécom enverra son armée d'avocats, expliquera que dès qu'on lui a signalé le contenu elle l'a enlevé, je veux dire c'est vrai, c'était un dissident d'un endroit où on n'a pas le droit de dissider, qu'il aille donc dissider ailleurs, donc ça a été tout bien enlevé, et ils pourront dire, nous on est blanc bleus ils vont au procès, ils payent des avocats, ils s'en sortent. Par contre la PME de banlieue qui essayait de faire pareil, ben quand elle s'est retrouvée devant le juge, ça lui a coûté un œil de payer l'avocat, et puis comme le mec qui dissidait il disait des trucs finalement qu'en France on a le droit, ils ont estimé qu'ils allaient pas supprimer le site, et donc ça va jusqu'au procès et ça coûte cher. Donc la responsabilité des hébergeurs ça tend à faire que les petits hébergeurs ont du mal à exister parce qu'ils existent en vivant dangereusement, donc ça crée du réseau centrés, puisque les petits ont du mal à exister il restera que les gros.
  • → Régulation : interco La régulation c'est aussi quelque chose de fabuleux. Ce qu'on appelle régulation dans le monde Internet professionnel, c'est l'ARCEP, Autorité de Régulation des Communications Éléctroniques et des Postes, ex-ART, Autorité de Régulation des Télécommunications, c'est des gens qui ont été mis en place à l'époque où, suite à certaines directives européennes, on a ouvert le marché des télécom. J'ai assisté, alors, enfin si un ptit peu en tant que président de FDN, mais aussi avec d'autres casquettes, à une des réunions de l'ARCEP sur les réseaux d'initiatives publiques où y'avait le monsieur responsable du dégroupage en France, qui nous expliquait mort de rire que, y'a 10 ans quand ils ont commencé et qu'ils ont fait les premières réunions sur le dégroupage, il fallait une salle de réunion gigantesque pour asseoir les 50 opérateurs alors qu'aujourd'hui quand ils font les réunions sur le dégroupage, ils font ça dans son bureaux parce qu'ils sont 4, et il avait l'air content de lui pépère. C'est-à-dire que lui, il a été mis en poste pour ouvrir le marché, il est passé de 50 acteurs à 4 et il est content. Fabuleux! Moi je trouve fabuleux. Et donc ce petit jeu où on se retrouve avec 4 opérateurs qui vendent du Minitel-net 2.0 ben ça fait qu'ils sont suffisamment gros pour envoyer chier tous les autres, je veux dire quand on s'appelle Free et qu'on a 2 millions d'abonnés, ou quand on s'appelle France Télécom et qu'on en a 4, ou quand on s'appelle Neuf et qu'on en a je-sais-plus-combien à force de racheter leur clients je sais plus où ils en sont, 2,5 probablement, forcément, un Schtroumpf qui vient avec 20 000 comme Nérim rien à battre, parle pas aux ptits. Donc la difficulté d'interconnexion des réseaux, elle vient en bonne partie des erreurs de régulation ou des choix de régulation, parce que c'est ptet pas par erreur qui font qu'il y a plus de petits opérateurs.
  • → Gouvernance : assurance Et puis pour ceux qui étaient à la table ronde politique hier, y'a des problèmes de gouvernance. Les problèmes de gouvernances, ce sont tous ces braves gens qui se réunissent entre eux pour décider si oui ou non on va permettre aux gens d'acheter des noms de domaines sans leurs papiers, ou si on va distribuer des adresses IP aux pas gentils, ou comment on va faire en sorte que les pédo-nazis puissent pas faire ci ou ça, ou que les terroristes puissent pas poster, donc comment Google va filtrer tous les sites écrits en arabe parce que ça doit être suspect, sauf ceux bien évidemment signés par le gouvernement qui vend du pétrole. Tout ça c'est ce qu'on appelle la gouvernance Internet, c'est l'IANA, c'est l'ICANN, c'est le RIPE c'est etc. Ça en fait c'est une assurance. Une fois que c'est convenablement tenu par les quelques juristes des très gros opérateurs - vous pouvez y aller, y'a pas un technicien à poil dur, y'a quelques vieux barbus tout gris qui parlent BGP, le reste c'est tout du cravateux juriste docteur en droit, envoyé par les opérateurs pour vérifier que tout va bien. Ça c'est une assurance, c'est l'assurance du fait qu'ils resteront dans la position où ils sont.
  • Ils sont en train d’éteindre Internet D'où ça sort tout ça ? Ça sort schématiquement de l'histoire, c'est-à-dire que les gens qui ont de quoi fabriquer du réseau sont les gens qui ont fabriqué le téléphone et qui étaient en situation de monopole, ce sont les gens qui ont fabriqué la diffusion télé qui étaient en situation de monopole. Internet est né, à un moment ils se sont dit « tiens ça va se vendre » alors ils en ont vendu et puis, sans forcément être méchants, on pourrait croire à la théorie du complot mais j'y crois pas, je pense qu'ils sont pas assez malins pour s'être dit « tiens on va se liguer pour attaquer sur tous les fronts en même temps pour faire taire les pénibles »; moi je pense qu'ils l'ont pas fait exprès, mais ils sont en train d'éteindre Internet; et c'est un effet de bord naturel, c'est-à-dire qu'Internet remettait en cause leur monopole, ils ont fait chacun les petites actions dont ils avaient besoin pour essayer de maintenir leur monopole: les gros éditeurs de musique en faisant des DRM, les auteurs de logiciels tout pourris propriétaires en faisant des brevets, les marchands de contenu qui veulent pas qu'on aille acheter le contenu des autres en faisant du filtrage etc etc etc. Je pense même pas qu'ils se soient concertés pour faire tous les mêmes conneries.
  • On va manger du numérique avarié Et quand ils vous disent qu'on passe à l'heure du numérique, c'est vrai. Ils font bien du numérique, si vous regardez la télé autrefois y'avait de la neige, maintenant elle pixélise, c'est ben qu'elle est numérique ! Mais c'est pas de l'Internet, c'est du numérique. Du numérique, ça peut être le baladeur fermé propriétaire d'une grande marque japonaise en quatre lettres commençant pas S finissant par Y qui met des rootkit dans les CD ou ça peut être le fait que je fasse écouter la musique que j'aime bien à ma ptite sœur. Dans les deux cas, c'est du numérique, juste moi je trouve y'en a un il est avarié, je vous laisse deviner lequel.
  • L'apparition d'Internet a permis l'apparition du libre et l'apparition du libre a permis l'apparition d'Internet, les deux ont crû en même temps. Il va y a voir un décrochage. Le numérique va continuer à croître mais Internet a commencé sa décroissance il y a déjà quelques années. Il y a de moins en moins de gens qui s'hébergent eux-mêmes sur leur ligne ADSL. La décroissance d'Internet a commencé, la décroissance du libre c'est juste après. Même si vous arrivez à ce qu'ils ne fassent pas passer les brevets logiciels cette année et les DRM l'année prochaine, si vous arrêtez Internet, si vous les laisser arrêter Internet libre, vous allez mourir.
  • Donc je crois que ce sont les deux piliers, le premier c'est: il faut éduquer, aller expliquer aux gens ce que c'est qu'Internet, aller dire aux gens que Internet c'est pas de mettre des vidéos marrantes sur Dailymotion, Internet c'est de mettre les vidéos marrantes sur mon PC et que vous veniez les voir. C'est fondamental comme différence; ça c'est le premier pilier, éduquer les gens, c'est très long. Je veux dire on savait, 'fin moi ça fait très longtemps que je suis sur Internet, ça fait 10 ans que je suis président de FDN, ça fait longtemps que je réfléchis sur ces questions, là je sais que c'est long d'éduquer les gens. La croissance actuelle des ventes de Machin Box en Minitel 2.0 c'est pas la croissance de l'éducation au net. Le type qui publie son blog sur un ordinateur qu'il ne possède pas, il fait du Minitel alors il apprend à faire du Minitel amélioré où il peut parler, mais il n'a pas encore appris à faire du net, c'est-à-dire à mettre son blog sur une machine qu'il est le seul à pouvoir couper du réseau. C'est très différent, cette éducation-là va prendre un ptit peu de temps. Et le deuxième pilier c'est: faites votre réseau, faites vos serveurs IRC qui ne sont pas ceux des gros opérateurs, faites vos serveurs mail qui ne sont pas ceux des gros opérateurs. Faites votre réseau. Avec ces deux piliers-là, on aura quelques résistants qui sont ceux qui font le réseau, et quelques enseignants pour propager la bonne parole, ce sont les deux fondamentaux dont on a besoin. Je sais pas ce qu'on peut faire d'autre. Si, on peut essayer de se battre sur le juridique, mais on y va vraiment avec un lance-pierre contre des chars d'assaut.
  • y'a deux objections classiques au « hébergez-vous vous-mêmes », y'en a des moins classiques qui sont en général pas très intéressantes, en tout cas j'en ai pas encore entendu, y'en a deux qui sont vraiment classiques, y'a celle que tu indiques qui est intelligente, y'en a une autre qui est bête. Je vais commencer par celle qui est bête pour m'en débarrasser. Le « c'est compliqué techniquement », ça, c'est juste faux, je veux dire si le débile de base il est capable de poster une vidéo sur Dailymotion et il est capable de poster dans son blog, faire une Internet box qui contient le serveur Apache*4 qui contient son blog et les plug in type Dailymotion, il aura qu'à uploader vers sa boîte, c'est pas plus dur. Donc le « techniquement c'est compliqué » ça c'est juste faux.
  • Après y'a le problème écologique. La question écolo là-dedans c'est « si je laisse mon PC allumé tout le temps pour héberger mon pauvre site web qui a 12 visiteurs par jour, je brûle le courant plein pour rien ». Ça c'est un vrai problème. Mais dire « je vais m'héberger en salle machine avec tout le monde comme ça si on pose une bombe tout le monde se tait », c'est la mauvaise réponse. Quand les écolo disent « la consommation d'électricité fabriquée avec du charbon et du nucléaire c'est vachement dangereux » ils ont raison. Quand on apporte comme réponse « y'a qu'à se passer d'électricité », c'est pas la bonne. Un ordinateur capable d'héberger un site web c'est pas l'énorme machin avec 12 ventilos que tu utilises pour jouer au dernier jeu à la mode. Un ordinateur capable d'héberger un site web ça a une puissance de calcul similaire à celle qu'on trouve dans un palm aujourd'hui, ou dans un téléphone; c'est-à-dire que ton téléphone là, s'il était pas en Java avec de la merde dedans, il serait capable de faire des sites web comme on n'en rêvait pas en 95. Il consomme peau de balle en courant. Lui tu peux le laisser chez toi branché, et pour peu qu'en plus tu lui donnes du courant que t'as fabriqué avec des fines herbes et avec du bois, ou avec du solaire, ça va être nickel. Un ptit ordinateur qui ne mange que du solaire et qui est autonome tout seul dans sa boîte avec du solaire ça existe, les fous qui font des réseaux wifi bizarres ouverts etc, ils ont ça, des espèces de routeurs qu'ils viennent mettre sur le toit collés à la borne wifi, c'est 100% autonome si c'est sur du solaire, ça mange pas d'énergie.
  • -Hébergeur hébergé, c'est pas forcément une bonne réponse dans le sens « on se met à 3 et on loue une bécane dans une salle machine », c'est dans cet esprit-là? Dans cet esprit-là, dans la balance entre Internet et le Minitel quand tu mets ton site web chez OVH*6 tu es purement dans Minitel, quand tu mets dans le serveur des pages perso Wanadoo c'est pire, quand tu commences à le mettre sur le serveur hébergé en salle machine d'une assoss sympathique, l'Autre.net, Ouvaton des gens comme ça, Tuxfamily*7 tu rééquilibres un peu, quand tu le mets sur les machines auto-hébergées des gens comme RHIEN*8, le Réseau d'Hébergeurs Indépendants ENgagés, je vous invite à aller les voir si vous ne les connaissez pas, R-H-I-E-N, c'est super bien ce qu'ils font, ça penche presque vers de l'Internet parce que, eux, ils s'y mettent à 10-15-20-30 à héberger sur la machine du gars qui sait faire leur site web derrière leur ligne ADSL. On est quasiment sur de l'Internet, on est sur du beaucoup-net. Donc oui c'est mieux. Je veux dire si t'as à choisir entre les pages perso de ton fournisseur d'accès moisi qui retirera le contenu si ça lui plait pa,s et te faire héberger dans la même machine que ta bande de potes, c'est plutôt mieux la deuxième solution, maintenant si la machine en question elle est dans une salle machine qui t'appartient pas, où les flics ils rentrent quand ils veulent avec même pas un mandat, juste ils demandent poliment au monsieur à l'entrée, pas top.
  •  
    "Internet, logiciel libre, c'est la même chose En fait ce à quoi je veux en venir c'est que c'est la même chose: c'est-à-dire que sans logiciel libre pas d'Internet: si BIND n'avait pas été libre, si le protocole de routage IP n'avait pas été libre et ouvert Internet ne serait pas né. Donc sans logiciel libre pas d'Internet. Sans Internet pas de logiciel libre, évident. Si on supprime le mail et les échanges électroniques de code entre développeurs pour faire murir les softs, ça ne peut pas marcher. Les deux sont intimement liés: en fait ce sont deux facettes d'un même objet. Cet objet, si vous voulez on débattra tout à l'heure, je pense que c'est ce qu'on appelle la société du savoir, l'économie du savoir. Mais ce sont deux facettes du même objet on peut pas différencier, on peut pas dissocier Internet et logiciel libre, c'était ça le bout d'historique que je voulais vous raconter."
Aurialie Jublin

Le Crédit Social chinois et le dilemme éthique de la confiance par la notatio... - 1 views

  • Qu’est-ce que ce Crédit social ? Un système par lequel le comportement de chacun des citoyens chinois ainsi que les personnes morales sera évalué et noté. Une version béta est actuellement en test. Des entreprises, parmi lesquelles on retrouve par exemple China Rapid Finance, partenaire de Tencent (WeChat), Sésame Credit, une filiale de Alibaba et Didi Chuxing (équivalent chinois de Uber), participent à ce programme-pilote basé sur le volontariat mais qui deviendra obligatoire en 2020. Les citoyens seront ainsi notés selon cinq facteurs : leur historique de crédit, leur capacité à remplir leurs obligations contractuelles, leurs informations personnelles, mais aussi leurs comportements et préférences, et enfin leurs relations interpersonnelles.
  • Les propos tenus sur les réseaux sociaux seront ainsi analysés pour repérer les « énergies positives » : des messages favorables au gouvernement ou positifs sur l’économie du pays feront grimper le score des individus. Pour le moment les propos négatifs ne seraient pas pris en compte. Mais au-delà des paroles, les actes seront analysés. Un représentant de Sésame Crédit admet par exemple inférer des jugements sur les personnes en fonction du type de produit acheté : « quelqu’un qui joue aux jeux vidéo dix heures par jour sera considéré comme une personne inactive (ou fainéante) », alors qu’une personne qui « achète fréquemment des couches sera considérée comme un probable parent, qui par comparaison sera plus à même d’avoir le sens des responsabilités ». Rachel Botsman précise de façon pertinente que le système ne fait pas qu’analyser les comportements, mais qu’il les façonne et biaise les citoyens afin qu’ils adoptent des attitudes jugées plus vertueuses par les gouvernements.
  • Dans un autre contexte, la notion d’exemplarité en Chine atteint parfois des points qui seraient comiques, s’ils n’étaient pas attentatoires aux libertés des personnes. Un système de reconnaissance faciale et  « name and shame » a ainsi été mis en place à certains carrefours : lorsqu’une personne traverse alors qu’elle n’en a pas l’autorisation, sa photo et son nom sont projetés sur un panneau pendant quelques minutes afin de la pointer comme l’exemple à ne pas suivre.
  • ...3 more annotations...
  • Mais pourquoi les Chinois accepteraient-ils un tel système de surveillance ? Pour le moment celui-ci se fait sur la base du volontariat. Les individus ayant choisi d’y participer ne gagnent pas seulement le droit d’être bien vus du gouvernement, mais obtiennent également des droits au crédit supplémentaires ainsi que des récompenses. Si leurs scores dépassent les 600 points (sur 950 possibles), ils auront accès à des offres de crédit à la consommation, à 650, le droit de louer une voiture sans dépôt de garantie, au-delà de 750, un billet coupe-file pour l’obtention d’un visa Schengen, etc. Des rétributions qui ne sont pas du tout symboliques. Et c’est bien là que le parallèle entre des logiques en cours dans l’économie numérique et leur appropriation par un État pose question.
  • La Chine n’a jamais eu de système de crédit institutionnalisé tel que nous les connaissons avec pour conséquence un déficit de confiance : beaucoup de contrats ne sont en effet pas honorés. Ce Social Credit system a pour vocation à y remédier, alors que la consommation de masse s’impose depuis peu, en se calant sur des standards occidentaux. Il commence néanmoins à avoir des effets négatifs sur certains citoyens dont le score est trop bas. Bien que le système ne soit pour le moment qu’en phase de test, et non déployé sur l’ensemble de la population (il le sera en 2020), on apprend dans un article de Fast Company daté du 24 avril que 11 millions de chinois ne peuvent déjà plus voyager en avion, quatre millions ne le peuvent plus en train. On touche là à des finalités qui ne sont plus le seul droit au crédit, mettant en cause les libertés fondamentales des individus. 
  • Parmi ces droits fondamentaux figurent les droits à la protection des données personnelles. Le règlement européen, en imposant notamment le principe de finalité  : les données personnelles ne peuvent être utilisées pour d’autres usages que celles pour lesquelles elles ont été collectées, sauf base légale spécifique ou nouvelle demande de consentement. Par ailleurs, dans son article 22, le RGPD interdit « la prise de décision fondée exclusivement sur un traitement automatisé […] produisant des effets juridiques la concernant ou l'affectant de manière significative de façon similaire. » A n’en pas douter, ne plus pouvoir se déplacer en train ou en avion entre dans cette catégorie.
  •  
    "Quand la Chine travaille sur une version béta de son Social Credit System, un système de notation obligatoire des individus basé sur l'ensemble de leurs comportements, c'est le principe même de la confiance par la notation qui questionne des pratiques largement généralisées en occident. "
Aurialie Jublin

[Sobriété] Pour un Web frugal ? - Framablog - 0 views

  •  
    "Sites lourds, sites lents, pages web obèses qui exigent pour être consultées dans un délai raisonnable une carte graphique performante, un processeur rapide et autant que possible une connexion par fibre optique… tel est le quotidien de l'internaute ordinaire. Nul besoin de remonter aux débuts du Web pour comparer : c'est d'une année sur l'autre que la taille moyenne des pages web s'accroît désormais de façon significative. Quant à la consommation en énergie de notre vie en ligne, elle prend des proportions qui inquiètent à juste titre : des lointains datacenters aux hochets numériques dont nous aimons nous entourer, il y a de quoi  se poser des questions sur la nocivité environnementale de nos usages collectifs et individuels. Bien sûr, les solutions économes à l'échelle de chacun sont peut-être dérisoires au regard des gigantesques gaspillages d'un système consumériste insatiable et énergivore. Cependant nous vous invitons à prendre en considération l'expérience de l'équipe barcelonaise de Low-Tech Magazine dont nous avons traduit pour vous un article. Un peu comme l'association Framasoft l'avait fait en ouverture de la campagne dégooglisons… en se dégooglisant elle-même, les personnes de Low-tech Magazine ont fait de leur mieux pour appliquer à leur propre site les principes de frugalité qu'elles défendent : ce ne sont plus seulement les logiciels mais aussi les matériels qui ont fait l'objet d'une cure d'amaigrissement au régime solaire. En espérant que ça donnera des idées à tous les bidouilleurs…"
Aurialie Jublin

[Écologie] Le monde du logiciel est en train de se détruire... Manifeste pour... - 0 views

  • Tout est lent, et cela ne va pas dans le bon sens. Certaines voix s’élèvent. Je vous invite notamment à lire “Le désenchantement du logiciel”. Tout est insupportablement lent, tout est ÉNORME, tout finit par devenir obsolète… La taille des sites web explose. Un site web est aussi gros que le jeu Doom. Le phénomène ne touche pas que le Web mais aussi l’IoT, le mobile… Le saviez-vous ? Il faut 13% de CPU pour faire clignoter un curseur…
  • Tout grossit : la taille des applications, les données stockées, la taille des pages web, la mémoire des téléphones… Les téléphones ont maintenant 2 Go de mémoire, échanger une photo de 10 Mo par mail est maintenant classique… À la limite, cela ne serait peut-être pas un problème si tous les logiciels étaient utilisés, efficaces et performants… Mais cela n’est pas le cas,
  • Alors tout le monde se cale sur une lenteur. Tout est uniformément lent. On se cale sur cela et tout va bien. Être performant aujourd’hui, c’est arriver à atteindre un ressenti utilisateur qui correspond à cette lenteur uniforme. On élague les choses qui pourraient être trop visibles. Une page qui met plus de 20 secondes à se charger, c’est trop lent. Par contre, 3 secondes c’est bien. 3 secondes ? Avec les multicoeurs de nos téléphones/PC et les data centers partout dans le monde, le tout relié par des supers technologies de communication (4G, fibre…),c’est un peu bizarre non ? Si on regarde la débauche de ressources pour le résultat obtenu, 3 secondes, c’est énorme. D’autant plus que les bits circulent dans nos processeurs avec des unités de temps du niveau de la nanoseconde. Donc oui, tout est uniformément lent.
  • ...29 more annotations...
  • Il est nécessaire de revenir à plus d’efficience, de « challenger » les besoins en matériel, de redéfinir ce qu’est la performance. Tant que l’on se satisfera de cette lenteur uniforme avec des solutions pour ne pas ralentir plus (comme l’ajout de matériel), nous n’avancerons pas. La dette technique, notion largement assimilée par les équipes de développement, n’est malheureusement pas adaptée à ce problème (on y reviendra). Nous sommes sur une dette de ressources matérielles et de mauvaise adéquation entre le besoin utilisateur et la solution technique. On parle ici d’efficience et non pas uniquement de performance. L’efficience est une histoire de mesure du gaspillage. L’ISO définie l’efficience avec comme domaine : Time behaviour, Resource utilization et Capacity. Pourquoi ne pas pousser plus ces concepts ?
  • Développez du code Java pour un serveur J2EE ou pour un téléphone Android, ce n’est pas pareil. Des structures spécifiques existent par exemple pour traiter des données en Android mais les structures classiques sont toujours utilisées. Les développeurs ont perdu le lien avec le hardware. C’est malheureux car c’est passionnant (et utile) de savoir comment fonctionne un processeur. Pourquoi : abstraction et spécialisation (nous verrons cela plus loin). Car en perdant ce lien, on perd une des forces du développement. Ce lien est important chez les hackers ou chez les développeurs d’informatique embarquée mais malheureusement de moins en moins présent chez les autres développeurs.
  • Les pratiques devops pourraient répondre à cette perte de lien. Là, c’est pareil, nous n’allons pas jusqu’au au bout : généralement le devops va se focaliser à bien gérer le déploiement d’une solution logicielle sur une infrastructure mixte (matérielle et un peu logicielle). Il faudrait aller plus loin en remontant par exemple les métriques de consommation, en discutant sur les contraintes d’exécution… plutôt que de “scaler” juste parce que c’est plus simple.
  • Certaines technologies ont une utilité mais sont maintenant systématiquement utilisées. C’est le cas par exemple des ORM qui sont devenus systématiques. Aucune réflexion n’est faite sur son intérêt en début des projets. Résultat : on a rajouté une surcouche qui consomme, qu’il faut maintenir et des développeurs qui n’ont plus l’habitude d’effectuer des requêtes natives. Cela ne serait pas un problème si chaque développeur connaissait très bien le fonctionnement des couches d’abstraction : comment fonctionne HIBERNATE par exemple ? On s’appuie hélas de façon aveugle sur ces frameworks.
  • Le besoin d’abstraction est lié à un autre défaut: nous attendons toujours des outils miracles. La silver bullet qui améliorera encore plus nos pratiques. Le langage idéal, le framework pour aller plus vite, l’outil de gestion miracle des dépendances… C’est la promesse à chaque fois d’un nouveau framework : gagner du temps en développement, être plus performant… Et on y croit, on fonce. On abandonne les frameworks sur lesquels nous avions investi, sur lesquels on avait passé du temps… et on passe au nouveau. C’est le cas actuellement des frameworks JS. L’histoire du développement est pavé de framework oubliés, non maintenus, abandonnés… Nous sommes les champions pour réinventer ce qui existe déjà. Si on le gardait suffisamment longtemps, on aurait le temps de maîtriser un framework, de l’optimiser, de le comprendre. Mais ce n’est pas le cas. Et que l’on ne me dise pas que si on n’avait pas continuellement réinventé la roue, on aurait encore des roues en pierre… Innover serait d’améliorer les frameworks existants .
  • Sur les langages, c’est la même rengaine. Attention, je ne préconise pas de rester sur l’assembleur et sur le C… C’est le cas par exemple dans le monde Android, pendant plus de 10 ans les développeurs ont pu travailler sur des outils et des frameworks Java. Et comme cela, par magie, le nouveau Langage de la communauté est Kotlin. On imagine l’impact sur les applications existantes (si elles doivent changer), il faut recréer des outils, retrouver des bonnes pratiques… Pour quel gain?
  • Sincèrement, on ne voit aucun ralentissement sur les cycles de renouvellement des technologies. C’est toujours un rythme frénétique. Nous trouverons bien le Graal un jour. Le problème est ensuite l’empilement de ses technologies. Comme aucune ne meurt vraiment et que l’on en maintient toujours des parties, on développe d’autres couches pour s’adapter et continuer à maintenir ces bouts de code ou ces librairies. Le problèmen’est pas le code legacy,, c’est la glue que l’on développe autour qui pêche.
  • Au final, on passe du temps à résoudre des problèmes techniques internes, on recherche des outils pour résoudre les problèmes que l’on ajoute, on passe son temps à s’adapter à ses nouveaux outils, on ajoute des surcouches (voir chapitre précédent…) … et on n’a pas améliorer la qualité intrinsèque du logiciel ou les besoins auxquels on doit répondre.
  • Au final, le rythme frénétique des changements ne nous permet pas de nous stabiliser sur une technologie. J’avoue qu’en tant que vieux développeur que je suis, j’ai été découragé par le changement Java vers Kotlin pour Android. C’est peut-être pour certains de véritables challenges, mais quand je repense au temps que j’ai passé sur l’apprentissage, sur la mise en place d’outils
  • Ensuite, comme aucune solution ne meurt vraiment, que de nouvelles arrivent… on se retrouve avec des projets avec des multitudes de technologies à gérer avec les compétences associées aussi… On s’étonne ensuite que le marché du recrutement de développeur soit bouché. Pas étonnant.. Il y a énormément de développeurs mais il est difficile de trouver un développeur React avec 5 ans d’expérience qui connaîsse le Go. Le marché est fractionné, comme les technologies. C’est peut-être bon pour les développeurs car cela crée de la rareté et cela fait monter les prix, mais pas pour le projet !
  • Cependant, cet apprentissage continu des technologies pose le problème d’apprentissage de domaines transverses : accessibilité, agilité, performance… En effet, qu’est-ce qui nous prouve que les outils et les langages que nous allons choisir ne vont pas changer dans 4 ans ? Rust, Go… dans 2 ans ? Rien ne tend à donner une tendance.
  • On ne se remet pas en question car on veut s’amuser. Le fun est important, car si l’on s’ennuie dans son boulot, on va déprimer. Par contre, on ne peut pas, sous prétexte de vouloir du fun tout le temps, changer nos outils continuellement. Il y a un déséquilibre entre l’expérience du développeur et l’expérience de l’utilisateur. On veut du fun, mais qu’est-ce que cela va réellement apporter à l’utilisateur ? Un produit plus « joyeux » ? Non, nous ne sommes pas des acteurs.
  • On ne se pose pas de question sur l’éthique de notre domaine, sur sa durabilité… Cela vient peut-être du fait que notre domaine n’a pas réellement de code éthique (comme par exemple les médecins ou les avocats). Mais sommes-nous en tant que développeurs réellement libres si l’on ne peut pas avoir une autocritique ? Nous sommes peut être asservis à une cause portée par d’autres personnes ? Le problème n’est pas simple mais nous avons dans tous les cas une responsabilité. Sans code éthique, c’est le plus fort et le plus malhonnête qui est le plus fort. Le buzz et les pratiques pour manipuler les utilisateurs sont de plus en plus répandus. Sans Dark Pattern ton produit ne sera rien. Les plus gros (GAFA…) n’en sont pas arrivés là pour rien.
  • Est-ce que la solution est politique ? Il faut légiférer pour mieux gouverner le monde du logiciel. On le voit avec les dernières réponses législatives aux problèmes concrets : RGPD, notification des cookies… la source du problème n’est pas résolue. Peut-être parce que les politiques ne comprennent que très mal le monde du logiciel.
  • Car si cette structuration n’est pas faite, les développeurs vont perdre la main sur ce qu’ils font. Or le manque d’éthique de la profession est critiqué à l’extérieur. Rachel Coldicutt (@rachelcoldicutt) directrice de DotEveryOne, un think tank britannique qui promeut une technologie plus responsable, encourage à former des diplômés non-informaticiens qui traiteraient de ces problèmes (Voir plus précisément dans l’article d’Internet Actu). Pour poursuivre sur ce dernier article, cela serait dans la droite ligne de l’informatique, domaine issu du monde militaire où les ingénieurs et développeurs seraient formés à suivre des décisions et des commandements.
  • Le monde du logiciel s’intègre dans un système organisationnel classique. Grands groupes, sous-traitances via des ESN, web agencies… Tous suivent les mêmes techniques de gestion des projets informatiques. Et tout le monde va « dans le mur ». Aucune analyse sérieuse n’est faite sur le coût global d’un logiciel (TCO), sur son impact sur la société, sur son bénéfice, sa qualité… C’est la rapidité de release(Time to Market), la surcharge featurale (fonctionnelle), la productivité immédiate, qui comptent. Premièrement car les gens externes à ce monde ne connaissent que trop peu la technicité du logiciel et son monde. Il est virtuel donc simple (sic). Mais ce n’est pas le cas. Les écoles de commerce et autres usines de managers n’ont pas de cours de développement. Comment peuvent-ils bien diriger et piloter des projets ?
  • On continue a vouloir chiffrer des projets informatiques comme de simples projets alors que des mouvements comme le no estimate propose des approches innovantes. Les projets continuent d’échouer : le chaos report rapporte que simplement 30% des projets réussissent bien. Et face à cette mauvaise gouvernance, les équipes techniques continuent de se battre sur les technologies. Dommages collatéraux : la qualité, l’éthique, l’environnement… et au final l’utilisateur. Cela ne serait pas si critique si le logiciel n’avait pas un impact aussi fort sur le monde. Software eats the world… et oui, on le « bouffe »…
  • Si ces décisions absurdes arrivent, ce n’est pas uniquement la faute du développeur mais bien de l’organisation. Et qui dit organisation dit management (sous-différente forme). Si l’on revient au livre de Morel, il parle de piège cognitif dans lesquels les managers et les techniciens tombent souvent. C’est le cas de la navette Challenger qui a été quand même lancée malgré la connaissance du problème d’un joint défectueux. Les managers ont sous-évalué les risques et les ingénieurs ne les ont pas prouvés. Chacun a reproché à l’autre de ne pas fournir assez de preuves scientifiques. C’est souvent ce qui se passe dans les entreprises : des warnings sont levés par certains développeurs mais le management ne les prend pas assez au sérieux.
  • En même temps, on revient aux causes précédentes (silver bullet, on s’amuse…), il est nécessaire d’avoir une vraie ingénierie et une vraie analyse des technologies. Sans cela, les équipes techniques seront toujours non-écoutées par le management. Des outils et benchmark existent mais ils sont encore trop peu connus. Par exemple, Technologie Radar qui classe les technologies en terme d’adoption.
  • Ce phénomène de décision absurde est renforcé par le tissu complexe du développement logiciel : Les sociétés historiquement hors du numérique sous-traitent à des entreprises du numérique, les ESN sous-traitent aux freelances… Le partage de responsabilité technique / management est encore plus complexe et les décisions absurdes plus nombreuses.
  • Mais cela ne s’arrête pas là. On peut aussi voir l’usage de l’open-source comme une sorte de sous-traitance. Idem pour l’usage de framework. On est juste consommateur passif, on se déleste de plein de problématiques (qui ont un impact sur les ressources, la qualité…).
  • C’est d’autant plus facile que le domaine est passionnant et que la pratique des sides-projects, du temps passé sur les projets open-source hors des horaires de bureau est chose commune… La recherche de “fun” et le temps passé bénéficient alors plus aux organisations qu’aux développeurs. Difficile dans ce cas de chiffrer le coût réel d’un projet. Et pourtant, cela ne serait pas un problème si on arrivait à des logiciels « au top ».
  • Le développeur n’est ici plus un artisan du code, mais plutôt un pion dans un système critiquable du point de vue humain. Cela n’est pas visible, tout va bien et on s’amuse. En apparence seulement, car certains domaines du développement logiciel vont plus loin et rendent beaucoup plus visible cette exploitation : Le domaine du jeux-vidéo où les heures explosent.
  • Et donc, toutes ces maladresses (logiciel trop lourd, sans qualité…) se retrouvent chez les utilisateurs. Comme on doit releaser au plus vite les logiciels, que l’on ne tente pas de résoudre les inefficiences internes, et que l’on ne met pas plus de ressource pour faire de la qualité, on arrive à des logiciels médiocres. Mais on a tellement d’outils de monitoring et de suivi des utilisateurs pour détecter ce qui se passe directement chez eux qu’au final, on pense que ce n’est pas grave. Cela serait une bonne idée si les outils étaient bien utilisés. Or la multitude d’informations récoltées (en plus des bugs remontés par les utilisateurs) n’est que faiblement utilisée. Trop d’information, difficulté de cibler la vraie source du problème… on s’y perd et au final, c’est l’utilisateur qui trinque. Tous les logiciels sont maintenant en bêta-test. A quoi bon faire de la sur-qualité, autant attendre que l’utilisateur le demande. Et on revient ainsi au premier chapitre : un logiciel uniformément lent … et médiocre.
  • Heureusement, on est sauvé par la non-sensibilisation des utilisateurs au monde du logiciel. C’est un monde effectivement virtuel et magique qu’ils ont l’habitude d’utiliser. On leur a mis en main les outils mais sans notice explicative. Comment évaluer la qualité d’un logiciel, les risques sur l’environnement, les problèmes de sécurité… si l’on n’a pas des notions d’informatique, même rudimentaires ?
  • L’informatique du 21ème siècle est ce que l’agroalimentaire était pour les consommateurs au 20ème siècle. Pour des raisons de productivité, on a poussé des solutions médiocres avec un calcul court-termiste : mise sur le marché de plus en plus rapide, profit en hausse constante… agriculture intensive, malbouffe, pesticides… avec des impacts importants sur la santé, sur l’environnement… Les consommateurs savent maintenant (de plus en plus) les conséquences désastreuses de ces dérives, l’industrie agroalimentaire doit donc se réinventer, techniquement, commercialement et éthiquement. Pour le logiciel, quand les utilisateurs comprendront les tenants et les aboutissants des choix techniques, l’industrie du logiciel devra gérer les mêmes problèmes. En effet, le retour au bon sens et aux bonnes pratiques n’est pas une chose simple pour l’agroalimentaire. Dans l’IT, on commence à le voir avec ses conséquence sur la vie privée des utilisateurs (mais nous n’en sommes qu’aux balbutiements).
  • On va dans la mauvaise direction. L’industrie de l’informatique a déjà effectué dans les années 70 des erreurs avec des impacts non-négligeables. L’exclusion des femmes de l’informatique en fait partie. Non seulement cela a été fatal pour certaines industries mais on peut se poser la question de comment on peut maintenant adresser des réponses à seulement 50% de la population informatique, avec une représentativité très faible. Le chemin est maintenant difficile à retrouver.
  • Mais l’impact du monde IT ne s’arrête pas là. La source et le modèle d’une grosse partie de l’informatique sont issus de la Silicon valley. Si l’on écarte les gagnants de la Silicon Valley, les populations locales subissent la montée des prix, le déclassement, la pauvreté…
  • Dans sa lancée vers le progrès technique, le monde du logiciel crée aussi sa dette environnementale…
  •  
    "Le monde du logiciel va mal et si l'on n'agit pas, on risque de le regretter. Environnement, qualité, exclusion… Software Eats The World (Le logiciel mange le monde…) ? Oui un peu trop. "
Aurialie Jublin

L'écoconception des services numériques comme filière d'excellence, Transform... - 1 views

  • A l'heure où le numérique représenterait 10 % de la consommation mondiale d'électricité et autant d'émissions de gaz à effet de serre que l'aviation civile, il est temps de réduire son empreinte environnementale.  Parmi les leviers d'action, l'écoconception des services numériques est fondamentale . L'enjeu est aussi social car l'absence d'écoconception accentue la fracture numérique. Le phénomène d'« obésiciel » rend certains services numériques trop lents ou inutilisables, notamment sur de vieux équipements et dans les territoires où la connexion et le pouvoir d'achat sont faibles. Il est enfin économique : c'est une promesse d'activité, d'emplois et de réduction de coûts pour nos entreprises.
  • Pour faire émerger la filière d'écoconception de service numérique, nous proposons trois actions. Un, rendre obligatoire la formation à l'écoconception de services numériques dans les formations aux métiers du numérique certifiées par l'Etat. Deux, établir un référentiel de conformité de l'écoconception de service numérique  _ en commençant par les sites Web _ à l'image du référentiel de conformité RGAA (Référentiel général d'accessibilité pour les administrations) pour les personnes en situation de handicap. Trois, inscrire l'obligation d'écoconception des services numériques dans le cadre législatif français (en commençant par les sites Web).
  • Certaines idées reçues nous détournent d'une hiérarchisation des actions. Certes, les centres informatiques consomment beaucoup d'énergie. Il convient d'augmenter encore leur efficience énergétique et de les alimenter en électricité issue d'une énergie renouvelable. Certes, les écogestes numériques sont un levier d'action. L'Ademe publie régulièrement des guides de bonnes pratiques. Mais c'est la fabrication et le renouvellement accéléré de nos 22 milliards de terminaux qui concentre l'essentiel de l'empreinte écologique et des gaz à effet de serre.
  • ...6 more annotations...
  • A l'échelle de l'internet mondial, les terminaux concentrent 65 % du bilan énergétique, 67 % des émissions de gaz à effet de serre, 73 % du potentiel d'épuisement des ressources naturelles non renouvelables et 82 % de la consommation d'eau.
  • Il faut donc en priorité fabriquer moins d'équipements et allonger leur durée de vie. Pour y parvenir, d'une part développons le réemploi de ces produits. D'autre part, déployons l'écoconception des services numériques.
  • Lorsque la mémoire était comptée, les informaticiens étaient plus enclins à concevoir des logiciels à l'architecture et au code synthétiques. Songeons que l'ordinateur, qui a emmené l'homme sur la Lune, disposait d'une mémoire d'environ 70 kilo-octets, soit environ le poids d'un e-mail. Aujourd'hui, les contraintes informatiques étant moindres, il y a inflation de logiciels, plus gourmands en puissance informatique. En vingt ans, de 1995 à 2015, le poids des pages Web a été multiplié par 115, passant de 14 Ko à 1.600 Ko.
  • Les applications de smartphones, conçues et développées en hâte, consomment d'autant plus d'énergie qu'elles sont grasses et actives jour et nuit. Les systèmes d'exploitation de nos ordinateurs ou smartphones imposent des mises à jour évolutives de plus en plus lourdes.
  • Grâce à l'écoconception des services numériques, les retours d'expérience du Collectif conception numérique responsable montrent, sur des cas concrets en France et en Europe, des réductions d'impact environnemental d'un facteur 2 à 70 (changement climatique, épuisement des ressources rares, etc.).
  • Concepteurs d'applications mobiles, de sites Web, d'intelligence artificielle ou tout autre service numérique, les pionniers seront demain, en France, ambassadeurs d'une conception visionnaire des services numériques. En Europe et au-delà, ils seront ces lanternes qui éclairent une troisième voie.
  •  
    " Le numérique français, par la voix de son secrétariat d'Etat, a dessiné une troisième voie entre la Silicon Valley et le modèle chinois en la matière. Lettre à Monsieur Cédric O, nouveau secrétaire d'Etat au numérique"
Aurialie Jublin

Éducation, gendarmerie... Ces services publics qui disent adieu à Google - 0 views

  • Dans le cadre de sa transformation numérique, l'État met "sur un pied d'égalité les logiciels libres et propriétaires au sein de l'administration" depuis septembre 2012. Et publie chaque année son socle logiciels libres, une liste préconisée pour les services de l'état et les particuliers, adaptée à chaque usage numérique : édition de documents, navigateur internet ou encore solution de stockage en ligne.
  • "Le gouvernement demande aux logiciels libres d'être une contre-offre, mais nous n'offrons pas de service de qualité professionnelle, nous aspirons à ce qu'ils utilisent nos logiciels de façon indépendante, témoigne "Pouhiou" porte-parole de l'association de logiciels libres Framasoft. L'État est engagé dans la consommation des GAFAM, pas du numérique libre."
  • Dans cette lutte contre le géant américain, une entreprise tire son épingle du jeu depuis quelques mois. Le moteur de recherche français Qwant, qui ne traque pas ses utilisateurs contrairement à Google, s'immisce un peu partout comme en témoigne le hashtag dédié #SwitchToQwant. L'éducation nationale, déjà engagée dans une démarche éthique avec l'utilisation des logiciels libres Framasoft, a adopté Qwant Junior depuis 2016 dans l'Académie de Versailles.
  •  
    "Petit à petit, le service public s'organise contre le monopole de Google. Des outils associatifs font leur apparition sur les sites internet des collectivités comme Framasoft ou OpenStreetMap, et certaines entreprises comme Qwant investissent l'éducation nationale."
Aurialie Jublin

Paris se dote d'une « stratégie de résilience » - 0 views

  • Pour définir ce plan, la ville s’est notamment appuyée sur le réseau « 100 Résilient Cities », une initiative de la Fondation Rockefeller pour accompagner les villes confrontées à une multiplication des menaces, tout en favorisant le partage d’expériences, les bonnes pratiques et solutions.
  • Cette stratégie de résilience, à laquelle Paris s’engage à dédier 10 % de ses investissements, se décline en 35 actions qui viennent renforcer différentes politiques déjà initiées pour adapter la ville aux évolutions du climat, améliorer sa qualité environnementale ou encore favoriser des modes de production et de consommation responsables.
  • « L’idée est de remettre de l’humain dans les grandes politiques, que tout un chacun, à son échelle, participe, se mobilise et se responsabilise par rapport aux enjeux », explique Célia Blauel, adjointe à la Maire de Paris en charge de l’environnement. La Ville va ainsi créer un « réseau de citoyens solidaires et volontaires », qui pourront renforcer les moyens d’interventions des autorités en cas de crise majeure, comme au quotidien.
  • ...3 more annotations...
  • « Indépendamment des crises, il s’agit aussi de remettre du lien entre les gens, de renforcer la cohésion sociale. Une ville soudée et solidaire est une ville plus résiliente. Les réseaux qui se créent au quotidien sont des réseaux qui fonctionnent d’emblée le jour où l’on connaît une crise », insiste Célia Blauel
  • Plus solidaire au quotidien, Paris souhaite aussi adapter ses infrastructures. La ville veut s’inspirer de l’expérience de Rotterdam qui, face au risque d’inondation, a créé des bassins de rétention d’eau qui sont devenus de véritables espaces publics intégrés au quartier. Paris entend ainsi développer un « référentiel de voie résiliente » (matériaux adaptés aux différents risques, typologies de surfaces, mobiliers polyvalents…) avant d’aménager une ou plusieurs rues.
  • À travers sa stratégie de résilience, Paris affiche aujourd’hui sa volonté de recoudre le lien avec les territoires qui l’entourent, proches comme ruraux. Car la ville sait qu’elle ne peut pas répondre seule aux défis qui se posent à elle, qu’ils s’agissent des transports, des risques liés à la Seine, à l’alimentation, à l’énergie…
  •  
    "La capitale veut renforcer sa capacité à faire face aux chocs prévisibles comme imprévisibles. Une stratégie qui la conduit à développer une gouvernance participative et à coopérer avec les territoires qui l'entourent."
1 - 20 of 23 Next ›
Showing 20 items per page