Skip to main content

Home/ QN2019/ Group items tagged carbon

Rss Feed Group items tagged

Aurialie Jublin

Amazon promet de rendre la moitié de ses livraisons neutres en carbone d'ici ... - 0 views

  • Après une année 2018 et un début d'année 2019 marqués par une succession d'annonces et de révélations très polémiques (optimisation fiscale, conditions de travail « critiques », « destruction massive » des invendus), le temps des bonnes résolutions a sonné pour Amazon. Lundi 18 février, l'entreprise a fait part sur son blog de sa nouvelle « vision » : « Nous croyons que baisser les coûts va de pair avec une réduction de l’impact sur l’environnement dans lequel nous vivons et travaillons tous au quotidien ».
  • Cette annonce fait suite à un rapport de Greenpeace publié le 13 février, soit cinq jours plus tôt, accusant AWS (Amazon Web Services) et d’autres géants du cloud computing installés dans la « data center alley », en Virginie, de ne pas alimenter leurs infrastructures à 100 % avec des énergies renouvelables.
  • Selon l’ONG, AWS dispose d’une cinquantaine de data centers de Virginie, et figure parmi les plus grands consommateurs d’électricité de l’État. Or ses centres de traitement des données ne reposeraient qu’à 12 % sur une énergie d'origine renouvelable. C’est beaucoup moins que Facebook (37 %) et Microsoft (34 %), qui se sont, comme Apple et Google, engagés à atteindre 100% d'énergies renouvelables.
  • ...2 more annotations...
  • Amazon a cependant démenti les chiffres avancés par Greenpeace. « En décembre 2018, Amazon et AWS ont réalisé des investissements dans 53 projets d’énergies renouvelables (dont 6 en Virginie) », s’est-elle défendue. « AWS reste fermement engagé à reposer à 100 % sur les énergies renouvelables : elle en était à 50 % en 2018 ».
  • Le géant du e-commerce en a donc profité pour annoncer de nouveaux engagements, cette fois-ci concernant ses émissions de dioxyde de carbone : « Avec les innovations actuelles concernant les véhicules électriques, les carburants bio pour l’aviation, les emballages réutilisables et les énergies renouvelables, pour la première fois, nous voyons se dessiner clairement la voie vers des livraisons neutres en carbone ». 
  •  
    "Le géant de la vente en ligne a annoncé, lundi 18 février, son intention d'atteindre la neutralité carbone pour la moitié de ses livraisons d'ici 2030, dans le cadre d'un programme baptisé « Shipment zero »."
Aurialie Jublin

[Environnement] How Improving Website Performance Can Help Save The Planet - Smashing M... - 0 views

  • Mozilla Internet Health Report 2018 states that — especially as the Internet expands into new territory — “sustainability should be a bigger priority.” But as it stands, websites are growing ever more obese, which means that the energy demand of the Internet is continuing to grow exponentially.
  • As web developers, it’s understandable to feel that this is not an issue over which we have any influence, but this isn’t true. Many efforts are afoot to improve the situation on the web. The Green Web Foundation maintains an ever-growing database of web hosts who are either wholly powered by renewable energy or are at least committed to being carbon neutral. In 2013, A List Apart published Sustainable Web Design by James Christie. For the last three years, the SustainableUX conference has seen experts in web sustainability sharing their knowledge across an array of web-based disciplines.
  • Perhaps the biggest win when it comes to making websites more sustainable is that performance, user experience and sustainability are all neatly intertwined. The key metric for measuring the sustainability of a digital product is its energy usage. This includes the work done by the server, the client and the intermediary communications networks that transmit data between the two.
  • ...1 more annotation...
  • There are, however, some good fallbacks which we can use that demonstrate energy usage. These include data transfer (i.e. how much data does the browser have to download to display your website) and resource usage of the hardware serving and receiving the website. An obvious metric here is CPU usage, but memory usage and other forms of data storage also play their part.
  •  
    "Climate change may not seem like an issue that should concern web developers, but the truth is that our work does have a carbon footprint, and it's about time we started to think about that."
Aurialie Jublin

Building for sustainability with WordPress - Susty WP - 0 views

  •  
    "This website aims to act as a guide to making WordPress websites more sustainable, and to serve as a practical example of how we can tune our websites and reduce their carbon footprint. The homepage of this website is delivered to your browser with just 7KB of data transfer. This is achieved by its theme, plugins and configuration. As of 2016, the average website data transfer was 2.3MB, making it 333 times bigger than this website!"
Aurialie Jublin

Des impacts énergétiques et sociaux de ces data-centers qu'on ne voit pas - M... - 0 views

  • Côté consommation pour commencer, les études les plus pessimistes avancent que ceux-ci pourraient représenter jusqu’à 13% de l’électricité mondiale en 2030 (avec un secteur informatique qui consommerait jusqu’à 51% du total de la consommation électrique mondiale). Des chiffres qui ne font pas l’unanimité, The Shift Project prévoyant plutôt 25% pour le secteur informatique et 5% pour les data centers en 2025 (ces 5% équivaudraient tout de même à toute la consommation électrique actuelle du secteur numérique).
  • Même si l’on constate de nombreux efforts faits pour améliorer l’efficacité énergétique des infrastructures, par exemple du côté des « big tech », l’ADEME rapporte que les géants du numérique ne portent pas un véritable discours sur la « sobriété énergétique et numérique nécessaire pour rester sous la perspective d’une augmentation des températures planétaires de 1,5°.»
  • Le rapport insiste ensuite sur les déséquilibres qui résultent de certaines implantations dans les territoires. Première constatation : ces impacts sociaux sont très peu documentés. Bien souvent, les data centers arrivent sans dire leur nom, en périphérie des villes, aux Etats-Unis ou en France, à Saclay par exemple ou encore Plaine Commune. Cette furtivité des bâtiments rend d’autant plus difficile les contestations ou demandes de participation de la part des populations locales.
  • ...14 more annotations...
  • Ils sont considérés comme de simples entrepôts par les pouvoirs publics alors même que leur consommation électrique a des répercussions à l’échelle d’un territoire tout entier.
  • Autre phénomène important : les data centers attirent les data centers, pour des questions de mutualisation d’énergie et de réseaux de télécommunication. Bien souvent, les hiérarchies urbaines en place sont renforcées par ces mécanismes. Les élus eux, peinent à lutter contre des acteurs puissants qui imposent leurs conditions « dans une négociation asymétrique qui pousse certains territoires à sur-calibrer des infrastructures énergétiques, hydrauliques et viaires pour pouvoir accueillir quelques dizaines, ou centaines d’emploi si l’on inclut les phases de construction. »
  • Aujourd’hui, c’est plutôt pour installer des hangars logistiques et des fermes de serveurs qu’on artificialise les sols. Autre effet non négligeable qui mériterait sans doute une discussion plus ample avec les populations locales : l’étalement urbain.
  • Le rapport souligne ensuite les possibles synergies entre les infrastructures numériques et le territoire. La réutilisation de la chaleur générée par les data centers  est à ce titre un cas d’usage bien connu. A Bailly-Romainvilliers, par exemple, le data center de BNP Parisbas chauffe le centre nautique voisin. Celui de Céleste à Noisy-Champs, chauffe ses propres bureaux. D’autres systèmes très chauffants comme les chaudières numériques de Stimergy chauffent une partie de l’eau de la piscine de la Butte-aux-Cailles, dans le treizième arrondissement de Paris.
  • Cependant, ces exemples restent anecdotiques. Dans l’immense majorité des cas, la chaleur n’est pas récupérée. D’abord pour des questions de coût et de rentabilité économique : les promoteurs des data-centers attendent des rendements sur des périodes courtes incompatibles avec la contractualisation pour les réseaux de chaleur (des engagements qui coulent sur 25 à 30 ans
  • Il existe aussi un frein technique : il est préférable de prévoir ces éventuels contrats dès la construction du data center car le modifier a posteriori peut représenter des risques que les promoteurs ne sont pas prêts à prendre.
  • La cinquième partie du rapport, qui m’a particulièrement plu, fait la part belle aux initiatives citoyennes, associatives et publiques des « infrastructures numériques alternatives ». Du côté des fournisseurs d’accès, de nombreux acteurs associatifs comme franciliens.net ou Aquilenet dans le Sud-Ouest sont regroupés au sein de la Fédération FFDN. Ils viennent compléter l’offre des fournisseurs principaux (Bouygues, Free, Orange et SFR). Le grand atout de ces solutions est de miser sur le social, l’éducation et la démocratie : « Ils participent d’une gouvernance partagée du commun qu’est Internet en portant des valeurs de transparence, d’inclusion, de lien social, d’apprentissage technique, et d’incitation à la participation à la vie citoyenne. »
  • La socioanthropologue des techniques Laure Dobigny affirme que quand cette gestion inclut et implique, alors les consommateurs vont vers plus de sobriété : « la mise en place de systèmes techniques de plus petite échelle ont permis, en modifiant les usages, une réduction des consommations. » La question est ensuite de savoir comment passer d’une gestion commune de réseaux à une gestion commune de data-centers.
  • Le rapport présente un certain nombre de solutions, comme le cloud de pair-à-pair : « l’idée centrale sous-tendant ces dispositifs est que les fichiers et les contenus téléchargés par les utilisateurs dans le système sont stockés, totalement ou en partie, sur un nuage de stockage composé d’une partie des disques durs de chaque utilisateur, reliés entre eux en architecture P2P. » L’idée est plutôt simple : re-décentraliser internet, réduire le besoin de grands data-centers et atténuer l’impact spatial de ces infrastructures. Les limites de ces solutions sont nombreuses bien sûr : pertes de données, erreur, taille critique non atteinte… Il existe également des data centers « de proximité » comme les chatons (« Collectif d’Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires ») ou encore SCANI dans l’Yonne et Tetaneutral à Toulouse.
  • Pour terminer, le rapport dessine trois « mondes numériques possibles ». Le premier scénario parie sur l’extrême croissance et l’ultracentralisation numérique. Pour faire simple, c’est aujourd’hui mais en pire : tout est numérisé, plateformisé, big-daté et concentré dans les mains des GAFAMS ou d’autres acteurs similaires. La ville se conforme aux modèles numériques de la smart-city, la consommation de data explose. C’est la fuite en avant, la croyance qu’un monde infini existe. Côté C02, c’est la catastrophe, la température globale monte de 2,5° en 2050. Pics de chaleur dans les villes, problèmes sociaux, etc.
  • Le deuxième scénario est en demie teinte. On stabilise le système technique numérique en permettant la coexistence de deux mondes : celui des big tech et celui, plus centralisé, des infrastructures à plus petite échelle. L’Union Européenne taxe les « Net Goinfres », ce qui modifie les comportements : on échange moins de photos de chats et on tend à les stocker sur nos terminaux personnels plutôt que dans le cloud, idem pour la musique. Côté consommation, on parvient à réduire les émissions de CO2 du secteur de 5% par an entre 2025 et 2050, ce qui nous ramène au niveau de 2013.
  • Le dernier scénario propose une forme de décentralisation ultime du numérique qui signe plus ou moins la fin des data-centers tels que nous les connaissons. Internet devient plus local et dépendant des énergies renouvelables, ce qui ne permet plus d’assurer sa continuité. Le projet Greenstar au Canada suit ces principes et accepte les intermittences du réseau (follow the wind/follow the sun), de même, le blog du Low Tech Magazine s’arrête de fonctionner quand le vent ne souffle plus (le scénario nucléaire n’est pas vraiment envisagé car l’exercice prospectif est global). Ce scénario « effondrement » se base sur des infrastructures totalement low-tech (c’est-à-dire peu coûteuses en énergie) et permet assez ironiquement un « retour aux principes fondateurs d’internet (horizontal et distribué) ». Côté service, on se contente du local et l’international devient l’exception
  • L’ADEME invite également à soutenir les FAI indépendants et à créer un « service public du numérique et des data centers publics », notamment pour améliorer l’intégration spatiale des infrastructures. Les questions énergétiques font également l’objet de propositions : sobriété, récupération de chaleur, décentralisation.
  • Le chercheur Clément Marquet cité plus haut dans l’article me rappelle que ces différents rapports (Shift, ADEME) arrivent dans un moment particulier puisque le gouvernement a voté en octobre 2018 une loi visant à réduire la fiscalité énergétique pour attirer les gros data centers. Je le cite : « il y a une tension entre le projet de souveraineté numérique par les infrastructures (et des bénéfices économiques qui iraient avec bien sûr) et celui de réduction de la consommation énergétique. »
  •  
    "L'ADEME, via le projet Enernum, vient de publier une étude approfondie sur les impacts à la fois énergétiques et sociétaux de l'installation et du déploiement des data centers, en France et ailleurs. Ce travail vient confirmer les conclusions du Think tank The Shift Project qui alertait déjà des coûts carbone importants de ces infrastructures qui soutiennent tous nos usages numériques. Par delà les chiffres, l'ADEME replace les data-centers dans leur contexte humain et géographique et interroge la gestion de ce type d'infrastructure sur le territoire."
Aurialie Jublin

[Écologie] Le monde du logiciel est en train de se détruire... Manifeste pour... - 0 views

  • Tout est lent, et cela ne va pas dans le bon sens. Certaines voix s’élèvent. Je vous invite notamment à lire “Le désenchantement du logiciel”. Tout est insupportablement lent, tout est ÉNORME, tout finit par devenir obsolète… La taille des sites web explose. Un site web est aussi gros que le jeu Doom. Le phénomène ne touche pas que le Web mais aussi l’IoT, le mobile… Le saviez-vous ? Il faut 13% de CPU pour faire clignoter un curseur…
  • Tout grossit : la taille des applications, les données stockées, la taille des pages web, la mémoire des téléphones… Les téléphones ont maintenant 2 Go de mémoire, échanger une photo de 10 Mo par mail est maintenant classique… À la limite, cela ne serait peut-être pas un problème si tous les logiciels étaient utilisés, efficaces et performants… Mais cela n’est pas le cas,
  • Alors tout le monde se cale sur une lenteur. Tout est uniformément lent. On se cale sur cela et tout va bien. Être performant aujourd’hui, c’est arriver à atteindre un ressenti utilisateur qui correspond à cette lenteur uniforme. On élague les choses qui pourraient être trop visibles. Une page qui met plus de 20 secondes à se charger, c’est trop lent. Par contre, 3 secondes c’est bien. 3 secondes ? Avec les multicoeurs de nos téléphones/PC et les data centers partout dans le monde, le tout relié par des supers technologies de communication (4G, fibre…),c’est un peu bizarre non ? Si on regarde la débauche de ressources pour le résultat obtenu, 3 secondes, c’est énorme. D’autant plus que les bits circulent dans nos processeurs avec des unités de temps du niveau de la nanoseconde. Donc oui, tout est uniformément lent.
  • ...29 more annotations...
  • Il est nécessaire de revenir à plus d’efficience, de « challenger » les besoins en matériel, de redéfinir ce qu’est la performance. Tant que l’on se satisfera de cette lenteur uniforme avec des solutions pour ne pas ralentir plus (comme l’ajout de matériel), nous n’avancerons pas. La dette technique, notion largement assimilée par les équipes de développement, n’est malheureusement pas adaptée à ce problème (on y reviendra). Nous sommes sur une dette de ressources matérielles et de mauvaise adéquation entre le besoin utilisateur et la solution technique. On parle ici d’efficience et non pas uniquement de performance. L’efficience est une histoire de mesure du gaspillage. L’ISO définie l’efficience avec comme domaine : Time behaviour, Resource utilization et Capacity. Pourquoi ne pas pousser plus ces concepts ?
  • Développez du code Java pour un serveur J2EE ou pour un téléphone Android, ce n’est pas pareil. Des structures spécifiques existent par exemple pour traiter des données en Android mais les structures classiques sont toujours utilisées. Les développeurs ont perdu le lien avec le hardware. C’est malheureux car c’est passionnant (et utile) de savoir comment fonctionne un processeur. Pourquoi : abstraction et spécialisation (nous verrons cela plus loin). Car en perdant ce lien, on perd une des forces du développement. Ce lien est important chez les hackers ou chez les développeurs d’informatique embarquée mais malheureusement de moins en moins présent chez les autres développeurs.
  • Les pratiques devops pourraient répondre à cette perte de lien. Là, c’est pareil, nous n’allons pas jusqu’au au bout : généralement le devops va se focaliser à bien gérer le déploiement d’une solution logicielle sur une infrastructure mixte (matérielle et un peu logicielle). Il faudrait aller plus loin en remontant par exemple les métriques de consommation, en discutant sur les contraintes d’exécution… plutôt que de “scaler” juste parce que c’est plus simple.
  • Certaines technologies ont une utilité mais sont maintenant systématiquement utilisées. C’est le cas par exemple des ORM qui sont devenus systématiques. Aucune réflexion n’est faite sur son intérêt en début des projets. Résultat : on a rajouté une surcouche qui consomme, qu’il faut maintenir et des développeurs qui n’ont plus l’habitude d’effectuer des requêtes natives. Cela ne serait pas un problème si chaque développeur connaissait très bien le fonctionnement des couches d’abstraction : comment fonctionne HIBERNATE par exemple ? On s’appuie hélas de façon aveugle sur ces frameworks.
  • Le besoin d’abstraction est lié à un autre défaut: nous attendons toujours des outils miracles. La silver bullet qui améliorera encore plus nos pratiques. Le langage idéal, le framework pour aller plus vite, l’outil de gestion miracle des dépendances… C’est la promesse à chaque fois d’un nouveau framework : gagner du temps en développement, être plus performant… Et on y croit, on fonce. On abandonne les frameworks sur lesquels nous avions investi, sur lesquels on avait passé du temps… et on passe au nouveau. C’est le cas actuellement des frameworks JS. L’histoire du développement est pavé de framework oubliés, non maintenus, abandonnés… Nous sommes les champions pour réinventer ce qui existe déjà. Si on le gardait suffisamment longtemps, on aurait le temps de maîtriser un framework, de l’optimiser, de le comprendre. Mais ce n’est pas le cas. Et que l’on ne me dise pas que si on n’avait pas continuellement réinventé la roue, on aurait encore des roues en pierre… Innover serait d’améliorer les frameworks existants .
  • Sur les langages, c’est la même rengaine. Attention, je ne préconise pas de rester sur l’assembleur et sur le C… C’est le cas par exemple dans le monde Android, pendant plus de 10 ans les développeurs ont pu travailler sur des outils et des frameworks Java. Et comme cela, par magie, le nouveau Langage de la communauté est Kotlin. On imagine l’impact sur les applications existantes (si elles doivent changer), il faut recréer des outils, retrouver des bonnes pratiques… Pour quel gain?
  • Sincèrement, on ne voit aucun ralentissement sur les cycles de renouvellement des technologies. C’est toujours un rythme frénétique. Nous trouverons bien le Graal un jour. Le problème est ensuite l’empilement de ses technologies. Comme aucune ne meurt vraiment et que l’on en maintient toujours des parties, on développe d’autres couches pour s’adapter et continuer à maintenir ces bouts de code ou ces librairies. Le problèmen’est pas le code legacy,, c’est la glue que l’on développe autour qui pêche.
  • Au final, on passe du temps à résoudre des problèmes techniques internes, on recherche des outils pour résoudre les problèmes que l’on ajoute, on passe son temps à s’adapter à ses nouveaux outils, on ajoute des surcouches (voir chapitre précédent…) … et on n’a pas améliorer la qualité intrinsèque du logiciel ou les besoins auxquels on doit répondre.
  • Au final, le rythme frénétique des changements ne nous permet pas de nous stabiliser sur une technologie. J’avoue qu’en tant que vieux développeur que je suis, j’ai été découragé par le changement Java vers Kotlin pour Android. C’est peut-être pour certains de véritables challenges, mais quand je repense au temps que j’ai passé sur l’apprentissage, sur la mise en place d’outils
  • Ensuite, comme aucune solution ne meurt vraiment, que de nouvelles arrivent… on se retrouve avec des projets avec des multitudes de technologies à gérer avec les compétences associées aussi… On s’étonne ensuite que le marché du recrutement de développeur soit bouché. Pas étonnant.. Il y a énormément de développeurs mais il est difficile de trouver un développeur React avec 5 ans d’expérience qui connaîsse le Go. Le marché est fractionné, comme les technologies. C’est peut-être bon pour les développeurs car cela crée de la rareté et cela fait monter les prix, mais pas pour le projet !
  • Cependant, cet apprentissage continu des technologies pose le problème d’apprentissage de domaines transverses : accessibilité, agilité, performance… En effet, qu’est-ce qui nous prouve que les outils et les langages que nous allons choisir ne vont pas changer dans 4 ans ? Rust, Go… dans 2 ans ? Rien ne tend à donner une tendance.
  • On ne se remet pas en question car on veut s’amuser. Le fun est important, car si l’on s’ennuie dans son boulot, on va déprimer. Par contre, on ne peut pas, sous prétexte de vouloir du fun tout le temps, changer nos outils continuellement. Il y a un déséquilibre entre l’expérience du développeur et l’expérience de l’utilisateur. On veut du fun, mais qu’est-ce que cela va réellement apporter à l’utilisateur ? Un produit plus « joyeux » ? Non, nous ne sommes pas des acteurs.
  • On ne se pose pas de question sur l’éthique de notre domaine, sur sa durabilité… Cela vient peut-être du fait que notre domaine n’a pas réellement de code éthique (comme par exemple les médecins ou les avocats). Mais sommes-nous en tant que développeurs réellement libres si l’on ne peut pas avoir une autocritique ? Nous sommes peut être asservis à une cause portée par d’autres personnes ? Le problème n’est pas simple mais nous avons dans tous les cas une responsabilité. Sans code éthique, c’est le plus fort et le plus malhonnête qui est le plus fort. Le buzz et les pratiques pour manipuler les utilisateurs sont de plus en plus répandus. Sans Dark Pattern ton produit ne sera rien. Les plus gros (GAFA…) n’en sont pas arrivés là pour rien.
  • Est-ce que la solution est politique ? Il faut légiférer pour mieux gouverner le monde du logiciel. On le voit avec les dernières réponses législatives aux problèmes concrets : RGPD, notification des cookies… la source du problème n’est pas résolue. Peut-être parce que les politiques ne comprennent que très mal le monde du logiciel.
  • Car si cette structuration n’est pas faite, les développeurs vont perdre la main sur ce qu’ils font. Or le manque d’éthique de la profession est critiqué à l’extérieur. Rachel Coldicutt (@rachelcoldicutt) directrice de DotEveryOne, un think tank britannique qui promeut une technologie plus responsable, encourage à former des diplômés non-informaticiens qui traiteraient de ces problèmes (Voir plus précisément dans l’article d’Internet Actu). Pour poursuivre sur ce dernier article, cela serait dans la droite ligne de l’informatique, domaine issu du monde militaire où les ingénieurs et développeurs seraient formés à suivre des décisions et des commandements.
  • Le monde du logiciel s’intègre dans un système organisationnel classique. Grands groupes, sous-traitances via des ESN, web agencies… Tous suivent les mêmes techniques de gestion des projets informatiques. Et tout le monde va « dans le mur ». Aucune analyse sérieuse n’est faite sur le coût global d’un logiciel (TCO), sur son impact sur la société, sur son bénéfice, sa qualité… C’est la rapidité de release(Time to Market), la surcharge featurale (fonctionnelle), la productivité immédiate, qui comptent. Premièrement car les gens externes à ce monde ne connaissent que trop peu la technicité du logiciel et son monde. Il est virtuel donc simple (sic). Mais ce n’est pas le cas. Les écoles de commerce et autres usines de managers n’ont pas de cours de développement. Comment peuvent-ils bien diriger et piloter des projets ?
  • On continue a vouloir chiffrer des projets informatiques comme de simples projets alors que des mouvements comme le no estimate propose des approches innovantes. Les projets continuent d’échouer : le chaos report rapporte que simplement 30% des projets réussissent bien. Et face à cette mauvaise gouvernance, les équipes techniques continuent de se battre sur les technologies. Dommages collatéraux : la qualité, l’éthique, l’environnement… et au final l’utilisateur. Cela ne serait pas si critique si le logiciel n’avait pas un impact aussi fort sur le monde. Software eats the world… et oui, on le « bouffe »…
  • Si ces décisions absurdes arrivent, ce n’est pas uniquement la faute du développeur mais bien de l’organisation. Et qui dit organisation dit management (sous-différente forme). Si l’on revient au livre de Morel, il parle de piège cognitif dans lesquels les managers et les techniciens tombent souvent. C’est le cas de la navette Challenger qui a été quand même lancée malgré la connaissance du problème d’un joint défectueux. Les managers ont sous-évalué les risques et les ingénieurs ne les ont pas prouvés. Chacun a reproché à l’autre de ne pas fournir assez de preuves scientifiques. C’est souvent ce qui se passe dans les entreprises : des warnings sont levés par certains développeurs mais le management ne les prend pas assez au sérieux.
  • En même temps, on revient aux causes précédentes (silver bullet, on s’amuse…), il est nécessaire d’avoir une vraie ingénierie et une vraie analyse des technologies. Sans cela, les équipes techniques seront toujours non-écoutées par le management. Des outils et benchmark existent mais ils sont encore trop peu connus. Par exemple, Technologie Radar qui classe les technologies en terme d’adoption.
  • Ce phénomène de décision absurde est renforcé par le tissu complexe du développement logiciel : Les sociétés historiquement hors du numérique sous-traitent à des entreprises du numérique, les ESN sous-traitent aux freelances… Le partage de responsabilité technique / management est encore plus complexe et les décisions absurdes plus nombreuses.
  • Mais cela ne s’arrête pas là. On peut aussi voir l’usage de l’open-source comme une sorte de sous-traitance. Idem pour l’usage de framework. On est juste consommateur passif, on se déleste de plein de problématiques (qui ont un impact sur les ressources, la qualité…).
  • C’est d’autant plus facile que le domaine est passionnant et que la pratique des sides-projects, du temps passé sur les projets open-source hors des horaires de bureau est chose commune… La recherche de “fun” et le temps passé bénéficient alors plus aux organisations qu’aux développeurs. Difficile dans ce cas de chiffrer le coût réel d’un projet. Et pourtant, cela ne serait pas un problème si on arrivait à des logiciels « au top ».
  • Le développeur n’est ici plus un artisan du code, mais plutôt un pion dans un système critiquable du point de vue humain. Cela n’est pas visible, tout va bien et on s’amuse. En apparence seulement, car certains domaines du développement logiciel vont plus loin et rendent beaucoup plus visible cette exploitation : Le domaine du jeux-vidéo où les heures explosent.
  • Et donc, toutes ces maladresses (logiciel trop lourd, sans qualité…) se retrouvent chez les utilisateurs. Comme on doit releaser au plus vite les logiciels, que l’on ne tente pas de résoudre les inefficiences internes, et que l’on ne met pas plus de ressource pour faire de la qualité, on arrive à des logiciels médiocres. Mais on a tellement d’outils de monitoring et de suivi des utilisateurs pour détecter ce qui se passe directement chez eux qu’au final, on pense que ce n’est pas grave. Cela serait une bonne idée si les outils étaient bien utilisés. Or la multitude d’informations récoltées (en plus des bugs remontés par les utilisateurs) n’est que faiblement utilisée. Trop d’information, difficulté de cibler la vraie source du problème… on s’y perd et au final, c’est l’utilisateur qui trinque. Tous les logiciels sont maintenant en bêta-test. A quoi bon faire de la sur-qualité, autant attendre que l’utilisateur le demande. Et on revient ainsi au premier chapitre : un logiciel uniformément lent … et médiocre.
  • Heureusement, on est sauvé par la non-sensibilisation des utilisateurs au monde du logiciel. C’est un monde effectivement virtuel et magique qu’ils ont l’habitude d’utiliser. On leur a mis en main les outils mais sans notice explicative. Comment évaluer la qualité d’un logiciel, les risques sur l’environnement, les problèmes de sécurité… si l’on n’a pas des notions d’informatique, même rudimentaires ?
  • L’informatique du 21ème siècle est ce que l’agroalimentaire était pour les consommateurs au 20ème siècle. Pour des raisons de productivité, on a poussé des solutions médiocres avec un calcul court-termiste : mise sur le marché de plus en plus rapide, profit en hausse constante… agriculture intensive, malbouffe, pesticides… avec des impacts importants sur la santé, sur l’environnement… Les consommateurs savent maintenant (de plus en plus) les conséquences désastreuses de ces dérives, l’industrie agroalimentaire doit donc se réinventer, techniquement, commercialement et éthiquement. Pour le logiciel, quand les utilisateurs comprendront les tenants et les aboutissants des choix techniques, l’industrie du logiciel devra gérer les mêmes problèmes. En effet, le retour au bon sens et aux bonnes pratiques n’est pas une chose simple pour l’agroalimentaire. Dans l’IT, on commence à le voir avec ses conséquence sur la vie privée des utilisateurs (mais nous n’en sommes qu’aux balbutiements).
  • On va dans la mauvaise direction. L’industrie de l’informatique a déjà effectué dans les années 70 des erreurs avec des impacts non-négligeables. L’exclusion des femmes de l’informatique en fait partie. Non seulement cela a été fatal pour certaines industries mais on peut se poser la question de comment on peut maintenant adresser des réponses à seulement 50% de la population informatique, avec une représentativité très faible. Le chemin est maintenant difficile à retrouver.
  • Mais l’impact du monde IT ne s’arrête pas là. La source et le modèle d’une grosse partie de l’informatique sont issus de la Silicon valley. Si l’on écarte les gagnants de la Silicon Valley, les populations locales subissent la montée des prix, le déclassement, la pauvreté…
  • Dans sa lancée vers le progrès technique, le monde du logiciel crée aussi sa dette environnementale…
  •  
    "Le monde du logiciel va mal et si l'on n'agit pas, on risque de le regretter. Environnement, qualité, exclusion… Software Eats The World (Le logiciel mange le monde…) ? Oui un peu trop. "
Asso Fing

La consommation électrique des logiciels, un enjeu pour les industriels et… l... - 0 views

  • Troisièmement, parce que le législateur pourrait intervenir… « En 2020 entrera en vigueur une législation européenne sur l'écoconception des serveurs et des unités de stockage en ligne, rappelle Rabih Bashroush, professeur en systèmes distribués et génie logiciel à l'Université de Londres-Est, qui a  participé à l'élaboration de ce texte . Il faut un cadre similaire pour la consommation des logiciels. » En France, un député, Fabrice Brun (LR), vient de  demander au gouvernement d'obliger les éditeurs de logiciels à « pratiquer une écriture plus vertueuse, en terme environnemental, du code informatique. »
  • Enfin, parce que jusqu'ici fabricants et gestionnaires ont tenté de réguler la consommation en jouant sur des solutions « matérielles » : utilisation de processeurs ou de cartes mères qui chauffent moins, de mémoires moins énergivores ; déclenchement des sauvegardes la nuit quand les serveurs sont moins occupés… Or, pour certains experts, ces gisements d'économies sont désormais épuisés. « Dans les dix ans à venir, il n'y aura pas de révolution technologique, facilement déployable à grande échelle, qui permettra de réduire la consommation énergétique du numérique : la seule voie possible est celle de la sobriété », affirme Hugues Ferreboeuf, qui dirige les réflexions sur l'empreinte carbone du numérique  au sein du think tank The Shift Project . « Nos data centers comptent d'ores et déjà parmi les plus économes du marché, mais nous devons aller plus loin, s'inquiète François Sterin, directeur industriel chez l'hébergeur Web OVH. Cet enjeu est crucial pour les fournisseurs de cloud, tant du point de vue commercial que sociétal. »
  • Reste donc une seule piste : la consommation induite par les logiciels. La mesurer est assez simple pour les smartphones et les objets connectés, plus compliqué pour les serveurs et PC. « On peut brancher des appareils de mesures - des sortes de wattmètres - sur les smartphones pour récupérer les données de la batterie, explique Thierry Leboucq. La mesure réelle permettra demain d'établir des normes et des labels pour valider l'éco-consommation d'un service numérique. » Pour les objets connectés, qui ne comportent que quelques composants, Alexandre Boé et son collègue Thomas Vantroys, de l'université de Lille, proposent déjà une solution. « Nous avons mis au point un petit appareil de mesure, composé d'un microprocesseur et d'un écran, coûtant une soixantaine d'euros, détaillent-ils. Couplé à des marqueurs introduits dans le logiciel, qui repèrent les fonctions les plus gourmandes, il permet aux fabricants et aux développeurs d'optimiser le fonctionnement et la consommation. »
  • ...6 more annotations...
  • La mesure est plus compliquée sur les serveurs et les PC. « Par exemple, les couches d'abstraction matérielle, ces logiciels intermédiaires entre le système d'exploitation et le matériel informatique, consomment de l'énergie que vous ne voyez pas », met en garde Marc Vautier, qui anime la communauté des Orange Experts « Energie et environnement » au sein du groupe Orange. Dès 2016, Jean-Patrick Gelas, docteur en informatique, avait publié, avec son équipe de l'université Lyon-1, un article exploratoire sur la mesure en temps réel de la consommation, dans la revue « International Journal of Electronic Business Management ». « L'idée était de coupler les mesures de puissance électrique, réalisées par un wattmètre, avec les instructions du logiciel et les tables de correspondance 'fonction réalisée/énergie dépensée' publiées par les constructeurs », explique-t-il.
  • Romain Rouvoy, professeur d'informatique à l'université de Lille, propose une approche basée sur l'estimation. En collaboration avec Orange et le cabinet Davidson Consulting, il a mis au point PowerAPI, un prototype de recherche distribué sous licence open source, disponible sur la plate-forme GitHub.  « Une fois installée sur un serveur, un ordinateur portable ou un robot, notre logiciel va évaluer, à l'aide de modèles mathématiques que nous avons développés, la consommation électrique des applications qui tournent sur ces machines », relate-t-il. Plusieurs industriels de l'automobile et de la robotique se disent intéressés par sa technologie.
  • « Les développeurs ne doivent pas s'empêcher de discuter des cahiers des charges avec les services marketing, qui peuvent, par exemple demander des serveurs disponibles 99,99 % du temps, là où 99,9 % suffiraient et permettraient d'économiser de l'énergie », conseille Erwan Diverrez, architecte logiciels chez Orange.
  • « On peut jouer sur le stockage de données - par exemple les données d'usage qui décrivent la relation de l'utilisateur avec sa machine - et ne les envoyer que lorsque le smartphone est en Wifi ; cela évite d'essayer continuellement de se connecter au réseau mobile », ajoute Sébastien Brault, développeur sur mobile chez Orange.
  • « Pour le Web, il existe des astuces comme la gestion du cache de la mémoire, par exemple, pour ne pas avoir à télécharger plusieurs fois une image qui apparaît sur plusieurs pages d'un site », ajoute Romain Petiot.  « On peut aussi jouer sur les langages de programmation utilisés et les bonnes pratiques de développement associées à ce langage », estime Romain Rouvoy, professeur d'informatique à l'université de Lille.
  • « La moitié de l'empreinte carbone du numérique provient de la production des équipements », résume Hugues Ferreboeuf, coordinateur du rapport « Pour une sobriété numérique » publié par le think tank Shift Project. L'autre moitié se répartit en trois tiers : la consommation des serveurs dans les data centers, les réseaux de télécommunication et les quelque 15 milliards de terminaux et périphériques sur lesquels tournent des logiciels.
  •  
    "Des logiciels tournent sur 15 milliards de terminaux et périphériques à travers le monde. Ce sont eux qui en commandent les besoins en énergie."
  •  
    "Des logiciels tournent sur 15 milliards de terminaux et périphériques à travers le monde. Ce sont eux qui en commandent les besoins en énergie."
Aurialie Jublin

Mariana Mazzucato, une économiste qui fait des vagues - 0 views

  • Elle pense que les décideurs du secteur public en Grande Bretagne sont otages du discours si souvent servi par les lobbyistes de l’industrie selon lequel “ils ne devraient pas prendre trop de risques, ils ne devraient pas choisir les gagnants”. Les conséquences en sont l’hémorragie des talents qui quittent le secteur public, et la validation sans remise en cause du mantra des lobbyistes : baisses d’impôts et assouplissement de la réglementation sont la recette pour attirer investisseurs et entrepreneurs.
  • “Aux États-Unis, ils parlent comme Jefferson mais ils agissent comme Hamilton” dit-elle. “Ici, en Grande-Bretagne, ils parlent et ils agissent comme Jefferson.” (Thomas Jefferson écrivait qu’il “n’était pas un ami d’un gouvernement très énergique”, alors que son grand rival insistait pour que les États-Unis lancent une politique industrielle volontariste). Un contre-exemple : le Government Digital Service [administration britannique chargée de la transformation numérique, ndt]. Des fonctionnaires, et non les habituels sous-traitants informatiques, ont créé un site qui répond vraiment aux besoins des citoyens, et, souligne-t-elle, “ils en ont fait un endroit vraiment, vraiment cool où travailler, au point que les types de la tech à la City avaient du mal à les recruter”.
  • Marianna Mazzucato défend ces idées depuis longtemps. Elle a publié en 2013 ‘The Entrepreneurial State’ (L’État entrepreneur) pour protester contre les politiques d’austérité post-crise. Elle voulait démontrer à quel point le succès de la Silicon Valley reposait sur les recherches financées par l’État, et qu’ailleurs, dans beaucoup d’autres économies, des agences gouvernementales jouaient ce même rôle essentiel. Son dernier livre veut donner une assise théorique à ses idées. Un long chapitre décortique comment différentes écoles d’économie ont traité le concept de la valeur au cours des siècles, avant que s’imposent les mantras “les prix sont fixés par l’offre et la demande” et “la valeur est dans l’œil de celui qui regarde”.
  • ...2 more annotations...
  • L’influence de Mariana Mazzucato est particulièrement visible dans la politique publique. Elle est généralement vue comme une sympathisante de gauche, mais elle affirme n’avoir pas d’agenda politique et être prête à conseiller “ceux qui écouteront”. Au Royaume-Uni, on reconnaît son empreinte dans le projet de politique industrielle du gouvernement conservateur actuel, publié en novembre dernier, tout autant que dans le manifeste du Parti travailliste de l’an dernier. Elle désapprouve le nationalisme “sous toutes ses formes”, mais elle joue aussi un rôle officiel de conseillère du Parti nationaliste écossais de Nicola Sturgeon, et revendique l’idée de la création par le gouvernement écossais d’une banque nationale d’investissement.
  • Elle admet que ce qui a “probablement le plus d’impact, dans tout ce que j’ai écrit et que j’écrirai” est le rapport publié en février sur les programmes de recherche et d’innovation européens. Il concrétise son idée que les gouvernements devraient piloter la croissance en coordonnant des “missions” – dotées de visées sociales ambitieuses et d’objectifs quantifiables – qui propageront l’innovation de secteurs en secteurs. Un précédent connu est la décision américaine d’envoyer un homme sur la lune. De nos jours, un objectif pourrait être d’atteindre les cent villes à bilan carbone neutre d’ici 2030.
  •  
    "Elle souhaite avant tout contrer l'opinion dominante selon laquelle l'innovation naît dans le secteur privé, et le rôle du gouvernement se limite à redistribuer, à délimiter le terrain de jeu et à réparer les erreurs du marché. En réalité, argumente-t-elle, beaucoup d'acteurs du privé, de la finance aux grands laboratoires pharmaceutiques, extraient ou détruisent de la valeur créée par autrui. Pour elle, le secteur public peut et devrait être un co-créateur de richesses qui pilote volontairement la croissance pour atteindre ses objectifs, que ce soit dans le domaine des énergies alternatives, du vieillissement des sociétés ou de la participation des citoyens à l'économie numérique."
Cécile Christodoulou

Scientists Warn the UN of Capitalism's Imminent Demise - Motherboard - 0 views

  •  
    " Many experts believe we're moving past capitalism, but they disagree on what the ultimate outcome will be. In his book Postcapitalism: A Guide to Our Future, British economics journalist Paul Mason theorises that information technology is paving the way for the emancipation of labour by reducing the costs of knowledge production-and potentially other kinds of production that will be transformed by AI, blockchain, and so on-to zero. Thus, he says, will emerge a utopian 'postcapitalist' age of mass abundance, beyond the price system and rules of capitalism. It sounds peachy, but Mason completely ignores the colossal, exponentially increasing physical infrastructure for the 'internet-of-things.' His digital uprising is projected to consume evermore [https://www.sciencedirect.com/science/article/pii/S2214629618301051] vast quantities of energy (as much as one-fifth of global electricity by 2025), producing 14 percent of global carbon emissions by 2040."
Aurialie Jublin

[Écologie]« Pour une sobriété numérique » : le nouveau rapport du Shift - 0 views

  •  
    "La consommation d'énergie du numérique est aujourd'hui en hausse de 9 % par an. Il est possible de la ramener à 1,5 % par an en adoptant la « Sobriété numérique » comme principe d'action. La transition numérique telle qu'elle est actuellement mise en œuvre participe au dérèglement climatique plus qu'elle n'aide à le prévenir. Il est urgent d'agir. C'est ce que conclut le rapport sur l'impact environnemental du numérique publié le 4 octobre par The Shift Project, think tank de la transition carbone, quatre jours avant la publication du rapport spécial du GIEC sur un monde à 1,5°C. Cet impact environnemental doit être adressé, faute de quoi le numérique fera davantage partie du problème que de la solution."
Aurialie Jublin

« Carbonalyser » : découvrez combien surfer sur le web coûte au climat - 0 views

  •  
    "L'extension de navigateur (ou add-on) « Carbonalyser » vous permet de visualiser la consommation électrique et les émissions de gaz à effet de serre (GES) associées à votre navigation internet. Il permet de se représenter la matérialité de nos usages numériques, afin de comprendre que même cachés derrière notre écran, les impacts du Numérique sur le climat et les ressources sont véritables. Téléchargez « Carbonalyser » dans le répertoire du navigateur Firefox ici : https://addons.mozilla.org/fr/firefox/addon/carbonalyser/. Pour calculer ces impacts, le programme : Comptabilise la quantité de données transitant via le navigateur, Traduit ce trafic en consommation électrique (via le modèle « 1byte » développé par The Shift Project), Traduit cette consommation électrique en émissions de CO2e selon la zone géographique."
1 - 10 of 10
Showing 20 items per page