Skip to main content

Home/ QN2019/ Group items tagged développement

Rss Feed Group items tagged

Aurialie Jublin

[Environnement] How Improving Website Performance Can Help Save The Planet - Smashing M... - 0 views

  • Mozilla Internet Health Report 2018 states that — especially as the Internet expands into new territory — “sustainability should be a bigger priority.” But as it stands, websites are growing ever more obese, which means that the energy demand of the Internet is continuing to grow exponentially.
  • As web developers, it’s understandable to feel that this is not an issue over which we have any influence, but this isn’t true. Many efforts are afoot to improve the situation on the web. The Green Web Foundation maintains an ever-growing database of web hosts who are either wholly powered by renewable energy or are at least committed to being carbon neutral. In 2013, A List Apart published Sustainable Web Design by James Christie. For the last three years, the SustainableUX conference has seen experts in web sustainability sharing their knowledge across an array of web-based disciplines.
  • Perhaps the biggest win when it comes to making websites more sustainable is that performance, user experience and sustainability are all neatly intertwined. The key metric for measuring the sustainability of a digital product is its energy usage. This includes the work done by the server, the client and the intermediary communications networks that transmit data between the two.
  • ...1 more annotation...
  • There are, however, some good fallbacks which we can use that demonstrate energy usage. These include data transfer (i.e. how much data does the browser have to download to display your website) and resource usage of the hardware serving and receiving the website. An obvious metric here is CPU usage, but memory usage and other forms of data storage also play their part.
  •  
    "Climate change may not seem like an issue that should concern web developers, but the truth is that our work does have a carbon footprint, and it's about time we started to think about that."
Aurialie Jublin

Dans un monde de la post-vérité, de nouvelles formes de luttes émergent | Met... - 0 views

  • Le terme de « post-vérité » a été utilisé pour la première fois en 2004 par l’écrivain américain Ralph Keyes. Il décrit la post-vérité comme l’apparition d’un système ou d’une société où la différence entre le vrai ou le faux n’a plus d’importance. Cette définition a éclaté aux yeux du monde en 2016 avec le vote pour le Brexit et l’élection de Donald Trump à la présidence des Etats-Unis. Et fake news a été élu terme de l’année 2017.
  • C’est pourquoi RSF a créé une commission sur l’information et la démocratie, composée de 25 personnalités de 18 nationalités différentes. Y figurent des lauréats du prix Nobel, des spécialistes des nouvelles technologies, des journalistes, des juristes et des anciens dirigeants d’organisations internationales. Cette commission a édicté une déclaration qui « vise à entrer dans cette nouvelle logique afin de définir les obligations des entités structurantes de l’espace public ». RSF a donc sélectionné douze pays qui vont s’engager à signer un pacte sur l’information et la démocratie sur la base de la déclaration évoquée ci-dessus. Le but est, à terme, de créer une entité qui associera des experts indépendants qui pourra édicter des propositions avec un monopole de l’initiative et qui pourront être mises en œuvre par des Etats.
  • Elle repose sur des principes forts : Le droit à l’information fiable La liberté de la presse La vie privée La responsabilité des participants du débat public La transparence des pouvoirs
  • ...1 more annotation...
  • Pour lutter face à cela, Gerald Bronner préconise une nouvelle forme de régulation : une régulation individuelle. Cette forme de régulation consiste à développer un esprit critique, on parle même de « système de pensée analytique ». Scientifiquement, il a été prouvé que la stimulation de la pensée analytique réduit l’adhésion à des théories complotistes. C’est la raison pour laquelle le sociologue recommande d’apprendre aux élèves du cycle primaire jusqu’à l’université le fonctionnement de leur cerveau. Le principal biais dont il est question est le biais de la taille de l’échantillon.
  •  
    "« Le sort de la vérité a toujours été très fragile », a déclaré il y a quelques jours Edgar Morin lors du colloque sur la post-vérité à la Cité des sciences et de l'industrie à Paris. A cette occasion, chercheurs, décideurs publics et professionnels des médias ont décrit cette société de la désinformation, rétablit quelques faits sur les fake news et proposé quelques pistes pour lutter contre l'infox.  "
Aurialie Jublin

Derrière les promesses de l'intelligence artificielle, le cauchemar du "digit... - 0 views

  • En l’absence de régulation, le digital labor préfigure le pire du travail : un monde de travailleurs isolés, privés de droits sociaux et iolés les uns des autres, livrés aux conditions léonines des employeurs — et accomplissant des tâches standardisées, fragmentées, peu qualifiées et dépourvues de sens global. Ici et là, des tentatives de régulation ou de création de plateformes équitables sont en cours. Il est urgent de les soutenir, si l’on ne veut pas que le développement croissant de l’automatisation ne soit synonyme non d’une disparition du travail, mais de sa dégradation irrémédiable.
  • Cet imaginaire largement libertarien irrigue profondément la culture du web depuis ses débuts et s’incarne, par exemple, dans la figure du hacker ou de l’entrepreneur nomade, du passionné qui s’accomplit dans un « projet professionnel qui est aussi existentiel ». Mais Antonio Casilli note combien cette vision est élitiste et ne prend pas en compte l’asymétrie des forces dans un marché du travail en berne où le chômage est élevé et l’ascenseur social en panne,
  • « Ce ne sont pas les machines qui font le travail des hommes, mais les hommes qui sont poussés à réaliser un digital labor pour les machines en les accompagnant, en les invitant, en les entraînant », résume le chercheur. Les intelligences artificielles doivent toujours être paramétrées, entraînées et encore très largement supervisées par des humains, malgré les progrès des méthodes d’apprentissage non supervisés. Les progrès fulgurants des IA ces dernières années sont surtout dus à l’explosion des quantités de données d’entraînement : or celles-ci doivent être triées, annotées, préparées par des humains. Et enfin, ces programmes doivent être évalués et corrigés pour pouvoir s’améliorer. Ainsi, les utilisateurs vont utiliser pendant plusieurs années une version beta du service Gmail de Google, pour l’améliorer, ou tagger leurs amis sur des photos et contribuer ainsi sans nécessairement en avoir conscience à l’affinement du service de reconnaissance faciale de Facebook : « C’est un travail humble et discret, qui fait de nous, contemporains, à la fois les dresseurs, les manouvriers et les agents d’entretien de ces équipements. » La question que pose l’intelligence artificielle et l’automatisation, ce n’est donc pas celle de la menace sur l’emploi – mais celle de la transformation profonde du travail pour répondre aux besoins de la machine.
  •  
    "Un spectre hante l'intelligence artificielle, c'est le digital labor. Le dernier livre du sociologue Antonio Casilli , spécialiste des réseaux sociaux et des mutations du travail à l'ère numérique, dresse un panorama sombre des nouvelles formes de travail déconsidéré ou invisible apparues avec l'essor des plateformes et de l'automatisation."
Aurialie Jublin

TRIBUNE. Comment la France s'est vendue aux Gafam - Le Point - 0 views

  • L'histoire du déclin du numérique français est une tragédie en trois actes. Il y eut d'abord les «  30 honteuses du numérique  », où une petite élite arrogante et dénuée de vision stratégique a démantelé notre industrie informatique et électronique grand public. Elle a débranché les travaux de recherches les plus intéressants et laissé nos meilleurs développeurs partir à l'étranger faute de pouvoir les associer à des projets ambitieux. Vient ensuite la capitulation vis-à-vis des grands acteurs américains. Ainsi, de nombreux politiques et hauts fonctionnaires français leur ont permis d'intégrer leurs technologies au cœur des prérogatives régaliennes de l'État : défense, renseignement, éducation, sécurité, mais aussi culture. Plusieurs d'entre eux quitteront leurs fonctions pour aller rejoindre ces sociétés. Le troisième acte se joue en ce moment. Alors que nos dirigeants se préparent à une vente à la découpe, il reste cependant un mince espoir d'inventer une autre manière d'utiliser le réseau plus en phase avec nos principes et nos valeurs. Mais pouvons-nous encore changer la doctrine des politiques numériques de la France  ? Quand on écoute nos hommes politiques, le déclassement de l'Europe vis-à-vis de l'Internet est présenté comme une fatalité. Un accident de l'Histoire à l'issue duquel les clés du monde de demain auraient été données aux États-Unis et à la Chine.
  • Nous aurions pu avoir un autre destin, car si les États-Unis avaient la vision et l'argent, c'est en Europe qu'ont été inventées deux des briques fondamentales de l'Internet : Linux et le Web. Mais à la différence du standard GSM, ces dernières ont eu le malheur d'être conçues par des individus talentueux hors des grandes institutions. Snobés chez nous, ces deux projets deviendront le moteur des plateformes numériques américaines et chinoises et l'instrument de leur domination mondiale.
  • Tout commence dans les années 70, avec l'abandon du réseau Cyclades de Louis Pouzin au profit du Minitel. Louis Pouzin en est le concepteur et il est l'inventeur de la segmentation des données en «  Datagramme  ». Il sera récompensé (avec Tim Berners-Lee et Vinton Cerf) par la reine d'Angleterre pour ses contributions essentielles à la création de l'Internet et il reste à ce jour un inconnu du grand public en France. Il faudra attendre 1994 pour que nos chercheurs acceptent enfin de s'intéresser à autre chose qu'à des technologies incompatibles avec l'Internet.
  • ...8 more annotations...
  • Quasiment au même moment, Alcatel décide de transférer ses usines vers la Chine. Son PDG veut appliquer la stratégie du «  fabless  », à savoir délocaliser la production tout en conservant le design en France. Ce sera une grossière erreur d'analyse. Lorsque les smartphones deviennent un succès international, la France n'a plus de capacités industrielles dans ce secteur, alors qu'elle était l'un des principaux fabricants dans le monde.
  • Alors que la Silicon Valley parie sur les talents et les start-up, la France préfère s'embourber dans des grands projets institutionnels sans avenir. Mais ces projets permettent aux politiques de faire des annonces et aux industriels déjà établis de bénéficier de la manne de l'argent public. Ainsi, le projet Quaero, qui visait à créer un «  Google Européen  », a été lancé par Jacques Chirac. Il terminera rapidement dans les oubliettes technologiques. Plus récemment, le Cloud souverain, qui se targuait d'être la réponse française à Amazon et Microsoft, sera abandonné en rase campagne puis revendu (et sans ironie aucune)… au chinois Huawei. Au final, beaucoup d'argent aura été dépensé soit pour concurrencer l'Internet lui-même soit pour contourner les start-up qui voulaient développer des solutions alternatives aux Gafam. C'est une génération entière d'entrepreneurs et de chercheurs que l'on a écartés pour redéfinir la politique industrielle du secteur. Tout récemment, le rapport sur l'intelligence artificielle de Cédric Villani n'a pas fait mention des deux meilleures solutions open sources dans le domaine : SciKit Learn et Keras qui se trouvent être… françaises.
  • L'acte deux commence avec le quinquennat Hollande. Un changement d'attitude va s'opérer vis-à-vis des grandes plateformes. La défaite est désormais entérinée en coulisses. Il ne s'agit plus d'exister au niveau mondial, mais de négocier avec les Gafam tout en faisant mine de s'indigner publiquement de leurs abus de position dominante.
  • Microsoft est devenue le partenaire de l'Éducation nationale, et Google le parrain de la Grande École du Numérique. La société de Big Data Palantir, proche des services secrets américains, a conclu un contrat avec la DGSI (et peut-être la DGSE  ?), et elle est également présente chez Airbus. Enfin, à l'échelon des collectivités territoriales, les régions vont s'appuyer sur Facebook pour «  la formation au numérique  ».Comment, dans ces conditions, se plaindre des conséquences des réseaux sociaux et de l'impact des Gafam sur notre démocratie quand nous leur avons ouvert si largement les portes de l'État  ?
  • En effet, ce gouvernement prend un risque inconsidéré en pariant notre avenir sur une hypothétique transformation numérique autour de «  l'intelligence artificielle  ». Si nous ne nous donnons pas les moyens de réguler la manière dont ses entreprises et ce type de technologies fonctionnent, nous pourrions détruire notre modèle social en tentant de copier ceux de la Chine ou des États-Unis. L'ironie du sort veut que, désormais, certains industriels et chercheurs américains s'appuient sur l'Europe et sa réglementation sur les données personnelles pour sortir d'un modèle numérique qui n'est pas «  durable  ». Aux États-Unis, le ministère de la Santé a ainsi lancé une grande étude sur l'impact des écrans et le Sénat a analysé, dans un rapport très détaillé, les manipulations des réseaux sociaux qui ont eu lieu lors de la dernière campagne présidentielle.
  • Il existe pourtant un scénario de sortie de crise. En effet, la meilleure réponse à la crise de confiance systémique vis-à-vis des Gafam est de soutenir les mouvements autour des technologies «  éthiques  ». Il s'agit d'un nouveau terrain de croissance industrielle pour l'Europe, comme le Bio l'a été pour l'agriculture. De nombreux entrepreneurs réfléchissent à d'autres façons de concevoir la technologie, s'appuyant beaucoup moins sur la donnée et créant moins d'intrusions vis-à-vis de leurs utilisateurs. C'est le mouvement autour des logiciels éthiques et du Slow Web. Ce mouvement, qui s'est réuni en septembre dernier à Copenhague, souhaite définir un meilleur équilibre entre usage numérique et monde réel pour ne pas rendre ces technologies aliénantes. Il prône notamment l'arrêt de certaines pratiques toxiques comme le profilage (micro targeting) ou la manipulation de nos émotions via des messages ciblés sur nos mobiles dont nous avons vu les conséquences désastreuses lors du référendum sur le Brexit ou l'élection américaine.
  • Nous devons désormais exiger que les choix technologiques faits par l'État (comme les décisions politiques dans ces domaines) soient lisibles et compréhensibles par l'ensemble des citoyens… Car s'il s'agit de faire de la France une colonie numérique des plateformes et qui ne profiterait qu'à une petite bourgeoisie d'Internet, alors il faudra le dire clairement  
  • Il est temps également de voir émerger une nouvelle forme de résistance citoyenne. Car l'usage de ces technologies n'est pas neutre, la substitution de l'action de l'État par des algorithmes rend caduque l'égalité de traitement entre chaque Français. Le remplacement de nos services publics par un «  État plateforme  » totalitaire (à l'instar du «  Crédit social  » qui voit chaque Chinois recevoir une note qui détermine leur capacité à se déplacer ou à obtenir un crédit) n'est pas la vision que nous souhaitons promouvoir. C'est pourtant ce qui se prépare dans certains cabinets ministériels lorsqu'il est question d'État plateforme…
  •  
    "Pour le pionnier du Web français Tariq Krim, l'histoire du déclin du numérique français est une tragédie en 3 actes. Il existe pourtant une sortie de crise."
Aurialie Jublin

Modération, tri des données: l'ONU s'inquiète des conditions de travail des «... - 0 views

  • La majeure partie des tâches proposées consiste à compléter des questionnaires, souvent à des fins de recherche scientifique. La collecte de données arrive en second: il peut s'agir par exemple de trouver les adresses mails de tous les podologues d'une ville, moyennant 10 centimes par adresse mail trouvée. Une part non négligeable repose sur la transcription d'images ou d'extraits sonores. C'est grâce à ce type de travaux que les géants du Web entraînent leurs intelligences artificielles. Enfin, la modération de contenus est extrêmement fréquente. Pour l'ONU, toutes ces tâches «ne correspondent pas au niveau d'éducation des travailleurs», qui sont 37% à être titulaire d'un diplôme universitaire.
  • Pire, certains de ces travaux sont extrêmement difficiles sur le plan psychologique: beaucoup de modérateurs souffrent ainsi de syndromes de stress post-traumatiques à force d'être exposés aux contenus les plus sombres du Web (images de torture, de pédopornographie, de massacres...).
  • Pour couronner le tout, les rythmes de travail sont particulièrement soutenus: 43% des sondés travaillent la nuit, 68% travaillent entre 20h et 22h, souvent car ils exercent en parallèle une autre activité professionnelle, les revenus du digital labor ne permettant pas d'en faire une activité à temps plein. Les salaires sont, à l'échelle mondiale, ramenés à la moyenne de 3,31 dollars de l'heure en fourchette basse, 4,43 dollars en fourchette haute (soit entre 2,81 et 3,76 euros). L'enquête démontre qu'une proportion substantielle de travailleurs gagne moins que le salaire minimum de leur lieu de résidence. L'ONU ajoute qu'une part non négligeable de «para-travail» n'est pas payée: pour chaque heure travaillée, au moins 20 minutes sont consacrées à des tâches comme la connexion sur les plateformes, les démarches administratives, chercher de nouvelles tâches, comprendre les énoncés des instructions... À noter également, 90% des répondants affirment avoir déjà été non payés pour des tâches accomplies.
  • ...1 more annotation...
  • Malgré les conditions de travail difficiles, 88% des sondés aimeraient se voir proposer plus de microtâches en ligne afin d'accroître leurs revenus. L'ONU observe que le secteur du digital labor est voué à continuer de se développer étant donné les besoins croissants en main d'œuvre de l'économie numérique. Pour cette raison, l'enquête appelle à une régulation plus ferme des conditions de travail. La majeure partie des travailleurs n'est ainsi couverte par aucune assurance maladie ou civile, ne cotise pas pour la retraite et le revenu gagné échappe souvent au radar des autorités fiscales.
  •  
    "Ces petites mains invisibles sont indispensables pour nettoyer les bases de données, entraîner les intelligences artificielles ou encore assurer la modération des contenus sur le Web. Pour la première fois, une étude de grande ampleur de l'ONU se penche sur ce travail qu'on appelle le «digital labor», et dresse un constat alarmant."
Aurialie Jublin

Christchurch : les pyromanes appelés à éteindre l'incendie - La Quadrature du... - 0 views

  • Facebook fait mine de prendre conscience du problème de viralité lié à la plateforme en promettant aussi de « renforcer ses intelligences artificielles », encore une fois… Comme si, précisément, la « solution magique » de ses filtres automatisés ne venait pas d’être définitivement décrédibilisée, il y a deux mois, par une poignée d’internautes complices du tueur de Christchurch parvenant à les contourner pendant des jours, manifestement sans grand soucis. D’après Facebook, la première journée, 300 000 copies seraient passé au travers de ses filtres automatisés, n’étant traitées que pas son armée de modérateurs sous-payées et exposés aux pires conditions de travail.
  • Surtout, Facebook sait très bien que sa plateforme ne peut pas être corrigée, à moins de renoncer à son modèle économique, tout comme Google ou Twitter, véritable cœur du problème. La raison d’être de ces plateformes est de réunir le plus de personnes possibles en un seul endroit, pour les surveiller et leur proposer la publicité qui les influencera le plus.
  • Il est techniquement et humainement impossible de modérer d’aussi grosses plateformes pour éviter qu’elles ne deviennent des outils de harcèlement, de haine et de mort. Pire, pour maintenir tous nos cerveaux disponibles, leurs « intelligences artificielles » (qui ne se montrent efficaces qu’ici) entretiennent autant que possible la culture du buzz et, par là, le conflit, la caricature, la peur – tout ce qu’il faut pour éviter l’entraide et la cohésion. C’est le prix à payer pour capter plusieurs milliards de cerveaux en même temps, et ils ne renonceront jamais à nous le faire payer (c’est pourquoi nous luttons pour le développement d’un Web décentralisé et à taille humaine).
  • ...3 more annotations...
  • Et, bien sûr, leur emprise s’exerce en marchant sur nos libertés fondamentales, exploitant nos données personnelles et violant le RGPD pour mieux nous contrôler (voir nos plaintes devant la CNIL et la première sanction de celle-ci en réponse contre Google).
  • Il y a 2 mois, le Parlement européen a adopté en première lecture le règlement terroriste, dont l’objectif principal est de généraliser les filtres automatisés de Google et Facebook à l’ensemble du Web – oui, ces mêmes filtres qui viennent de démontrer toute leur inefficacité. Pour imposer ces filtres à tout le monde, le gouvernement français, qui est à l’initiative de ce texte avec l’Allemagne, n’a pas peur de détruire le Web européen composé d’une multitude de petits acteurs et, ainsi, de laisser les GAFAM en maîtres. En vrai, ces géants s’étant montrés particulièrement coopératifs dans l’ambition de Macron de « civiliser » Internet, ils apparaissent comme des alliés de choix qu’il vaudrait mieux laisser régner (voir notre premier bilan sur le règlement terroriste).
  • En ce moment, c’est la proposition de loi LREM « contre la haine en ligne » qui reprend cette entente Macron-GAFAM : les géants s’engagent à faire le travail de la police et de la justice sur Internet et, en échange, le gouvernement les présente en « solutions », légitime leur toute puissance, les laisse tranquille et les invite à tous ses événements sur « comment la technologie sauvera le monde ». Comme on l’a vu dans notre dernier article, cette alliance risque aussi de conduire à la censure de critiques anti-Macron ou de mouvements sociaux un peu trop dérangeants…
  •  
    "Facebook, qui participait au lancement de la campagne aux côtés de Google, a aussitôt répondu : il empêchera désormais ses utilisateurs les plus suspects de diffuser des vidéos en direct - outil qu'avait utilisé le tueur de Christchurch. Cette réponse de Facebook est bien à la hauteur des attentes du gouvernement Macron, qui recevait précisément Mark Zuckerberg la semaine dernière : de la poudre aux yeux pour que surtout rien ne change, au mépris de la gravité des événements. "
Aurialie Jublin

Libra : « Jamais aucune société n'a eu autant de pouvoir que Facebook » | Les... - 0 views

  • Cette  monnaie numérique est le dernier étage de la fusée pour l'entreprise américaine. Facebook est déjà un géant médiatique et social d'une puissance inédite, avec plus de 2,4 milliards d'utilisateurs sur sa plateforme. Le fait de créer sa propre monnaie la positionne comme une puissante étatique.A l'échelle de l'humanité, aucune banque ni même un Etat n'a, une fois, été en mesure de proposer une monnaie à plus de 2 milliards d'individus. Le sentiment est, lui, mitigé, car il existe un risque évident en termes d'ingérence envers les activités originellement dévolues à l'Etat et de nombreuses questions relatives à la vie privée. Même si Facebook  promet comme d'habitude de forts standards de confidentialité .
  • Facebook a toujours dit que son prochain milliard d'utilisateurs se trouvait sur les marchés émergents, c'est-à-dire en Amérique du Sud, en Afrique, mais aussi en Inde (la Chine et la Russie n'étant pas accessibles, politiquement parlant). Avec cette monnaie numérique, Facebook vise avant tout à fournir des accès bancaires en ligne aux habitants des pays en développement et leur permettre d'effectuer des opérations monétaires élémentaires.
  • Aucune entreprise n'a jamais possédé un tel pouvoir, étant en mesure de toucher autant de gens quotidiennement et en possédant autant de données individualisées sur eux. Le faire en 15 ans, c'est totalement inédit.Les enjeux de la création d'une monnaie sont énormes, tant en matière de confidentialité, que de commerce et de libre concurrence. Or, Facebook, on l'a vu avec la gestion des discours de haine et de la  désinformation sur sa plateforme , s'est montré incapable de faire sa propre régulation. Celle-ci doit être prise en charge notamment par l'Etat.
  • ...5 more annotations...
  • Aux Etats-Unis comme en Europe, de nombreuses voix réclament le démantèlement de l'entreprise. Quelle est votre opinion ?Le lancement de cette monnaie ne fait que me conforter dans cette idée. C'était un discours très marginal il y a cinq ans. Je milite pour une gestion commune de Facebook, qui s'apparente à une forme de démantèlement. On pourrait s'orienter sur une forme de « commonisation » où on imposerait une gestion plus collaborative, sur le modèle de Wikipédia par exemple.
  • Tout le monde est conscient, aujourd'hui, de la valeur collective et individuelle que peut apporter l'infrastructure qu'a créée Facebook. On rêverait que cette entreprise soit éloignée de toutes ces polémiques. Mais il faut pour cela rompre avec la logique économique, ce qui ne viendra jamais de la firme elle-même.
  • On parle de scinder Facebook en plusieurs entités, chacune avec un objet différent, ou imposer à la société de nouvelles règles faute de quoi elle n'aura plus accès à certains marchés. Mais il faudrait pour cela faire évoluer la doctrine antitrust, qui n'est pas adaptée à l'économie numérique. Il faut en revanche prendre des mesures dans un avenir très proche, sinon il sera trop tard pour le faire. Car une fois que la monnaie sera installée, il sera très difficile que le régulateur la défasse.
  • D'un autre côté, certains analystes avancent que Facebook est en train de se planter un couteau dans le ventre. Le fait de lancer sa propre monnaie risque de déplaire à nombre de régulateurs et de convaincre les indécis qui jugeaient jusqu'ici que Facebook n'était qu'une entreprise commerciale privée comme les autres.
  • Le philosophe Bernard Stiegler expliquait il y a peu que la disruption était une stratégie de tétanisation de l'adversaire, où on le prend en permanence de vitesse, de sorte qu'il n'ait pas le temps de réfléchir à des modes de régulations. C'est un peu ce qui se passe avec Facebook.
  •  
    "Olivier Ertzscheid est maître de conférences et chercheur en sciences de l'information à l'Université de Nantes. Le lancement par Facebook de sa propre monnaie numérique positionne, selon lui, l'entreprise comme une puissance étatique. Un pouvoir qui pose la question de son démantèlement."
Asso Fing

La consommation électrique des logiciels, un enjeu pour les industriels et… l... - 0 views

  • Troisièmement, parce que le législateur pourrait intervenir… « En 2020 entrera en vigueur une législation européenne sur l'écoconception des serveurs et des unités de stockage en ligne, rappelle Rabih Bashroush, professeur en systèmes distribués et génie logiciel à l'Université de Londres-Est, qui a  participé à l'élaboration de ce texte . Il faut un cadre similaire pour la consommation des logiciels. » En France, un député, Fabrice Brun (LR), vient de  demander au gouvernement d'obliger les éditeurs de logiciels à « pratiquer une écriture plus vertueuse, en terme environnemental, du code informatique. »
  • Enfin, parce que jusqu'ici fabricants et gestionnaires ont tenté de réguler la consommation en jouant sur des solutions « matérielles » : utilisation de processeurs ou de cartes mères qui chauffent moins, de mémoires moins énergivores ; déclenchement des sauvegardes la nuit quand les serveurs sont moins occupés… Or, pour certains experts, ces gisements d'économies sont désormais épuisés. « Dans les dix ans à venir, il n'y aura pas de révolution technologique, facilement déployable à grande échelle, qui permettra de réduire la consommation énergétique du numérique : la seule voie possible est celle de la sobriété », affirme Hugues Ferreboeuf, qui dirige les réflexions sur l'empreinte carbone du numérique  au sein du think tank The Shift Project . « Nos data centers comptent d'ores et déjà parmi les plus économes du marché, mais nous devons aller plus loin, s'inquiète François Sterin, directeur industriel chez l'hébergeur Web OVH. Cet enjeu est crucial pour les fournisseurs de cloud, tant du point de vue commercial que sociétal. »
  • Reste donc une seule piste : la consommation induite par les logiciels. La mesurer est assez simple pour les smartphones et les objets connectés, plus compliqué pour les serveurs et PC. « On peut brancher des appareils de mesures - des sortes de wattmètres - sur les smartphones pour récupérer les données de la batterie, explique Thierry Leboucq. La mesure réelle permettra demain d'établir des normes et des labels pour valider l'éco-consommation d'un service numérique. » Pour les objets connectés, qui ne comportent que quelques composants, Alexandre Boé et son collègue Thomas Vantroys, de l'université de Lille, proposent déjà une solution. « Nous avons mis au point un petit appareil de mesure, composé d'un microprocesseur et d'un écran, coûtant une soixantaine d'euros, détaillent-ils. Couplé à des marqueurs introduits dans le logiciel, qui repèrent les fonctions les plus gourmandes, il permet aux fabricants et aux développeurs d'optimiser le fonctionnement et la consommation. »
  • ...6 more annotations...
  • La mesure est plus compliquée sur les serveurs et les PC. « Par exemple, les couches d'abstraction matérielle, ces logiciels intermédiaires entre le système d'exploitation et le matériel informatique, consomment de l'énergie que vous ne voyez pas », met en garde Marc Vautier, qui anime la communauté des Orange Experts « Energie et environnement » au sein du groupe Orange. Dès 2016, Jean-Patrick Gelas, docteur en informatique, avait publié, avec son équipe de l'université Lyon-1, un article exploratoire sur la mesure en temps réel de la consommation, dans la revue « International Journal of Electronic Business Management ». « L'idée était de coupler les mesures de puissance électrique, réalisées par un wattmètre, avec les instructions du logiciel et les tables de correspondance 'fonction réalisée/énergie dépensée' publiées par les constructeurs », explique-t-il.
  • Romain Rouvoy, professeur d'informatique à l'université de Lille, propose une approche basée sur l'estimation. En collaboration avec Orange et le cabinet Davidson Consulting, il a mis au point PowerAPI, un prototype de recherche distribué sous licence open source, disponible sur la plate-forme GitHub.  « Une fois installée sur un serveur, un ordinateur portable ou un robot, notre logiciel va évaluer, à l'aide de modèles mathématiques que nous avons développés, la consommation électrique des applications qui tournent sur ces machines », relate-t-il. Plusieurs industriels de l'automobile et de la robotique se disent intéressés par sa technologie.
  • « Les développeurs ne doivent pas s'empêcher de discuter des cahiers des charges avec les services marketing, qui peuvent, par exemple demander des serveurs disponibles 99,99 % du temps, là où 99,9 % suffiraient et permettraient d'économiser de l'énergie », conseille Erwan Diverrez, architecte logiciels chez Orange.
  • « On peut jouer sur le stockage de données - par exemple les données d'usage qui décrivent la relation de l'utilisateur avec sa machine - et ne les envoyer que lorsque le smartphone est en Wifi ; cela évite d'essayer continuellement de se connecter au réseau mobile », ajoute Sébastien Brault, développeur sur mobile chez Orange.
  • « Pour le Web, il existe des astuces comme la gestion du cache de la mémoire, par exemple, pour ne pas avoir à télécharger plusieurs fois une image qui apparaît sur plusieurs pages d'un site », ajoute Romain Petiot.  « On peut aussi jouer sur les langages de programmation utilisés et les bonnes pratiques de développement associées à ce langage », estime Romain Rouvoy, professeur d'informatique à l'université de Lille.
  • « La moitié de l'empreinte carbone du numérique provient de la production des équipements », résume Hugues Ferreboeuf, coordinateur du rapport « Pour une sobriété numérique » publié par le think tank Shift Project. L'autre moitié se répartit en trois tiers : la consommation des serveurs dans les data centers, les réseaux de télécommunication et les quelque 15 milliards de terminaux et périphériques sur lesquels tournent des logiciels.
  •  
    "Des logiciels tournent sur 15 milliards de terminaux et périphériques à travers le monde. Ce sont eux qui en commandent les besoins en énergie."
  •  
    "Des logiciels tournent sur 15 milliards de terminaux et périphériques à travers le monde. Ce sont eux qui en commandent les besoins en énergie."
Aurialie Jublin

Relations humaines et artisanat : le futur des services publics - 0 views

  • La solution ? Changer la logique des services bureaucratiques afin de remettre la relation humaine au cœur du système. Pour cela, il faudrait pouvoir coordonner toutes les offres de services existantes, permettre aux professionnels, aux amateurs et aux particuliers de créer une expérience communautaire, où, parfois, les relations amicales qui auront pu se développer viendront se substituer aux services que les professionnels n’arrivent pas vraiment à rendre. La technologie permet comme jamais auparavant de mettre en réseau différents acteurs pour recréer des communautés qui ont disparu.
  • Les liens que nous formons nous rendent heureux, nous soutiennent et nous aident. Mais ces liens ont été intentionnellement éliminés des systèmes que nous avons construits dans l’après-guerre. Beveridge n’avait pas de foi dans les émotions. Il était convaincu qu’il fallait préférer un système impersonnel. La standardisation du service devait permettre la baisse du coût unitaire de production. C’est comme cela que l’on parviendrait à servir des millions de personnes à un coût abordable. Malheureusement, si ce système a indéniablement créé de la valeur pendant plusieurs décennies, il a aussi rapidement engendré une augmentation de la solitude et un affaiblissement des liens sociaux.
  • “Les relations humaines sont la ressource la plus précieuse dont nous disposons”, écrit Cottam. L’offre de services de proximité telle qu’elle est structurée aujourd’hui minimise l’importance des relations singulières entre individus. Le modèle fordiste et sa recherche des gains de productivité par l’organisation scientifique du travail ont façonné la manière dont on a structuré toutes les activités au XXe siècle, dans le secteur public comme dans le secteur privé.
  •  
    " « L'argent ne fait pas tout », explique Hilary Cottam. « Au cœur de cette nouvelle manière de travailler, il y a la relation humaine. J'ai constaté que lorsque les gens se sentaient soutenus par des relations humaines fortes, il pouvait y avoir du changement. » Il est temps de comprendre que les services de proximité, y compris (surtout ?) ceux rendus par la puissance publique ne doivent pas être condamnés à être dévalorisés par la logique de production de masse et d'organisation scientifique du travail. Nous avons tout à gagner à y mettre une logique artisanale, qui permet les relations singulières, la personnalisation, la créativité et l'autonomie. C'est sans doute ce dont notre siècle a le plus besoin."
Aurialie Jublin

Le Minitel : réhabiliter un contre-modèle pour penser l'Internet d'aujourd'hu... - 0 views

  • Cette culture industrielle a été rendue possible par « les vertus de la centralisation » (Mailland et Driscoll). En effet, elle a permis la création du Kiosque, la « killer app » du Minitel : un système très simple, mis en place par l’Administration pour simplifier les transactions économiques autour des services Minitel. Kiosque reversait directement 2/3 des profits de connexion aux fournisseurs d’accès, leur évitant des démarches. Les utilisateurs, eux, ne payaient qu’à la fin du mois, en bloc, en même temps que leur facture téléphonique. Cette simplicité d’utilisation a été essentielle, en encourageant les entrepreneurs à se lancer sur le Minitel, et les utilisateurs à se connecter aux services. Cette centralisation a été largement critiquée, car elle fait dépendre le modèle économique et les connexions d’un acteur unique et ici étatique. Mais les chercheurs notent que son efficacité ne fait pas de doute, au plan économique. On retrouve une organisation similaire chez les géants du Web : l’Apple Store, par exemple, fonctionne un peu comme une version privée du Kiosque. Mais ce n’est pas tout : pour Mailland et Driscoll, Minitel offre une version publique des marchés multifaces, mettant en relation des usagers/consommateurs et des fournisseurs de services, en prélevant une rente — modèle devenu le filon des économies de plateforme comme Uber ou Air BnB.
  • Le Minitel a été un « succès domestique », qui a permis à la France de devenir un pays extrêmement connecté, et à toute une population de découvrir des activités en ligne. Il a surtout favorisé l’« émergence d’une pratique collective de la communication numérique qui a généré des systèmes de représentations variés, des formes de discours et de comportements qui apparaissent aujourd’hui comme matriciels ». Ainsi, les forums de discussion, la communication anonyme par écran interposé, l’usage de pseudonymes, l’explosion de la pornographie, les débats sur la liberté d’expression ou la censure qu’on associe souvent aux cultures numériques... ont leur origine dans le Minitel.
  • Les messageries roses en sont l’exemple le plus célèbre (et le plus lucratif) mais les usages du Minitel ne se limitaient pas à l’annuaire et aux messageries coquines. D’autres usages, éclipsés par ce folklore, se sont aussi développés dans ces années-là, préfigurant les usages numériques : achat et vente par correspondance, services bancaires, consultation d’informations (horaires de train, de spectacle — ou autres : sur le service Minitel de Libération, on peut accéder dès 12h aux infos qui seront publiées le lendemain), usages administratifs, enseignement (informations, corrigés, inscriptions...), jeux (black jack, bridges, quizz et même un 3615 PENDU)...
  • ...4 more annotations...
  • Certains s’emparent également du Minitel pour organiser des actions politiques, préfigurant l’usage qui est fait aujourd’hui des outils numériques : en 1986, des étudiants utilisent la messagerie de Libé pour organiser l’opposition à la loi Devaquet. Ils sont imités en 1988 et 89 par des infirmières, puis en 1992 par des syndicalistes du Ministère des Finances.
  • Pour Mailland et Driscoll, la réussite du Minitel permet de repenser l’opposition simpliste entre un système public et centralisé (mal) et un système privé et décentralisé (bien). Ils soulignent que ce sont les investissements stratégiques de l’État qui ont permis l’explosion du réseau — tout comme, aux États-Unis, c’est la décision du gouvernement de privatiser le « backbone » du réseau dans les années 1990 qui a conduit au boom commercial que l’on connaît. « L’intervention d’un état dans un système en ligne ne signifie pas automatiquement une perte de liberté. Au contraire : s’ils sont bien pensés, les fonds publics peuvent encourager la créativité et le développement dans le réseau. ».
  • Les auteurs se demandent alors si « des interventions ciblées du gouvernement ne pourraient pas réintroduire de la compétition et de l’ouverture, dans des champs d’Internet où les intérêts du secteur privé et du public ont cessé depuis longtemps de coïncider. » A l’heure où les appels à la régulation du secteur des GAFA par les Etats ou les instances supra-étatiques se multiplient, le Minitel aurait donc des choses à nous apprendre. « L’histoire du Minitel, et de ses trois décennies de fonctionnement, montre la voie vers un avenir différent, marqué par l’engagement envers l’intérêt public. (...) »
  • C’est cette défense des intérêts publics qui semble peu à peu reculer, selon les auteurs : « A moins d’une intervention stratégique des gouvernements ne préserve les éléments d’ouverture et d’équilibre des pouvoirs public/privé présents dans l’Internet des débuts et qui y ont attiré tant de hackeurs, d’entrepreneurs, d’expérimentateurs et d’explorateurs... l’Internet tel que nous le connaissons depuis les années 1990 ne vivra peut-être même pas trente ans. »
  •  
    "Suite de notre cycle sur les histoires d'Internet : reconsidérer le Minitel. Longtemps considéré comme une impasse française, l'incarnation du grand projet technocratique incapable d'évoluer, le Minitel est de plus en plus réhabilité par les historiens. Pas comme un modèle à suivre, mais comme une innovation radicale en son temps, qui fut pour les Français la première entrée dans les cultures numériques et dont le modèle dépendant des fonds publics peut nous aider à penser autrement l'Internet contemporain."
Aurialie Jublin

Paris se dote de sa propre infrastructure pour héberger les données de ses ad... - 0 views

  • Alors que les services publics sont de plus en plus numérisés, ce nouvel équipement doit offrir les plus hauts standards de sécurité quant à l’hébergement des données. Il permet notamment à Paris, qui externalisait jusque-là cette prestation, de ne plus dépendre d’acteurs étrangers – possiblement soumis à des réglementations, comme le Cloud Act, lequel permet aux Etats-Unis de réclamer à des fournisseurs de service américains l’accès à des données stockées à l’étranger – et de garantir ainsi la souveraineté des données. En outre, sauf dans le cas de missions ponctuelles, les équipements sont entièrement gérés par les services informatiques de la mairie. « Nous avons la maîtrise physique du stockage de bout en bout », se réjouit M. Grégoire.
  • La mairie a également tenu à ce que cette installation ait une empreinte environnementale limitée. Manifestation la plus visible de cette volonté, la chaleur dégagée par le data center est utilisée pour alimenter le réseau de chauffage de bâtiments voisins.
  • Ce nouvel équipement a nécessité un investissement de 16 millions d’euros. Pour faire baisser la facture, la mairie a dimensionné le lieu de telle sorte qu’il puisse proposer à d’autres services publics d’accueillir leurs serveurs, moyennant finances – à un coût qu’elle assure avantageux. L’Assistance publique-Hôpitaux de Paris et Eau de Paris comptent parmi ses premiers clients, et des discussions sont en cours pour conclure de nouveaux contrats.
  • ...1 more annotation...
  • Une telle solution pourrait-elle être adoptée par d’autres villes françaises ? L’adjoint au maire admet que le coût d’entrée est prohibitif et que Paris n’aurait pas pu faire ce choix s’il ne disposait pas des compétences en interne pour créer et maintenir ce site. Mais, veut-il croire, « c’est une philosophie qui est appelée à se développer ».
  •  
    "Alors qu'elle externalisait jusque-là le stockage de ses données numériques, la ville a investi 16 millions d'euros dans un centre de données pour en reprendre le contrôle."
« First ‹ Previous 61 - 71 of 71
Showing 20 items per page