Skip to main content

Home/ QN2019/ Contents contributed and discussions participated by Asso Fing

Contents contributed and discussions participated by Asso Fing

Asso Fing

La consommation électrique des logiciels, un enjeu pour les industriels et… l... - 0 views

  • Troisièmement, parce que le législateur pourrait intervenir… « En 2020 entrera en vigueur une législation européenne sur l'écoconception des serveurs et des unités de stockage en ligne, rappelle Rabih Bashroush, professeur en systèmes distribués et génie logiciel à l'Université de Londres-Est, qui a  participé à l'élaboration de ce texte . Il faut un cadre similaire pour la consommation des logiciels. » En France, un député, Fabrice Brun (LR), vient de  demander au gouvernement d'obliger les éditeurs de logiciels à « pratiquer une écriture plus vertueuse, en terme environnemental, du code informatique. »
  • Enfin, parce que jusqu'ici fabricants et gestionnaires ont tenté de réguler la consommation en jouant sur des solutions « matérielles » : utilisation de processeurs ou de cartes mères qui chauffent moins, de mémoires moins énergivores ; déclenchement des sauvegardes la nuit quand les serveurs sont moins occupés… Or, pour certains experts, ces gisements d'économies sont désormais épuisés. « Dans les dix ans à venir, il n'y aura pas de révolution technologique, facilement déployable à grande échelle, qui permettra de réduire la consommation énergétique du numérique : la seule voie possible est celle de la sobriété », affirme Hugues Ferreboeuf, qui dirige les réflexions sur l'empreinte carbone du numérique  au sein du think tank The Shift Project . « Nos data centers comptent d'ores et déjà parmi les plus économes du marché, mais nous devons aller plus loin, s'inquiète François Sterin, directeur industriel chez l'hébergeur Web OVH. Cet enjeu est crucial pour les fournisseurs de cloud, tant du point de vue commercial que sociétal. »
  • Reste donc une seule piste : la consommation induite par les logiciels. La mesurer est assez simple pour les smartphones et les objets connectés, plus compliqué pour les serveurs et PC. « On peut brancher des appareils de mesures - des sortes de wattmètres - sur les smartphones pour récupérer les données de la batterie, explique Thierry Leboucq. La mesure réelle permettra demain d'établir des normes et des labels pour valider l'éco-consommation d'un service numérique. » Pour les objets connectés, qui ne comportent que quelques composants, Alexandre Boé et son collègue Thomas Vantroys, de l'université de Lille, proposent déjà une solution. « Nous avons mis au point un petit appareil de mesure, composé d'un microprocesseur et d'un écran, coûtant une soixantaine d'euros, détaillent-ils. Couplé à des marqueurs introduits dans le logiciel, qui repèrent les fonctions les plus gourmandes, il permet aux fabricants et aux développeurs d'optimiser le fonctionnement et la consommation. »
  • ...6 more annotations...
  • La mesure est plus compliquée sur les serveurs et les PC. « Par exemple, les couches d'abstraction matérielle, ces logiciels intermédiaires entre le système d'exploitation et le matériel informatique, consomment de l'énergie que vous ne voyez pas », met en garde Marc Vautier, qui anime la communauté des Orange Experts « Energie et environnement » au sein du groupe Orange. Dès 2016, Jean-Patrick Gelas, docteur en informatique, avait publié, avec son équipe de l'université Lyon-1, un article exploratoire sur la mesure en temps réel de la consommation, dans la revue « International Journal of Electronic Business Management ». « L'idée était de coupler les mesures de puissance électrique, réalisées par un wattmètre, avec les instructions du logiciel et les tables de correspondance 'fonction réalisée/énergie dépensée' publiées par les constructeurs », explique-t-il.
  • Romain Rouvoy, professeur d'informatique à l'université de Lille, propose une approche basée sur l'estimation. En collaboration avec Orange et le cabinet Davidson Consulting, il a mis au point PowerAPI, un prototype de recherche distribué sous licence open source, disponible sur la plate-forme GitHub.  « Une fois installée sur un serveur, un ordinateur portable ou un robot, notre logiciel va évaluer, à l'aide de modèles mathématiques que nous avons développés, la consommation électrique des applications qui tournent sur ces machines », relate-t-il. Plusieurs industriels de l'automobile et de la robotique se disent intéressés par sa technologie.
  • « Les développeurs ne doivent pas s'empêcher de discuter des cahiers des charges avec les services marketing, qui peuvent, par exemple demander des serveurs disponibles 99,99 % du temps, là où 99,9 % suffiraient et permettraient d'économiser de l'énergie », conseille Erwan Diverrez, architecte logiciels chez Orange.
  • « On peut jouer sur le stockage de données - par exemple les données d'usage qui décrivent la relation de l'utilisateur avec sa machine - et ne les envoyer que lorsque le smartphone est en Wifi ; cela évite d'essayer continuellement de se connecter au réseau mobile », ajoute Sébastien Brault, développeur sur mobile chez Orange.
  • « Pour le Web, il existe des astuces comme la gestion du cache de la mémoire, par exemple, pour ne pas avoir à télécharger plusieurs fois une image qui apparaît sur plusieurs pages d'un site », ajoute Romain Petiot.  « On peut aussi jouer sur les langages de programmation utilisés et les bonnes pratiques de développement associées à ce langage », estime Romain Rouvoy, professeur d'informatique à l'université de Lille.
  • « La moitié de l'empreinte carbone du numérique provient de la production des équipements », résume Hugues Ferreboeuf, coordinateur du rapport « Pour une sobriété numérique » publié par le think tank Shift Project. L'autre moitié se répartit en trois tiers : la consommation des serveurs dans les data centers, les réseaux de télécommunication et les quelque 15 milliards de terminaux et périphériques sur lesquels tournent des logiciels.
  •  
    "Des logiciels tournent sur 15 milliards de terminaux et périphériques à travers le monde. Ce sont eux qui en commandent les besoins en énergie."
Asso Fing

Il est temps de reconnaître l'intégrité numérique des individus - Le Temps - 0 views

  • Aujourd’hui, les individus ont une existence numérique qui ne dépend pas de leur propre volonté. En effet, quelqu’un qui ne s’inscrit pas sur un réseau social a toutes les chances d’être connu de ce réseau social du simple fait que son entourage interagit avec cette plateforme. La compilation et l’analyse des données personnelles sont déjà suffisamment sophistiquées pour réaliser le profil précis d’un individu sans qu’il ait lui-même fourni des données personnelles à l’entreprise concernée. Il suffit par exemple pour cela, lorsqu’on s’inscrit sur un tel site, de donner accès à son répertoire.
  • De même, on commence à voir l’émergence d’une génération d’individus qui ont une existence numérique antérieure à leur naissance. Des parents qui partagent leur échographie sur un réseau social, cela existe. Il suffit aussi d’annoncer la naissance de cet enfant pour qu’il existe déjà numériquement. Bref, que nous le voulions ou non, une partie de notre existence est désormais numérique. C’est pourquoi les données qui nous concernent ne sont pas de simples propriétés, elles font partie de notre individualité, elles nous définissent, disent beaucoup de choses de nous. «Nous» sommes nos données personnelles et ces données personnelles, c’est «nous».
  • Si les êtres humains ont une existence numérique, il y a lieu de considérer que leur intégrité s’étend aussi à cette dimension. Puisqu’il y a une intégrité physique, qui correspond à notre corps, une intégrité psychique qui correspond à notre monde mental, il doit y avoir une intégrité numérique, laquelle se réfère logiquement à la dimension numérique de notre existence.
  • ...2 more annotations...
  • De ce fait, nos données personnelles font partie intégrante de notre intégrité numérique, ce qui revient à dire qu’exploiter nos données porte atteinte à notre intégrité.
  • Aujourd’hui, les Etats et les entreprises invoquent toujours d’excellentes raisons pour porter atteinte à l’intégrité numérique des individus en exploitant leurs données personnelles. Mais bien souvent, le traitement de ces données sert à influencer, de façon opaque, nos comportements, ou à mener des politiques sécuritaires de surveillance massive. La révolution numérique doit profiter à l’humanité, et non pas faciliter son exploitation pour favoriser des intérêts particuliers, dont seule une caste privilégiée en tirera la quasi-totalité des profits.
  •  
    "Reconnaître et protéger notre intégrité numérique constituent un premier pas nécessaire pour que l'humain ne soit pas l'objet de la technologie, écrit le journaliste Grégoire Barbey "
Asso Fing

Imagining a Universal Declaration of Digital Rights - Ding Magazine - 0 views

  •  
    "With this question, we kicked off a "Future-proofing our digital rights" workshop in Berlin. Together with digital rights experts, campaigners and activists, we imagined a positive future conversation about our digital rights and penned a multitude of statements. Temporarily switching our focus from the digital rights battles being fought today to the future we want turned out to be an invigorating and inspiring experience; the energy fed into our own imagining of a "Universal Declaration of Digital Rights". From a starting point of how rights are currently protected in our international human rights system, we looked at how these would be interpreted in the future and asked ourselves what would need to be established over the coming years. The collated document from our collective imagination was a combination of both re-imagined existing rights, such as fair trial rights, focused on algorithmic decision-making, or a right to "understand the implications of technology" as a manifestation of the right to education, and the formulation of new potential rights, such as a right to modify and update devices, the right to interoperability of technologies, and the right to disconnect. "
Asso Fing

Louise Drulhe cartographie le web caché | Mediapart - 0 views

  • « Lorsque nous naviguons sur Internet, nous allons de lien en lien, il y a une force qui s’exerce sur notre mouvement et qui nous fait vagabonder de page en page. Cette attraction est due à la pente du web qui nous fait glisser lentement à la façon d’une dérive numérique. Au début d’Internet, la pente était douce, elle s’apparentait à une errance numérique et facilitait la sérendipité. Aujourd’hui la pente est beaucoup plus raide et nous glissons presque systématiquement vers les mêmes services », écrit l’artiste.
  • Résultat, le web s’est creusé, comme le montre ce dessin du chapitre 4, « Un relief dirigé ». Pire encore, il s’est dédoublé. Toute une mécanique s’est installée, celle des données, et c’est alors à la représentation de ce web caché que Louise Drulhe s’est attaquée, un projet qu’elle évoquera mardi 6 novembre à la Gaîté-Lyrique, à Paris, lors de la première soirée d’un cycle de rencontres intitulé Technologies et idéologies. L’occupation idéologique des réseaux numériques, organisé en partenariat avec Mediapart et l’EHESS. 
  • « En moyenne, explique Louise Drulhe, neuf autres pages sont activées par chaque page que nous consultons, et nos données fuitent par là. Elles sont récupérées par des sites tiers bénins ou malins qui récupèrent nos données de navigation. »
  • ...5 more annotations...
  • Pour cette cartographie, Louise Drulhe s’est appuyée sur les données de fréquentation des sites, elles-mêmes issues d’Alexa, le service de mesure d’audience d’Amazon, et sur les travaux de Timothy Libert, spécialiste des questions de données personnelles et vie privée, actuellement chargé de cours à l’université Carnegie Mellon de Pittsburgh (États-Unis). Sur l’image ci-dessus (à consulter en plus grand ici), elle a représenté les sites agrégés par compagnies (YouTube inclus dans Google qui le possède, Bing dans Microsoft…). Où l’on voit que « le poids grignote et déforme l’espace, crée des gouffres ». 
  • Au centre, Google et ses dépendances, Gmail, Blogspot, YouTube... En bas à gauche, les compagnies chinoises, proches des russes. En bas au centre, Wikipédia. Tout en haut, autour de Reddit gravitent les sites d'info, New York Times, CNN, Huffington Post... © Louise Drulhe.
  • Dans l’Internet chinois, Baidu occupe, comme Google dans le reste du monde, une place centrale : il est au milieu, et très profond. Tous sont très étroits : moins qu’ailleurs, d’autres sites y conduisent. Mais ils sont proches de l’Internet russe, beaucoup de liens menant de l’un à l’autre.
  • De l’autre côté du web se trouvent les aspirateurs à données (voir ici l’image en plus grand). « La hauteur des bosses représente la portion du web qui est tracké », et Google, qui surveille 78 % des pages du web, se retrouve encore une fois très loin devant les autres.
  • Entre la surface du web, celle que l’on connaît, où l’on navigue, et ses profondeurs, où sont aspirées nos données, Louise Drulhe a fait apparaître, ou plutôt constaté, « comme un miroir, ou une contreforme ». Il y a d’abord des monopoles dans les deux espaces, dit-elle. Ces monopoles sont bien souvent les mêmes, à deux exceptions notables : le serveur de cache Akamai, invisible pour l’internaute, n’est « que » dans le web caché, et c’est le contraire pour Wikipédia, qui ne récupère aucune donnée et n’est présent que sur le web visible. Et enfin, « Google tient la même place des deux côtés ».
  •  
    "Collecte des données et centralisation du web seront au centre de la première rencontre organisée par Mediapart, la Gaîté-Lyrique et l'EHESS, mardi 6 novembre à Paris. Brève rencontre avec Louise Drulhe, designer graphique, qui matérialise au feutre cet étau de plus en plus serré."
Asso Fing

IBM rachète Red Hat, le numéro un de l'« open source », pour 34 milliards de ... - 0 views

  • En pleine croissance, Red Hat n'a, au contraire, cessé d'augmenter ses revenus ces dernières années, jusqu'à frôler les 3 milliards de dollars lors de son dernier exercice annuel.Lancée en 1993, la société a mis au point une version de Linux (un système d'exploitation dont le code du logiciel est libre et gratuit) stable, testée et approuvée par ses soins, qu'elle vend aux entreprises.
  • Nommée GNU/Linux, celle-ci est une alternative aux offres sous licence propriétaire de Microsoft, dont l'ancien PDG, Steve Ballmer, avait qualifié les logiciels « open source » de « cancer » au début des années 2000. Mais les temps changent et les géants de l'informatique s'adaptent.En juin dernier, la firme de Redmond a  déboursé 7,5 milliards de dollars pour acheter GitHub, l'outil favori de quelque 30 millions de développeurs à travers le monde qui collaborent et partagent idées et extraits de codes informatiques. En avril dernier, le groupe dirigé par Satya Nadella avait aussi annoncé qu'il  allait s'appuyer sur Linux pour sécuriser ses objets connectés.
  • « Je suis incroyablement fier du rôle qu'a joué Red Hat pour faire [du logiciel libre] une réalité dans les entreprises », déclare Jim Whitehurst, le patron de Red Hat, dans le communiqué de presse. Ce dernier va continuer à diriger l'entité Red Hat au sein d'IBM, qui assure que celle-ci fonctionnera comme une « unité distincte ». « Il y a encore quelques années, le logiciel libre était l'alternative, l'option bon marché. Désormais, c'est la norme », se félicitait le même Jim Whitehurst, il y a deux ans, auprès des « Echos ». Ce rachat à 34 milliards de dollars en est aujourd'hui la preuve la plus éclatante.
  •  
    "C'est la plus grosse acquisition jamais réalisée par IBM. Le groupe centenaire vient de débourser près de 34 milliards de dollars (soit environ 30 milliards d'euros) pour racheter Red Hat, le numéro un mondial de l'« open source » (logiciel libre). Les deux groupes se connaissent déjà bien et travaillent sur des projets communs depuis plus de dix-sept ans. En mai dernier, ils avaient annoncé qu'ils collaboraient dans le domaine du cloud hybride (un mélange entre stockage chez des opérateurs tiers et sur ses propres serveurs), un segment de marché qui rencontre un véritable engouement. C'est sur ce pan-là qu'IBM met l'accent pour expliquer cette méga-acquisition et la prime qu'il paie (+63 %) par rapport au dernier cours de clôture de l'éditeur."
Asso Fing

« On cherche à éveiller la conscience éthique des développeurs et data scient... - 0 views

  • Comment la communauté Data For Good utilise-t-elle les algorithmes ? Qu’est-ce qui vous différencie des grandes entreprises tech ? Avec Data For Good, on veut permettre aux associations, aux projets citoyens et aux institutions d’avoir accès à la data science, qui est utilisée uniquement par les grandes entreprises comme les GAFA et les start-up pour l’instant, car c’est un service qui coûte très cher. Notre communauté bénévole soutient certains projets comme celui de l’association Frateli, qui travaille sur du mentorat. On leur a créé une plateforme de matching, avec des algorithmes, pour matcher en un clic un mentor avec un mentoré, alors qu’avant tout était fait à la main sur un tableur Excel. L’humain garde la décision finale, il peut changer les résultats donnés par l’algorithme, mais cela reste beaucoup plus rapide.
  • Notre but n’est pas de récolter des données, on ne fait pas des algorithmes qui utilisent les données des utilisateurs pour faire de la publicité. De plus, les codes sources produits par Data For Good sont tous en open source, donc si une autre association veut les utiliser, elle peut le faire gratuitement et librement. Les GAFA ouvrent certains de leurs codes sources, mais c’est avant tout pour attirer des développeurs, et ils n’ouvrent que des bribes de leurs codes. Et ils savent très bien que sans les données qu’ils possèdent, ces extraits de codes ne servent à rien.
  • Vous travaillez aussi chez AlgoTransparency, une plateforme qui cherche à décrypter les mécanismes de l’algorithme de YouTube : avez-vous réussi à savoir comment était construit cet algorithme, qui est un secret bien gardé par YouTube ? Sur YouTube, on est enfermé dans une spirale de recommandations qui ne montre pas forcément le meilleur de l’humanité... Sur AlgoTransparency, on a mis en place un robot qui est capable de mesurer quelle vidéo est recommandée, à partir de quelle vidéo. On a donc des données sur ces vidéos, mais comprendre comment fonctionne l’algorithme est très compliqué car celui-ci est très complexe, et il évolue en permanence car il est ré-entraîné tous les jours. Nous, on a décidé d’étudier nos données, en rentrant des mots clés, et de voir ce qu’il en sort.
  • ...4 more annotations...
  • L’algorithme de la plateforme, et YouTube le dit lui-même, c’est de maximiser le temps passé sur la plateforme, le « watch time ». Et quand l’algorithme voit que les gens passent plus de temps sur la plateforme quand ils regardent des vidéos complotistes par exemple, il va plus recommander ce contenu. Il fait juste le boulot pour lequel on l’a programmé.
  • Et dans un second temps, on pourrait créer pour la plateforme un statut hybride, qui serait entre l’hébergeur, qui n’a pas de responsabilité sur le contenu qu’il héberge, et le média, qui a toute la responsabilité sur ce qu’il partage. Pour l’instant, YouTube dit être un hébergeur, car il ne peut pas éditorialiser tout le contenu qui se trouve sur la plateforme. Pourtant, les algorithmes ont un rôle éditorial : quand ils recommandent un million de fois une vidéo à des êtres humains, il y a un choix fait derrière, l’algorithme a privilégié un contenu plutôt qu’un autre.
  • Par contre, là où on peut avoir peur, c’est quand ces algorithmes, notamment de machine learning (c’est-à-dire des algorithmes qui vont apprendre à partir des données qu’on leur a fourni pour prédire des choses), impactent la vie humaine : par exemple, lorsqu’on les utilise dans l’espace public pour faire de la reconnaissance faciale, ou quand les décisions concernant les peines de prison sont prises par des algorithmes. Si on ne sait pas quels sont les critères choisis pour définir les algorithmes, c’est là que ça devient dangereux. Et c’est pour cela qu’on demande l’ouverture de tous les codes sources utilisés dans les administrations (comme la loi Le Maire le recommande).
  • Est-ce que le problème de l’algorithme ne serait pas de décontextualiser les données ? Normalement, c’est aux data scientists de garder en tête le contexte des données qu’ils étudient, et de savoir qu’elles peuvent être biaisées : par exemple, connaître le quartier où habitent les utilisateurs peut être un biais sur leur niveau social. Dans le serment d’Hippocrate de Data For Good, on cherche au mieux à éveiller la conscience éthique des data scientist, en « informant les parties prenantes sur (…) l’utilisation des données », en assurant que « les individus ne soient pas discriminés par rapport à des critères illégaux ou illégitimes », en « respectant la vie privée et la dignité humaine » et en « assumant ses responsabilités en cas de difficulté ou de conflits d’intérêts ».
  •  
    "Et si les développeurs et data scientists prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ? Data For Good, une communauté de data scientists et de développeurs bénévoles au service de projets d'intérêt général, en a fait une de ses missions. Ce « serment d'Hippocrate » des data scientists sera mis en ligne le 26 juin, lors d'un « Demo Day » qui présentera les projets soutenus par Data For Good. Curieux d'en savoir plus, nous avons interrogé Frédéric Bardolle, membre de Data For Good et d'Algotransparency, une plateforme qui décrypte les mécanismes de l'algorithme de YouTube. "
1 - 6 of 6
Showing 20 items per page