Skip to main content

Home/ QN2019/ Group items matching "communauté" in title, tags, annotations or url

Group items matching
in title, tags, annotations or url

Sort By: Relevance | Date Filter: All | Bookmarks | Topics Simple Middle
Aurialie Jublin

L'empire du signal, ou les dangers d'un contrôle social par les corps - Libération - 0 views

  • Mais réguler un tel déploiement s’annonce complexe. Car les usages de reconnaissance faciale proposés sont multiformes, à la fois commerciaux, publicitaires, sécuritaires, sanitaires ou éducatifs. Le privé et le public, le divertissement et le punitif s’entremêlent sans que l’on ne puisse y voir clair. Un thème récurrent est largement mobilisé pour justifier l’usage de ces technologies de surveillance biométrique : la sécurité. Et c’est toujours au nom du Bien qu’elle se voit matérialisée.
  • De façon assez inédite, la plupart des technologies de surveillance publique, à l’instar de la reconnaissance faciale, ont d’abord été élaborées et diffusées à des fins commerciales par des géants numériques de la publicité et de la recommandation. La reconnaissance faciale, dont on ne sait plus très bien si elle est proposée à des fins commerciales ou sécuritaires, a été banalisée par la domotique, et amplement développée avec les smartphones ou les réseaux sociaux, pour un confort d’utilisation et une expérience client toujours plus forte. En procédant par pseudomorphisme, l’omniprésence de technologies d’identification qui servent à un moment donné une entreprise de quadrillage techno-sécuritaire du territoire semble aller de soi.
  • L’enjeu technique ne sera bientôt plus la reconnaissance en elle-même, mais l’interprétation comportementale des surveillés. Des systèmes de vidéosurveillance bientôt augmentés d’algorithmes puissants seront capables d’analyser nos comportements et de désigner ceux qui seraient «inhabituels» ou jugés «subversifs».
  • ...6 more annotations...
  • A la suite des travaux de la mathématicienne américaine Cathy O’Neil, il convient ici d’insister sur les biais qui seront encodés dans les algorithmes modélisant les critères de dangerosité qui pourront toujours accompagner, de manière fluctuante et totalement «liquide», les logiques de surveillance d’une population.
  • Passé d’Etat de droit à Etat de l’ultrasécurité, inquiet pour sa propre survie et par conséquent boulimique de données de surveillance, il semble moins se préoccuper de fabriquer des libertés par la loi dans un cadre de surveillance bienveillant que d’industrialiser, de concert avec les acteurs privés compétents. Ainsi assistons-nous à une marchandisation de la souveraineté territoriale.
  • Il s’agit de trouver le juste équilibre entre la nécessaire sécurisation du territoire et le respect des libertés fondamentales. Et le glissement conceptuel de la Smart City à la Safe City actuellement à l’œuvre pose la question fondamentale de nos libertés, du droit à évoluer dans l’espace public sans être identifié. Surtout, quels contre-pouvoirs, quels recours mettre en place face à des dispositifs algorithmiques intangibles ? Comment rééquilibrer ce système qui invisibilise le pouvoir des surveillants privés et publics, où la transparence est en réalité un «jeu» à géométrie très variable ?
  • Nous évoluons dans des sociétés qui créent des effets de structuration sociotechnique où le passage de la sphère ludique à la sphère politique n’a sans doute jamais été aussi facilité. Le niveau d’acceptation sociale des technologies d’identification, qui nous assure toujours plus de «commodité», tend à créer les conditions d’un contrôle social total.
  • De tels lieux de transmission d’éclairages techno-scientifiques rétabliraient également les principes de responsabilité sociale que certaines communautés d’ingénieurs intégraient jadis dans leur conception de l’innovation. Des lieux et des agencements doivent être incontestablement imaginés et institués dans cet horizon, en vu de faciliter l’hybridation des compétences et le renforcement du jugement critique à l’égard de technologies qui s’avèrent de plus en plus difficiles à cerner d’un point de vue éthique et qui se révèlent toujours plus ambiguës sur le plan démocratique, en rappelant que le progrès technologique doit être toujours pensé dans sa relation au progrès sociétal.
  • Compte tenu de l’accélération croissante de l’innovation dans le domaine de l’identification, une proposition serait de favoriser la création de lieux où les citoyens pourraient librement être amenés à prendre connaissance des avancées technologiques, avec leurs possibles effets éthico-politiques.
  •  
    "Avec la reconnaissance faciale, une nouvelle forme de gouvernementalité se met en place, où des plateformes privées collaborent avec les dispositifs publics de sécurité. Un tel déploiement technologique dans notre quotidien, une telle capture de nos visages et de nos traits constituent un redoutable pallier vers une surveillance généralisée."
Aurialie Jublin

[Oxamyne] Projet de "CDI communautaire" - HackMD - 0 views

  •  
    "Ce document décrit la recherche-action initiée & portée par la MYNE / OxaMYNE autour du "CDI communautaire". Cette recherche-action s'inscrit dans un contexte plus large (notamment en Europe) de renouvellement des formes de protection sociale par la pratique des communs."
Aurialie Jublin

Windows 10 : plongée en eaux troubles - Framablog - 0 views

  • Les versions normales de Windows ont seulement trois niveaux différents de télémétrie. Le BSI a trouvé qu’entre la version Basic et la version Full on passe de 503 à 534 procédés de surveillance. La seule véritable réduction de télémétrie vient des versions Entreprise de Windows qui peuvent utiliser un réglage supplémentaire de « sécurité » pour leur télémétrie qui réduit le nombre de traqueurs actifs à 13.
  • Voici quelques faits intéressants issus de ce document : • Windows envoie vos données vers les serveurs Microsoft toutes les 30 minutes ; • La taille des données enregistrées équivaut à 12 à 16 Ko par heure sur un ordinateur inactif (ce qui, pour donner une idée, représente chaque jour à peu près le volume de données d’un petit roman comme Le Vieil homme et la mer d’Hemingway) ; • Il envoie des informations à sept endroits différents, y compris l’Irlande, le Wyoming et la petite ville de Boston en Virginie.
  • Logiquement l’étape suivante consiste à découvrir ce qui figure dans ces 300 Ko de données quotidiennes. J’aimerais aussi savoir à quel point l’utilisation de Windows Media Player, Edge et les autres applications intégrées influe sur l’empreinte laissée par les données, ainsi que le nombre d’éléments actifs d’enregistrement.
  • ...1 more annotation...
  • Au sein des communautés dédiées à l’administration des systèmes ou à la vie privée, la télémétrie Windows est l’objet de nombreuses discussions et il existe plusieurs guides sur les méthodes qui permettent de la désactiver complètement.
  •  
    "Vous avez sans doute remarqué que lorsque les médias grand public évoquent les entreprises dominantes du numérique on entend « les GAFA » et on a tendance à oublier le M de Microsoft. Et pourtant…On sait depuis longtemps à quel point Microsoft piste ses utilisateurs, mais des mesures précises faisaient défaut. Le bref article que Framalang vous propose évoque les données d'une analyse approfondie de tout ce que Windows 10 envoie vers ses serveurs pratiquement à l'insu de ses utilisateurs… Article original : 534 Ways that Windows 10 Tracks You - From German Cyber Intelligence Traduction Framalang : Khrys, goofy, draenog, Sphinx"
Aurialie Jublin

[Écologie] Le monde du logiciel est en train de se détruire... Manifeste pour un développement plus durable - GREENSPECTOR - 0 views

  • Tout est lent, et cela ne va pas dans le bon sens. Certaines voix s’élèvent. Je vous invite notamment à lire “Le désenchantement du logiciel”. Tout est insupportablement lent, tout est ÉNORME, tout finit par devenir obsolète… La taille des sites web explose. Un site web est aussi gros que le jeu Doom. Le phénomène ne touche pas que le Web mais aussi l’IoT, le mobile… Le saviez-vous ? Il faut 13% de CPU pour faire clignoter un curseur…
  • Tout grossit : la taille des applications, les données stockées, la taille des pages web, la mémoire des téléphones… Les téléphones ont maintenant 2 Go de mémoire, échanger une photo de 10 Mo par mail est maintenant classique… À la limite, cela ne serait peut-être pas un problème si tous les logiciels étaient utilisés, efficaces et performants… Mais cela n’est pas le cas,
  • Alors tout le monde se cale sur une lenteur. Tout est uniformément lent. On se cale sur cela et tout va bien. Être performant aujourd’hui, c’est arriver à atteindre un ressenti utilisateur qui correspond à cette lenteur uniforme. On élague les choses qui pourraient être trop visibles. Une page qui met plus de 20 secondes à se charger, c’est trop lent. Par contre, 3 secondes c’est bien. 3 secondes ? Avec les multicoeurs de nos téléphones/PC et les data centers partout dans le monde, le tout relié par des supers technologies de communication (4G, fibre…),c’est un peu bizarre non ? Si on regarde la débauche de ressources pour le résultat obtenu, 3 secondes, c’est énorme. D’autant plus que les bits circulent dans nos processeurs avec des unités de temps du niveau de la nanoseconde. Donc oui, tout est uniformément lent.
  • ...29 more annotations...
  • Il est nécessaire de revenir à plus d’efficience, de « challenger » les besoins en matériel, de redéfinir ce qu’est la performance. Tant que l’on se satisfera de cette lenteur uniforme avec des solutions pour ne pas ralentir plus (comme l’ajout de matériel), nous n’avancerons pas. La dette technique, notion largement assimilée par les équipes de développement, n’est malheureusement pas adaptée à ce problème (on y reviendra). Nous sommes sur une dette de ressources matérielles et de mauvaise adéquation entre le besoin utilisateur et la solution technique. On parle ici d’efficience et non pas uniquement de performance. L’efficience est une histoire de mesure du gaspillage. L’ISO définie l’efficience avec comme domaine : Time behaviour, Resource utilization et Capacity. Pourquoi ne pas pousser plus ces concepts ?
  • Développez du code Java pour un serveur J2EE ou pour un téléphone Android, ce n’est pas pareil. Des structures spécifiques existent par exemple pour traiter des données en Android mais les structures classiques sont toujours utilisées. Les développeurs ont perdu le lien avec le hardware. C’est malheureux car c’est passionnant (et utile) de savoir comment fonctionne un processeur. Pourquoi : abstraction et spécialisation (nous verrons cela plus loin). Car en perdant ce lien, on perd une des forces du développement. Ce lien est important chez les hackers ou chez les développeurs d’informatique embarquée mais malheureusement de moins en moins présent chez les autres développeurs.
  • Les pratiques devops pourraient répondre à cette perte de lien. Là, c’est pareil, nous n’allons pas jusqu’au au bout : généralement le devops va se focaliser à bien gérer le déploiement d’une solution logicielle sur une infrastructure mixte (matérielle et un peu logicielle). Il faudrait aller plus loin en remontant par exemple les métriques de consommation, en discutant sur les contraintes d’exécution… plutôt que de “scaler” juste parce que c’est plus simple.
  • Certaines technologies ont une utilité mais sont maintenant systématiquement utilisées. C’est le cas par exemple des ORM qui sont devenus systématiques. Aucune réflexion n’est faite sur son intérêt en début des projets. Résultat : on a rajouté une surcouche qui consomme, qu’il faut maintenir et des développeurs qui n’ont plus l’habitude d’effectuer des requêtes natives. Cela ne serait pas un problème si chaque développeur connaissait très bien le fonctionnement des couches d’abstraction : comment fonctionne HIBERNATE par exemple ? On s’appuie hélas de façon aveugle sur ces frameworks.
  • Le besoin d’abstraction est lié à un autre défaut: nous attendons toujours des outils miracles. La silver bullet qui améliorera encore plus nos pratiques. Le langage idéal, le framework pour aller plus vite, l’outil de gestion miracle des dépendances… C’est la promesse à chaque fois d’un nouveau framework : gagner du temps en développement, être plus performant… Et on y croit, on fonce. On abandonne les frameworks sur lesquels nous avions investi, sur lesquels on avait passé du temps… et on passe au nouveau. C’est le cas actuellement des frameworks JS. L’histoire du développement est pavé de framework oubliés, non maintenus, abandonnés… Nous sommes les champions pour réinventer ce qui existe déjà. Si on le gardait suffisamment longtemps, on aurait le temps de maîtriser un framework, de l’optimiser, de le comprendre. Mais ce n’est pas le cas. Et que l’on ne me dise pas que si on n’avait pas continuellement réinventé la roue, on aurait encore des roues en pierre… Innover serait d’améliorer les frameworks existants .
  • Sur les langages, c’est la même rengaine. Attention, je ne préconise pas de rester sur l’assembleur et sur le C… C’est le cas par exemple dans le monde Android, pendant plus de 10 ans les développeurs ont pu travailler sur des outils et des frameworks Java. Et comme cela, par magie, le nouveau Langage de la communauté est Kotlin. On imagine l’impact sur les applications existantes (si elles doivent changer), il faut recréer des outils, retrouver des bonnes pratiques… Pour quel gain?
  • Sincèrement, on ne voit aucun ralentissement sur les cycles de renouvellement des technologies. C’est toujours un rythme frénétique. Nous trouverons bien le Graal un jour. Le problème est ensuite l’empilement de ses technologies. Comme aucune ne meurt vraiment et que l’on en maintient toujours des parties, on développe d’autres couches pour s’adapter et continuer à maintenir ces bouts de code ou ces librairies. Le problèmen’est pas le code legacy,, c’est la glue que l’on développe autour qui pêche.
  • Au final, on passe du temps à résoudre des problèmes techniques internes, on recherche des outils pour résoudre les problèmes que l’on ajoute, on passe son temps à s’adapter à ses nouveaux outils, on ajoute des surcouches (voir chapitre précédent…) … et on n’a pas améliorer la qualité intrinsèque du logiciel ou les besoins auxquels on doit répondre.
  • Au final, le rythme frénétique des changements ne nous permet pas de nous stabiliser sur une technologie. J’avoue qu’en tant que vieux développeur que je suis, j’ai été découragé par le changement Java vers Kotlin pour Android. C’est peut-être pour certains de véritables challenges, mais quand je repense au temps que j’ai passé sur l’apprentissage, sur la mise en place d’outils
  • Ensuite, comme aucune solution ne meurt vraiment, que de nouvelles arrivent… on se retrouve avec des projets avec des multitudes de technologies à gérer avec les compétences associées aussi… On s’étonne ensuite que le marché du recrutement de développeur soit bouché. Pas étonnant.. Il y a énormément de développeurs mais il est difficile de trouver un développeur React avec 5 ans d’expérience qui connaîsse le Go. Le marché est fractionné, comme les technologies. C’est peut-être bon pour les développeurs car cela crée de la rareté et cela fait monter les prix, mais pas pour le projet !
  • Cependant, cet apprentissage continu des technologies pose le problème d’apprentissage de domaines transverses : accessibilité, agilité, performance… En effet, qu’est-ce qui nous prouve que les outils et les langages que nous allons choisir ne vont pas changer dans 4 ans ? Rust, Go… dans 2 ans ? Rien ne tend à donner une tendance.
  • On ne se remet pas en question car on veut s’amuser. Le fun est important, car si l’on s’ennuie dans son boulot, on va déprimer. Par contre, on ne peut pas, sous prétexte de vouloir du fun tout le temps, changer nos outils continuellement. Il y a un déséquilibre entre l’expérience du développeur et l’expérience de l’utilisateur. On veut du fun, mais qu’est-ce que cela va réellement apporter à l’utilisateur ? Un produit plus « joyeux » ? Non, nous ne sommes pas des acteurs.
  • On ne se pose pas de question sur l’éthique de notre domaine, sur sa durabilité… Cela vient peut-être du fait que notre domaine n’a pas réellement de code éthique (comme par exemple les médecins ou les avocats). Mais sommes-nous en tant que développeurs réellement libres si l’on ne peut pas avoir une autocritique ? Nous sommes peut être asservis à une cause portée par d’autres personnes ? Le problème n’est pas simple mais nous avons dans tous les cas une responsabilité. Sans code éthique, c’est le plus fort et le plus malhonnête qui est le plus fort. Le buzz et les pratiques pour manipuler les utilisateurs sont de plus en plus répandus. Sans Dark Pattern ton produit ne sera rien. Les plus gros (GAFA…) n’en sont pas arrivés là pour rien.
  • Est-ce que la solution est politique ? Il faut légiférer pour mieux gouverner le monde du logiciel. On le voit avec les dernières réponses législatives aux problèmes concrets : RGPD, notification des cookies… la source du problème n’est pas résolue. Peut-être parce que les politiques ne comprennent que très mal le monde du logiciel.
  • Car si cette structuration n’est pas faite, les développeurs vont perdre la main sur ce qu’ils font. Or le manque d’éthique de la profession est critiqué à l’extérieur. Rachel Coldicutt (@rachelcoldicutt) directrice de DotEveryOne, un think tank britannique qui promeut une technologie plus responsable, encourage à former des diplômés non-informaticiens qui traiteraient de ces problèmes (Voir plus précisément dans l’article d’Internet Actu). Pour poursuivre sur ce dernier article, cela serait dans la droite ligne de l’informatique, domaine issu du monde militaire où les ingénieurs et développeurs seraient formés à suivre des décisions et des commandements.
  • Le monde du logiciel s’intègre dans un système organisationnel classique. Grands groupes, sous-traitances via des ESN, web agencies… Tous suivent les mêmes techniques de gestion des projets informatiques. Et tout le monde va « dans le mur ». Aucune analyse sérieuse n’est faite sur le coût global d’un logiciel (TCO), sur son impact sur la société, sur son bénéfice, sa qualité… C’est la rapidité de release(Time to Market), la surcharge featurale (fonctionnelle), la productivité immédiate, qui comptent. Premièrement car les gens externes à ce monde ne connaissent que trop peu la technicité du logiciel et son monde. Il est virtuel donc simple (sic). Mais ce n’est pas le cas. Les écoles de commerce et autres usines de managers n’ont pas de cours de développement. Comment peuvent-ils bien diriger et piloter des projets ?
  • On continue a vouloir chiffrer des projets informatiques comme de simples projets alors que des mouvements comme le no estimate propose des approches innovantes. Les projets continuent d’échouer : le chaos report rapporte que simplement 30% des projets réussissent bien. Et face à cette mauvaise gouvernance, les équipes techniques continuent de se battre sur les technologies. Dommages collatéraux : la qualité, l’éthique, l’environnement… et au final l’utilisateur. Cela ne serait pas si critique si le logiciel n’avait pas un impact aussi fort sur le monde. Software eats the world… et oui, on le « bouffe »…
  • Si ces décisions absurdes arrivent, ce n’est pas uniquement la faute du développeur mais bien de l’organisation. Et qui dit organisation dit management (sous-différente forme). Si l’on revient au livre de Morel, il parle de piège cognitif dans lesquels les managers et les techniciens tombent souvent. C’est le cas de la navette Challenger qui a été quand même lancée malgré la connaissance du problème d’un joint défectueux. Les managers ont sous-évalué les risques et les ingénieurs ne les ont pas prouvés. Chacun a reproché à l’autre de ne pas fournir assez de preuves scientifiques. C’est souvent ce qui se passe dans les entreprises : des warnings sont levés par certains développeurs mais le management ne les prend pas assez au sérieux.
  • En même temps, on revient aux causes précédentes (silver bullet, on s’amuse…), il est nécessaire d’avoir une vraie ingénierie et une vraie analyse des technologies. Sans cela, les équipes techniques seront toujours non-écoutées par le management. Des outils et benchmark existent mais ils sont encore trop peu connus. Par exemple, Technologie Radar qui classe les technologies en terme d’adoption.
  • Ce phénomène de décision absurde est renforcé par le tissu complexe du développement logiciel : Les sociétés historiquement hors du numérique sous-traitent à des entreprises du numérique, les ESN sous-traitent aux freelances… Le partage de responsabilité technique / management est encore plus complexe et les décisions absurdes plus nombreuses.
  • Mais cela ne s’arrête pas là. On peut aussi voir l’usage de l’open-source comme une sorte de sous-traitance. Idem pour l’usage de framework. On est juste consommateur passif, on se déleste de plein de problématiques (qui ont un impact sur les ressources, la qualité…).
  • C’est d’autant plus facile que le domaine est passionnant et que la pratique des sides-projects, du temps passé sur les projets open-source hors des horaires de bureau est chose commune… La recherche de “fun” et le temps passé bénéficient alors plus aux organisations qu’aux développeurs. Difficile dans ce cas de chiffrer le coût réel d’un projet. Et pourtant, cela ne serait pas un problème si on arrivait à des logiciels « au top ».
  • Le développeur n’est ici plus un artisan du code, mais plutôt un pion dans un système critiquable du point de vue humain. Cela n’est pas visible, tout va bien et on s’amuse. En apparence seulement, car certains domaines du développement logiciel vont plus loin et rendent beaucoup plus visible cette exploitation : Le domaine du jeux-vidéo où les heures explosent.
  • Et donc, toutes ces maladresses (logiciel trop lourd, sans qualité…) se retrouvent chez les utilisateurs. Comme on doit releaser au plus vite les logiciels, que l’on ne tente pas de résoudre les inefficiences internes, et que l’on ne met pas plus de ressource pour faire de la qualité, on arrive à des logiciels médiocres. Mais on a tellement d’outils de monitoring et de suivi des utilisateurs pour détecter ce qui se passe directement chez eux qu’au final, on pense que ce n’est pas grave. Cela serait une bonne idée si les outils étaient bien utilisés. Or la multitude d’informations récoltées (en plus des bugs remontés par les utilisateurs) n’est que faiblement utilisée. Trop d’information, difficulté de cibler la vraie source du problème… on s’y perd et au final, c’est l’utilisateur qui trinque. Tous les logiciels sont maintenant en bêta-test. A quoi bon faire de la sur-qualité, autant attendre que l’utilisateur le demande. Et on revient ainsi au premier chapitre : un logiciel uniformément lent … et médiocre.
  • Heureusement, on est sauvé par la non-sensibilisation des utilisateurs au monde du logiciel. C’est un monde effectivement virtuel et magique qu’ils ont l’habitude d’utiliser. On leur a mis en main les outils mais sans notice explicative. Comment évaluer la qualité d’un logiciel, les risques sur l’environnement, les problèmes de sécurité… si l’on n’a pas des notions d’informatique, même rudimentaires ?
  • L’informatique du 21ème siècle est ce que l’agroalimentaire était pour les consommateurs au 20ème siècle. Pour des raisons de productivité, on a poussé des solutions médiocres avec un calcul court-termiste : mise sur le marché de plus en plus rapide, profit en hausse constante… agriculture intensive, malbouffe, pesticides… avec des impacts importants sur la santé, sur l’environnement… Les consommateurs savent maintenant (de plus en plus) les conséquences désastreuses de ces dérives, l’industrie agroalimentaire doit donc se réinventer, techniquement, commercialement et éthiquement. Pour le logiciel, quand les utilisateurs comprendront les tenants et les aboutissants des choix techniques, l’industrie du logiciel devra gérer les mêmes problèmes. En effet, le retour au bon sens et aux bonnes pratiques n’est pas une chose simple pour l’agroalimentaire. Dans l’IT, on commence à le voir avec ses conséquence sur la vie privée des utilisateurs (mais nous n’en sommes qu’aux balbutiements).
  • On va dans la mauvaise direction. L’industrie de l’informatique a déjà effectué dans les années 70 des erreurs avec des impacts non-négligeables. L’exclusion des femmes de l’informatique en fait partie. Non seulement cela a été fatal pour certaines industries mais on peut se poser la question de comment on peut maintenant adresser des réponses à seulement 50% de la population informatique, avec une représentativité très faible. Le chemin est maintenant difficile à retrouver.
  • Mais l’impact du monde IT ne s’arrête pas là. La source et le modèle d’une grosse partie de l’informatique sont issus de la Silicon valley. Si l’on écarte les gagnants de la Silicon Valley, les populations locales subissent la montée des prix, le déclassement, la pauvreté…
  • Dans sa lancée vers le progrès technique, le monde du logiciel crée aussi sa dette environnementale…
  •  
    "Le monde du logiciel va mal et si l'on n'agit pas, on risque de le regretter. Environnement, qualité, exclusion… Software Eats The World (Le logiciel mange le monde…) ? Oui un peu trop. "
Aurialie Jublin

Internet est mort, vive le Trinet ? - Usbek&Rica - 0 views

  • Mais le développeur brésilien a, lui, daté très précisément le « début de la fin » : le Web est mort en 2014.
  • « Facebook et Google ont désormais une influence directe sur 70 % du trafic Internet » - rappelons ici qu’Internet désigne le réseau et que le Web en est sa principale application, le partage de fichiers ou la messagerie instantanée étant quelques-uns de ses autres usages - et la domination est particulièrement flagrante sur les médias, avec un basculement notable de la suprématie de Google à celle de Facebook, comme nous l’évoquions déjà récemment : avec Facebook Paper, puis Facebook Instant Articles, le réseau social de Zuckerberg s’est imposé comme source de trafic n°1 pour les médias, et une forme de dépendance s’est très rapidement installée.
  • Chaque entreprise a misé pleinement sur ce qu’elle faisait le mieux : le social pour Facebook (qui a racheté Whatsapp, Instagram...), l’intelligence artificielle pour Google, et elles ont ainsi cessé d’être concurrentes directes. Quant à Amazon, sa montée en puissance spectaculaire a été bien expliquée par Scott Galloway et se traduit par un chiffre récent : aux Etats-Unis, sa part sur le marché du e-commerce doit atteindre 43,5 % en 2017, contre 38 % l'année précédente.
  • ...7 more annotations...
  • Se pose alors la question de la mort du Web. En quoi laisser ce triumvirat aux commandes met-il le Web en péril ? D’abord parce qu’in fine, les 30 % du Web qu’ils ne maîtrisent pas devraient finir par être écrasés, assure André Staltz. La diversité du Web a permis à de multiples entreprises d’innover et de prospérer, à des communautés de grandir, à des sites indépendants d’être hébergés un peu partout, puis « à partir de 2014, nous avons commencé à perdre les bénéfices de la diversité d’Internet, en termes d’infrastructures et d’économie ».
  • Le développeur extrapole ensuite « à partir des stratégies exprimées par les cadres de Google, Facebook et Amazon », et décrit une bataille pour la neutralité du Net « que nous avons toutes les chances de perdre ».
  • « À cause de la demande du marché, les fournisseurs d’accès à Internet fourniront un accès moins cher à Google, Facebook et Amazon, et l’offre sera plus chère pour un accès complet au Web ». Comme le souligne André Staltz, c’est déjà le cas : le Portugal vient de décider de laisser faire le marché et d’offrir des forfaits Internet à la carte, chacun étant libre de n’avoir accès qu’à des applications de messagerie ou des réseaux sociaux pour moins cher.
  • Dans un tel scénario, « les petites entreprises ne seraient plus incitées économiquement à avoir leurs propres sites, et migrer vers des pages Facebook pourrait avoir plus de sens. Les petits sites de e-commerce serait rachetés par Amazon ou feraient faillite. Et parce que la plupart des internautes ne pourraient pas avoir accès à l’ensemble des sites, Google n’aurait que peu d’intérêt à continuer d’être ce pont entre les utilisateurs et les sites ».
  • Plus facile à percevoir dès aujourd’hui, plus palpable, et plus fréquemment discuté, l’autre signe de la mort du World Wide Web, c’est que Facebook, Google et Amazon grandissent toujours plus en dehors des frontières du Web. Il suffit de voir les Amazon Echo ou Google Home pulluler, écouter Google expliquer que l’avenir du search est dans la recherche vocale et dans l'intelligence artificielle, ou voir comme la plus jeune génération se contente de communiquer sur mobile, sur les applications de messagerie, sans jamais passer par un navigateur web.
  • En suivant une trajectoire qu’André Staltz appelle une « Apple-ification » - parce qu'ils construisent des écosystèmes fermés, deviennent des entreprises de hardware et soignent le marketing de leur design - les trois géants vont de plus en plus contourner le Web et créer de  « nouveaux espaces virtuels où la data est créée et partagée ». C’est la stratégie que mène Facebook depuis dix ans en misant sur la réalité virtuelle et la réalité augmentée.
  • « Vingt-cinq ans de Web nous ont habitués à des libertés fondamentales que l’on croit acquises », tranche le développeur. Nous avons oublié combien l'anonymat est précieux, tout comme l'est la possibilité de contrôler ce que nous partageons, ou celle de lancer une start-up qui ait ses propre serveurs, indépendamment de Google. « Sur le Trinet, si vous êtes bannis de Google et Facebook, vous n'aurez pas d'alternative ». Plus personne ne garantira votre droit d'accès à Internet. Les entreprises privées n'auront aucune obligation de vous fournir ce qu'un pays comme l'Estonie est allé jusqu'à ériger en droit de l'Homme.
  •  
    "Google, Facebook et Amazon se sont accaparés le Web. Cette domination était loin d'être aussi écrasante il y a encore quatre ans, et semble non seulement bien partie pour durer, mais devrait signer la mort d'un Web fondé sur la diversité et la liberté, comme le démontre le développeur brésilien André Medeiros - dit André Staltz - dans un post publié sur Medium. Nous nous dirigeons, à ses yeux, vers l'avènement d'un « Trinet » aux allures de dystopie."
Aurialie Jublin

Travailleurs de plates-formes : un nouveau « régime juridique » à l'étude - 0 views

  • « A la suite du jugement de la Cour d'appel de Paris, il y a nécessité que le législateur s'empare rapidement du sujet et définisse un nouveau régime juridique précisant les liens entre les travailleurs et les plates-formes », explique-t-on dans l'entourage de la ministre du Travail, Muriel Pénicaud. Ses services souhaitent aller vite pour intégrer ce nouveau régime dans la future loi LOM. Le report de son examen pour cause de grand débat national tombe bien.
  • Conséquence : si une plate-forme adopte une charte, elle ne pourra pas faire son marché dans les sujets énumérés par la loi. Elle devra tous les traiter, y compris « les règles garantissant le caractère non-exclusif de la relation entre les travailleurs et la plate-forme et la liberté pour les travailleurs d'avoir recours à la plate-forme » ou encore « les modalités visant à permettre aux travailleurs d'obtenir un prix décent pour leur prestation de service ».
  • En outre, le Conseil d'Etat alerte sur l'obligation de respecter le préambule de la Constitution de 1946, qui impose de faire bénéficier d'une participation aux bénéfices de l'entreprise « tous ceux qui sont intégrés de façon étroite et permanente à la communauté de travail qu'elle constitue, même s'ils ne sont pas salariés ».
  •  
    "A la suite de l'arrêt de la cour d'appel de Paris rendu vendredi dernier contre Uber, le ministre du Travail va engager des discussions avec les plates-formes mais aussi les parlementaires et les organisations syndicales. Objectif : intégrer le nouveau « régime juridique » dans la future loi LOM"
Cécile Christodoulou

Dominique Cardon : « Il ne faut pas avoir peur de la liberté d'expression qu'offre Internet » - 0 views

  •  
    "Le numérique est avant tout une culture, qu'il convient de comprendre et de décoder. Voilà l'objet - et le but - du dernier livre du sociologue Dominique Cardon, Culture numérique, publié aux Presses de Sciences Po. Avec lui, nous sommes remontés aux origines de cette culture, et de celle d'Internet." "Cinq traits le caractérisent : Internet est avant tout une affaire d'individus, il encourage la création de communautés, il confine à « changer la société sans prendre le pouvoir », fidèle à son projet initial, il se défie des Etats et institutions mais beaucoup moins du marché, et enfin il revêt un pouvoir transformateur, thaumaturgique. Le numérique, plus largement, écrit-il dans son ouvrage, a permis un enpowerment des individus, il a encouragé l'apparition de formes collectives nouvelles et redistribué le pouvoir et la valeur."
Asso Fing

La consommation électrique des logiciels, un enjeu pour les industriels et… la planète | Les Echos - 0 views

  • Troisièmement, parce que le législateur pourrait intervenir… « En 2020 entrera en vigueur une législation européenne sur l'écoconception des serveurs et des unités de stockage en ligne, rappelle Rabih Bashroush, professeur en systèmes distribués et génie logiciel à l'Université de Londres-Est, qui a  participé à l'élaboration de ce texte . Il faut un cadre similaire pour la consommation des logiciels. » En France, un député, Fabrice Brun (LR), vient de  demander au gouvernement d'obliger les éditeurs de logiciels à « pratiquer une écriture plus vertueuse, en terme environnemental, du code informatique. »
  • Enfin, parce que jusqu'ici fabricants et gestionnaires ont tenté de réguler la consommation en jouant sur des solutions « matérielles » : utilisation de processeurs ou de cartes mères qui chauffent moins, de mémoires moins énergivores ; déclenchement des sauvegardes la nuit quand les serveurs sont moins occupés… Or, pour certains experts, ces gisements d'économies sont désormais épuisés. « Dans les dix ans à venir, il n'y aura pas de révolution technologique, facilement déployable à grande échelle, qui permettra de réduire la consommation énergétique du numérique : la seule voie possible est celle de la sobriété », affirme Hugues Ferreboeuf, qui dirige les réflexions sur l'empreinte carbone du numérique  au sein du think tank The Shift Project . « Nos data centers comptent d'ores et déjà parmi les plus économes du marché, mais nous devons aller plus loin, s'inquiète François Sterin, directeur industriel chez l'hébergeur Web OVH. Cet enjeu est crucial pour les fournisseurs de cloud, tant du point de vue commercial que sociétal. »
  • Reste donc une seule piste : la consommation induite par les logiciels. La mesurer est assez simple pour les smartphones et les objets connectés, plus compliqué pour les serveurs et PC. « On peut brancher des appareils de mesures - des sortes de wattmètres - sur les smartphones pour récupérer les données de la batterie, explique Thierry Leboucq. La mesure réelle permettra demain d'établir des normes et des labels pour valider l'éco-consommation d'un service numérique. » Pour les objets connectés, qui ne comportent que quelques composants, Alexandre Boé et son collègue Thomas Vantroys, de l'université de Lille, proposent déjà une solution. « Nous avons mis au point un petit appareil de mesure, composé d'un microprocesseur et d'un écran, coûtant une soixantaine d'euros, détaillent-ils. Couplé à des marqueurs introduits dans le logiciel, qui repèrent les fonctions les plus gourmandes, il permet aux fabricants et aux développeurs d'optimiser le fonctionnement et la consommation. »
  • ...6 more annotations...
  • La mesure est plus compliquée sur les serveurs et les PC. « Par exemple, les couches d'abstraction matérielle, ces logiciels intermédiaires entre le système d'exploitation et le matériel informatique, consomment de l'énergie que vous ne voyez pas », met en garde Marc Vautier, qui anime la communauté des Orange Experts « Energie et environnement » au sein du groupe Orange. Dès 2016, Jean-Patrick Gelas, docteur en informatique, avait publié, avec son équipe de l'université Lyon-1, un article exploratoire sur la mesure en temps réel de la consommation, dans la revue « International Journal of Electronic Business Management ». « L'idée était de coupler les mesures de puissance électrique, réalisées par un wattmètre, avec les instructions du logiciel et les tables de correspondance 'fonction réalisée/énergie dépensée' publiées par les constructeurs », explique-t-il.
  • Romain Rouvoy, professeur d'informatique à l'université de Lille, propose une approche basée sur l'estimation. En collaboration avec Orange et le cabinet Davidson Consulting, il a mis au point PowerAPI, un prototype de recherche distribué sous licence open source, disponible sur la plate-forme GitHub.  « Une fois installée sur un serveur, un ordinateur portable ou un robot, notre logiciel va évaluer, à l'aide de modèles mathématiques que nous avons développés, la consommation électrique des applications qui tournent sur ces machines », relate-t-il. Plusieurs industriels de l'automobile et de la robotique se disent intéressés par sa technologie.
  • « Les développeurs ne doivent pas s'empêcher de discuter des cahiers des charges avec les services marketing, qui peuvent, par exemple demander des serveurs disponibles 99,99 % du temps, là où 99,9 % suffiraient et permettraient d'économiser de l'énergie », conseille Erwan Diverrez, architecte logiciels chez Orange.
  • « On peut jouer sur le stockage de données - par exemple les données d'usage qui décrivent la relation de l'utilisateur avec sa machine - et ne les envoyer que lorsque le smartphone est en Wifi ; cela évite d'essayer continuellement de se connecter au réseau mobile », ajoute Sébastien Brault, développeur sur mobile chez Orange.
  • « Pour le Web, il existe des astuces comme la gestion du cache de la mémoire, par exemple, pour ne pas avoir à télécharger plusieurs fois une image qui apparaît sur plusieurs pages d'un site », ajoute Romain Petiot.  « On peut aussi jouer sur les langages de programmation utilisés et les bonnes pratiques de développement associées à ce langage », estime Romain Rouvoy, professeur d'informatique à l'université de Lille.
  • « La moitié de l'empreinte carbone du numérique provient de la production des équipements », résume Hugues Ferreboeuf, coordinateur du rapport « Pour une sobriété numérique » publié par le think tank Shift Project. L'autre moitié se répartit en trois tiers : la consommation des serveurs dans les data centers, les réseaux de télécommunication et les quelque 15 milliards de terminaux et périphériques sur lesquels tournent des logiciels.
  •  
    "Des logiciels tournent sur 15 milliards de terminaux et périphériques à travers le monde. Ce sont eux qui en commandent les besoins en énergie."
  •  
    "Des logiciels tournent sur 15 milliards de terminaux et périphériques à travers le monde. Ce sont eux qui en commandent les besoins en énergie."
Aurialie Jublin

Relations humaines et artisanat : le futur des services publics - 0 views

  • La solution ? Changer la logique des services bureaucratiques afin de remettre la relation humaine au cœur du système. Pour cela, il faudrait pouvoir coordonner toutes les offres de services existantes, permettre aux professionnels, aux amateurs et aux particuliers de créer une expérience communautaire, où, parfois, les relations amicales qui auront pu se développer viendront se substituer aux services que les professionnels n’arrivent pas vraiment à rendre. La technologie permet comme jamais auparavant de mettre en réseau différents acteurs pour recréer des communautés qui ont disparu.
  • Les liens que nous formons nous rendent heureux, nous soutiennent et nous aident. Mais ces liens ont été intentionnellement éliminés des systèmes que nous avons construits dans l’après-guerre. Beveridge n’avait pas de foi dans les émotions. Il était convaincu qu’il fallait préférer un système impersonnel. La standardisation du service devait permettre la baisse du coût unitaire de production. C’est comme cela que l’on parviendrait à servir des millions de personnes à un coût abordable. Malheureusement, si ce système a indéniablement créé de la valeur pendant plusieurs décennies, il a aussi rapidement engendré une augmentation de la solitude et un affaiblissement des liens sociaux.
  • “Les relations humaines sont la ressource la plus précieuse dont nous disposons”, écrit Cottam. L’offre de services de proximité telle qu’elle est structurée aujourd’hui minimise l’importance des relations singulières entre individus. Le modèle fordiste et sa recherche des gains de productivité par l’organisation scientifique du travail ont façonné la manière dont on a structuré toutes les activités au XXe siècle, dans le secteur public comme dans le secteur privé.
  •  
    " « L'argent ne fait pas tout », explique Hilary Cottam. « Au cœur de cette nouvelle manière de travailler, il y a la relation humaine. J'ai constaté que lorsque les gens se sentaient soutenus par des relations humaines fortes, il pouvait y avoir du changement. » Il est temps de comprendre que les services de proximité, y compris (surtout ?) ceux rendus par la puissance publique ne doivent pas être condamnés à être dévalorisés par la logique de production de masse et d'organisation scientifique du travail. Nous avons tout à gagner à y mettre une logique artisanale, qui permet les relations singulières, la personnalisation, la créativité et l'autonomie. C'est sans doute ce dont notre siècle a le plus besoin."
‹ Previous 21 - 29 of 29
Showing 20 items per page