Skip to main content

Home/ QN2019/ Group items tagged rapport

Rss Feed Group items tagged

Aurialie Jublin

Vers les biens communs. Souveraineté et propriété au xxie siècle - 0 views

  •  
    "Les « biens communs » remettent en question deux catégories fondamentales de la modernité : la souveraineté et la propriété. Cette dyarchie, devenue paradigmatique depuis le Code Napoléon, caractérise la propriété comme fondement de la liberté et comme condition même de l'égalité, dans la mesure où seul le rapport à la possession permet de surmonter les disparités sociales. Cette interprétation tend à restreindre la citoyenneté à la figure du propriétaire. D'autre part, les constitutions élaborées après la Seconde Guerre mondiale ont emprunté une voie différente : elles ont institutionnalisé les droits fondamentaux et rendu possible le passage du sujet à la personne, notion qui met l'accent sur la vie matérielle et sur son immersion dans le système de relations sociales. Les biens communs s'insèrent dans cette deuxième tendance et vont de pair avec l'émergence d'une nouvelle subjectivité étroitement liée au processus de « constitutionnalisation » de la personne. Leur interdépendance avec les droits fondamentaux permet de dépasser l'idée de la propriété en tant que médiation unique pour le développement de la personne et de valoriser l'accès aux biens. Lorsqu'on parle de l'accès à ces biens comme d'un droit fondamental, on effectue une double opération : on confie la construction de la personne à des logiques différentes de celles de la propriété ; on conçoit ainsi l'accès comme un outil qui rend immédiatement utilisable le bien par les intéressés, sans médiation ultérieure. Le nœud propriété-souveraineté commence ainsi à être dénoué."
Aurialie Jublin

TRIBUNE. Comment la France s'est vendue aux Gafam - Le Point - 0 views

  • L'histoire du déclin du numérique français est une tragédie en trois actes. Il y eut d'abord les «  30 honteuses du numérique  », où une petite élite arrogante et dénuée de vision stratégique a démantelé notre industrie informatique et électronique grand public. Elle a débranché les travaux de recherches les plus intéressants et laissé nos meilleurs développeurs partir à l'étranger faute de pouvoir les associer à des projets ambitieux. Vient ensuite la capitulation vis-à-vis des grands acteurs américains. Ainsi, de nombreux politiques et hauts fonctionnaires français leur ont permis d'intégrer leurs technologies au cœur des prérogatives régaliennes de l'État : défense, renseignement, éducation, sécurité, mais aussi culture. Plusieurs d'entre eux quitteront leurs fonctions pour aller rejoindre ces sociétés. Le troisième acte se joue en ce moment. Alors que nos dirigeants se préparent à une vente à la découpe, il reste cependant un mince espoir d'inventer une autre manière d'utiliser le réseau plus en phase avec nos principes et nos valeurs. Mais pouvons-nous encore changer la doctrine des politiques numériques de la France  ? Quand on écoute nos hommes politiques, le déclassement de l'Europe vis-à-vis de l'Internet est présenté comme une fatalité. Un accident de l'Histoire à l'issue duquel les clés du monde de demain auraient été données aux États-Unis et à la Chine.
  • Nous aurions pu avoir un autre destin, car si les États-Unis avaient la vision et l'argent, c'est en Europe qu'ont été inventées deux des briques fondamentales de l'Internet : Linux et le Web. Mais à la différence du standard GSM, ces dernières ont eu le malheur d'être conçues par des individus talentueux hors des grandes institutions. Snobés chez nous, ces deux projets deviendront le moteur des plateformes numériques américaines et chinoises et l'instrument de leur domination mondiale.
  • Tout commence dans les années 70, avec l'abandon du réseau Cyclades de Louis Pouzin au profit du Minitel. Louis Pouzin en est le concepteur et il est l'inventeur de la segmentation des données en «  Datagramme  ». Il sera récompensé (avec Tim Berners-Lee et Vinton Cerf) par la reine d'Angleterre pour ses contributions essentielles à la création de l'Internet et il reste à ce jour un inconnu du grand public en France. Il faudra attendre 1994 pour que nos chercheurs acceptent enfin de s'intéresser à autre chose qu'à des technologies incompatibles avec l'Internet.
  • ...8 more annotations...
  • Quasiment au même moment, Alcatel décide de transférer ses usines vers la Chine. Son PDG veut appliquer la stratégie du «  fabless  », à savoir délocaliser la production tout en conservant le design en France. Ce sera une grossière erreur d'analyse. Lorsque les smartphones deviennent un succès international, la France n'a plus de capacités industrielles dans ce secteur, alors qu'elle était l'un des principaux fabricants dans le monde.
  • Alors que la Silicon Valley parie sur les talents et les start-up, la France préfère s'embourber dans des grands projets institutionnels sans avenir. Mais ces projets permettent aux politiques de faire des annonces et aux industriels déjà établis de bénéficier de la manne de l'argent public. Ainsi, le projet Quaero, qui visait à créer un «  Google Européen  », a été lancé par Jacques Chirac. Il terminera rapidement dans les oubliettes technologiques. Plus récemment, le Cloud souverain, qui se targuait d'être la réponse française à Amazon et Microsoft, sera abandonné en rase campagne puis revendu (et sans ironie aucune)… au chinois Huawei. Au final, beaucoup d'argent aura été dépensé soit pour concurrencer l'Internet lui-même soit pour contourner les start-up qui voulaient développer des solutions alternatives aux Gafam. C'est une génération entière d'entrepreneurs et de chercheurs que l'on a écartés pour redéfinir la politique industrielle du secteur. Tout récemment, le rapport sur l'intelligence artificielle de Cédric Villani n'a pas fait mention des deux meilleures solutions open sources dans le domaine : SciKit Learn et Keras qui se trouvent être… françaises.
  • L'acte deux commence avec le quinquennat Hollande. Un changement d'attitude va s'opérer vis-à-vis des grandes plateformes. La défaite est désormais entérinée en coulisses. Il ne s'agit plus d'exister au niveau mondial, mais de négocier avec les Gafam tout en faisant mine de s'indigner publiquement de leurs abus de position dominante.
  • Microsoft est devenue le partenaire de l'Éducation nationale, et Google le parrain de la Grande École du Numérique. La société de Big Data Palantir, proche des services secrets américains, a conclu un contrat avec la DGSI (et peut-être la DGSE  ?), et elle est également présente chez Airbus. Enfin, à l'échelon des collectivités territoriales, les régions vont s'appuyer sur Facebook pour «  la formation au numérique  ».Comment, dans ces conditions, se plaindre des conséquences des réseaux sociaux et de l'impact des Gafam sur notre démocratie quand nous leur avons ouvert si largement les portes de l'État  ?
  • En effet, ce gouvernement prend un risque inconsidéré en pariant notre avenir sur une hypothétique transformation numérique autour de «  l'intelligence artificielle  ». Si nous ne nous donnons pas les moyens de réguler la manière dont ses entreprises et ce type de technologies fonctionnent, nous pourrions détruire notre modèle social en tentant de copier ceux de la Chine ou des États-Unis. L'ironie du sort veut que, désormais, certains industriels et chercheurs américains s'appuient sur l'Europe et sa réglementation sur les données personnelles pour sortir d'un modèle numérique qui n'est pas «  durable  ». Aux États-Unis, le ministère de la Santé a ainsi lancé une grande étude sur l'impact des écrans et le Sénat a analysé, dans un rapport très détaillé, les manipulations des réseaux sociaux qui ont eu lieu lors de la dernière campagne présidentielle.
  • Il existe pourtant un scénario de sortie de crise. En effet, la meilleure réponse à la crise de confiance systémique vis-à-vis des Gafam est de soutenir les mouvements autour des technologies «  éthiques  ». Il s'agit d'un nouveau terrain de croissance industrielle pour l'Europe, comme le Bio l'a été pour l'agriculture. De nombreux entrepreneurs réfléchissent à d'autres façons de concevoir la technologie, s'appuyant beaucoup moins sur la donnée et créant moins d'intrusions vis-à-vis de leurs utilisateurs. C'est le mouvement autour des logiciels éthiques et du Slow Web. Ce mouvement, qui s'est réuni en septembre dernier à Copenhague, souhaite définir un meilleur équilibre entre usage numérique et monde réel pour ne pas rendre ces technologies aliénantes. Il prône notamment l'arrêt de certaines pratiques toxiques comme le profilage (micro targeting) ou la manipulation de nos émotions via des messages ciblés sur nos mobiles dont nous avons vu les conséquences désastreuses lors du référendum sur le Brexit ou l'élection américaine.
  • Nous devons désormais exiger que les choix technologiques faits par l'État (comme les décisions politiques dans ces domaines) soient lisibles et compréhensibles par l'ensemble des citoyens… Car s'il s'agit de faire de la France une colonie numérique des plateformes et qui ne profiterait qu'à une petite bourgeoisie d'Internet, alors il faudra le dire clairement  
  • Il est temps également de voir émerger une nouvelle forme de résistance citoyenne. Car l'usage de ces technologies n'est pas neutre, la substitution de l'action de l'État par des algorithmes rend caduque l'égalité de traitement entre chaque Français. Le remplacement de nos services publics par un «  État plateforme  » totalitaire (à l'instar du «  Crédit social  » qui voit chaque Chinois recevoir une note qui détermine leur capacité à se déplacer ou à obtenir un crédit) n'est pas la vision que nous souhaitons promouvoir. C'est pourtant ce qui se prépare dans certains cabinets ministériels lorsqu'il est question d'État plateforme…
  •  
    "Pour le pionnier du Web français Tariq Krim, l'histoire du déclin du numérique français est une tragédie en 3 actes. Il existe pourtant une sortie de crise."
Asso Fing

La consommation électrique des logiciels, un enjeu pour les industriels et… l... - 0 views

  • Troisièmement, parce que le législateur pourrait intervenir… « En 2020 entrera en vigueur une législation européenne sur l'écoconception des serveurs et des unités de stockage en ligne, rappelle Rabih Bashroush, professeur en systèmes distribués et génie logiciel à l'Université de Londres-Est, qui a  participé à l'élaboration de ce texte . Il faut un cadre similaire pour la consommation des logiciels. » En France, un député, Fabrice Brun (LR), vient de  demander au gouvernement d'obliger les éditeurs de logiciels à « pratiquer une écriture plus vertueuse, en terme environnemental, du code informatique. »
  • Enfin, parce que jusqu'ici fabricants et gestionnaires ont tenté de réguler la consommation en jouant sur des solutions « matérielles » : utilisation de processeurs ou de cartes mères qui chauffent moins, de mémoires moins énergivores ; déclenchement des sauvegardes la nuit quand les serveurs sont moins occupés… Or, pour certains experts, ces gisements d'économies sont désormais épuisés. « Dans les dix ans à venir, il n'y aura pas de révolution technologique, facilement déployable à grande échelle, qui permettra de réduire la consommation énergétique du numérique : la seule voie possible est celle de la sobriété », affirme Hugues Ferreboeuf, qui dirige les réflexions sur l'empreinte carbone du numérique  au sein du think tank The Shift Project . « Nos data centers comptent d'ores et déjà parmi les plus économes du marché, mais nous devons aller plus loin, s'inquiète François Sterin, directeur industriel chez l'hébergeur Web OVH. Cet enjeu est crucial pour les fournisseurs de cloud, tant du point de vue commercial que sociétal. »
  • Reste donc une seule piste : la consommation induite par les logiciels. La mesurer est assez simple pour les smartphones et les objets connectés, plus compliqué pour les serveurs et PC. « On peut brancher des appareils de mesures - des sortes de wattmètres - sur les smartphones pour récupérer les données de la batterie, explique Thierry Leboucq. La mesure réelle permettra demain d'établir des normes et des labels pour valider l'éco-consommation d'un service numérique. » Pour les objets connectés, qui ne comportent que quelques composants, Alexandre Boé et son collègue Thomas Vantroys, de l'université de Lille, proposent déjà une solution. « Nous avons mis au point un petit appareil de mesure, composé d'un microprocesseur et d'un écran, coûtant une soixantaine d'euros, détaillent-ils. Couplé à des marqueurs introduits dans le logiciel, qui repèrent les fonctions les plus gourmandes, il permet aux fabricants et aux développeurs d'optimiser le fonctionnement et la consommation. »
  • ...6 more annotations...
  • La mesure est plus compliquée sur les serveurs et les PC. « Par exemple, les couches d'abstraction matérielle, ces logiciels intermédiaires entre le système d'exploitation et le matériel informatique, consomment de l'énergie que vous ne voyez pas », met en garde Marc Vautier, qui anime la communauté des Orange Experts « Energie et environnement » au sein du groupe Orange. Dès 2016, Jean-Patrick Gelas, docteur en informatique, avait publié, avec son équipe de l'université Lyon-1, un article exploratoire sur la mesure en temps réel de la consommation, dans la revue « International Journal of Electronic Business Management ». « L'idée était de coupler les mesures de puissance électrique, réalisées par un wattmètre, avec les instructions du logiciel et les tables de correspondance 'fonction réalisée/énergie dépensée' publiées par les constructeurs », explique-t-il.
  • Romain Rouvoy, professeur d'informatique à l'université de Lille, propose une approche basée sur l'estimation. En collaboration avec Orange et le cabinet Davidson Consulting, il a mis au point PowerAPI, un prototype de recherche distribué sous licence open source, disponible sur la plate-forme GitHub.  « Une fois installée sur un serveur, un ordinateur portable ou un robot, notre logiciel va évaluer, à l'aide de modèles mathématiques que nous avons développés, la consommation électrique des applications qui tournent sur ces machines », relate-t-il. Plusieurs industriels de l'automobile et de la robotique se disent intéressés par sa technologie.
  • « Les développeurs ne doivent pas s'empêcher de discuter des cahiers des charges avec les services marketing, qui peuvent, par exemple demander des serveurs disponibles 99,99 % du temps, là où 99,9 % suffiraient et permettraient d'économiser de l'énergie », conseille Erwan Diverrez, architecte logiciels chez Orange.
  • « On peut jouer sur le stockage de données - par exemple les données d'usage qui décrivent la relation de l'utilisateur avec sa machine - et ne les envoyer que lorsque le smartphone est en Wifi ; cela évite d'essayer continuellement de se connecter au réseau mobile », ajoute Sébastien Brault, développeur sur mobile chez Orange.
  • « Pour le Web, il existe des astuces comme la gestion du cache de la mémoire, par exemple, pour ne pas avoir à télécharger plusieurs fois une image qui apparaît sur plusieurs pages d'un site », ajoute Romain Petiot.  « On peut aussi jouer sur les langages de programmation utilisés et les bonnes pratiques de développement associées à ce langage », estime Romain Rouvoy, professeur d'informatique à l'université de Lille.
  • « La moitié de l'empreinte carbone du numérique provient de la production des équipements », résume Hugues Ferreboeuf, coordinateur du rapport « Pour une sobriété numérique » publié par le think tank Shift Project. L'autre moitié se répartit en trois tiers : la consommation des serveurs dans les data centers, les réseaux de télécommunication et les quelque 15 milliards de terminaux et périphériques sur lesquels tournent des logiciels.
  •  
    "Des logiciels tournent sur 15 milliards de terminaux et périphériques à travers le monde. Ce sont eux qui en commandent les besoins en énergie."
  •  
    "Des logiciels tournent sur 15 milliards de terminaux et périphériques à travers le monde. Ce sont eux qui en commandent les besoins en énergie."
Aurialie Jublin

Dans le combat final des gilets jaunes, Jupiter va affronter des modérateurs ... - 0 views

  • Dans ce nouveau genre de mobilisation, où la participation en ligne est toute aussi importante que les blocages sur les ronds-points, les chefs par défaut sont les admins des pages Facebook. Eric Drouet et Priscillia Ludosky sont maintenant tous les deux admins du groupe La France en colère !!!, qui comprend 250 000 personnes. Dans le groupe des huit, une troisième tête se dégage : le charismatique Maxime Nicolle aka Fly Rider, qui avait été invité chez Cyril Hanouna. Il gère Fly Rider infos blocages, un groupe de 62 000 personnes qui suivent ses Facebook live quotidiens.
  • S’il fallait tracer les limites d’un ancien et d’un nouveau monde, Emmanuel Macron et Philippe Martinez apparaissent comparés à Eric Drouet et Maxime Nicolle comme la relique d’une époque révolue. Ces deux leaders des gilets jaunes renouvellent totalement la manière de gérer un mouvement social.
  • On se demanderait presque pourquoi BFM TV ne les diffuse pas en direct à l’antenne. Ces lives n’ont pas moins de pertinence dans le conflit qu’un discours d’Emmanuel Macron ou Edouard Philippe. Alors que, parmi les gilets jaunes, plus personne ne croit au discours des médias traditionnels, ces Facebook live, et plus largement toutes les vidéos qui circulent sur le réseau, apparaissent comme le seul média fiable.
  • ...6 more annotations...
  • On peut évidemment douter de cette explication un peu simpliste, mais force est de constater que Maxime Nicolle joue là le rôle d’un corps intermédiaire – typiquement d’un leader syndical – en canalisant la colère populaire, en répondant aux inquiétudes des éléments les plus extrêmes de sa base. Dans les groupes de gilets jaunes, il y a une vraie différence entre le ton posé de ces Facebook lives, fascinants moments de débat public, et la violence parfois affligeante des commentaires.
  • «Il faut pouvoir informer les gens, expliquait Nicolle dans un Facebook live. Il y a des gens comme moi et d’autres qui font des vidéos parce qu’ils ont des facilités d’élocution, que d’autres n’ont pas. Si nous, on ne le fait pas, personne ne le fera à notre place.» C’est une démocratie de l’audience : le succès de leurs groupes et de leurs Facebook lives leur donne une mission d’information et de représentation par rapport aux autres gilets jaunes.
  • Pour les gilets jaunes, une réunion avec le gouvernement ne peut qu’être diffusée en direct, sinon ils manqueraient à leur obligation de transparence et pourraient trahir, dans l’opacité des négociations politiques, les revendications de la base. La République en marche, le mouvement participatif le moins participatif de tous les temps, incapable de toute transparence, ferait bien de s’en inspirer.
  • Le mouvement a été sans conteste aidé par le nouvel algorithme Facebook qui survalorise les contenus de groupes au détriment des contenus postés par des pages (et donc par les médias). Après quelques likes sur un groupe, on se retrouve submergé du contenu de ce groupe dans son fil d’actualités. Le nouvel algo a précipité les gilets jaunes dans une «bulle de filtre» où ils ne voient presque plus que du contenu jaune.
  • «Connecter ensemble les amis et la famille a été quelque chose très positif, déclarait Zuckerberg en 2017. Mais je pense qu’il y a ce sentiment général que nous avons une responsabilité pour faire plus que cela et pour aider les communautés et aider les gens à être exposé à de nouvelles perspectives et rencontrer de nouvelles personnes – pas seulement donner la parole aux gens, mais aussi aider à construire un terreau commun pour que les gens avancent ensemble.» Qui mieux que les groupes de gilets jaunes ont appliqué la doctrine de Zuckerberg ?
  • Les admins de groupe Facebook, dont les prérogatives ne cessent d’être augmentées par Zuckerberg, sont les nouveaux corps intermédiaires, prospérant sur les ruines des syndicats, des associations ou des partis politiques. Ayant méticuleusement fait disparaître ces courroies de transmission entre lui et le peuple, Emmanuel Macron se retrouve maintenant en frontal face à des admins de page Facebook.
  •  
    "Plusieurs des porte-parole du mouvement sont les administrateurs de groupes Facebook très influents. Ils conçoivent leur action dans une transparence totale et sont soumis en temps réel à la supervision et la critique de leurs congénères. "
Aurialie Jublin

Acrasie : l'intime désaccord - 0 views

  • Ce phénomène que nous essayons de mettre en lumière ici, qui fait que nous prenons des décisions qui vont à l’encontre de nos valeurs, est plus fréquent qu’on ne pourrait le croire. Il est même quasi-quotidien chez certains d’entre nous. En philo éthique, c’est ce qu’on appelle l’acrasie (du grec akrasia). « Je vois le bien, je l’approuve, et je fais le mal ». C’est ce que Médée explique à Jason dans Métamorphoses d’Ovide (non, ce n’est pas une sitcom). Et ça résume bien la situation dans laquelle beaucoup d’entre nous se trouvent quotidiennement : ils ne sont pas d’accord avec le fait d’être assis sur leur canapé devant Netflix, à s’empiffrer de chips et à scroller sur Instagram, cependant, ils sont confrontés à des choix qu’ils n’arrivent (apparemment) pas à résoudre.
  • Cette caractéristique du comportement, propre à pas mal d’entre nous, c’est ce que Alain Anquetil, auteur d’un travail de recherche sur la question, appelle « l’expression molle d’une préférence pour le statu quo ».
  • L’acrasie par contre, c’est bien cette incontinence, cette faiblesse de ne pas arriver à prendre la bonne décision, alors que précisément nous savons quelle est cette « bonne » décision. Parce que je ne reçois aucune gratification instantanée dans le fait d’utiliser Qwant à la place de Google. Cependant, si je suis d’accord avec les arguments énoncés un peu plus haut, je devrais opter pour un autre moteur de recherche.
  • ...7 more annotations...
  • Vous l’aurez compris : les pays avec le plus haut score d’acceptation étaient ceux dans lesquels les gens devaient faire un effort, et une démarche, afin de se désinscrire, alors que ceux dans lesquels il fallait tout simplement s’inscrire (ce qui semble, il est vrai, le plus logique) ont eu beaucoup de mal à fédérer plus de 10 % de réponses positives. Les conclusions de l’enquête ? Que ce soit en Suède, en Autriche ou même en France, les personnes interrogées ne sont certainement pas CONTRE le don d’organe, mais encore faudrait-il qu’elle fasse l’effort de le dire et d’exprimer leur choix. Nous sommes donc là en face d’un pur cas d’acrasie (les gens ont d’ailleurs souvent un vrai avis moral et éthique sur la question du don d’organe) : peu importe la raison, quand il s’agit de passer à l’action, l’incontinence reprend le dessus.
  • Comme le souligne Attali, l’engagement citoyen de façade est parfois doublé d’un égoïsme social présent lorsqu’il s’agit de nos intérêts personnels et de nos habitudes.
  • Le philosophe Ruwen Ogien pose la question de façon très ouverte dans La Faiblesse de la Volonté : « À quelles conditions un agent rationnel peut-il choisir le pire alors que le meilleur est accessible ? ». Quel est l’effet de dissonance cognitive qui est à l’œuvre, et qui nous fait penser que ces baskets, chèrement payées, valent l’argent que nous y mettons ? Le mimétisme ? La sensibilité aux histoires et aux émotions véhiculées par les marques ? 
  • Le « pré-engagement ». C’est la façon dont vous allez vous engager socialement par rapport à vos convictions, en les exprimant à vos proches, amis ou collègues. Reprenons l’exemple de la consommation de viande : une fois que vous avez dit à tous vos collègues que vous ne mangez plus de viande parce que vous êtes choqués par le traitement fait aux animaux dans l’élevage industriel, vous pourrez bien sur en reprendre, mais vous risquez quand même de passer pour quelqu’un de pas très « fiable ».
  • Les « intentions de mise en œuvre ». Contrairement au pré-engagement, les intentions de mise en œuvre s’adressent uniquement à vous même. Il s’agit tout simplement d’outils pour vous motiver et vous organiser de façon à mettre en œuvre ce que vous avez prévu. Un exemple très parlant, et pourtant totalement banal, est celui de la to-do list.
  • Les « embûches ». La légende dit que pour finaliser Notre-Dame de Paris dans le temps imparti, Victor Hugo s’est débarrassé de ses vêtements, afin de ne plus avoir de moyen de sortir de chez lui, et de s'obliger à rester assis devant son bureau – n’ayant plus rien d’autre à faire que d’écrire. Résultat : il a rendu son ouvrage plusieurs jours avant la date limite.
  • Si l’acrasie représente cette faiblesse de volonté, l’encrasie serait donc cette force de caractère nous permettant d’agir conformément à nos valeurs, à ce que nous pensons profondément être bon, et non à ce qui nous arrange ou ce qui peut arranger nos petites affaires sur le moment présent. C’est un long chemin, mais il ne faut pas le considérer comme hors d'atteinte pour autant. Au contraire.
  •  
    "Nous avons pris l'habitude de blâmer les géants du numérique pour tous les maux de la Terre. Serait-ce de leur faute si nos données personnelles sont revendues et utilisées contre notre gré ? Est-ce à cause d'eux que nous devenons de vraies loques humaines, incapables de faire autre chose de que scroller une quantité invraisemblable de contenu par jour, et d'emmagasiner des informations dont nous n'avons (en vrai) rien à faire ? Bonne nouvelle : les individus derrière l'excellente newsletter Tech Trash vous révèlent dans cet article initialement publié sur leur site le principal responsable de vos faits et gestes (qui ne sont pas, contrairement à ce que vous pensez peut-être, téléguidés par la Silicon Valley) : VOUS. Et un mécanisme de nos cerveaux baptisé acrasie : le fait de ne pas parvenir à prendre la bonne décision, alors que précisément nous savons quelle est cette « bonne » décision. "
Aurialie Jublin

Brésil : le numérique fait-il du mal à la démocratie ? - 0 views

  • Dans un ouvrage publié l’année dernière : Le temps des algorithmes, deux informaticiens français - Serge Abiteboul et Gilles Dowek-  expliquaient que le rythme relativement lent auquel étaient consultées les populations dans une démocratie (une élection par an en moyenne) avait été dicté au cours des XVIIIe et XIXe par la lenteur des communications elles-mêmes - une diligence, ça ne va pas vite, organiser des élections prenaient du temps. A l’heure où une information va à la vitesse de la lumière, il semble impossible de ne pas revoir ce rythme. Dit comme ça, ça a l’air évident. 
  • Dans un livre paru il y a cinq ans (The New Digital Age), Jared Cohen et Eric Schmidt (à l’époque patron de Google) annonçaient tranquillement l’avènement d’un nouveau monde où les plateformes numériques suppléeraient les États dans bien des fonctions de la vie publique, jusque dans l’organisation de la vie démocratique. 
  • Lutter contre l’ambition des GAFA à se substituer à l’Etat, contre les États qui essaient d’interférer dans les élections d’autres pays, lutter contre l’usage des réseaux sociaux à des fins de fausses informations. Tout en promouvant de nouvelles manières de consulter les peuples, d’écrire en commun une constitution comme l’a fait l’Islande etc. Il y a du boulot… 
  • ...1 more annotation...
  • Comment se fait-il que ce soit à un moment où, pour la première fois dans l’histoire de l’Humanité, on peut communiquer aussi facilement avec le monde entier, lire, regarder et entendre ce qui se passe ailleurs en un clic, avoir accès aussi vite aux savoirs les plus anciens et les plus lointains, s’exprimer à égalité, comment se fait-il que ce soit dans ce moment-là que réapparaissent aussi violemment tous les protectionnismes les plus durs et les xénophobies les plus haineuses ?  Y a-t-il un rapport entre ces deux mouvements contraires ?  Ou Internet n’a-t-il rien à voir dans ce qui nous arrive politiquement ? 
  •  
    "L'élection de Jair Bolsonaro à la tête du Brésil pose la question qui semble se poser à chaque nouvelle élection d'un dirigeant fachistoïde à la tête d'une démocratie : quel rôle a joué Internet (et notamment WhatsApp) dans tout ça ?"
Aurialie Jublin

Réguler Internet par la décentralisation - La Quadrature du Net - 0 views

  • Pour compenser cette « règle » qui rendrait la haine et le conflit rentables, le gouvernement veut renforcer les obligations imposées aux plateformes géantes qui en profitent : transparence et devoir de vigilance accrus. Pourquoi pas (cela peut être fait de façon plus ou moins pertinente, nous y reviendrons plus tard). Mais cette solution ne suffira jamais à contrer à elle seule les dérives permises par la « rentabilité du conflit ». Et il est illusoire d’imaginer, comme le fait le rapport cité ci-dessus, qu’on pourrait atténuer ce problème en mettant un juge derrière chaque diffamation ou injure prononcée sur Internet. Il y en a bien trop. Non, si on veut traiter le problème sérieusement, c’est l’ensemble de l’économie de l’attention qu’il faut remettre en question. Et cela doit passer par l’émergence d’alternatives saines qui reposent sur un autre modèle que celui des GAFAM.
  • En pratique, à La Quadrature du Net, nous avons songé à devenir un hébergeur de vidéos (en autorisant tout le monde à mettre en ligne des vidéos sur notre service de streaming Peertube). Ce serait une façon concrète de participer à la construction d’une alternative à Youtube, qui ne tirerait aucun profit des discours conflictuels ou de la surveillance de masse. Mais nous avons dû y renoncer. Nous n’avons pas du tout assez de juristes pour évaluer quelles vidéos seraient « manifestement illicites ». Nous n’avons pas les moyens de supporter des amendes en cas de plaintes. Youtube reste maître.
  • Si le gouvernement veut effectivement lutter contre la diffusion de « contenus haineux et extrêmes », il doit changer le droit pour favoriser le développement d’alternatives à l’économie de l’attention. Voici notre proposition. Premièrement, que les hébergeurs ne soient plus soumis aux mêmes obligations que les plateformes géantes, qui régulent les informations de façon active pour leurs intérêts économiques. Secondement, que les hébergeurs neutres, qui ne tirent aucun profit en mettant en avant de tel ou tel contenu, ne supportent plus la charge d’évaluer si un contenu est « manifestement illicite » et doit être censuré. Seul un juge doit pouvoir leur exiger de censurer un contenu.
  • ...2 more annotations...
  • Dans le cadre de la loi, chaque hébergeur applique ses propres règles de modération, plus ou moins stricte, et chaque personne choisit l’espace de discussion adapté à ses besoins et à ses envies. La liberté de ce choix est renforcée par le développement des standards de « réseaux sociaux décentralisés », notamment du standard ActivityPub publié en janvier 2018 par le World Wide Web Consortium (W3C, à l’origine des standards du Web) et déjà appliqué par Mastodon (alternative à Twitter) ou Peertube. Ces standards permettront à une infinité d’hébergeurs de communiquer entre eux, selon les règles de chacun. Ils permettront aussi à chaque personne de passer librement d’un hébergeur à un autre, d’un jeu de règles à un autre (ce que les plateformes géantes font tout pour empêcher aujourd’hui).
  • Si le gouvernement veut mieux réguler le Web, il doit le faire sérieusement. En se contentant d’alourdir les obligations des géants, son action restera superficielle. Pour agir en profondeur et sur le long terme, sa démarche doit aussi être constructive, favorisant le développement de modèles vertueux.
  •  
    "La directive droit d'auteur et les récents débats sur les « fausses informations » ont servi d'introduction au débat général sur la régulation du Web, tel qu'il s'annonce pour l'année à venir. Aujourd'hui, La Quadrature du Net présente ses propositions concrètes."
Aurialie Jublin

Des plateformes en leurs limites | InternetActu.net - 0 views

  • L’ouvrage commence par remettre la réalité des plateformes en perspective… Après le temps des promesses de l’avènement de « l’économie du partage » (voir notre dossier de 2014) voire de « la quatrième révolution industrielle », Srnicek rappelle que nous en sommes bien loin. Le secteur des technologies reste relativement modeste dans l’économie, tant en terme de valeur ajouté que d’emplois. Le secteur industriel, malgré la désindustrialisation, est encore bien plus flamboyant que le monde des nouvelles technologies.
  • Pour Srnicek, le capitalisme s’est tourné vers les données pour assurer la croissance et la vitalité de l’économie, à l’heure où l’industrie ralentissait. En ce sens, les plateformes sont un nouveau modèle d’entreprise, dont la fonction est d’extraire, de contrôler et de rendre productifs les données. Un « mirage compétitif », comme l’évoquaient Maurice Stucke et Ariel Ezrachi dans leur livre, qui tend à devenir de plus en plus monopolistique.
  • Le capitalisme s’est restructuré autour du numérique, réservoir de nouveaux concepts, d’innovations réelles ou à venir, reposant sur l’extraction des données. Les données sont devenues la matière première à extraire et les activités des usagers, leur source naturelle. Elles sont désormais au coeur du système capitaliste : « elles nourrissent les algorithmes et donnent [aux entreprises] des avantages concurrentiels, elles coordonnent la main d’oeuvre et permettent souvent de l’externaliser, elles optimisent et flexibilisent les processus de production, elles transforment des produits peu rentables en services hautement profitables et, après leur analyse, elles donnent accès à toujours plus de données – dans une sorte de cercle vertueux. »
  • ...21 more annotations...
  • La plupart des entreprises capitalistes n’étaient pas conçues pour extraire et utiliser des données, mais pour produire des marchandises. Pour améliorer l’extraction de données, un nouveau type d’entreprise s’est développée : la plateforme. Ce nouveau modèle est un intermédiaire entre différents usagers qui vise via des outils ou une infrastructure dédiée à produire des données à exploiter. Leur seconde caractéristique est de reposer sur des effets de réseaux qui favorisent le nombre et donc produits par nature des formes monopolistiques, très rapidement. Autre caractéristique des plateformes, contrairement aux entreprises allégées qui ne visaient qu’à conserver les compétences essentielles au coeur du projet, les plateformes démultiplient les activités rentables et non rentables pour diversifier les données, comme Google fourbit des services gratuits pour capter un maximum de données. Enfin, elles se présentent souvent comme des espaces ouverts, alors que les services sont entièrement déterminés par leurs propriétaires. Bien que se présentant comme des intermédiaires, les plateformes contrôlent et gouvernent les règles du jeu !
  • Srnicek distingue 5 catégories de plateformes : la plateforme publicitaire (type Google ou Facebook qui consiste à extraire de l’information pour vendre de l’espace publicitaire), la plateforme nuagique (type Amazon Web Services… qui loue de l’équipement à la demande), la plateforme industrielle (comme celles développées par GE ou Siemens… qui visent à transformer la production industrielle en processus produisant des données), la plateforme de produits (comme celles mises en place par Rolls Royce ou Spotify… qui transforment les produits en service sous forme de location ou d’abonnement) et enfin, la plateforme allégée (type Uber ou Airbnb… qui réduisent les actifs au minimum et dégage des profits en baissant au maximum leurs coûts de fonctionnement).
  • Plus qu’un digital labor, concept à l’égard duquel le philosophe semble méfiant, les plateformes publicitaires reposent sur l’appropriation des données et leur raffinage pour assortir annonceurs et usagers. Ce modèle n’est pas seulement prédominant sur internet : Dunnhumby, propriété de Tesco, est une entreprise d’analyse des habitudes de consommation. Ces plateformes publicitaires ont connu un grand succès. Leurs revenus, leurs profits sont élevés.
  • Les plateformes nuagiques permettent aux entreprises de sous-traiter leur développement technologique. Le modèle locatif permet aux entreprises qui développent des services en ligne de collecter de nouvelles données pour renforcer l’extraction. Là encore, les profits et revenus s’envolent.
  • Les plateformes industrielles, comme MindSphere de Siemens ou Predix de GE, sont certainement moins connues. Elles consistent à introduire des capteurs et des puces dans la chaîne de production pour améliorer la traçabilité logistique, afin d’optimiser l’efficacité du processus de production, de développer de la personnalisation dans la chaîne de montage et dans la chaîne de distribution. Ces plateformes construites pour collecter des mégadonnées de filières industrielles spécifiques, sont, elles aussi, particulièrement rentables.
  • Les plateformes de produits et de services en tant que produits reposent pour beaucoup sur le modèle de l’abonnement, à l’image de Spotify ou encore de Rolls Royce, qui, pour ses moteurs d’avion, fait payer les compagnies aériennes pour l’utilisation de ses moteurs plutôt que de les leur vendre. En retour, Rolls Royce prend en charge l’entretien et les pièces de rechange. En récupérant ainsi les données, ces plateformes améliorent leurs produits, à l’image de Rolls Royce qui a pu ainsi améliorer la consommation de carburant de ses moteurs et leur durée de vie, au détriment de ses compétiteurs.
  • Enfin, les plateformes allégées externalisent à maximum leurs coûts. La plateforme contrôle uniquement ce qui lui permet de percevoir une rente de monopole (un pourcentage sur les transactions qu’elle facilite). C’est là clairement le modèle d’Uber ou de Airbnb, de TaskRabbit ou Mechanical Turk. Mais, rappelle Srnicek, ce phénomène n’est pas propre au numérique. Le marché des travailleurs journaliers, des emplois informels, de la sous-traitance… bref du travail traditionnel… est également très proche de ce modèle.
  • Le numérique y ajoute une couche de surveillance. Aux États-Unis, les emplois non conventionnels représenteraient 15 millions de travailleurs soit 10 % de la main d’oeuvre du pays en 2005, et 15,8 % en 2015. Ces emplois non conventionnels ont même dépassé le nombre d’emplois créés entre 2005 et 2015 aux États-Unis (9,4 millions contre 9,1 millions). Reste que l’accélération de la précarisation de l’emploi n’est pas tout entier imputable aux plateformes numériques. On estime que l’économie du partage en ligne représente 1 % de la main-d’oeuvre américaine et que les chauffeurs d’Uber en représenteraient la grande majorité. En fait, ce secteur demeure encore relativement marginal, estime Srnicek. Ces plateformes prolongent la précarisation du travail initié par les entreprises allégées dès les années 70. Srnicek rappelle très justement que ce travail « autonome » demeure largement contraint 
  • Pour Srnicek, ces entreprises qui bénéficient de force investissements, sont un phénomène consécutif à la crise de 2008, mais Uber, Airbnb et Didi Chuxing (le concurrent chinois d’Uber), ont raflé à elles trois en 2015 59 % du financement des entreprises émergentes des services à la demande. Elles ont surtout bénéficié de capitaux excédentaires cherchant des opportunités de rendements élevés dans un contexte de faible taux d’intérêt. Pour Srnicek, la rentabilité des plateformes allégées est encore largement à prouver. Elle repose sur leur capacité à comprimer les coûts et à abaisser les salaires… comme on le constate dans le monde des livreurs à vélo où le prix de la course n’a cessé de s’effondrer.
  • Srnicek en tire un enseignement qui va à l’encontre des discours ambiants sur le modèle des plateformes : « le modèle allégé reste un joueur marginal », qui ne survit que par l’apport de capital-risque plutôt qu’en générant ses propres revenus. « Loin d’incarner l’avenir du travail ou de l’économie, il est fort probable que ces modèles finissent par s’écrouler dans les années à venir ».
  • Reste souligne Srnicek, que « nous n’assistons pas à la fin de la propriété, mais bien à sa concentration ». Les plateformes en imposant leur monopole sur l’extraction des données sont en passe de devenir « propriétaires de l’infrastructure même de la société ».
  • Le problème est que les monopoles qu’elles construisent sont donc de plus en plus importants. Qui pourrait aujourd’hui venir défaire le monopole d’un Google par exemple ? Pour autant, cela ne signifie pas que la concurrence est morte, souligne Srnicek, mais qu’elle a changé de forme. Pour lui, nous serions plutôt dans un colonialisme de plateforme, un moment où la capitalisation sur la quantité et la diversité des données importent plus que leur qualité.
  • Outre l’extraction de données, l’autre travail des plateformes repose sur leur capacité d’analyse et de traitement qui participe lui aussi à la concentration. D’où les investissements massifs dans l’intelligence artificielle : « le moindre goulot d’étranglement dans la circulation de données (…) contribue à entraver la production de valeur ». Pour Srnicek, l’expansionnisme des plateformes repose sur un modèle de convergence, tant et si bien que malgré leurs différences, les grandes plateformes se concurrencent de plus en plus entre elles.
  • Pour Srnicek, cette tendance devrait à terme se cristalliser dans des écosystèmes de plus en plus clos : « la concurrence capitaliste risque fort bien de mener à une fragmentation d’internet » que seule une intervention politique pourrait ralentir ou renverser.
  • Encore faudrait-il être sûr que la concurrence soit encore une caractéristique du capitalisme tel qu’il s’est transformé ces dernières années… C’est peut-être oublier combien celui-ci est en train de muter. Les comportements assez similaires des grandes plateformes, leurs ententes et collusions, montrent que si elles se font effectivement une petite guerre entre elles, leurs principes semblent imposer une vision du monde sans grande concurrence. Le retour des monopoles, le fait que d’énormes conglomérats dominent les marchés, souligne que nous ne sommes peut-être plus dans un capitalisme où la concurrence était un préalable. Peut-être que l’analyse de Srnicek n’est peut-être pas assez radicale ?
  • La conclusion de Srnicek est limpide. Le numérique ne nous conduit pas du tout à dépasser le capitalisme. Nous restons dans une économie où règne la concurrence et la rentabilité. Pour lui cependant, le modèle des plateformes fait face à un défi d’importance qui risque d’éprouver leurs limites : la crise de la production industrielle. Depuis 2008, la croissance est en berne. La Chine elle-même connaît une surcapacité industrielle, qui entraîne une baisse des prix… L’internet industriel est vu comme un espoir pour inverser la situation et ajuster la production à la demande. Or, souligne Srnicek, l’internet industriel lui-même ne semble pas capable de transformer le mode de production en profondeur : il se cantonne plutôt à réduire les coûts et le temps de production, plutôt que d’améliorer la productivité ou de développer de nouveaux marchés. L’internet industriel vise plutôt à agir sur la baisse des prix, et ce alors que l’austérité tend à diminuer la demande et à faire chuter la productivité. Quant au capital, explique-t-il, il cherche un peu partout les moindres opportunités, mais sans qu’elles soient raccord avec les difficultés actuelles.
  • Pour Srnicek, le scénario le plus probable est que les plateformes se propagent dans tous les secteurs, alors que la concurrence les entraîne à se refermer sur elles-mêmes. Les plateformes publicitaires pourraient être poussées à offrir des services payants, alors que les plateformes allégées pourraient être amenées à se transformer en plateformes de produits. « En dernière analyse, il semble que le capitalisme de plateforme tende inéluctablement à prendre la forme d’un échange d’une rente contre un service ». C’est-à-dire à construire des rentes par ceux qui souhaitaient les défaire…
  • La grande promesse de libération des plateformes, de fluidification de l’économie, se termine sous la forme de simples droits de péages (le fameux 30 % de marge qu’elles pratiquent toutes peu ou prou) pour accéder aux services, selon le modèle de bien des entreprises traditionnelles qu’elles prétendaient détrôner.
  • Dans une conclusion certainement trop rapide, Nick Srnicek, rappelle que les enjeux à venir consistent à s’opposer aux monopoles, à développer d’autres types de plateformes qui bénéficient à ceux qui les utilisent, à l’image du coopérativisme de plateforme, à lutter contre l’ubérisation, c’est-à-dire contre la précarisation, qu’induisent les plateformes allégées, à lutter contre l’évasion fiscale et l’exploitation des données… Pour lui, pour agir sur ce qui a permis le développement des plateformes, il est nécessaire de construire des plateformes publiques, de collectiviser les plateformes existantes pour mettre leurs données au service d’une meilleure redistribution des ressources, d’une plus grande participation… D’imaginer une autre innovation ne reposant plus sur l’optimisation capitalistique. Dommage que cette dernière partie ne dépasse pas l’appel d’intention.
  • Pour Erik Brynjolfsson et Andrew McAfee, dans Des machines, des plateformes et des foules (2018), la plateforme était encore définie comme une solution magique, puissante, sans réelle externalité (« la plateforme est un environnement numérique qui se caractérise par un coût marginal d’accès, de reproduction et de distribution proche de zéro »). La catégorisation de Srnicek apporte donc un peu de complexité et de mise en perspective et permet de relativiser l’enthousiasme et la fascination pour les plateformes, longtemps vues comme des infrastructures qui mettent en correspondance l’offre et la demande.
  • La plateforme était surtout un instrument pour industrialiser la création de valeurs et accélérer les rendements d’échelle nécessaires à l’établissement d’une position dominante sur les marchés, via un ensemble de mécanismes allant du crowdsourcing à l’appariement, en passant par des technologies comme les API et toutes les capacités offertes aux développeurs tiers. Reste que ces mécanismes et ces technologies ne sont plus magiques.
  •  
    "En attendant leurs nouvelles publications, intéressons-nous au précédent livre de Nick Srnicek Plaform Capitalism (2016), qui vient d'être traduit en français sous le titre Capitalisme de plateforme (Lux éditeur, 2018). Il est certainement moins ambitieux sur le plan politique que son manifeste, mais très stimulant pour comprendre les transformations concrètes de l'économie numérique. Ce court essai d'analyse de la réalité économique des plateformes nous aide à en saisir leur impact en les situant dans leur réalité économique."
Aurialie Jublin

Mariana Mazzucato, une économiste qui fait des vagues - 0 views

  • Elle pense que les décideurs du secteur public en Grande Bretagne sont otages du discours si souvent servi par les lobbyistes de l’industrie selon lequel “ils ne devraient pas prendre trop de risques, ils ne devraient pas choisir les gagnants”. Les conséquences en sont l’hémorragie des talents qui quittent le secteur public, et la validation sans remise en cause du mantra des lobbyistes : baisses d’impôts et assouplissement de la réglementation sont la recette pour attirer investisseurs et entrepreneurs.
  • “Aux États-Unis, ils parlent comme Jefferson mais ils agissent comme Hamilton” dit-elle. “Ici, en Grande-Bretagne, ils parlent et ils agissent comme Jefferson.” (Thomas Jefferson écrivait qu’il “n’était pas un ami d’un gouvernement très énergique”, alors que son grand rival insistait pour que les États-Unis lancent une politique industrielle volontariste). Un contre-exemple : le Government Digital Service [administration britannique chargée de la transformation numérique, ndt]. Des fonctionnaires, et non les habituels sous-traitants informatiques, ont créé un site qui répond vraiment aux besoins des citoyens, et, souligne-t-elle, “ils en ont fait un endroit vraiment, vraiment cool où travailler, au point que les types de la tech à la City avaient du mal à les recruter”.
  • Marianna Mazzucato défend ces idées depuis longtemps. Elle a publié en 2013 ‘The Entrepreneurial State’ (L’État entrepreneur) pour protester contre les politiques d’austérité post-crise. Elle voulait démontrer à quel point le succès de la Silicon Valley reposait sur les recherches financées par l’État, et qu’ailleurs, dans beaucoup d’autres économies, des agences gouvernementales jouaient ce même rôle essentiel. Son dernier livre veut donner une assise théorique à ses idées. Un long chapitre décortique comment différentes écoles d’économie ont traité le concept de la valeur au cours des siècles, avant que s’imposent les mantras “les prix sont fixés par l’offre et la demande” et “la valeur est dans l’œil de celui qui regarde”.
  • ...2 more annotations...
  • L’influence de Mariana Mazzucato est particulièrement visible dans la politique publique. Elle est généralement vue comme une sympathisante de gauche, mais elle affirme n’avoir pas d’agenda politique et être prête à conseiller “ceux qui écouteront”. Au Royaume-Uni, on reconnaît son empreinte dans le projet de politique industrielle du gouvernement conservateur actuel, publié en novembre dernier, tout autant que dans le manifeste du Parti travailliste de l’an dernier. Elle désapprouve le nationalisme “sous toutes ses formes”, mais elle joue aussi un rôle officiel de conseillère du Parti nationaliste écossais de Nicola Sturgeon, et revendique l’idée de la création par le gouvernement écossais d’une banque nationale d’investissement.
  • Elle admet que ce qui a “probablement le plus d’impact, dans tout ce que j’ai écrit et que j’écrirai” est le rapport publié en février sur les programmes de recherche et d’innovation européens. Il concrétise son idée que les gouvernements devraient piloter la croissance en coordonnant des “missions” – dotées de visées sociales ambitieuses et d’objectifs quantifiables – qui propageront l’innovation de secteurs en secteurs. Un précédent connu est la décision américaine d’envoyer un homme sur la lune. De nos jours, un objectif pourrait être d’atteindre les cent villes à bilan carbone neutre d’ici 2030.
  •  
    "Elle souhaite avant tout contrer l'opinion dominante selon laquelle l'innovation naît dans le secteur privé, et le rôle du gouvernement se limite à redistribuer, à délimiter le terrain de jeu et à réparer les erreurs du marché. En réalité, argumente-t-elle, beaucoup d'acteurs du privé, de la finance aux grands laboratoires pharmaceutiques, extraient ou détruisent de la valeur créée par autrui. Pour elle, le secteur public peut et devrait être un co-créateur de richesses qui pilote volontairement la croissance pour atteindre ses objectifs, que ce soit dans le domaine des énergies alternatives, du vieillissement des sociétés ou de la participation des citoyens à l'économie numérique."
Aurialie Jublin

Pourquoi la technologie n'est pas démocratique et comment elle peut le devenir - 0 views

  • les technologies font rarement l’objet de débats démocratiques, il nous semble même étrange d’accoler les deux termes, comme si ce qui était « technique » sortait par principe de la sphère du débat. Les seuls critères peut-être, qui mériteraient des discussions, seraient les analyses coûts / bénéfices et les risques sanitaires et environnementaux.
  • Comment expliquer ce déficit démocratique ? Sclove le met sur le compte d’un malentendu à propos de la technologie : nous aurions trop tendance à penser chaque objet à travers un usage unique. Un marteau par exemple, sert à planter un clou et ce serait tout. En fait, lorsqu’un homme plante un clou, il développe ses muscles, sue, s’affirme, se souvient des mythes de Vulcain et Thor, du garage de son grand-père, etc. Le marteau lui, a nécessité de couper un arbre, extraire du minerai de fer, c’est un objet plutôt utilisé pour travailler seul (il n’a qu’un manche) qui véhicule donc une certaine forme d’organisation du travail. Comme toutes les technologies, les marteaux sont « polypotents », c’est-à-dire bourrés d’effets secondaires et d’externalités de toutes sortes qui passent bien souvent à la trappe. C’est au regard de ces effets qu’une démocratie devrait pouvoir anticiper, jauger, et décider ou non d’adopter une technologie.
  • La seconde critique affirme que « prévoir » les externalités positives ou négatives d’une technologie est difficile. Sclove l’admet volontiers mais nuance néanmoins : il reste que les citoyens sont les plus à même de savoir si une technologie va changer leur vie, les forcer à travailler ensemble ou isolément, procurer du plaisir ou de l’apathie, accroitre ou non l’autonomie ou la dépendance à une entité centralisée. Qui plus est, la démocratie technique n’agit pas qu’à l’endroit des nouveautés, elle concerne également le régime technologique présent : questionner l’existant est aussi une manière de ne pas le renforcer dans ses défauts.
  • ...10 more annotations...
  • Mais tout n’est pas si simple et les résistances sont nombreuses. La démocratie technique souffre de deux critiques majeures. La première prétend que les gens simples ne sont « pas capables » de prendre ce genre de décisions, ne font pas le poids face aux avis d’experts, en bref, la parole populaire est envisagée comme un risque à ne pas prendre.
  • En fait, les freins à la démocratie technique sont ceux dont souffre la représentativité citoyenne en général (la démocratie participative, le tirage au sort) : une certaine peur de la parole populaire et une foi aveugle en un régime technocratique qui pourrait s’absoudre de toute position idéologique, quand bien même il est incapable d’observer les siennes. Cela s’explique. Pour Sclove, les citoyens ont davantage d’intérêt au développement de la démocratie que les experts car ils sont plus à même de comprendre comment la technologie va concrètement changer leur vie.
  • Très concrètement, les technologies peuvent être autoritaires (quand par exemple elles perpétuent des hiérarchies illégitimes), individualisées (lorsque les individus peuvent leur attribuer seuls un rôle ou un autre), communautaires ou coopératives (lorsqu’elles perpétuent des hiérarchies légitimes, par exemple une hiérarchie qui amène à plus de démocratie), de masse (ce qui implique une élite détachée du reste) et transcommunautaires (qui facilite les relations entre plusieurs communautés).
  • De cette patiente déconstruction des enjeux démocratiques liés aux différents régimes technologiques, Richard Sclove dégage un certain nombre de critères de nature à faciliter la prise de décision démocratique. Pour commencer, il faudrait veiller à trouver le juste équilibre entre toutes ces formes de technologies (c’est-à-dire le bon rapport de pouvoir). Richard Sclove propose ensuite de « limiter les techniques débilitantes »
  • Parmi les autres « critères de conception démocratiques », Richard Sclove mentionne les technologies permettant une relative autonomie, capables de contenir les externalités environnementales et sociales à l’intérieur du domaine politique local, soutenables écologiquement et flexibles, c’est-à-dire susceptible de recevoir des évolutions facilement.
  • Ces critères peuvent bien sûr soulever un certain nombre de craintes légitimes. Un cadre aussi strict n’est-il pas l’assurance de signer l’arrêt de mort de toute innovation ? Richard Sclove répond par la négative. D’une part, les procédés démocratiques qu’il promeut (inspirés des modèles de conférences de consensus et autres conférences citoyennes) agissent toujours à un niveau relativement local. Si une technologie n’est pas adoptée à un endroit, elle le sera probablement ailleurs, l’objectif étant de favoriser un pluralisme technologique. Si la technologie s’avère être sans risque, alors elle pourra se diffuser.
  • Entrer dans le concret est une autre paire de manche. Pour Sclove, la première étape doit être celle de la prise de conscience. Il faudrait commencer au niveau local, par inventorier les technologies selon les critères déjà expliqués.
  • Il faudrait aussi changer de regard sur la technologie, les discours médiatiques sont bien souvent focalisés sur des « découvertes stupéfiantes » et autres « récits sensationnels ». Il faut une critique sociale de la technologie qui ne soit pas une parole descendante de la part des « experts-qui-éclairent-les-masses. »
  • Concernant le type d’institutions à mettre en place, pas de suspense, il faut tester, échouer, apprendre. De nombreuses approches déjà bien documentées ont fait leurs preuves. Le point sensible reste la bonne représentativité des citoyens. Structurellement, les experts sont surreprésentés car le personnel politique, peu formé et en manque de temps, se repose sur un personnel non-élu qui les sollicite. Ceux-là sont rarement impartiaux, peu à même d’envisager les implications sociales et politiques d’une technologie et participent pourtant à des décisions d’envergure (comme on l’a vu dans le cas des systèmes automatisés pour les aides sociales). I
  • Pour autant, nous ne devrions pas totalement baisser les bras : il reste des tas d’endroits où un contrôle démocratique est possible et même souhaitable : transport et mobilité, urbanisme, automatisation du travail, ces champs sont bien souvent laissés à l’appréciation d’entreprises, de techniciens et d’experts qui peinent à solliciter les citoyens (si tant est qu’ils le veuillent).
  •  
    "L'innovation, loin de n'être qu'une affaire technique, transforme profondément et durablement les sociétés. La plupart des technologies sont pourtant adoptées sans qu'aucun processus démocratique ne soit mis en oeuvre. Le citoyen peut-il avoir son mot à dire, et sous quelle forme ? Cette question essentielle a été posée il y a 15 ans par Richard Sclove, fondateur du Loka Institute. Mais Où Va Le Web, média d'analyse souhaitant « p(a)nser le numérique », s'est plongé dans un essai d'autant plus intéressant qu'il promeut des procédés démocratiques concrets, des conférences de consensus aux « Déclarations d'impact social et politique »"
Aurialie Jublin

Comment les blockchains peuvent sauver la culture - 0 views

  • Le premier est de former des registres immuables et distribués, enrichis au fil de l’eau et de façon sécurisée, tout en restant facilement consultables par tous à tout moment. En matière de gestion des droits d’auteur, ou de simple référencement des oeuvres, c’est un fort atout, en rupture avec la logique de fichier centralisé qui prévaut aujourd’hui.
  • Le second est de permettre la création de « contrats intelligents », c’est-à-dire des transactions programmables, conditionnées à des événements futurs. Ce sont ces contrats qui sont à l’origine de toutes les ICO (« Initial Coin Offering »), permettant à quiconque d’acquérir un token avant qu’il ne soit créé. Transposé au domaine culturel, le principe d’associer flux financiers et conditions pré-programmées automatisables peut s’avérer puissant. Il devient par exemple facile de faire évoluer le prix d’un album musical en fonction de son succès, ou d’offrir aux 100 premiers acheteurs de cet album une remise sur un concert à venir.
  • Le troisième atout tient aux paiements proprement dits : toute blockchain publique (ou tout token) est aussi une crypto-monnaie, convertible en d’autres monnaies, et autorisant de façon efficace des transactions de montants très faibles (inférieurs au centime d’euro), ce que nulle autre solution ne permettait jusqu’alors.
  • ...10 more annotations...
  • Voise, développé en OpenSource sur la plate-forme Ethereum, dispose ainsi de sa propre monnaie (VOISE) pour créer « une plate-forme libre et équitable permettant aux artistes de monétiser leur contenu sans intermédiaire ». Ciblant les artistes indépendants et déjà disponible en version alpha, la plate-forme offrira comme d’autres du streaming payant, mais sans abonnement et avec une différence de taille : les artistes fixent eux-mêmes le prix de leur musique et conservent 100% des revenus
  • De son côté, Ujo est encore plus ambitieux, en tirant parti de plusieurs blockchains et outils décentralisés pour créer « une plate-forme où la musique reste en permanence sous le contrôle de l’artiste » : stockage décentralisé via IPFS et Swarm, licensing et paiements via Ethereum, gestion des identités sans mot de passe via uPort, lui-même un projet blockchain innovant... Chaque artiste est responsable de ses données et de son contenu, fixant les prix et les licenses, et pourra vendre par ce biais non seulement sa musique mais tous les produits dérivés (goodies, places de concert, etc.)
  • Autres exemples, Opus, disponible en version beta, et « s’opposant aux modèles monopolistiques et centralisés actuels » ou Muse qui, bien que tardant à se concrétiser (en développement depuis plus de deux ans), entend également créer « un réseau P2P globalement distribué appartenant aux musiciens eux-mêmes, où les royalties de tous les ayant-droits sont payées directement et instantanément, sans intermédiaires qui prélèvent des commissions ».
  • Sur le Web, la monétisation des textes a toujours été un problème. Un auteur de blog ou un petit éditeur de presse n’ont que peu de choix : couvrir leurs pages de bannières (dont l’immense majorité est gérée par une seule entreprise, Google) et espérer s’adjuger une (maigre) part du gâteau publicitaire. Là encore, les blockchains peuvent changer la donne.
  • On peut faire autrement, et deux plates-formes de contenu éditorial, Steemit et Yours, le prouvent. Toutes deux, inspirées de Reddit et opérationnelles (en version beta), permettent à quiconque d’ouvrir un blog, en dégageant des revenus directement liés à la popularité de ce qu’il/elle publie. L’idée est bien de s’opposer aux modèles en vigueur. « La plupart des médias sociaux extraient de la valeur de leurs utilisateurs pour le seul bénéficie de leurs actionnaires. Steemit est différent, formant un nouveau genre d’économie de l’attention. Etant connecté à une blockchain décentralisée et contrôlée par les gens, ce sont les utilisateurs eux-mêmes qui perçoivent tous les bénéfices et toutes les récompenses pour leur attention », explique Steemit, dont la monnaie (STEEM) pèse près de 300 millions de dollars en capitalisation.
  • « Les paiements en pair à pair sont la pièce manquante aux médias sociaux. Cette absence de paiement explique pourquoi Internet est rempli de clickbait, de spam et de fausses actus. Les gens devraient être capables de gagner de l’argent directement depuis celles et ceux qui les soutiennent, et tout ne devrait pas été financé par la publicité », ajoute Yours, dont la principale différence avec Steemit est d’imposer un coût initial pour la publication de nouveaux contenus.
  • Alors qu’on peut tout dupliquer en deux clics, comment prouver l’antériorité d’un texte, s’assurer qu’une photo émane bien de la personne qui prétend en être l’auteur, ou reproduire facilement un contenu en toute légitimité, en créditant ou payant les auteurs initiaux ? Plusieurs (ambitieux) projets s’attaquent au problème.
  • Po.et, après la création de son token POE ayant levé 10 millions de dollars en ICO, veut créer « un registre universel partagé pour tracer l’existence et la propriété de tous les actifs culturels mondiaux ». Initialement, le dispositif se contente d’établir une « preuve d’existence » de tout document numérique en lui adjoignant des méta-données rattachées à la blockchain Bitcoin. Tout article publié sur un site Web peut ainsi être horodaté de façon irréfutable, tout en étant plus facilement indexable (titre, mots-clés, auteur, lieu de publication, etc.).
  • A terme (d’ici à 2019), l’idée va bien au-delà, avec la création d’un dispositif de gestion automatisée des licenses, permettant de former un marché mondial du contenu numérique, quel que soit son format. Tout ebook, tout article de presse ou de blog, toute image ou tout enregistrement numérique seront dûment identifiés, et les licenses acquittées, via un réseau décentralisé et des crypto-monnaies, sans intermédiaires entres éditeurs et producteurs de contenus. Au passage, « non seulement un enregistrement Po.et stockera plus de méta-données qu’un ISBN, mais ce sera un service gratuit »
  • Des dizaines de projets à base de cryptos et tokens montrent la voie. Automatisation du traitement des droits d’auteur, indexation intelligente et pérenne des oeuvres, plus grande transparence, mise en rapport direct des artistes/auteurs et de leurs fans, suppression partielle ou totale des intermédiaires financiers et leurs commissions, réduction du modèle publicitaire... On comprend que les blockchains ont de sérieux atouts pour disrupter l’industrie culturelle.
  •  
    "Les blockchains et les crypto-monnaies intriguent, excitent ou effraient, c'est selon, mais tout porte à croire qu'elles sont en train de donner naissance à une nouvelle économie, déjà baptisée « Token economy », reposant sur une myriade de monnaies et/ou jetons électroniques qui réinventent les usages, décentralisent la valeur et bousculent les systèmes en place. Pour démarrer cette série de « Mes tokens et moi », penchons-nous sur la diffusion d'oeuvres culturelles grâce aux blockchains. Episode 1 : Décentraliser la culture. "
Aurialie Jublin

L'âge du web décentralisé - The Digital New Deal Foundation - 0 views

  • Les blockchains permettent par ailleurs de lever un obstacle jusqu’ici insurmonté : pouvoir transférer sur Internet de la valeur rare en pair à pair. Cette valeur est représentée par la notion de token : un actif numérique émis et échangeable sans duplication sur une blockchain, sans nécessiter d’autorité centrale.
  • Les tokens sont au cœur de la nouvelle économie numérique qui s’ouvre. Ils permettent de faire fonctionner des applications décentralisées, et rendent possible de nouvelles stratégies, de nouveaux modèles d’affaires et un partage de la valeur mieux distribué – de là l’émergence de la « token économie », qui fera émerger de nouveaux acteurs et de nouveaux champions.
  • Internet a permis de décentraliser l’information, en permettant à chacun de publier et d’échanger instantanément toute information auprès du monde entier, sans besoin d’autorisation préalable. La blockchain et les tokens permettent de décentraliser la valeur, en offrant à chacun un nouveau pouvoir : créer et échanger de la valeur instantanément auprès de tout autre internaute, sans nécessiter ni tiers ni permission.
  • ...1 more annotation...
  • Trois orientations, déclinées en 15 propositions présentées dans le rapport, permettraient aux pouvoirs publics de renverser la situation : faire émerger des talents à l’intérieur du pays, retenir nos talents déjà formés, et attirer les talents étrangers.
  •  
    "Les technologies blockchain et les cryptoactifs ouvrent la voie d'un nouveau web : le web décentralisé. En son cœur figure une notion phare, le token, dont il est essentiel de comprendre dès à présent les principes, les usages et les implications. Ce web décentralisé et l'émergence de la « token économie » constituent une opportunité inédite pour la France et l'Europe, qui peuvent devenir leader de cette révolution, à condition d'agir sans attendre."
Aurialie Jublin

Mais pourquoi les GAFA nous rendent notre temps ? - 0 views

  • En réalité, les internautes devraient plutôt s’inquiéter de ces nouvelles fonctionnalités annoncées par les GAFA. Car cela sous-entend que ces derniers ont trouvé le moyen de faire de l’argent d’autres manières qu’en vendant notre temps de cerveau disponible au mieux offrant. Cela veut dire que l’économie de l’attention, qui pré-existe largement au Web puisqu’elle est au coeur du modèle économique de nos industries culturelles et médiatiques, n’est plus nécessairement le seul modèle possible pour ces grands groupes du numérique. Ou plutôt, ce que laisse entendre Mark Zukerberg, c’est que cette économie de l’attention n’a plus une valeur quantitative, mais qualitative : « aider les gens à se connecter est plus important que de maximiser le temps passé sur Facebook ». Nul besoin de garder présent un utilisateur durant une grande plage de temps si on peut s’assurer qu’il génèrera rapidement de la valeur.
  • Ainsi, il est notable de constater que les fonctionnalités annoncées ne permettent d’évaluer que le temps que l’on passe sur notre téléphone. Cela nous renvoie à une vision très utilitariste de notre société et de son rapport aux nouvelles technologies : optimiser son temps, le dépenser utilement. Cependant, les internautes sont loin de ne dépenser que du temps. Nous dépensons de l’argent (via le e-commerce) et nous “dépensons” des données personnelles (sur les réseaux sociaux ou via les applications de nos smartphones). Or ce sont ces deux dépenses qui sont les plus rémunératrices pour les géants du numérique. Ce n’est donc pas un hasard si la nouvelle application d’Apple nous indique le temps passé sur notre téléphone et non le montant cumulé que nous dépensons sur l’App Store ou sur les différentes applications que nous utilisons.
  • En effet, ce combat détourne en partie l’attention du fond du problème, c’est-à-dire la capacité des utilisateurs à maîtriser leurs usages dans leurs diversités des services numériques.
  • ...1 more annotation...
  • C’est pourquoi il est aujourd’hui impératif de repenser la conception des services numériques, aussi bien dans ses méthodes, d’exploitation des données personnelles ou de l’attention, que dans ses objectifs, business models et impacts sur nos sociétés. De nombreux concepteurs de services numériques cherchent ainsi à remettre du sens dans leur travail et dans leurs produits, avec pour soucis de remettre l’exigence de choix et de liberté de l’utilisateur au centre de la conception.
  •  
    "Ces dernières semaines, parmis les nouveautés annoncées par les géants américains du numérique pour leurs services respectifs, figuraient un certain nombre de fonctionnalités visant à "rendre le contrôle aux utilisateurs". Apple le formule ainsi : "iOS 12 intègre de nouvelles fonctionnalités pour limiter les interruptions et gérer le temps passé devant les écrans". iOS et Android offriront donc dorénavant la possibilité de monitorer le temps passé sur son téléphone, ainsi que la possibilité - à l'instar de Facebook - de mieux contrôler les notifications que l'on souhaite recevoir."
Aurialie Jublin

Bimby : le concept qui bouscule l'aménagement urbain - Elueslocales.fr - 0 views

  • le projet Bimby, conçu par deux architectes urbanistes, Benoît Le Foll et David Miet. Bimby, c’est l’acronyme de « Build in My Back Yard », littéralement, « construire dans mon jardin ». L’idée est de définir une nouvelle filière de production de la ville, en s’appuyant sur les quartiers pavillonnaires déjà existants, et en proposant donc une solution alternative à l’étalement urbain.
  • Plus concrètement, Bimby vise à offrir la possibilité aux propriétaires de vendre une partie de leur terrain pour la construction d’un nouveau logement. L’idée est donc de densifier les zones déjà habitées. Pour les concepteurs, les zones pavillonnaires recèleraient en effet un gisement foncier exceptionnel : il y a actuellement 14 millions de maisons individuelles et une partie des propriétaires pourrait être encline à céder une partie de leur terrain. Même si ça ne concernerait qu’1 % d’entre eux, cela représenterait déjà 140.000 terrains à bâtir.
  • un intérêt économique : à la fois pour la commune qui voit ainsi la possibilité de « fabriquer un urbanisme sur mesure et à moindre coût » et pour les habitants propriétaires de maisons individuelles, qui peuvent « mobiliser une partie de leur patrimoine foncier pour financer la réalisation de leurs projets, notamment en détachant une partie de leur terrain pour la valoriser en tant que nouvelle parcelle constructible. »
  • ...4 more annotations...
  • un intérêt écologique : l’étalement urbain a des conséquences environnementales. Par exemple, la fragmentation des espaces naturels et agricoles est néfaste à la biodiversité. Bimby, au contraire, présente l’avantage de s’appuyer sur des zones urbaines déjà existantes, « tout en maintenant des densités faibles et sans engendrer de pression foncière, ceci dans des quantités qui permettraient de répondre chaque année à une part significative des besoins en logements »
  • un intérêt social : « en redonnant à l’habitant un rôle fort de maître d’ouvrage de la production de l’habitat, on donne à la collectivité de puissants leviers pour porter une politique urbaine ambitieuse, fondée sur la mise en synergie des projets des habitants et des projets de la collectivité, et ceci en faisant appel aux entreprises locales de construction, qui sont les plus économiques et les plus créatrices d’emplois. » Bimby propose également une ouverture concernant les logements sociaux. Si cette démarche n’est pas une solution miracle, elle peut permettre la production le logements plus abordables et offrir la possibilité à la collectivité de reprendre la main sur le prix du foncier.
  • Pour concrétiser la démarche BIMBY, celle-ci doit être pleinement intégrée dans le PLU comme un élément à part entière du développement de la commune. A cet effet, elle doit constituer l’un des volets du programme d’aménagement et de développement durable (PADD), être développée comme une orientation d’aménagement et de programmation (OAP), transcrite dans le règlement d’une zone ou d’un secteur (selon l‘importance de la superficie qu’elle concerne, les enjeux qu’elle représente, et ses spécificités réglementaires) et justifiée dans le rapport de présentation.
  • Les communes qui souhaitent s’inscrire dans cette démarche organisent des réunions pour présenter le projets aux habitants. Nouer le dialogue entre les élus porteurs du projet et les propriétaires intéressés est essentiel mais, prévient David Miet dans le guide, il ne faut « pas créer d’espoirs que l’on risque de décevoir. Une fois que l’on a noué un dialogue avec sa population, en organisant des ateliers pour imaginer le futur des quartiers pavillonnaires existants, il convient d’aller jusqu’au bout de la démarche, et notamment jusqu’à la modification des documents d’urbanisme pour que ces derniers soient de bon catalyseurs des projets individuels. »
  •  
    "L'urbanisme, et particulièrement la question de la construction de nouveaux logements, représente l'un des points majeurs de la politique communale. Face à l'étalement urbain qui a longtemps été la norme en France, mais qui nous montre aujourd'hui ses limites, la démarche Bimby se pose comme une véritable alternative."
Aurialie Jublin

Les musulmans chinois, en première ligne de la surveillance - 1 views

  • La population musulmane de la région est soumise à de nombreuses technologies de contrôle afin de mesurer le degré de croyance et de pratique religieuse des individus, notamment par le biais du big data et de la reconnaissance faciale.
  • Le quotidien de la minorité religieuse est ainsi fait de caméras statiques et de drones-colombes intelligents, ou d’agents officiels et secrets susceptibles de fouiller tout individu plusieurs fois par jours. Des fouilles corporelles ou numériquse,  soit directement par le biais du smartphone ou via les traces numériques semées sur le très surveillé réseau social WeChat.
  • En cette période de hajj, le pélerinage à La Mecque que tous les musulmans en capacité de le faire se doivent d'effectuer une fois dans sa vie, cette surveillance étouffante se poursuit pour les ressortissants chinois. Accompagnés durant tout le pèlerinage par un guide de l’Association Islamique Chinoise, dirigée par l’Etat, les pélerins sont également porteurs de « cartes intelligentes » nouées autour de leur cou et enregistrant leurs données de géolocalisation ainsi que leurs conversations.
  • ...1 more annotation...
  • Maya Wang a signé, fin février, un rapport sur le « police cloud », un programme de police prédictive fondé sur l'analyse de données volumineuses, et déployé au Xinjiang. Il signale les personnes qui pourraient être des menaces, et celles ci peuvent être envoyées dans les « centres d'éducation politique ». « Pour la première fois, écrivait elle, nous sommes en mesure de démontrer que le recours au big data par les services de renseignements du gouvernement chinois non seulement viole de manière flagrante le droit à la vie privée, mais permet également aux autorités de détenir arbitrairement des personnes.»  
  •  
    "Le nationalisme religieux est dans la ligne de mire du Parti Communiste chinois. Le gouvernement cible particulièrement les minorités musulmanes du Xinjiang concentrées dans une région située à l'opposé des capitales économiques et politiques chinoises. Comme le souligne un article de The Atlantic, la région fait donc office de zone de test à grande échelle pour les technologies de contrôle dernière génération et les programmes de propagande au sein de camps de rééducation."
Aurialie Jublin

Le Bitcoin va-t-il détruire la planète ? Contre point - LinuxFr.org - 0 views

  • « Si le Bitcoin consomme autant d’électricité que le Maroc, c’est une catastrophe, non ? » Actuellement le Bitcoin consommerait autant d’électricité que le Maroc. En fait, si on ne peut pas parler de catastrophe écologique c’est tout simplement parce que ce mot est plutôt employé pour une pollution flagrante (genre marée noire ou autre pollution chimique). Mais le fait est que le bitcoin consomme tous les jours et tous les jours un peu plus, la facture énergétique s’allonge et s'accroît ; c’est comme fumer : ça détruit un peu tous les jours les poumons et on ne parle de catastrophe que lorsque le cancer est là. Le Bitcoin seul ne crée pas le réchauffement climatique, mais il fait partie des nombreux systèmes qui tendent à l’aggraver. Donc : Si le Bitcoin consomme autant d’électricité que le Maroc, ce n’est pas une catastrophe mais ça n’est clairement pas bon du tout. Pour simplifier je vais diviser les erreurs de raisonnement en quatre parties : La fausse simplification consommation continue et gaspillée n’équivaut pas à pollution On ne compare que ce qui est comparable Oui, l’énergie du Bitcoin est gaspillée Les 2 phases d’optimisation en ingénierie
  • « …parfois l’électricité est là et inutilisée. C’est le cas des panneaux solaires, des barrages hydro-électriques ou des centrales nucléaires qui produisent de l’électricité, quoi qu’il arrive. On ne peut pas faire ON/OFF. Et l’électricité est pour le moment difficilement transportable. » 2 divisions par 0 et un verre de vin : Une plutôt évidente : “les panneaux solaires qui produisent de l’électricité quoi qu’il arrive” … sauf quand il fait nuit, quand la météo n’est pas clémente ou quand ils sont sales. L’autre division par 0 : “l’électricité est pour le moment difficilement transportable”. Difficilement par rapport à quoi ? Car en fait c’est sûrement la source d’énergie la plus transportable qui soit. D’ailleurs les pays européens sont interconnectés entre eux et s’échangent de l’électricité (bien plus rapidement qu’une transaction Bitcoin
  • Et même s’il est possible actuellement de perdre de l’énergie verte (en 2017 la Californie a perdu 300 000 MW faute d’utilisation). Cela démontre juste l’immaturité des réseaux électriques intelligents (smart grid).
  • ...6 more annotations...
  • “Les comparaisons que j’ai vues sont toutes plus absurdes les unes que les autres”, celle-ci en est un parfait exemple. Reprenons: qu’est ce que Bitcoin : Un système d’échange de valeurs. Ok, donc utiliser Bitcoin c’est comme payer avec sa carte bleue : le système a le même but. Donc ici, on essaye de nous faire avaler que 30 millions de personnes qui ne font que payer régulièrement avec leur carte bleue c’est pareil que 33 millions qui, en plus eux aussi, d’utiliser une carte bleue de temps en temps, se déplacent, s’éclairent, utilisent leurs ordinateurs, leurs machines, rechargent leurs téléphones, ont une climatisation, font fonctionner leurs entreprises … etc, bref 33 millions de personnes qui vivent. Non ce n’est pas du tout comparable : le fait que 30 millions d’utilisateurs de Bitcoin consomment autant que 33 millions de marocains démontre l’inefficacité énergétique extrême du Bitcoin.
  • « Surprise, le Bitcoin consomme à peine plus que la production des pièces de monnaies et des billets de banque ! Or, rappelons que les pièces et billets ne représentent que 8% de la masse monétaire totale et plus spécifiquement 6,2% pour la zone euro. » Effectivement je suis surpris ! Car je n’ai pas du tout les mêmes chiffres pour la production de monnaie. Mais j’ai l’impression que Ploum a intégré l’extraction de l’or dans le coût de production de monnaie ce qui est faux depuis de nombreuses années (j’y reviens juste après) Pour le coût de la monnaie fiduciaire je vais citer Emmanuelle Assouan, de la Banque de France :« le coût de fabrication d'un billet se situe entre 5 et 10 centimes d'euro. Une validation d'une transaction bitcoin c'est 215 kilowatts-heure… » 6.6. « Or, outre la consommation énergétique, l’extraction de l’or est extrêmement contaminante (notamment en termes de métaux lourds comme le mercure). » Donc l’excuse c’est “lui il pollue plus que moi, donc je peux polluer aussi”. C’est la défense Chewbacca !
  • 6.10. « Sans compter que nous n’en sommes qu’au début ! Bitcoin a le potentiel pour devenir une véritable plateforme décentralisée qui pourrait remplacer complètement le web tel que nous le connaissons et modifier nos interactions sociales et politiques : votes, communications, échanges sans possibilité de contrôle d’une autorité centralisée. » L’inefficience de Bitcoin a une conséquence lourde en plus de polluer : il ne scale pas (c’est à dire : très mauvaise montée en échelle). Il plafonne à 7 transactions par seconde, ce qui à l’échelle de la planète : 7 milliards d’utilisateurs potentiels, est vraiment … minable (presque sans mauvais jeux de mot). Pour comparer : VISA effectue en moyenne plus de 1600 transactions par seconde et des pics bien plus importants sont absorbés sans problème. Donc, non, sans résoudre le problème d’efficience, Bitcoin ne peut pas faire plus que ce qu’il fait aujourd’hui, c’est à dire finalement ne servir qu’à très peu d’utilisateurs.
  • Ploum ne parle que de la “Proof Of Work” comme concept de sécurisation. C’est pourtant une partie du système particulièrement inélégante qui devrait être remplacée par quelque chose de moins énergivore. Ethereum veut passer à la “Proof Of Stake” (preuve d’enjeux, moins énergivore) par exemple. Gridcoin remplace la “Proof Of Work” par des calculs utiles à l’humanité Duniter applique un handicap aux utilisateurs ayant trop de puissance de calcul ce qui évite la course à la puissance polluante. Bref, la consommation énergétique outrancière de Bitcoin n’est pas une fatalité pour les crypto monnaies.
  • Une image plus juste : le Bitcoin est actuellement comme un tracteur auquel on ajouterait des chariots, plus on lui ajoute de chariots, plus il crache de la fumée noire en faisant un boucan d'enfer et plus sa vitesse diminue … même si sa vitesse n’atteint jamais 0 km/h. A partir d’un certain nombre de chariots sa vitesse est tellement basse qu’il en devient inutilisable. Ici les chariots sont les utilisateurs et la vitesse représente les frais et la rapidité/lenteur des transactions. Ploum voudrait nous dire que ce tracteur rejette une fumée noire qui est une merveille d’écologie et que ce tracteur peut prendre l’autoroute sans rien y changer. Mais que c’est l’autoroute et notre perception de la vitesse qu’il faudrait adapter au système …
  • Je vous prie de croire que je n’ai aucune raison particulière de défendre les banques ou les états. Un système d’échange décentralisé est une bonne chose, mais pour moi laisser une planète dans le meilleur état possible à mes enfants est bien plus important.
  •  
    "Cet article est une réponse à celui de Ploum visible ici et ici. D'ordinaire j'aime bien les articles de Ploum, sa plume est plaisante et son analyse me paraît souvent juste; mais dans son article sur la consommation énergétique du Bitcoin, Ploum use de contre-vérités, de raccourcis et de métaphores inadaptées pour arriver à ses fins. Je vais m'attacher à démontrer qu'avec un minimum de connaissances des problèmes d'un réseau électrique, de la consommation d'énergie et de rendement il est impossible de considérer ce gaspillage d'énergie comme négligeable. Je reviendrai sur le pourquoi il est urgent d'être efficient dans tous les domaines. C'est-à-dire qu'il ne suffit pas "d'utiliser de l'énergie verte puis c'est tout", une telle affirmation relève d'une ignorance des problèmes liés à la transition énergétique."
Aurialie Jublin

Paris se dote d'une « stratégie de résilience » - 0 views

  • Pour définir ce plan, la ville s’est notamment appuyée sur le réseau « 100 Résilient Cities », une initiative de la Fondation Rockefeller pour accompagner les villes confrontées à une multiplication des menaces, tout en favorisant le partage d’expériences, les bonnes pratiques et solutions.
  • Cette stratégie de résilience, à laquelle Paris s’engage à dédier 10 % de ses investissements, se décline en 35 actions qui viennent renforcer différentes politiques déjà initiées pour adapter la ville aux évolutions du climat, améliorer sa qualité environnementale ou encore favoriser des modes de production et de consommation responsables.
  • « L’idée est de remettre de l’humain dans les grandes politiques, que tout un chacun, à son échelle, participe, se mobilise et se responsabilise par rapport aux enjeux », explique Célia Blauel, adjointe à la Maire de Paris en charge de l’environnement. La Ville va ainsi créer un « réseau de citoyens solidaires et volontaires », qui pourront renforcer les moyens d’interventions des autorités en cas de crise majeure, comme au quotidien.
  • ...3 more annotations...
  • « Indépendamment des crises, il s’agit aussi de remettre du lien entre les gens, de renforcer la cohésion sociale. Une ville soudée et solidaire est une ville plus résiliente. Les réseaux qui se créent au quotidien sont des réseaux qui fonctionnent d’emblée le jour où l’on connaît une crise », insiste Célia Blauel
  • Plus solidaire au quotidien, Paris souhaite aussi adapter ses infrastructures. La ville veut s’inspirer de l’expérience de Rotterdam qui, face au risque d’inondation, a créé des bassins de rétention d’eau qui sont devenus de véritables espaces publics intégrés au quartier. Paris entend ainsi développer un « référentiel de voie résiliente » (matériaux adaptés aux différents risques, typologies de surfaces, mobiliers polyvalents…) avant d’aménager une ou plusieurs rues.
  • À travers sa stratégie de résilience, Paris affiche aujourd’hui sa volonté de recoudre le lien avec les territoires qui l’entourent, proches comme ruraux. Car la ville sait qu’elle ne peut pas répondre seule aux défis qui se posent à elle, qu’ils s’agissent des transports, des risques liés à la Seine, à l’alimentation, à l’énergie…
  •  
    "La capitale veut renforcer sa capacité à faire face aux chocs prévisibles comme imprévisibles. Une stratégie qui la conduit à développer une gouvernance participative et à coopérer avec les territoires qui l'entourent."
Aurialie Jublin

De la tyrannie des métriques | InternetActu.net - 0 views

  • Pour Muller, nous sommes obsédés par les chiffres. Nous avons une pression irrépressible à mesurer la performance, à en publier les chiffres, et à récompenser les performances depuis ceux-ci, quand bien même l’évidence nous montre que cela ne fonctionne pas si bien. Pour Muller, notre problème n’est pas tant la mesure que ses excès. Trop souvent nous préférons substituer des chiffres, des mesures, à un jugement personnel. Trop souvent le jugement est compris comme personnel, subjectif, orienté par celui qui le produit, alors que les chiffres, en retour, eux, sont supposés fournir une information sûre et objective.
  • Trop souvent, les métriques sont contre-productives, notamment quand elles peinent à mesurer ce qui ne l’est pas, à quantifier ce qui ne peut l’être.
  • Muller montre par de nombreux exemples comment nous nous ingénions à contourner les mesures, à l’image des hôpitaux britanniques qui avaient décidé de pénaliser les services dont les temps d’attente aux urgences étaient supérieurs à 4 heures. La plupart des hôpitaux avaient résolu le problème en faisant attendre les ambulances et leurs patients en dehors de l’hôpital !
  • ...10 more annotations...
  • Pour Muller, l’obsession des métriques repose sur : la croyance qu’il est possible et désirable de remplacer le jugement acquis par l’expérience personnelle et le talent, avec des indicateurs numériques de performance comparative basés sur des données standardisées ; la croyance que rendre ces mesures publiques (c’est-à-dire transparentes) assure que les institutions effectuent leurs buts (c’est-à-dire leur responsabilité) ; la croyance que la meilleure façon de motiver les gens dans les organisations est de les attacher à des récompenses ou des pénalités depuis ces mesures de performance (que les récompenses soient monétaires ou réputationnelles)
  • Il souligne que trop souvent, on mesure le plus ce qui est le plus facile à mesurer, le plus simple. Mais c’est rarement le plus important. En mesurant le plus simple, on en oublie la complexité : ainsi quand on mesure les objectifs d’un employé, on oublie souvent que son travail est plus complexe que cela. On mesure plus facilement les sommes dépensées ou les ressources qu’on injecte dans un projet que les résultats des efforts accomplis. Les organisations mesurent plus ce qu’elles dépensent que ce qu’elles produisent.
  • Bien souvent, la mesure, sous prétexte de standardisation, dégrade l’information, notamment pour rendre les choses comparables au détriment des ambiguïtés et de l’incertitude.
  • Quant aux manières de se jouer des métriques, elles sont là aussi nombreuses : simplifier les objectifs permet souvent de les atteindre au détriment des cas difficiles ; améliorer les chiffres se fait souvent en abaissant les standards… sans parler de la triche, on ne peut plus courante.
  • C’est vraiment avec Frederick Taylor, cet ingénieur américain qui va inventer le management scientifique au début du 20e siècle, que la mesure va s’imposer. Le but même du taylorisme était de remplacer le savoir implicite des ouvriers avec des méthodes de production de masse, développées, planifiées, surveillées et contrôlées par les managers. Le Taylorisme va s’imposer en promouvant l’efficacité par la standardisation et la mesure, d’abord dans l’industrie avant de coloniser avec le siècle, tous les autres secteurs productifs.
  • Les métriques se sont imposées dans les secteurs où la confiance était faible. Les décisions humaines sont devenues trop dangereuses à mesure qu’elles impliquaient une trop grande complexité de facteurs : d’où la prolifération des métriques, des process, des règles… La demande d’un flux constant de rapports, de données, de chiffres… a finalement diminué l’autonomie de ceux qui étaient les plus bas dans les organisations.
  • Dans son livre, Muller évoque nombre de secteurs où les chiffres n’ont pas produit ce qu’on attendait d’eux. Dans le domaine scolaire, en médecine, dans le domaine militaire, dans la police et bien sûr dans les affaires… les chiffres sont souvent mal utilisés et ne parviennent pas à mesurer l’important. Bien souvent, les chiffres déplacent les objectifs, favorisent le court-termisme, découragent la prise de risque, l’innovation, la coopération… coûtent du temps
  • voire sont dommageable pour la productivité elle-même (« Une question qui devrait être posée est de savoir dans quelle mesure la culture des métriques a elle-même contribué à la stagnation économique ? »)…
  • Pour lui, il faut d’abord se poser la question de ce que l’on cherche à mesurer en se souvenant que plus un objet mesuré est influencé par la procédure de mesure, moins il est fiable. Et que ce constat empire quand la mesure repose sur l’activité humaine, plus capable de réagir au fait d’être mesurée, et pire encore quand des systèmes de récompenses ou de punition sont introduits…
  • L’information est-elle utile ? Le fait que quelque chose soit mesurable ne signifie pas qu’il faille le faire (au contraire, bien souvent la facilité à mesurer est inversement proportionnelle à sa signification !). « Posez-vous la question de ce que vous voulez vraiment savoir ! », conseille l’historien.
  •  
    "On n'a pas attendu le numérique pour produire des métriques, mais celui-ci a incontestablement simplifié et amplifié leur production. Quitte à produire un peu n'importe quelles mesures puisque celles-ci semblent désormais accessibles et ajustables en quelques clics. On connaît la rengaine : « ce qui ne peut être mesuré ne peut être géré » (même si la formule de Peter Drucker est en fait plus pertinente que ce que nous en avons retenu). Est-ce pour autant qu'on ne gère que ce que l'on sait chiffrer ?"
‹ Previous 21 - 40 of 57 Next ›
Showing 20 items per page