Skip to main content

Home/ QN2019/ Group items tagged mesure

Rss Feed Group items tagged

Aurialie Jublin

Le contrôle des données numériques personnelles est un enjeu de liberté colle... - 0 views

  • Il serait commode de penser que l’humain du XXIe siècle a renoncé à sa vie privée. Mais il ne s’agit pourtant pas d’indifférence. Les sondages montrent avec insistance et sans ambiguïté que les internautes la chérissent encore à l’heure des réseaux sociaux et des smartphones. Comment, alors, expliquer cette apathie ?
  • Pendant des décennies, à raison, défendre la vie privée revenait à protéger l’individu. Aujourd’hui encore, on s’obstine à rechercher et mesurer les conséquences individuelles de cette collecte effrénée de données personnelles et de ces piratages à répétition. Mais le paradigme a changé : la question des données personnelle n’est pas un problème d’intimité. C’est un enjeu de liberté collective.
  • Prenez l’affaire Cambridge Analytica : le problème n’est pas que Donald Trump et son équipe de campagne ont consulté méthodiquement la liste d’amis de 87 millions d’utilisateurs de Facebook (dont plus de 200 000 Français). Mais qu’ils aient pu utiliser ces informations, agrégées à des millions d’autres, pour mener une campagne politique extrêmement personnalisée, quasi individualisée, en utilisant à plein l’invraisemblable machine à cibler des messages proposée par Facebook. L’impact de cette fuite de données personnelles n’est plus individuel, il est collectif. Il ne s’agit pas de l’intimité de son existence vis-à-vis d’une organisation politique, mais de la liberté collégiale de choisir en conscience son dirigeant politique ou ses conditions de vie commune.
  • ...2 more annotations...
  • Au bout du compte et si rien ne change, alors que ces entreprises s’immisceront de plus en plus dans nos activités quotidiennes, passant peu à peu de la « suggestion » à l’« injonction », nous serons sans doute pris au piège des données personnelles. On décidera à notre place, d’une manière qu’on nous présentera comme optimale puisque conçue sur l’analyse de données de millions de personnes dont la vie nous est similaire, et en nous confisquant une part de notre libre arbitre. Il ne s’agit pas d’intimité vis-à-vis d’une quelconque entreprise de la Silicon Valley, mais de liberté individuelle.
  • La seule solution est de limiter la dissémination aux quatre vents de nos données personnelles. Mais comment le faire sans se retirer des connexions, sociales et professionnelles, d’une société désormais numérisée ? Comment renoncer à tous ces avantages ? La solution se trouve quelque part entre le collectif (des règles politiques pour limiter la collecte et l’exploitation des données) et l’individuel (le recours à une technologie plus frugale et plus décentralisée).
  •  
    Les révélations des failles de sécurité touchant des services en ligne s'accumulent. Et la collecte de nos données fait peser un risque collectif d'envergure.
Asso Fing

Louise Drulhe cartographie le web caché | Mediapart - 0 views

  • « Lorsque nous naviguons sur Internet, nous allons de lien en lien, il y a une force qui s’exerce sur notre mouvement et qui nous fait vagabonder de page en page. Cette attraction est due à la pente du web qui nous fait glisser lentement à la façon d’une dérive numérique. Au début d’Internet, la pente était douce, elle s’apparentait à une errance numérique et facilitait la sérendipité. Aujourd’hui la pente est beaucoup plus raide et nous glissons presque systématiquement vers les mêmes services », écrit l’artiste.
  • Résultat, le web s’est creusé, comme le montre ce dessin du chapitre 4, « Un relief dirigé ». Pire encore, il s’est dédoublé. Toute une mécanique s’est installée, celle des données, et c’est alors à la représentation de ce web caché que Louise Drulhe s’est attaquée, un projet qu’elle évoquera mardi 6 novembre à la Gaîté-Lyrique, à Paris, lors de la première soirée d’un cycle de rencontres intitulé Technologies et idéologies. L’occupation idéologique des réseaux numériques, organisé en partenariat avec Mediapart et l’EHESS. 
  • « En moyenne, explique Louise Drulhe, neuf autres pages sont activées par chaque page que nous consultons, et nos données fuitent par là. Elles sont récupérées par des sites tiers bénins ou malins qui récupèrent nos données de navigation. »
  • ...5 more annotations...
  • Pour cette cartographie, Louise Drulhe s’est appuyée sur les données de fréquentation des sites, elles-mêmes issues d’Alexa, le service de mesure d’audience d’Amazon, et sur les travaux de Timothy Libert, spécialiste des questions de données personnelles et vie privée, actuellement chargé de cours à l’université Carnegie Mellon de Pittsburgh (États-Unis). Sur l’image ci-dessus (à consulter en plus grand ici), elle a représenté les sites agrégés par compagnies (YouTube inclus dans Google qui le possède, Bing dans Microsoft…). Où l’on voit que « le poids grignote et déforme l’espace, crée des gouffres ». 
  • Au centre, Google et ses dépendances, Gmail, Blogspot, YouTube... En bas à gauche, les compagnies chinoises, proches des russes. En bas au centre, Wikipédia. Tout en haut, autour de Reddit gravitent les sites d'info, New York Times, CNN, Huffington Post... © Louise Drulhe.
  • Dans l’Internet chinois, Baidu occupe, comme Google dans le reste du monde, une place centrale : il est au milieu, et très profond. Tous sont très étroits : moins qu’ailleurs, d’autres sites y conduisent. Mais ils sont proches de l’Internet russe, beaucoup de liens menant de l’un à l’autre.
  • De l’autre côté du web se trouvent les aspirateurs à données (voir ici l’image en plus grand). « La hauteur des bosses représente la portion du web qui est tracké », et Google, qui surveille 78 % des pages du web, se retrouve encore une fois très loin devant les autres.
  • Entre la surface du web, celle que l’on connaît, où l’on navigue, et ses profondeurs, où sont aspirées nos données, Louise Drulhe a fait apparaître, ou plutôt constaté, « comme un miroir, ou une contreforme ». Il y a d’abord des monopoles dans les deux espaces, dit-elle. Ces monopoles sont bien souvent les mêmes, à deux exceptions notables : le serveur de cache Akamai, invisible pour l’internaute, n’est « que » dans le web caché, et c’est le contraire pour Wikipédia, qui ne récupère aucune donnée et n’est présent que sur le web visible. Et enfin, « Google tient la même place des deux côtés ».
  •  
    "Collecte des données et centralisation du web seront au centre de la première rencontre organisée par Mediapart, la Gaîté-Lyrique et l'EHESS, mardi 6 novembre à Paris. Brève rencontre avec Louise Drulhe, designer graphique, qui matérialise au feutre cet étau de plus en plus serré."
Aurialie Jublin

Interview des auteurs du livre : "Blockchain - vers de nouvelles chaînes de v... - 0 views

  • Une monnaie, qu’elle qu’en soit la forme, remplit une fonction d’utilité : principalement celle d’être un moyen d’échange facilitant les transactions. Le point commun entre les pièces d’argile, les pièces métalliques, les monnaies fiduciaire et scripturale est donc de remplir cette fonction de média d’échange. L’utilisation d’un média d’échange dans le cadre d’une transaction permet de réduire les coûts associés à celle-ci.
  • Le troc est facilement imaginable, notamment au sein de petites communautés, mais est extrêmement coûteux puisqu’il nécessite « une coïncidence des volontés ». Il faut qu’à un instant t, deux personnes aient besoin du bien proposé par l’autre mais surtout que chacun estime que la transaction est équitable. L’utilisation d’une monnaie supprime ce problème : je peux vendre un bien, conserver la monnaie en « réserve de valeur » avant de racheter un autre bien lorsque l’envie m’en prendra. Plus largement, une monnaie remplit donc classiquement trois fonctions économiques : medium d’échange, réserve de valeur (possibilité de transférer des valeurs dans le temps) et unité de compte (métrique / libellé de référence pour des acteurs).
  • Vous dites aussi qu’une autre caractéristique de la monnaie est qu’elle n’a peu ou pas de valeur intrinsèque.En effet. La valeur qu’on lui accorde dépasse de loin sa valeur fondamentale. Nul doute que le poids du métal d’une pièce de deux euros valle bien moins que deux euros. La valeur d’une monnaie repose sur la confiance, la croyance collective que lui apporte un groupe d’individus, le symbole. Nous aimons beaucoup les thèses de Yuval Noah Harari sur la construction collective des mythes et des croyances ; selon nous, une monnaie en est une. La monnaie est «l’avatar le plus représentatif de la capacité des hommes à créer des mondes intersubjectifs ». Ce constat est d’autant plus fort depuis que la fin de la convertibilité or du dollar a été actée en 1971.
  • ...7 more annotations...
  • Nous démontrons que les média d’échange ont toujours évolué dans l’histoire économique, prise dans le temps long. A ce titre, Bitcoin ne mérite pas de statut plus négatif que le billet de banque lors de son invention. Cette évolution historique n’est certes pas linéaire, et prudence doit être de mise pour ne pas tomber ni dans l’anachronisme ni dans un évolutionnisme mal placé. On peut toutefois identifier de grands changements associés au progrès technique : à chaque révolution industrielle son support. L’apprentissage de la manipulation des métaux a permis la création des pièces métalliques, l’invention de l’imprimerie a ouvert la voie à la création des billets et de la monnaie fiduciaire, la création de la comptabilité en partie double au XVe siècle a rendu possible la compensation de compte à compte sans déplacement physique de moyens d’échange. Il n’y a donc rien d’aberrant ou de surprenant à voir émerger de nouvelles formes d’échanges et de monnaies, comme le bitcoin, au gré des évolutions technologiques et sociétales. En cela, Bitcoin et la blockchain constituent une étape supplémentaire dans l’évolution de l’histoire monétaire et des transactions.
  • Pourtant, aujourd’hui, le bitcoin est rarement utilisé comme une monnaie.C’est vrai. Certes Bitcoin s’inscrit dans la continuité de l’histoire monétaire, repose sur un nouveau consensus, une nouvelle construction collective ; comme c’est le cas pour le dollar depuis des dizaines d’années. Cependant, nous pensons qu’à date Bitcoin remplit imparfaitement les fonctions monétaires, de médium d’échange, de réserve de valeur et dans une moindre mesure d’unité de compte. Imparfaitement puisque la volatilité reste trop importante et l’acceptation trop limitée pour prétendre au même statut que le dollar ou l’euro.
  • Avec le Bitcoin, c’est la première fois dans l’Histoire que l’évolution des médias d’échange se traduit par une décentralisation absolue, ou presque. Rappelons pour les novices que le protocole Bitcoin — et d’autres — permettent de transférer des valeurs en pair-à-pair, c’est-à-dire sans l’intervention de tiers centralisé, donc complètement à côté du système monétaire, financier et bancaire actuel. Bitcoin s’est donc construit selon une gouvernance diamétralement opposée au système monétaire actuel, sans lien aux Etats ou aux banques centrales ; mais aussi sans entreprise.
  • Le paradoxe en question réside dans le fait que se libérer d’un pouvoir ou d’une autorité donné ne signifie pas pour autant échapper à toute forme de contrôle. Ainsi, Bitcoin et d’autres protocoles parviennent à trouver des moyens d’échapper aussi bien au contrôle des États de manière générale, qu’à celui de la banque centrale pour ce qui concerne l’application monétaire de cette technologie. Mieux encore, elle abolit l’idée même d’autorité entre agents, ce qui constitue la condition sine qua non de l’accomplissement de la liberté dans l’optique crypto-anarchiste où fut élaborée cette technologie.
  • C’est précisément parce que tout est traçable et transparent au sein de la chaîne, que se crée une double situation dont on peut douter qu’elle soit propice à une liberté authentique. D’une part, par la sécurisation de l’information, chacun devient aliéné à son passé transactionnel, la blockchain enchaînant au sens propre l’utilisateur — fût-il anonyme — aux opérations qu’il accompli. D’autre part, au sein du système disparaissent les notions de secret et d’opacité, qui semblent constituer des fondements tout aussi décisifs d’une liberté concrète comme la volonté de ne pas être soumis à une surveillance continue.
  • Il ne faut pas confondre la dissimulation, qui est une négation — je ne suis pas identifiable — et la liberté, qui est une affirmation — je suis maître de ma volonté et de mes actes de telle sorte qu’ils me soient imputables. Or, à moins de disposer d’une définition extrêmement pauvre de la liberté — ne pas être identifié –, il semble impossible de déduire d’un anonymat la preuve d’une liberté effective ; par ailleurs, le propre de la blockchain consiste justement à rendre impossible (ou du moins difficile) l’attribution de transactions à l’identité réelle d’un individu donné. La condition même par laquelle l’individu échappe au contrôle devient la raison pour laquelle sa liberté perd son sens puisque que rien ne peut lui être imputé et que rien ne s’apparente de près ou de loin à une maîtrise responsable de sa volonté et de ses actes.
  • Enfin, la soustraction à l’endroit d’une certaine forme de contrôle (autorité, État, banques) ne garantit en rien d’éviter l’activation d’une autre forme de contrôle, plus contraignante encore puisqu’accomplie au nom de la sacro-sainte transparence mais supposant un contrôle autrement plus poussé et aliénant que le contrôle traditionnel de la puissance publique.
Aurialie Jublin

Les bornes Autolib', mobilier urbain à l'abandon | L'interconnexion n'est plu... - 0 views

  • Ni Peugeot, ni Renault. Or, aucun des représentants des sociétés potentiellement intéressées par les bornes de recharge Autolib’ n’a l’intention de les utiliser. « La recharge des véhicules, on en fait notre affaire », annonce le représentant de Free2Move, le service qui sera proposé « fin 2018 » par Peugeot. « La recharge et le nettoyage seront effectués dans la zone dans laquelle seront disponibles les véhicules », explique la responsable de Moov’in, un service présenté par Renault. Le constructeur proposera à partir de septembre, à une date encore non précisée, 120 voitures électriques, en test, dans deux secteurs, les 11e et 12e arrondissements de Paris et Clichy (Hauts-de-Seine). Mais aucune de ces voitures ne se servira des bornes Autolib’.
  • Les opérateurs expliquent, à l’unisson, que les bornes sont équipées d’un logiciel de pilotage qui appartient au groupe Bolloré, opérateur d’Autolib’ jusqu’à la fin du mois. Ils ne savent pas quand ce logiciel sera remplacé. Autrement dit, les bornes seront bientôt inutilisables, y compris pour les particuliers autorisés à garer, moyennant un abonnement annuel, leur véhicule électrique sur les places Autolib’. Ce logiciel, en pratique « la carte automate contrôlant physiquement les bornes de charge depuis la borne principale », explique un lecteur, pourrait certes être prochainement remplacé, mais la Ville de Paris annonce que le délai sera d’environ « six mois ».
  • Enfin, ces bornes ne permettent qu’une recharge lente ; il fallait 12 heures pour charger complètement une Autolib’. Or, depuis 2011, la technologie a évolué, de nouvelles bornes sont apparues, permettant d’effectuer 80% de la recharge en une heure environ.
  • ...1 more annotation...
  • Voilà qui rappelle le triste sort des bornes de « stationnement intelligent » qui devaient supprimer les voitures ventouse à Nice (lire ici), un système abandonné après trois ans d’existence. Ou les stations du vélo en libre-service de Perpignan ou Chalon-sur-Saône, tous deux désormais supprimés. On songe aussi aux portiques de la « taxe poids-lourds », dite « écotaxe », démontés après le renoncement du gouvernement Ayrault à cette mesure pourtant votée à l’unanimité par l’Assemblée nationale. Voire au projet d’aérotrain survolant la Beauce sur une rampe en béton. Ceux-là n’avaient même pas servi.
  •  
    "Ces plots métalliques gris et blancs d'environ un mètre de haut, disposés dans tous les quartiers de Paris et dans une centaine de villes de banlieue parisienne, faisaient partie du paysage urbain depuis 2011. Et ne serviront bientôt plus à rien. La fin du système Autolib' condamne les 3200 bornes de recharge électrique, ainsi que les totems où s'effectuait la réservation, au probable démontage. Par ailleurs, une partie des voitures Bluecar, chères à Vincent Bolloré, sont déjà parties à la casse, selon le magazine Chalenges."
Aurialie Jublin

Revue Sur-Mesure | Aujourd'hui, la vie est comme cela "Le logement comme service" - 0 views

  • Et si demain, de la même manière, le logement n’était plus commercialisé comme un objet physique, une surface bâtie de X m² à tel endroit et dont vous êtes propriétaire ou locataire, mais comme un service, c’est-à-dire comme un abonnement auprès d’un fournisseur de « logement as a service » vous offrant la possibilité, à chaque étape de votre vie, de disposer d’un logement de la taille et de la localisation qui correspondent à votre besoin du moment1 ?
  • Ce constat d’une plus grande élasticité de la taille du ménage se combine avec une plus grande élasticité des revenus et des statuts professionnels. Comme le rappelait André Yché, Président du directoire de Caisse des Dépôts Habitat (ex-SNI), « l’économie du logement en France reste encore fondée sur un modèle d’emploi caractéristique de la seconde moitié du XXe siècle : 20 % d’emplois publics, 60 % d’emplois salariés privés, 15 % de professions indépendantes, le taux de chômage étant contenu autour de 5 %. S’agissant de location comme d’accession, le modèle est linéaire : le revenu du locataire, comme celui qui accède à la propriété, est supposé croître modérément et progressivement, sans fluctuation significative ». […] Ce modèle perd du terrain. Une part croissante de la population active est en train de sortir du salariat : auto-entrepreneurs, travailleurs intermittents, polyactifs… sont autant de statuts qui se développent rapidement. La linéarité des revenus est de moins en moins assurée »5.
  • Ainsi, une offre de « logement comme un service » viserait d’abord à permettre l’évolutivité du logement, en permettant à chacun d’avoir à tout instant le logement adapté à ses besoins, notamment à la composition de son ménage et au niveau de ses revenus. Aujourd’hui, le logement évolutif a le vent en poupe : cloisons modulaires, loggia transformable ou grandes hauteurs sous plafond permettent d’adapter le logement à de nouveaux besoins. Mais cette recherche de modularité, qui joue sur le logement comme objet physique, atteint ses limites, précisément du fait de sa dimension physique.
  • ...3 more annotations...
  • De même, le métier de « producteur de logement comme un service » consisterait alors moins à produire des mètres carrés qu’à offrir à l’individu une agrégation, dans la durée, entre des fonctions qui jusqu’à présent étaient prises en charge directement par lui : recherche logement, revente ancien logement, négociation avec les banques, agent immobilier, notaire, etc.
  • Autrement dit, l’opérateur de cette forme d’immobilier serviciel ne porte plus sur des biens localisés (un appartement, un immeuble ou un plateau de bureaux), mais sur des usages. La proposition de valeur consiste à pouvoir proposer à chaque usager un espace immobilier qui correspond à ses besoins du moment… et donc à adapter l’offre proposée à chaque fois que ses besoins évoluent. Il devrait se développer en lien avec les trajectoires de vie personnelles et professionnelles de moins en moins linéaires.
  • Ce concept peut comprendre également une deuxième dimension (voir l’axe vertical sur l’illustration 3 et au dessin de l’illustration 6), qui correspond davantage à un élargissement de l’offre « logement » par la composition d’un « bouquet de services » qui met l’accent sur les services associés au logement.
  •  
    "Et si on habitait comme certains se déplacent ? Non plus avec son véhicule personnel (son logement) mais avec un mode de transport différent à chaque étape du parcours. Suite à une étude sur les opérateurs de services urbains de la ville de demain, nos auteurs proposent une vision étonnante de l'habiter. Une offre séduisante ? Un profond bouleversement de la production immobilière !"
Aurialie Jublin

Le mythe de la technologie salvatrice | Esprit Presse - 0 views

  • Le débat entre les pessimistes, qui craignent pour l’environnement, et les optimistes, tenants du business as usual, ne porte donc pas sur la nécessité d’agir – personne n’est vraiment pour la disparition des éléphants ou la contamination des nappes phréatiques aux pesticides –, mais sur la gravité du problème, l’intensité et la vitesse avec laquelle il faudrait réagir, la possibilité de changer modes de production et habitudes de consommation, la manière (régulation, taxes, incitations, soutien public…) et les moyens (financiers, techniques) de mener la transition.
  • De fait, les solutions techniques sont présumées disponibles et abordables, sinon à portée de main, que ce soit pour les énergies « décarbonées », les solutions de mobilité du futur ou la capacité des rendements agricoles à toujours s’accroître – ou à se maintenir. Les plus audacieux, comme Jeremy Rifkin, vont jusqu’à promettre de telles « ruptures » technologiques – un vocable à la mode – que tout ou presque en deviendrait gratuit ou à « coût marginal zéro », à commencer par l’énergie issue de sources renouvelables2.
  • La pénurie a bien été un aiguillon essentiel, à l’origine d’une grande partie des innovations de la révolution industrielle, car la croissance permanente de la consommation allait bientôt dépasser les capacités de ponction sur les ressources renouvelables, locales ou importées. Jusque tard dans le xixe siècle, il y eut une limite purement « surfacique » à la production de produits essentiellement animaux et végétaux 
  • ...11 more annotations...
  • Globalement (hors l’épineux problème de répartition), le système technique, enchâssé dans un système social, moral et culturel qu’il modifiait à mesure, a plutôt bien répondu aux « besoins ». Mais cela a eu un prix : celui d’une fuite en avant, d’une accélération permanente entre des risques de pénuries et de nouvelles solutions pour y répondre, créant elles-mêmes de nouveaux besoins et de nouveaux risques ; celui de pollutions, de destructions sociales et environnementales sans précédent. Nos « ingénieurs thaumaturges » font rarement des omelettes sans casser des œufs.
  • À quoi ressembleraient nos campagnes, s’il avait fallu y monter les nouvelles usines – et assumer leurs rejets – pour notre consommation exponentielle de téléphonie, d’informatique, de jouets, de vêtements ? Pour y répondre, il faut regarder les zones industrielles chinoises. Mais grâce à la distance, nous nous berçons d’illusions sur la « dématérialisation » de l’économie et la croissance « verte » à base de nouvelles technologies.
  • Le numérique n’a rien de virtuel. Il mobilise toute une infrastructure, des serveurs, des bornes wifi, des antennes-relais, des routeurs, des câbles terrestres et sous-marins, des satellites, des centres de données… Il faut d’abord extraire les métaux (argent, lithium, cobalt, étain, indium, tantale, or, palladium…), engendrant destruction de sites naturels, consommation d’eau, d’énergie et de produits chimiques nocifs, rejets de soufre ou de métaux lourds et déchets miniers. Ensuite fabriquer les composants, comme les puces au silicium qui nécessitent quantité d’eau purifiée, mais aussi du coke de pétrole, du charbon, de l’ammoniaque, du chlore, des acides, etc., fournis par le cœur du capitalisme « carbonifère9 ». Puis faire fonctionner le tout, avec plus de 10 % de l’électricité mondiale ! Enfin, se débarrasser des déchets électroniques, parmi les plus complexes à traiter : une partie – majoritaire – est incinérée ou jetée en décharge ; une autre rejoint les circuits « informels » (Afrique de l’Ouest, Chine…), où ils sont brûlés à l’air libre et empoisonnent les sols et les eaux. Le reste rejoint quelques usines spécialisées, qui ne récupèrent que partiellement les ressources. In fine, le taux de recyclage de nombreux métaux rares est inférieur à 1 %, un terrible gâchis.
  • Pourtant, plus que jamais, nous vivons dans la religion exclusive du « techno-solutionnisme », en plaçant tous nos espoirs dans les innovations et les effets bénéfiques (futurs) du numérique, en fantasmant un monde où tout sera bien mieux optimisé, où les outils et les services numériques seront facteurs d’efficacité et de sobriété : énergies renouvelables distribuées par des smart grids, covoiturage bientôt servi par des véhicules autonomes, déplacements fluidifiés dans les smart cities, économie de la fonctionnalité réduisant les équipements individuels, etc., sans parler des biotechnologies et des applications médicales.
  • Mieux, les technologies de demain ne seront pas seulement propres, elles seront réparatrices : les bactéries modifiées génétiquement dépollueront les sols, les big data et les capteurs protégeront les forêts tropicales, la science ressuscitera même le mammouth laineux, dont l’Adn dégèle en même temps que le permafrost.
  • Peut-on compter sur une « sortie par le haut » à base d’innovation technologique ? Il serait périlleux de tout miser dessus. En premier lieu parce que la plupart des technologies prétendument « salvatrices » nécessitent, à plus ou moins grande échelle, des ressources métalliques, non renouvelables, et viennent accélérer, plutôt que remettre en cause, le paradigme « extractiviste » de notre société thermo-industrielle
  • En second lieu parce que les gains d’efficience sont balayés par un formidable effet « rebond ». Indéniablement, la consommation d’énergie des véhicules, des avions, des centres de données, des procédés industriels baisse régulièrement, les innovations sont nombreuses et les progrès réels. Mais la croissance du parc automobile, des kilomètres parcourus, des données échangées et stockées est largement supérieure aux gains unitaires. Entre 2000 et 2010, le trafic internet a été multiplié par cent. Que vaut alors une amélioration de quelques dizaines de points d’efficacité énergétique par octet ?
  • Il n’y a pas de solution technique permettant de maintenir – et encore moins de faire croître – la consommation globale d’énergie et de ressources. En continuant à alimenter la « chaudière du progrès11 », nous nous heurterons tôt ou tard aux limites planétaires, régulation climatique en tête. C’est donc – aussi – vers l’économie de matières qu’il faut orienter l’innovation. Avant tout par la sobriété, en réduisant les besoins à la source, en travaillant sur la baisse de la demande et pas seulement sur le remplacement de l’offre.
  • Mais on peut imaginer toute une gamme d’actions, comme bannir le jetable, les supports publicitaires, l’eau en bouteille, revenir à des emballages consignés, composter les déchets même en ville dense, brider progressivement la puissance des véhicules et les alléger, avant de passer au vélo, adapter les températures dans les bâtiments et enfiler des pull-overs, car il est bien plus efficace, plus simple, plus rapide, d’isoler les corps que les bâtiments !
  • Pour recycler au mieux les ressources et augmenter la durée de vie de nos objets, il faudra les repenser en profondeur, les concevoir simples et robustes (Ivan Illich aurait dit « conviviaux »), réparables et réutilisables, standardisés, modulaires, à base de matériaux simples, faciles à démanteler, n’utiliser qu’avec parcimonie les ressources rares et irremplaçables comme le cuivre, le nickel, l’étain ou l’argent, limiter le contenu électronique. Quitte à revoir le « cahier des charges », accepter le vieillissement ou la réutilisation de l’existant, une esthétique moindre pour les objets fonctionnels, parfois une moindre performance, de l’intermittence, une perte de rendement ou un côté moins « pratique ».
  • Pourquoi ne pas tenter plutôt la voie d’une transition post-croissance vers un nouveau « contrat social et environnemental » ?
  •  
    "Les coûts écologiques de la technique (déchets, pollution) sont rendus invisibles par la délocalisation de la production industrielle. Ils devraient nous inciter à promouvoir une technologie sobre et résiliente."
Aurialie Jublin

Bimby : le concept qui bouscule l'aménagement urbain - Elueslocales.fr - 0 views

  • le projet Bimby, conçu par deux architectes urbanistes, Benoît Le Foll et David Miet. Bimby, c’est l’acronyme de « Build in My Back Yard », littéralement, « construire dans mon jardin ». L’idée est de définir une nouvelle filière de production de la ville, en s’appuyant sur les quartiers pavillonnaires déjà existants, et en proposant donc une solution alternative à l’étalement urbain.
  • Plus concrètement, Bimby vise à offrir la possibilité aux propriétaires de vendre une partie de leur terrain pour la construction d’un nouveau logement. L’idée est donc de densifier les zones déjà habitées. Pour les concepteurs, les zones pavillonnaires recèleraient en effet un gisement foncier exceptionnel : il y a actuellement 14 millions de maisons individuelles et une partie des propriétaires pourrait être encline à céder une partie de leur terrain. Même si ça ne concernerait qu’1 % d’entre eux, cela représenterait déjà 140.000 terrains à bâtir.
  • un intérêt économique : à la fois pour la commune qui voit ainsi la possibilité de « fabriquer un urbanisme sur mesure et à moindre coût » et pour les habitants propriétaires de maisons individuelles, qui peuvent « mobiliser une partie de leur patrimoine foncier pour financer la réalisation de leurs projets, notamment en détachant une partie de leur terrain pour la valoriser en tant que nouvelle parcelle constructible. »
  • ...4 more annotations...
  • un intérêt écologique : l’étalement urbain a des conséquences environnementales. Par exemple, la fragmentation des espaces naturels et agricoles est néfaste à la biodiversité. Bimby, au contraire, présente l’avantage de s’appuyer sur des zones urbaines déjà existantes, « tout en maintenant des densités faibles et sans engendrer de pression foncière, ceci dans des quantités qui permettraient de répondre chaque année à une part significative des besoins en logements »
  • un intérêt social : « en redonnant à l’habitant un rôle fort de maître d’ouvrage de la production de l’habitat, on donne à la collectivité de puissants leviers pour porter une politique urbaine ambitieuse, fondée sur la mise en synergie des projets des habitants et des projets de la collectivité, et ceci en faisant appel aux entreprises locales de construction, qui sont les plus économiques et les plus créatrices d’emplois. » Bimby propose également une ouverture concernant les logements sociaux. Si cette démarche n’est pas une solution miracle, elle peut permettre la production le logements plus abordables et offrir la possibilité à la collectivité de reprendre la main sur le prix du foncier.
  • Pour concrétiser la démarche BIMBY, celle-ci doit être pleinement intégrée dans le PLU comme un élément à part entière du développement de la commune. A cet effet, elle doit constituer l’un des volets du programme d’aménagement et de développement durable (PADD), être développée comme une orientation d’aménagement et de programmation (OAP), transcrite dans le règlement d’une zone ou d’un secteur (selon l‘importance de la superficie qu’elle concerne, les enjeux qu’elle représente, et ses spécificités réglementaires) et justifiée dans le rapport de présentation.
  • Les communes qui souhaitent s’inscrire dans cette démarche organisent des réunions pour présenter le projets aux habitants. Nouer le dialogue entre les élus porteurs du projet et les propriétaires intéressés est essentiel mais, prévient David Miet dans le guide, il ne faut « pas créer d’espoirs que l’on risque de décevoir. Une fois que l’on a noué un dialogue avec sa population, en organisant des ateliers pour imaginer le futur des quartiers pavillonnaires existants, il convient d’aller jusqu’au bout de la démarche, et notamment jusqu’à la modification des documents d’urbanisme pour que ces derniers soient de bon catalyseurs des projets individuels. »
  •  
    "L'urbanisme, et particulièrement la question de la construction de nouveaux logements, représente l'un des points majeurs de la politique communale. Face à l'étalement urbain qui a longtemps été la norme en France, mais qui nous montre aujourd'hui ses limites, la démarche Bimby se pose comme une véritable alternative."
Aurialie Jublin

affordance.info: Undocumented Men - 0 views

  • De fait nous semblons aujourd'hui n'avoir que deux choix fondés sur deux doctrines s'excluant mutuellement : Doctrine n°1 : La vie privée est une anomalie et si vous n'avez rien à vous reprocher vous n'avez rien à cacher. Soit le scénario d'une surveillance totale et globale de chacun de nos comportements par les grandes firmes tech en lien avec les états. Un projet au mieux de nature totalitaire et au pire de nature fasciste. Doctrine n°2 : La vie privée est un droit constitutionnel dont les états et les grandes firmes technologiques doivent être garants. Et là vous aurez toujours quelqu'un pour commencer à parler des exceptions, toujours un "oui mais" : "oui mais s'il s'agit de pédophilie ? De terrorisme ? D'empêcher un pilote d'avion mentalement déséquilibré de causer la mort de centaines de personnes ? A quel moment commence le "principe d'une surveillance de précaution" et quel aspect du droit fondamental à la vie privée doit-il fouler au pied ?" Et on ne s'en sort pas. 
  • Seul un troisième scénario pourra nous permettre d'éviter le pire. Il nécessite de passer par : la multiplication d'outils effectivement respectueux de notre vie privée dans le traitement technique des données qui y circulent (c'est la cas de DuckDuck Go, de Qwant, et de quelques autres) le déploiement de solutions alternatives à la toute puissance des GAFAM (comme l'initiative Dégooglisons internet le permet déjà, et comme le permettrait encore davantage la création d'un index indépendant du web combiné à la mutualisation déjà effective de ressources en Creative Commons) le soutien politique (et législatif) au déploiement du logiciel libre la formation à l'explicitation des enjeux de la surveillance ("Surveillance://" de Tristan Nitot en est un exemple magnifique) la prise de conscience que les données dont nous parlons sont avant tout celles de notre servitude volontaire
  • Demain peut-être, lorsque la dystopie se sera définitivement installée, ne nous faudra-t-il plus parler de "sans papiers" mais de "sans comptes". Des individus sans trace sociale numérique qui permette de les documenter. Ils ne seront plus "undocumented" mais "undigitized", non-numérisés. Et donc non-surveillables. Peut-être que ce sera une chance. Probablement même. De nouvelles formes de résistance documentaire émergeront, de nouvelles pédagogies contre la surveillance seront nécessaires. Et nous serons sans  peur, mais jamais sans reproche(s), car nous aurons compris que la doctrine selon laquelle "si nous n'avons rien à nous reprocher nous n'avons rien à cacher" est la source de tous les totalitarismes, que la vie privée est tout sauf une anomalie. Alors oui nous serons sans peur, dussions-nous pour cela rejoindre la cohorte de toutes celles et ceux qui sont, aujourd'hui, sans documents. Car cette humanité "undocumented" est bien plus qu'une humanité "sans papiers", elle est une humanité "non-documentée", en ce sens elle est aussi libre qu'elle permet de pointer et de mesurer notre propre asservissement aux nouveaux ordres documentaires. 
  •  
    "Deuxio, sa haine viscérale est adressée à des communautés et à des minorités (rien de nouveau sous le fascisme ordinaire ...) mais elle se caractérise en cela qu'elle stigmatise principalement ces communautés du fait de leur absence de papiers (les fameux "Undocumented Men") et qu'elle utilise, pour conduire et guider cette haine, les outils et les métriques ne pouvant s'appliquer qu'à une population "sur-documentable". C'est ainsi que Cambridge Analytica a joué un rôle majeur dans la construction de sa victoire ; c'est ainsi également que la toute puissance du discours totalitaire est d'autant plus efficiente qu'elle s'applique à des communautés ciblées parce que sur-documentées (et sur-documentables) ; c'est ainsi, enfin, qu'il faut voir la volonté affichée de récupérer à toute force les mots de passe de ces "undocumented men" car cela permet au discours totalitaire et au projet fasciste qui le sous-tend de faire entrer le monde dans les deux seules catégories binaires qu'il comprend et qui composent son horizon et son projet : d'un côté ceux qu'il est possible de contrôler et de manipuler (les "sur-documentés") et de l'autre ceux contre qui il faut diriger la haine des premiers (les "sous-documentés", les "undocumented")."
Aurialie Jublin

affordance.info: La libellule et la muraille (Google en Chine) - 0 views

  • Nous sommes à un moment de l'histoire des technologies de l'information et du numérique qui est assez comparable à l'état du monde en 1949 c'est à dire au moment où l'autre superpuissance de l'époque (l'union soviétique) se dota également de la bombe nucléaire (voir notamment ici ou là). Ce que je veux dire par là c'est que désormais, la totalité des plateformes existantes "à l'Ouest" dispose d'équivalents "à l'Est". Et le rapport au nucléaire n'est pas seulement analogique ou symbolique comme je l'écrivais par ici :  "Le numérique est une technologie littéralement nucléaire. Une technologie de noyau. Au "cœur" fissible d’un éventail de possibles aussi prometteurs qu’angoissants et pour certains, incontrôlables."   L'analogie est également (géo)politique. Toutes les grandes plateformes vont devoir faire le choix politique de savoir dans quelle mesure elles acceptent de se censurer et donc de collaborer avec des régimes autoritaires pour conquérir un marché. Et à l'échelle des enjeux que représentent à la fois les audiences qu'elles touchent déjà et celles qu'elles visent à conquérir, chacun de ces choix est un peu plus qu'un simple choix économique ou même moral.   
  • La vraie nouveauté c'est que ce projet à suscité la colère d'une partie des salariés de Google, qui à l'image de la victoire - je pense temporaire - qu'ils avaient remporté pour obliger leur employeur à se retirer du projet militaire Maven, espèrent cette fois faire suffisamment de bruit pour que ce projet de moteur censuré n'aille pas à son terme.  La crise éthique de certains anciens cadres des GAFA qui agissent comme autant de "repentis" pour les technologies qu'ils ont contribué à créer n'est plus simplement externe mais elle s'étend désormais à l'interne et touche aussi bien Google que Facebook, Microsoft, Amazon (à propos d'un programme de reconnaissance faciale) ou Twitter (à propos du refus de Jack Dorsey de fermer le compte d'un leader de l'Alt-right complotiste). 
  • S'agissant du contrôle linguistique il opère pour l'instant uniquement au travers des dispositifs et des plateformes agréées par le gouvernement chinois ou opérant sous son autorité directe. C'est le cas par exemple du moteur de recherche Baïdu. Comme d'autres, la Chine n'échappe pas à la multiplication des terminaux de connexion. Là où il y a quelques années il suffisait de surveiller l'ordinateur familial pour capter l'ensemble des pratiques connectées de 5 ou 6 personnes, il faut aujourd'hui étendre et démultiplier les moyens de surveillance sur chaque Smartphone ou tablette. Après la surveillance "de masse" c'est la surveillance "de chacun" qui prime. D'où d'ailleurs, le renforcement du contrôle "social" et du micro-ciblage comportemental qui devient le plus petit dénominateur commun efficient dans le cadre d'une volonté politique de contrôle de la population comme dans le cadre d'une volonté marketing d'expansion commerciale. Les deux aspects finissant d'ailleurs par se rejoindre, ce qui n'est pas le moindre des problèmes que nous avons aujourd'hui à résoudre, car pour citer encore Zeynep Tufekci :  "Nous créons une dystopie simplement pour pousser les gens à cliquer sur des publicités". Il me semble que nous sommes aujourd'hui à la phase d'après. Celle où les gens ont cliqué sur suffisamment de publicités et ont, ce faisant, accepté suffisamment de technologies de traçage actif ou passif pour que les conditions d'existence d'une forme de pouvoir autoritaire soient réunies et surtout pour qu'elle soient en passe d'être acceptées comme naturelles ou, pire, comme légitimes. 
  • ...8 more annotations...
  • La question essentielle se déplace donc : il ne s'agit plus de savoir si nous acceptons ou si nous refusons ce traçage publicitaire (débat permis et en partie résolu par le RGPD) ; il s'agit de savoir si nous acceptons ou si nous refusons cette forme de néo-fascisme documentaire propre au totalitarisme littéral des plateformes et le cadre économico-politique qui est sa condition d'existence première. Les "repentis" de la Silicon Valley l'ont dénoncé de l'extérieur. Désormais les employés de ces firmes tentent de s'y opposer de l'intérieur. Il reste aux citoyens, c'est à dire à nous-mêmes, à terminer le boulot. Et ce ne sera pas facile. Car il nous faut retrouver l'envie de le faire. Or ...
  • Le même article - à lire dans la continuité des leçons que nous propose Zeynep Tufekci - rappelle qu'à rebours du postulat d'une inéluctable émancipation dont serait porteur le numérique et ses plateformes pour des populations sous le joug de régimes autoritaires, c'est l'inverse qui est en train de se produire : c'est le modèle chinois d'un internet censuré qui est en train de s'exporter dès aujourd'hui au Vietnam, en Tanzanie ou en Ethiopie, mais également sous un autre aspect en Australie où le réveil est déjà douloureux, et probablement demain dans l'ensemble de ces pays "émergents" et politiquement instables ou non-démocratiques, les mêmes que visent également les occidentaux GAFA pour aller y puiser leur prochain milliard d'utilisateurs. Et cette guerre là n'est pas que commerciale. Elle est avant tout culturelle. Et d'un cynisme est sans égal. Car lorsque toutes les ressources naturelles auront été épuisées, lorsque le dernier gisement du dernier minerai aura été extrait et raffiné, il restera encore à tous ces états la possibilité de vendre le visage de leurs citoyens. Ils n'ont d'ailleurs pas attendu.
  • Les intérêts des GAFA et des gouvernements disons, "autoritaires", sont donc aujourd'hui peu ou prou les mêmes. Ils cherchent à exporter un modèle d'affaire qui est le prétexte à une forme renouvelée de Soft Power qui fait du risque de dystopie et de la mise en oeuvre de son architecture de surveillance un simple dégât collatéral voire un biais nécessaire. Et leurs stratégies sont également semblables par bien des aspects : là encore elles visent une anecdotisation, une discrétisation des régimes de surveillance qui leur permettent de perpétuer et de légitimer leur modèle d'affaire. Quand aux questions d'éthique et aux scrupules, là encore ... on apprenait récemment que pour que Google cesse réellement de nous géolocaliser via notre smartphone, il ne suffisait pas simplement de lui dire de cesser de nous géolocaliser.
  • l'hystérisation récente autour du "fichage" supposé de milliers de Twittos en est un symptôme qui me semble aussi explicite que malheureux, et rappelle à quel point la question des "sans papiers" ou des furtifs échappant à l'hyper-surveillance des plateformes et des états est aujourd'hui plus que jamais politiquement centrale.
  • Souvenons-nous que le démantèlement ou la nationalisation desdites plateformes ont d'abord prêté à sourire avant de finalement être envisagées même si cela ne fut que d'un point de vue purement théorique.  Comme le rappelle encore Zeynep Tufekci :  "Pour comprendre pleinement ce qui se passe, nous avons aussi besoin d'étudier comment les dynamiques des sociétés humaines, la connectivité ubiquitaire, et le modèle d'affaire des géants du numérique se combinent pour créer des environnements dans lesquels la désinformation prospère et où même une information authentique et vérifiée peut nous paralyser et nous rendre confus plutôt que de nous informer et de nous éclairer."
  • Croire que les états n'ont pas à se mêler de la stratégie d'entreprises comme Google, Facebook ou Amazon au motif que nous ne serions, justement, pas en Chine ou dans un pays communiste est aujourd'hui le triple aveu d'un dépassement, d'une impuissance et d'une incapacité à penser ce qui se joue réellement à l'échelle politique.  Et en même temps ... imaginer que des états, que nos états actuels, gouvernés par des bouffons narcissiques de la finance ou par des clowns égocentriques ivres de leur nationalisme, imaginer que ces états puissent aujourd'hui se mêler du projet politique de ces mêmes firmes n'apparaît pas davantage comme une solution souhaitable. 
  • Le drame est que nous n'avons plus confiance ni dans les murailles ni dans les libellules. Et que cette érosion totale de la confiance à l'égard du politique et de la technique (numérique) s'ajoute à l'incapacité du premier à penser la seconde alors même que les infrastructures techniques du numérique n'ont de sens que si elles servent un projet politique. 
  • S'agissant du contrôle de la sphère sociale, on se réfèrera à la littérature pléthorique sur le "Social Credit Score" qui permet d'accorder à certains des droits refusés à d'autres en fonction de comportements sociaux mesurés et scrutés en permanence par le gouvernement (voir notamment sur Wired ou dans Wikipedia). 
  •  
    "Au coeur de l'été. Une libellule. Et une muraille. "Libellule" (en anglais "Dragonfly") c'est le nom de code du projet de Google pour retourner implanter une version censurée de son moteur de recherche en Chine d'après les révélations de The Intercept. En Chine, d'où la "muraille" du titre de ce billet. "
Aurialie Jublin

affordance.info: Les algorithmes du Dr Frankenstein (ou pourquoi faut pas pou... - 0 views

  • néo-fascisme documentaire distinguant une humanité sur-documentée d'une humanité sous-documentée, néo-fascisme nourri d'un fétichisme du fichier (et du fichage). Et je milite et alerte comme je peux sur l'impérieuse nécessité et urgence de nourrir une réflexion politique radicale visant à une forme de "nationalisation" des grandes plateformes et du code informatique, et à réinstaurer des formes légitimes de "communs" (dont un index indépendant du web entre autres). 
  • Le problème n'est plus tant de se demander comment construire des technologies avec des sciences comportementales que de voir s'il est encore possible, pour en limiter l'impact politique et démocratique, de déconstruire la logique qui a mené quelques grandes plateformes à construire et à normer des comportements avec des technologies opérant dans le cadre d'architectures techniques toxiques.  
  • En gros le pitch de l'article du Guardian est, à partir notamment des travaux de Cathy O'Neil (les algorithmes comme "armes de destruction matheuse") et Neil Johnson, et en remobilisant des exemples issus du Trading Haute-fréquence ou du récent fait-divers sur le premier décès "accidentel" causé par une voiture autonome (dont je vous avais moi-même longuement parlé), de revenir en détail sur ces nouvelles "approches algorithmiques" ou "l'algorithme" ne désigne plus simplement la trivialité d'une série d'instructions logico-mathématiques mais un environnement complexe d'automatismes décisionnels sur la base de gigantesques jeux de données (Datasets) que plus personne n'est en mesure de comprendre ou d'englober dans leur totalité, à commencer par ceux-là mêmes qui développent lesdits algorithmes et jeux de données**.
  • ...6 more annotations...
  • Et l'article du Guardian évoque donc ces "Franken-algorithms" : ces algorithmes semblables à la créature du Dr Frankenstein, des Franken-algorithmes qui deviennent totalement imprévisibles (et donc potentiellement très dangereux) non seulement au travers de leur mode opératoire "auto-apprenant" (on parle aussi d'algorithmes "génétiques" et "d'apprentissage renforcé" - Reinforced Learning) mais aussi et surtout au travers de ce que leur marge d'incertitude et d'imprévisibilité intrinsèque peut donner lorsqu'elle entre en interaction avec d'autres algorithmes, avec des comportements sociaux individuels ou collectifs, ou avec le monde - et les objets - physique(s).
  • Voilà ce qui, sur mon petit schéma donne naissance au "SPA", une sorte de "Service Public de l'Algorithmie" que mon côté Marxiste idéalise peut-être mais que je crois nécessaire et urgent de bâtir si nous voulons éviter de prendre le risque d'un Hiroshima technologique désormais plus que probable à l'échelle de nos formes démocratiques de gouvernance qui ont déjà en partie basculé dans les formes assumées et délétères de surveillance.
  • Au-delà de la seule transmission de connaissances ou d'informations, l'enjeu de l'apprentissage est de permettre à "celui qui apprend" de pouvoir un jour s'affranchir de la dépendance à "celui qui lui enseigne" certaines règles et certains codes sociaux. Et d'être en capacité de pouvoir à son tour "faire", "transmettre", "produire", "jouer" mais aussi "tricher" ou "faire semblant". Le souci, me semble-t-il, est que nous sommes aujourd'hui majoritairement et collectivement incapables de formuler clairement la raison pour laquelle nous voulons que ces algorithmes apprennent et nous échappent autrement.
  • Voilà pourquoi sans aller vers un radicalisme luddite dont Eric Sadin et quelques autres sont les opportunistes ténors, il nous faut construire une alternative politique qui, après le temps numérique de la "désintermédiation", soit celui de formes de remédiations respectueuses du corps social et partant de sa partie la plus fragile, la plus pauvre, et la plus exposée.
  • La vie de la cité aujourd'hui (c'est à dire "le" politique au sens étymologique), notre vie, est prise entre des techno-craties qui organisent l'espace économique et des techno-structures qui organisent l'espace social. Les plateformes comme Facebook, Google ou Amazon ont comme point commun d'être les premières techno-craties algorithmiques dans lesquelles les données ont fonction d'infrastructure et qui organisent l'espace social pour satisfaire à des impératifs d'organisation économique. 
  • Dans la montée partout en Europe (et ailleurs) des néo-fascismes qu'une pudibonderie tout à fait déplacée nous désigne sous l'euphémisme de "droites extrêmes", au moment où chacun est conscient de l'impact que jouent les architectures techniques toxiques dans la polarisation de l'opinion, alors même qu'il est établi, comme le rappelait récemment Cory Doctorow que  "le problème de Facebook n'est pas un problème de contrôle des esprits mais un problème de corruption : Cambridge Analytica n'a pas convaincu des gens ordinaires de devenir racistes mais ils ont convaincu des racistes d'aller voter", il ne faudrait pas qu'aux algorithmes du Dr Frankenstein s'ajoutent les ambitions politiques d'Anénoïd Hynkel.
Aurialie Jublin

Society in the loop : vers un intelligence artificielle plus démocratique ? -... - 0 views

  • Mais l’intelligence artificielle se diffuse également dans des sphères qui concernent plus directement la vie publique, et donc la société. Pour ne citer qu’eux : le classement de lycéens après leurs bacs[4], l’automatisation de procédures judiciaires[5] ou des horaires de ramassage scolaire[6], la dérégulation du flux automobile dans les villes dus à l’utilisation d’un service de GPS comme Waze[7], l’utilisation de la reconnaissance faciale dans des lieux publics[8] et privés[9], l’usage de « détecteurs de mensonges » aux frontières[10], la police prédictive[11], ou même plus simplement l’usage de systèmes reposant sur la captation de l’attention de l’utilisateur[12].  A leurs échelles, ces sujets touchent la vie sociale dans des dimensions qui pourraient légitimement demander à ce que des discussions plus démocratiques aient lieu. Ils entrent certes, plus ou moins directement dans la catégorie « intelligence artificielle » mais participent de la numérisation du monde à travers des algorithmes, et feront tous le pas vers l’IA si ce n’est déjà fait.
  • C’est là qu’intervient le passage qualitatif du « human in the loop » (HITL) au « society in the loop » (SITL). Pour le dire simplement, le SITL devient nécessaire lorsqu’un système utilisant l’intelligence artificielle a des implications importantes sur la sphère sociale. Iyad Rahwan explique : « alors que le HITL utilise le jugement d’un individu ou d’un groupe pour optimiser un système pensé trop étroitement, SITL embarque le jugement et les valeurs d’une société vue comme un tout, dans la définition la gouvernance algorithmique[13] de questions sociétales ». En résumé, le SITL est une forme de contrat social entre ceux qui doivent obéir aux règles et ceux qui écrivent les règles.
  • Coupons court au débat qui concerne les bulles de filtres : leur émergence et leurs effets dépendent du paramétrage des algorithmes de Facebook, de Google et des autres services susceptibles de créer ces bulles. Par conséquent, elles restent à leur main, notamment à travers leurs Conditions générales d’utilisation (CGU) et le secret d’affaires qui protègent ces systèmes (et les modèles d’affaires de captation du « temps de cerveau disponible » qui y sont directement liés). Pas de démocratie à cet endroit, quand bien même les impacts sur la démocratie pourraient être réels, même s’ils sont encore mal mesurés. C’est une des premières limites du modèle « Society in the loop ».
  • ...11 more annotations...
  • Dans le cas des véhicules autonomes en revanche, une vaste étude a été réalisée sur plusieurs années par le MIT Lab. Elle a concerné des millions de personne dans 233 pays (à travers le petit jeu http://moralmachine.mit.edu/) et a montré à quel point le traitement des questions éthique est variable, même lorsqu’on parle de conduite automobile ! Comme le relate Hubert Guillaud : « la question éthique diverge selon la culture, le niveau économique et la localisation géographique ; bien plus que selon des préférences individuelles (…) les Japonais ont plutôt tendance à préférer des véhicules qui épargnent les piétons alors que d’autres cultures, comme la culture chinoise, préfèrent des véhicules qui épargnent les passagers. » L’objectif d’une telle étude est d’apporter l’éclairage de la société toute entière afin que le système technique réponde au « bien commun ».
  • A l’initiative de Grégoire Japiot (@gregoire) et Matteo Mazzeri (@matemaz), le projet GEnIAL (voir le site internet) est « Une plateforme qui utilise les interfaces conversationnelles et l’intelligence artificielle afin de permettre à la population d’un territoire de mieux vivre dans sa ville à l’ère de la Smart City en offrant des moyens simples pour accéder aux services des administrations et des autres acteurs de la région. » Le projet, qui se revendique de « Society in the loop », est d’utilité publique et censé resté « la propriété des citoyens », contrairement aux services d’assistants proposés par les géants d’internet. Les données collectées ne sont pas commercialisées et la vie privée reste préservée. Grégoire, le fondateur, précise que les concertations citoyennes sont au cœur du projet. L’idée : intégrer dans le service les retours de la société (citoyens, administrations/institutions publiques, chercheurs et acteurs économiques) en vue d’élaborer des modèles d’apprentissage utilisés pour construire une « intelligence artificielle concertée ».
  • Concrètement, GEnIAL Bot, est une « solution qui vise à permettre aux utilisateurs d’interagir avec l’ensemble des informations d’un territoire via des interfaces conversationnelles de type chatbot et assistant vocal. » Au lieu de devoir utiliser des moteurs de recherche pour identifier les différents sites où se trouvent les informations recherchées ou bien de devoir téléphoner aux services concernés, les utilisateurs peuvent interroger GEnIAL Bot en s’adressant en langage naturel et se laisser guider sous forme de conversations vers l’information. Pour la partie technologique, GEnIAL « dispose d’une convention de partenariat avec le CERN qui lui permet de concevoir avec les équipes les plus pointues, une intelligence artificielle éthique et explicable, dont les modèles d’apprentissage sont pensés de manière à refléter l’identité du territoire et intégrer un processus de concertation continue avec ses habitants. »
  • A une échelle très locale, le projet GEnIAL pourrait entrer dans ce qu’il convient d’appeler la « démocratie technique ». La formule que j’emprunte ici à Callon, Barthes et Lascoumes dans l’ouvrage fondateur Agir dans un monde incertain, Essai sur la démocratie technique (Seuil, 2011) désigne notamment les dispositifs par lesquels des profanes peuvent peser sur les modes de conception et de diffusion des sciences et des techniques. A l’évocation de la démocratie technique, on pense souvent aux grandes polémiques et controverses qui ont agité des sujets technoscientifiques comme les OGM, l’enfouissement des déchets nucléaires, ou encore les traitements contre le SIDA. Ce dernier cas a montré que l’intrusion des malades parmi les experts a pu conduire à améliorer les protocoles des laboratoires pharmaceutiques, alors très éloignés de leurs vies.
  • Si ces exemples peuvent paraître éloignés des questions relatives à l’intelligence artificielle, ils permettent d’entrouvrir une autre dimension de la démocratie technique. Par-delà la pure contestation ou modification a posteriori d’une technique existante, Callon, Barthes et Lascoumes décrivent un modèle de « co-production des savoirs ». Ce modèle postule que les non-spécialistes peuvent produire des connaissances à partir de leurs intérêts propres. Ils sont les plus à même d’entrevoir les risques d’un projet et de les faire reconnaître comme légitimes lors d’une étape de conception commune. Ce faisant, ils participent pleinement à la production des sciences et des techniques. Ce modèle suscite des critiques : on pointe le fait que des profanes ne seraient pas capables de s’exprimer sur un sujet technique, et que par conséquent, l’avis des experts serait toujours supérieur, de meilleure qualité, et devrait être pris en compte en priorité.
  • De nombreux contre-exemples viennent infirmer ces thèses. L’expérience prouve que si les conditions sont réunies, des personnes éloignées d’un sujet technique ou scientifique peuvent tout à fait construire des rapports de grande qualité et reconnus comme tels par les experts eux-mêmes. Ce fut le cas lors des controverses concernant les OGM il y a de cela une vingtaine d’années. Callon, Barthes et Lascoumes racontent également comment les amateurs contribuent à améliorer la connaissance scientifique dans de nombreux domaines, comme par exemple l’astronomie.
  • pourquoi ce traitement démocratique si spécial devrait-il se limiter à l’intelligence artificielle ? Une des raisons est sans doute que l’on pressent que son déploiement va changer le monde et susciter des controverses qu’il vaut mieux anticiper. N’oublions pas cependant que de nombreuses technologies numériques (ou non) changent le monde plus insidieusement et suivant des échelles temporelles qui nous les rendent « invisibles à l’œil nu ». Légitimement, on pourrait aussi poser la question démocratique à leur endroit[20].
  • Ce que la démocratie technique questionne, c’est non seulement l’aménagement du progrès, mais aussi sa définition. C’est-à-dire la direction donnée à la civilisation. Entraîner une intelligence artificielle – même avec la méthodologie Society in the loop – c’est déjà faire le choix d’une intelligence artificielle. Ce qui ne veut pas dire que ce choix soit mauvais. Pas plus qu’il n’est naturellement bon. Disons que c’est un choix parmi d’autres. Ce point chaud qui concerne la définition du progrès est et sera de plus en plus au centre de toutes les questions liant technosciences et démocratie.
  • Parallèlement, l’Université de Montréal a bâti une « Déclaration pour un développement responsable de l’intelligence artificielle[23] ». Cette déclaration décrit dix principes phares pour guider le développement de l’IA, parmi lesquels un « principe de bien être » ou encore un « principe d’inclusion de la diversité » (
  • Toutes les controverses techniques n’ont pas vocation à passer sous les fourches caudines de la démocratie, il existe une multitude d’autres échelons pour co-construire, réguler, interdire ou favoriser des systèmes. En témoignent les nombreuses villes qui se « défendent » contre AirBnb ou Uber puis qui finissent par utiliser les données que ces sociétés récoltent, à d’autres fins (des « arrangements » a posteriori[25]). Par ailleurs, c’est aussi dans les écoles qui forment les ingénieurs, designers et entrepreneurs de demain et bien sûr dans les entreprises elles-mêmes, dont certaines décident d’être plus soucieuses des effets générés par leurs activités, que l’avenir se joue
  • Bien sûr, ces quelques pages souffrent de nombreuses limites et à de multiples niveaux. A mon sens néanmoins, le fond de la question consiste (aussi) à savoir quelle « dose » de démocratie nous sommes prêts à mettre dans nos ambitions technologiques. Et en retour, dans quelle mesure les technologies que nous produirons permettront ou non à la démocratie de continuer d’exister[26].
  •  
    "En 2017, Iyad Rahwan (@iyadrahwan), responsable du groupe des coopérations évolutives au MIT posait avec Joi Ito (@Joi) du MIT Medialab le concept de « Society in the loop » (SITL), une méthode pour impliquer différentes parties-prenantes dans la conception d'un système d'apprentissage automatique[1] (ou machine learning), à la base des intelligences artificielles (IA) qui jalonnent le quotidien. L'idée : co-construire plutôt qu'imposer les solutions au grand public, en faisant intervenir dès la phase de conception une diversité d'acteurs. J'en retrace ici un court historique, une illustration et les quelques perspectives et limites qu'il me paraît intéressant de pointer, notamment au regard des questions relatives à ce qu'on appelle la « démocratie technique »."
Aurialie Jublin

[Écologie] Le monde du logiciel est en train de se détruire... Manifeste pour... - 0 views

  • Tout est lent, et cela ne va pas dans le bon sens. Certaines voix s’élèvent. Je vous invite notamment à lire “Le désenchantement du logiciel”. Tout est insupportablement lent, tout est ÉNORME, tout finit par devenir obsolète… La taille des sites web explose. Un site web est aussi gros que le jeu Doom. Le phénomène ne touche pas que le Web mais aussi l’IoT, le mobile… Le saviez-vous ? Il faut 13% de CPU pour faire clignoter un curseur…
  • Tout grossit : la taille des applications, les données stockées, la taille des pages web, la mémoire des téléphones… Les téléphones ont maintenant 2 Go de mémoire, échanger une photo de 10 Mo par mail est maintenant classique… À la limite, cela ne serait peut-être pas un problème si tous les logiciels étaient utilisés, efficaces et performants… Mais cela n’est pas le cas,
  • Alors tout le monde se cale sur une lenteur. Tout est uniformément lent. On se cale sur cela et tout va bien. Être performant aujourd’hui, c’est arriver à atteindre un ressenti utilisateur qui correspond à cette lenteur uniforme. On élague les choses qui pourraient être trop visibles. Une page qui met plus de 20 secondes à se charger, c’est trop lent. Par contre, 3 secondes c’est bien. 3 secondes ? Avec les multicoeurs de nos téléphones/PC et les data centers partout dans le monde, le tout relié par des supers technologies de communication (4G, fibre…),c’est un peu bizarre non ? Si on regarde la débauche de ressources pour le résultat obtenu, 3 secondes, c’est énorme. D’autant plus que les bits circulent dans nos processeurs avec des unités de temps du niveau de la nanoseconde. Donc oui, tout est uniformément lent.
  • ...29 more annotations...
  • Il est nécessaire de revenir à plus d’efficience, de « challenger » les besoins en matériel, de redéfinir ce qu’est la performance. Tant que l’on se satisfera de cette lenteur uniforme avec des solutions pour ne pas ralentir plus (comme l’ajout de matériel), nous n’avancerons pas. La dette technique, notion largement assimilée par les équipes de développement, n’est malheureusement pas adaptée à ce problème (on y reviendra). Nous sommes sur une dette de ressources matérielles et de mauvaise adéquation entre le besoin utilisateur et la solution technique. On parle ici d’efficience et non pas uniquement de performance. L’efficience est une histoire de mesure du gaspillage. L’ISO définie l’efficience avec comme domaine : Time behaviour, Resource utilization et Capacity. Pourquoi ne pas pousser plus ces concepts ?
  • Développez du code Java pour un serveur J2EE ou pour un téléphone Android, ce n’est pas pareil. Des structures spécifiques existent par exemple pour traiter des données en Android mais les structures classiques sont toujours utilisées. Les développeurs ont perdu le lien avec le hardware. C’est malheureux car c’est passionnant (et utile) de savoir comment fonctionne un processeur. Pourquoi : abstraction et spécialisation (nous verrons cela plus loin). Car en perdant ce lien, on perd une des forces du développement. Ce lien est important chez les hackers ou chez les développeurs d’informatique embarquée mais malheureusement de moins en moins présent chez les autres développeurs.
  • Les pratiques devops pourraient répondre à cette perte de lien. Là, c’est pareil, nous n’allons pas jusqu’au au bout : généralement le devops va se focaliser à bien gérer le déploiement d’une solution logicielle sur une infrastructure mixte (matérielle et un peu logicielle). Il faudrait aller plus loin en remontant par exemple les métriques de consommation, en discutant sur les contraintes d’exécution… plutôt que de “scaler” juste parce que c’est plus simple.
  • Certaines technologies ont une utilité mais sont maintenant systématiquement utilisées. C’est le cas par exemple des ORM qui sont devenus systématiques. Aucune réflexion n’est faite sur son intérêt en début des projets. Résultat : on a rajouté une surcouche qui consomme, qu’il faut maintenir et des développeurs qui n’ont plus l’habitude d’effectuer des requêtes natives. Cela ne serait pas un problème si chaque développeur connaissait très bien le fonctionnement des couches d’abstraction : comment fonctionne HIBERNATE par exemple ? On s’appuie hélas de façon aveugle sur ces frameworks.
  • Le besoin d’abstraction est lié à un autre défaut: nous attendons toujours des outils miracles. La silver bullet qui améliorera encore plus nos pratiques. Le langage idéal, le framework pour aller plus vite, l’outil de gestion miracle des dépendances… C’est la promesse à chaque fois d’un nouveau framework : gagner du temps en développement, être plus performant… Et on y croit, on fonce. On abandonne les frameworks sur lesquels nous avions investi, sur lesquels on avait passé du temps… et on passe au nouveau. C’est le cas actuellement des frameworks JS. L’histoire du développement est pavé de framework oubliés, non maintenus, abandonnés… Nous sommes les champions pour réinventer ce qui existe déjà. Si on le gardait suffisamment longtemps, on aurait le temps de maîtriser un framework, de l’optimiser, de le comprendre. Mais ce n’est pas le cas. Et que l’on ne me dise pas que si on n’avait pas continuellement réinventé la roue, on aurait encore des roues en pierre… Innover serait d’améliorer les frameworks existants .
  • Sur les langages, c’est la même rengaine. Attention, je ne préconise pas de rester sur l’assembleur et sur le C… C’est le cas par exemple dans le monde Android, pendant plus de 10 ans les développeurs ont pu travailler sur des outils et des frameworks Java. Et comme cela, par magie, le nouveau Langage de la communauté est Kotlin. On imagine l’impact sur les applications existantes (si elles doivent changer), il faut recréer des outils, retrouver des bonnes pratiques… Pour quel gain?
  • Sincèrement, on ne voit aucun ralentissement sur les cycles de renouvellement des technologies. C’est toujours un rythme frénétique. Nous trouverons bien le Graal un jour. Le problème est ensuite l’empilement de ses technologies. Comme aucune ne meurt vraiment et que l’on en maintient toujours des parties, on développe d’autres couches pour s’adapter et continuer à maintenir ces bouts de code ou ces librairies. Le problèmen’est pas le code legacy,, c’est la glue que l’on développe autour qui pêche.
  • Au final, on passe du temps à résoudre des problèmes techniques internes, on recherche des outils pour résoudre les problèmes que l’on ajoute, on passe son temps à s’adapter à ses nouveaux outils, on ajoute des surcouches (voir chapitre précédent…) … et on n’a pas améliorer la qualité intrinsèque du logiciel ou les besoins auxquels on doit répondre.
  • Au final, le rythme frénétique des changements ne nous permet pas de nous stabiliser sur une technologie. J’avoue qu’en tant que vieux développeur que je suis, j’ai été découragé par le changement Java vers Kotlin pour Android. C’est peut-être pour certains de véritables challenges, mais quand je repense au temps que j’ai passé sur l’apprentissage, sur la mise en place d’outils
  • Ensuite, comme aucune solution ne meurt vraiment, que de nouvelles arrivent… on se retrouve avec des projets avec des multitudes de technologies à gérer avec les compétences associées aussi… On s’étonne ensuite que le marché du recrutement de développeur soit bouché. Pas étonnant.. Il y a énormément de développeurs mais il est difficile de trouver un développeur React avec 5 ans d’expérience qui connaîsse le Go. Le marché est fractionné, comme les technologies. C’est peut-être bon pour les développeurs car cela crée de la rareté et cela fait monter les prix, mais pas pour le projet !
  • Cependant, cet apprentissage continu des technologies pose le problème d’apprentissage de domaines transverses : accessibilité, agilité, performance… En effet, qu’est-ce qui nous prouve que les outils et les langages que nous allons choisir ne vont pas changer dans 4 ans ? Rust, Go… dans 2 ans ? Rien ne tend à donner une tendance.
  • On ne se remet pas en question car on veut s’amuser. Le fun est important, car si l’on s’ennuie dans son boulot, on va déprimer. Par contre, on ne peut pas, sous prétexte de vouloir du fun tout le temps, changer nos outils continuellement. Il y a un déséquilibre entre l’expérience du développeur et l’expérience de l’utilisateur. On veut du fun, mais qu’est-ce que cela va réellement apporter à l’utilisateur ? Un produit plus « joyeux » ? Non, nous ne sommes pas des acteurs.
  • On ne se pose pas de question sur l’éthique de notre domaine, sur sa durabilité… Cela vient peut-être du fait que notre domaine n’a pas réellement de code éthique (comme par exemple les médecins ou les avocats). Mais sommes-nous en tant que développeurs réellement libres si l’on ne peut pas avoir une autocritique ? Nous sommes peut être asservis à une cause portée par d’autres personnes ? Le problème n’est pas simple mais nous avons dans tous les cas une responsabilité. Sans code éthique, c’est le plus fort et le plus malhonnête qui est le plus fort. Le buzz et les pratiques pour manipuler les utilisateurs sont de plus en plus répandus. Sans Dark Pattern ton produit ne sera rien. Les plus gros (GAFA…) n’en sont pas arrivés là pour rien.
  • Est-ce que la solution est politique ? Il faut légiférer pour mieux gouverner le monde du logiciel. On le voit avec les dernières réponses législatives aux problèmes concrets : RGPD, notification des cookies… la source du problème n’est pas résolue. Peut-être parce que les politiques ne comprennent que très mal le monde du logiciel.
  • Car si cette structuration n’est pas faite, les développeurs vont perdre la main sur ce qu’ils font. Or le manque d’éthique de la profession est critiqué à l’extérieur. Rachel Coldicutt (@rachelcoldicutt) directrice de DotEveryOne, un think tank britannique qui promeut une technologie plus responsable, encourage à former des diplômés non-informaticiens qui traiteraient de ces problèmes (Voir plus précisément dans l’article d’Internet Actu). Pour poursuivre sur ce dernier article, cela serait dans la droite ligne de l’informatique, domaine issu du monde militaire où les ingénieurs et développeurs seraient formés à suivre des décisions et des commandements.
  • Le monde du logiciel s’intègre dans un système organisationnel classique. Grands groupes, sous-traitances via des ESN, web agencies… Tous suivent les mêmes techniques de gestion des projets informatiques. Et tout le monde va « dans le mur ». Aucune analyse sérieuse n’est faite sur le coût global d’un logiciel (TCO), sur son impact sur la société, sur son bénéfice, sa qualité… C’est la rapidité de release(Time to Market), la surcharge featurale (fonctionnelle), la productivité immédiate, qui comptent. Premièrement car les gens externes à ce monde ne connaissent que trop peu la technicité du logiciel et son monde. Il est virtuel donc simple (sic). Mais ce n’est pas le cas. Les écoles de commerce et autres usines de managers n’ont pas de cours de développement. Comment peuvent-ils bien diriger et piloter des projets ?
  • On continue a vouloir chiffrer des projets informatiques comme de simples projets alors que des mouvements comme le no estimate propose des approches innovantes. Les projets continuent d’échouer : le chaos report rapporte que simplement 30% des projets réussissent bien. Et face à cette mauvaise gouvernance, les équipes techniques continuent de se battre sur les technologies. Dommages collatéraux : la qualité, l’éthique, l’environnement… et au final l’utilisateur. Cela ne serait pas si critique si le logiciel n’avait pas un impact aussi fort sur le monde. Software eats the world… et oui, on le « bouffe »…
  • Si ces décisions absurdes arrivent, ce n’est pas uniquement la faute du développeur mais bien de l’organisation. Et qui dit organisation dit management (sous-différente forme). Si l’on revient au livre de Morel, il parle de piège cognitif dans lesquels les managers et les techniciens tombent souvent. C’est le cas de la navette Challenger qui a été quand même lancée malgré la connaissance du problème d’un joint défectueux. Les managers ont sous-évalué les risques et les ingénieurs ne les ont pas prouvés. Chacun a reproché à l’autre de ne pas fournir assez de preuves scientifiques. C’est souvent ce qui se passe dans les entreprises : des warnings sont levés par certains développeurs mais le management ne les prend pas assez au sérieux.
  • En même temps, on revient aux causes précédentes (silver bullet, on s’amuse…), il est nécessaire d’avoir une vraie ingénierie et une vraie analyse des technologies. Sans cela, les équipes techniques seront toujours non-écoutées par le management. Des outils et benchmark existent mais ils sont encore trop peu connus. Par exemple, Technologie Radar qui classe les technologies en terme d’adoption.
  • Ce phénomène de décision absurde est renforcé par le tissu complexe du développement logiciel : Les sociétés historiquement hors du numérique sous-traitent à des entreprises du numérique, les ESN sous-traitent aux freelances… Le partage de responsabilité technique / management est encore plus complexe et les décisions absurdes plus nombreuses.
  • Mais cela ne s’arrête pas là. On peut aussi voir l’usage de l’open-source comme une sorte de sous-traitance. Idem pour l’usage de framework. On est juste consommateur passif, on se déleste de plein de problématiques (qui ont un impact sur les ressources, la qualité…).
  • C’est d’autant plus facile que le domaine est passionnant et que la pratique des sides-projects, du temps passé sur les projets open-source hors des horaires de bureau est chose commune… La recherche de “fun” et le temps passé bénéficient alors plus aux organisations qu’aux développeurs. Difficile dans ce cas de chiffrer le coût réel d’un projet. Et pourtant, cela ne serait pas un problème si on arrivait à des logiciels « au top ».
  • Le développeur n’est ici plus un artisan du code, mais plutôt un pion dans un système critiquable du point de vue humain. Cela n’est pas visible, tout va bien et on s’amuse. En apparence seulement, car certains domaines du développement logiciel vont plus loin et rendent beaucoup plus visible cette exploitation : Le domaine du jeux-vidéo où les heures explosent.
  • Et donc, toutes ces maladresses (logiciel trop lourd, sans qualité…) se retrouvent chez les utilisateurs. Comme on doit releaser au plus vite les logiciels, que l’on ne tente pas de résoudre les inefficiences internes, et que l’on ne met pas plus de ressource pour faire de la qualité, on arrive à des logiciels médiocres. Mais on a tellement d’outils de monitoring et de suivi des utilisateurs pour détecter ce qui se passe directement chez eux qu’au final, on pense que ce n’est pas grave. Cela serait une bonne idée si les outils étaient bien utilisés. Or la multitude d’informations récoltées (en plus des bugs remontés par les utilisateurs) n’est que faiblement utilisée. Trop d’information, difficulté de cibler la vraie source du problème… on s’y perd et au final, c’est l’utilisateur qui trinque. Tous les logiciels sont maintenant en bêta-test. A quoi bon faire de la sur-qualité, autant attendre que l’utilisateur le demande. Et on revient ainsi au premier chapitre : un logiciel uniformément lent … et médiocre.
  • Heureusement, on est sauvé par la non-sensibilisation des utilisateurs au monde du logiciel. C’est un monde effectivement virtuel et magique qu’ils ont l’habitude d’utiliser. On leur a mis en main les outils mais sans notice explicative. Comment évaluer la qualité d’un logiciel, les risques sur l’environnement, les problèmes de sécurité… si l’on n’a pas des notions d’informatique, même rudimentaires ?
  • L’informatique du 21ème siècle est ce que l’agroalimentaire était pour les consommateurs au 20ème siècle. Pour des raisons de productivité, on a poussé des solutions médiocres avec un calcul court-termiste : mise sur le marché de plus en plus rapide, profit en hausse constante… agriculture intensive, malbouffe, pesticides… avec des impacts importants sur la santé, sur l’environnement… Les consommateurs savent maintenant (de plus en plus) les conséquences désastreuses de ces dérives, l’industrie agroalimentaire doit donc se réinventer, techniquement, commercialement et éthiquement. Pour le logiciel, quand les utilisateurs comprendront les tenants et les aboutissants des choix techniques, l’industrie du logiciel devra gérer les mêmes problèmes. En effet, le retour au bon sens et aux bonnes pratiques n’est pas une chose simple pour l’agroalimentaire. Dans l’IT, on commence à le voir avec ses conséquence sur la vie privée des utilisateurs (mais nous n’en sommes qu’aux balbutiements).
  • On va dans la mauvaise direction. L’industrie de l’informatique a déjà effectué dans les années 70 des erreurs avec des impacts non-négligeables. L’exclusion des femmes de l’informatique en fait partie. Non seulement cela a été fatal pour certaines industries mais on peut se poser la question de comment on peut maintenant adresser des réponses à seulement 50% de la population informatique, avec une représentativité très faible. Le chemin est maintenant difficile à retrouver.
  • Mais l’impact du monde IT ne s’arrête pas là. La source et le modèle d’une grosse partie de l’informatique sont issus de la Silicon valley. Si l’on écarte les gagnants de la Silicon Valley, les populations locales subissent la montée des prix, le déclassement, la pauvreté…
  • Dans sa lancée vers le progrès technique, le monde du logiciel crée aussi sa dette environnementale…
  •  
    "Le monde du logiciel va mal et si l'on n'agit pas, on risque de le regretter. Environnement, qualité, exclusion… Software Eats The World (Le logiciel mange le monde…) ? Oui un peu trop. "
Aurialie Jublin

[Démocratie/Logiciel libre] Alerte / en marche vers la privatisation de la dé... - 0 views

  • Pourquoi cette entreprise continue à jouer solo, à capter les contributions communes, et malgré toutes les demandes, à fermer son code ? Et par quelle magie est arrivé ce quasi monopole alors que dans d’autres pays de nombreuses solutions libres, ouvertes et transparentes ont fait leur preuve ?
  • Avons-nous compris qu'un code fermé et propriétaire c'est comme un brevet Monsanto ? Qui s'approprie le vivant, qui fait disparaître la diversité du vivant et donc des espèces, qui privatise le commun, qui installe une dépendance mortifère avec sa solution et nécessite de toujours racheter la même solution ? Avons-nous bien compris qu'un code propriétaire s'est s'approprier la richesse offerte par les gens, leur travail, leurs données ?Avons-nous bien compris qu'un code propriétaire c'est une boîte noire en qui personne, je dis bien personne, à part celui qui l’a codé, ne peut avoir confiance ?
  • il n’y a que le logiciel libre qui peut garantir les conditions de transparence, de responsabilité collective (hackers, développeurs, usagers, citoyennes et citoyens, associations de liberté et neutralité du net), qui coopérant les unes avec les autres, peuvent être les seuls garants d’un processus numérique démocratique sincère et sous surveillance.
  • ...9 more annotations...
  • Je ne sais pas à combien d'entre nous cette proposition a été faite. D’ailleurs ça m’intéresse de savoir qui travaille avec des solutions Cap Co pour comprendre l’entendue du problème et du désastre dans lequel nous nous sommes mis. De notre côté, il en était hors de question, un de nos principes fondateurs était que tout ce qui serait créé par nos petites mains serait libre, public, partageable et pourrait servir à toutes et tous. C’est exactement ce qu’il s’est passé, on s’est servi d’autres travaux d’autres équipes par delà le monde et on a offert nos travaux à d’autres équipes qui les ont adapté en fonction de leurs besoins. Tous ces travaux sont à dispo de toutes et tous. Et n’importe quel codeur peut venir voir le cœur du réacteur, déceler les failles, les signaler, et donc les réparer, etc…
  • Nous avions donc à l'époque refusé cette proposition d’utiliser en marque blanche et gratuitement la plateforme de Cap Collectif. Mais combien ont accepté la bonne affaire ? En toute bonne foi, sans comprendre les enjeux immenses autour de la bataille des bases de données, l'ouverture des données, des choix d'algorithme, de la surveillance. Vous connaissez toutes et tous l'adage, "si c'est gratuit, c'est toi le produit".
  • Revenons un peu en arrière, la plateforme en question originelle qui a donné naissance à Cap Collectif, Parlement et citoyens, a été construite bénévolement par un tas de gens extraordinaires, qui ont vu leur travail capté, et fermé dans Cap Collectif. C’est un tout premier scandale. Qui l'a vendu et revendu à des collectivités ou "prêté" à des expérimentations citoyennes.
  • On arrive aujourd'hui ce mercredi 29 janvier 2019 à un énorme gag sur ce nouvel épisode du Grand débat, opération massive de communication gouvernementale : Cap Collectif met en place les plateformes de tous les cotés CESE, gouvernement, Gilets jaunes, provoquant un énorme malaise de ces derniers lorsqu’ils ont compris qu’ils partageaient le même outil et même prestataire, et une défiance accrue envers les outils au service de l'expression citoyenne pour celles et ceux qui s’intéresseraient aux dispositifs.
  • Cap Collectif étant en mesure de vendre ses plateformes grâce à un immense travail collectif en faveur de la participation citoyenne, dont nous sommes toutes et tous actrices et acteurs ici-mêmes (et pas que nous évidemment), et financé avec les deniers publics, donc l'argent des français, il n'est plus question de continuer à tolérer ce qui était déjà hier intolérable : le code doit être ouvert et publié.
  • Comment imaginer rétablir un lien de confiance dans la société avec des boîtes noires ? La démocratie se fonde sur la transparence de la décision publique, sa souveraineté, sa responsabilité, comment imaginer une seconde que les outils à son service ne soit pas fondé sur les mêmes obligations de transparence, souveraineté et responsabilité ?
  • Premièrement, je demande donc officiellement à Cap Collectif de publier son code. Et je vous demande, chaleureusement, à chacune et chacun d'entre vous, usagers et usagères, en tant qu'orga ou en tant que citoyen.ne.s d'en faire de même. Ou alors d’assumer publiquement votre choix du logiciel propriétaire avec tout ce que cela comporte d’antagonique avec les principes fondamentaux de la démocratie.
  • Deuxièmement, je demande aux instances de Démocratie Ouverte de favoriser la diversité des acteurs, des solutions, de ne plus recommander ou contribuer à des outils en logiciels propriétaires, de ne plus jamais favoriser une entreprise de participation par rapport à d'autres.
  • Enfin je demande à toutes les institutions, aux collectivités, de ne plus reproduire leurs erreurs en utilisant des solutions opaques : erreur sur la souveraineté des données, erreur sur la sécurité des outils, erreur et gabegie budgétaires.
  •  
    "Alors qu'explose en France une demande sans précédent de démocratie de la part des citoyens et des citoyens, de Nuit Debout, aux Gilets jaunes (assemblées réunies à Commercy)... ... celles et ceux qui sont censés être au service de cette participation citoyenne, ne voient pas ou font semblant de ne pas voir, qu'une entreprise s'approprie et capte cette formidable émulation collective, qui représente un commun, puisque financé par des deniers publics et enrichis grâce au travail de toutes et tous. Tous ces efforts collectifs pour mettre les citoyennes et les citoyens au cœur de la démocratie. Pour aller vers la transparence. De la coopération. Du partage. Des communs.  Pour quoi ? Moi je croyais que c'était vraiment notre rêve d'asseoir les citoyennes et citoyens à la table des décisions. A peine née, l'utopie d'une meilleure participation des habitantes et habitants de ce pays est déjà pervertie, et déjà gravement menacée."
Aurialie Jublin

[Tribune] Haine en ligne : pour en finir avec des décennies d'indigence des p... - 0 views

  • Notre droit est déjà outillé pour pouvoir identifier et juger des internautes qui abusent de la liberté d’expression, même sous pseudonyme. L’anonymat n’existe pas depuis la LCEN de 2004, et l’article A-43-9 du Code de procédure pénale offre aux enquêteurs un vaste ensemble de possibilités pour identifier le titulaire d’une adresse IP à partir d’un tweet, d’un post Facebook, d’un commentaire sous un article de presse en ligne tel que Next INpact.
  • Mais en pratique, les victimes doivent remuer ciel et terre, le plus souvent avec l’assistance d’un avocat, pour parvenir à un jugement et une condamnation. S’il est indispensable de rappeler aux géants du numérique que tirer un profit de leur activité depuis le territoire national emporte des responsabilités comme celle de collaborer avec la Justice, toute mesure en ce sens restera de l’incantation sans effet si l’État ne donne pas lui aussi l’exemple en gagnant en efficacité. Depuis plusieurs décennies la France se complaît dans le bas de classement en matière de budget de la Justice par habitant. Selon les chiffres publiés par Bercy à l’occasion du Grand Débat, pour 100 euros de dépense publique, la justice, service régalien par essence, est reléguée au dernier rang et ne récolte que… 40 centimes, soit 0,4 %.
  • Trop souvent de nombreuses réquisitions omettent des éléments essentiels (comme le port source ou un horodatage fiable) pour orienter les plateformes et FAI sur l'identification des auteurs d'actes délictueux en ligne. Cet exemple est loin d’être anecdotique, car il explique le faible taux de retour aux réquisitions judiciaires adressées aux plateformes comme l’établissent leurs rapports de transparence : alors que le Royaume-Uni obtient 91 % de réponses positives, la France (qui part de très loin, car il y a peu c'était 30 %) doit se contenter de 69 %.
  • ...2 more annotations...
  • Car la chaîne de lancement des poursuites n’est pas du tout adaptée aux enjeux du numérique. L’accueil des plaignants dans les commissariats est clairement défaillant, et lorsqu’une plainte est enregistrée, le circuit de traitement n’est pas optimal.
  • Pour faire efficacement l’interface avec les géants du numérique et obtenir des délais de réponse rapides, d’autres pays se sont engagés sur la voie d’un parquet spécialisé de compétence nationale, à l’image de ce qu’on a su faire pour le terrorisme et le financier avec les succès que l’on connaît. Ainsi, à Madrid en Espagne, plus de 70 magistrats sont affectés pour instruire exclusivement les sujets de délinquance numérique.
  •  
    "Me Alexandre Archambault publie dans nos colonnes une tribune sur la haine en ligne. Sujet épineux qui suscite toutes les attentions, au groupe LR comme au sein de la majorité. Or, selon l'ex-responsable des affaires règlementaires de Free, notre droit est déjà suffisamment outillé. Il souffre toutefois de trop d'obstacles, pas seulement financiers."
Aurialie Jublin

Nouvelles formes d'emploi et retraite : quels enjeux ? quelles réponses adapt... - 0 views

  • Dans cette perspective, il est essentiel de réfléchir aux moyens de tenir compte des transformations actuelles en matière de parcours professionnels. ainsi, quels sont les mécanismes de solidarité à mettre en œuvre pour prendre en compte les trajectoires d’emploi à temps partiel, avec des revenus du travail limités et/ou variables ? Quel équilibre trouver entre l’équité, liée aux cotisations payées par chacun, et la solidarité vis-à-vis des actifs qui ont travaillé mais perçu des revenus durablement faibles ? Dans quelle mesure le système de retraite peut-il aujourd’hui et demain favoriser ou freiner les mobilités tout au long de la carrière ? en quoi les « nouveaux indépendants » se distinguent-ils des autres travailleurs et des indépendants des générations précédentes ? Quel est l’effort de contribution adapté à ces formes d’emploi ?
  •  
    "Le 16 octobre 2018, France Stratégie et le réseau Sharers & Workers (co-animé par l'ires et astrees) ont organisé une matinée d'ateliers visant à discuter et préciser les enjeux des nouvelles formes d'emploi pour le système de retraite, ainsi qu'à susciter un échange sur les réponses à leur apporter."
Aurialie Jublin

Contre la haine en ligne, des internautes s'organisent | Slate.fr - 0 views

  • Aux côtés de 173 personnes inconnues, il répond méthodiquement à la haine à l'œuvre dans les commentaires d'articles. Avec ses camarades, il se coordonne dans un groupe Facebook, secret et fermé, dont le nom reprend ironiquement un sigle policier. Il réunit femmes et hommes de 20 à 55 ans, «beaucoup de travailleurs sociaux», suppose Simon, même s'il n’en connaît personnellement que très peu. Depuis 2016, le groupe veille sur les posts Facebook des journaux normands pour faire en sorte que les commentaires les plus «likés», et donc ceux qui remontent tout en haut de la section, ne soient pas systématiquement les plus haineux.
  • Une trentaine de membres sont réellement actifs et actives, dont une dizaine qui réalise une veille sur les sujets connus pour être des «attrape-haine»: immigration, sexisme, protection sociale, etc. Dans un Google Doc, des argumentaires, chiffres-clés et articles sont prêts à être copiés-collés pour gagner un peu de temps au moment de rédiger son commentaire.
  • Face aux discours de haine en ligne, une majorité de personnes reste silencieuse, par manque de temps ou tout simplement manque d’arguments. Pour pallier cela, le think tank Renaissance numérique a créé «Seriously» en 2015, une méthode pour accompagner les internautes afin d'apprendre à répondre à la haine et à dépassionner les débats. Créé à l'origine dans le but d’aider des associations comme SOS homophobie ou SOS Racisme sur les réseaux sociaux, le site a aujourd’hui une portée plus vaste.
  • ...4 more annotations...
  • Xavier estime que la responsabilité de répondre à la haine est collective. «Les journalistes ne sont ni assez nombreux, ni assez payés pour le faire sous tous leurs articles, souligne-t-il, il ne faut pas laisser la désinformation se répandre. On a trop longtemps considéré les commentaires comme un bruit de fond.» Pourtant, nous connaissons aujourd’hui le pouvoir de ces derniers sur le lectorat. En 2015, une équipe de recherche a prouvé que la perception d’un article était modifiée par les commentaires correspondant sur Facebook. Les scientifiques ont fait lire le même article à des volontaires, avec une variation de mentions «j’aime» et de commentaires. Plus le nombre de commentaires négatifs était important, plus l’article était perçu comme peu convaincant –le nombre de «likes» était cependant loin d’avoir le même effet.
  • «On peut arriver à se comprendre, ce sont juste des personnes en colère, constate-t-il. On a laissé faire les choses en considérant cela comme un bruit de fond. “Don’t feed the troll”, pour moi c’est complètement faux, il faut intervenir!». En effet, trois scientifiques ont analysé les commentaires sous 100.000 posts et découvert que si le premier commentaire visible est positif, les internautes ont tendance à être positifs dans leur réaction et inversement quand le premier commentaire est négatif.
  • Au mois de janvier, SOS Racisme a créé un groupe Facebook fermé appelé «#TEAMRIPOSTE!» qui a pour but de réunir des personnes qui veulent militer de chez elles et aider à commenter les publications sur les réseaux sociaux. Sur la page du groupe, on peut lire: «La légalité ne s’arrête pas aux portes d’internet, il est aussi important de rappeler qu’un grand nombre de mesures peuvent être prises pour supprimer ces messages racistes ou faire condamner leurs auteurs». Pharos, une plateforme en ligne mise en place par le gouvernement, permet de signaler des contenus ou des comportements illicites.
  • Selon Jennyfer Chrétien du think tank Renaissance numérique, l’un des plus gros combats à mener est éducatif. Pour cela, le groupe de réflexion prépare des programmes de sensibilisation, surtout auprès du jeune public. «Nous ne pouvons pas nous contenter de sanctionner les propos illicites», affirme la directrice. Il est impératif de travailler sur le «réflexe de fermeture de l'onglet» qui doit être converti en «réflexe citoyen».
  •  
    "Prendre le temps de répondre aux commentaires qui pourrissent le web pour tenter de le pacifier."
Asso Fing

« On cherche à éveiller la conscience éthique des développeurs et data scient... - 0 views

  • Comment la communauté Data For Good utilise-t-elle les algorithmes ? Qu’est-ce qui vous différencie des grandes entreprises tech ? Avec Data For Good, on veut permettre aux associations, aux projets citoyens et aux institutions d’avoir accès à la data science, qui est utilisée uniquement par les grandes entreprises comme les GAFA et les start-up pour l’instant, car c’est un service qui coûte très cher. Notre communauté bénévole soutient certains projets comme celui de l’association Frateli, qui travaille sur du mentorat. On leur a créé une plateforme de matching, avec des algorithmes, pour matcher en un clic un mentor avec un mentoré, alors qu’avant tout était fait à la main sur un tableur Excel. L’humain garde la décision finale, il peut changer les résultats donnés par l’algorithme, mais cela reste beaucoup plus rapide.
  • Notre but n’est pas de récolter des données, on ne fait pas des algorithmes qui utilisent les données des utilisateurs pour faire de la publicité. De plus, les codes sources produits par Data For Good sont tous en open source, donc si une autre association veut les utiliser, elle peut le faire gratuitement et librement. Les GAFA ouvrent certains de leurs codes sources, mais c’est avant tout pour attirer des développeurs, et ils n’ouvrent que des bribes de leurs codes. Et ils savent très bien que sans les données qu’ils possèdent, ces extraits de codes ne servent à rien.
  • Vous travaillez aussi chez AlgoTransparency, une plateforme qui cherche à décrypter les mécanismes de l’algorithme de YouTube : avez-vous réussi à savoir comment était construit cet algorithme, qui est un secret bien gardé par YouTube ? Sur YouTube, on est enfermé dans une spirale de recommandations qui ne montre pas forcément le meilleur de l’humanité... Sur AlgoTransparency, on a mis en place un robot qui est capable de mesurer quelle vidéo est recommandée, à partir de quelle vidéo. On a donc des données sur ces vidéos, mais comprendre comment fonctionne l’algorithme est très compliqué car celui-ci est très complexe, et il évolue en permanence car il est ré-entraîné tous les jours. Nous, on a décidé d’étudier nos données, en rentrant des mots clés, et de voir ce qu’il en sort.
  • ...4 more annotations...
  • L’algorithme de la plateforme, et YouTube le dit lui-même, c’est de maximiser le temps passé sur la plateforme, le « watch time ». Et quand l’algorithme voit que les gens passent plus de temps sur la plateforme quand ils regardent des vidéos complotistes par exemple, il va plus recommander ce contenu. Il fait juste le boulot pour lequel on l’a programmé.
  • Et dans un second temps, on pourrait créer pour la plateforme un statut hybride, qui serait entre l’hébergeur, qui n’a pas de responsabilité sur le contenu qu’il héberge, et le média, qui a toute la responsabilité sur ce qu’il partage. Pour l’instant, YouTube dit être un hébergeur, car il ne peut pas éditorialiser tout le contenu qui se trouve sur la plateforme. Pourtant, les algorithmes ont un rôle éditorial : quand ils recommandent un million de fois une vidéo à des êtres humains, il y a un choix fait derrière, l’algorithme a privilégié un contenu plutôt qu’un autre.
  • Par contre, là où on peut avoir peur, c’est quand ces algorithmes, notamment de machine learning (c’est-à-dire des algorithmes qui vont apprendre à partir des données qu’on leur a fourni pour prédire des choses), impactent la vie humaine : par exemple, lorsqu’on les utilise dans l’espace public pour faire de la reconnaissance faciale, ou quand les décisions concernant les peines de prison sont prises par des algorithmes. Si on ne sait pas quels sont les critères choisis pour définir les algorithmes, c’est là que ça devient dangereux. Et c’est pour cela qu’on demande l’ouverture de tous les codes sources utilisés dans les administrations (comme la loi Le Maire le recommande).
  • Est-ce que le problème de l’algorithme ne serait pas de décontextualiser les données ? Normalement, c’est aux data scientists de garder en tête le contexte des données qu’ils étudient, et de savoir qu’elles peuvent être biaisées : par exemple, connaître le quartier où habitent les utilisateurs peut être un biais sur leur niveau social. Dans le serment d’Hippocrate de Data For Good, on cherche au mieux à éveiller la conscience éthique des data scientist, en « informant les parties prenantes sur (…) l’utilisation des données », en assurant que « les individus ne soient pas discriminés par rapport à des critères illégaux ou illégitimes », en « respectant la vie privée et la dignité humaine » et en « assumant ses responsabilités en cas de difficulté ou de conflits d’intérêts ».
  •  
    "Et si les développeurs et data scientists prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ? Data For Good, une communauté de data scientists et de développeurs bénévoles au service de projets d'intérêt général, en a fait une de ses missions. Ce « serment d'Hippocrate » des data scientists sera mis en ligne le 26 juin, lors d'un « Demo Day » qui présentera les projets soutenus par Data For Good. Curieux d'en savoir plus, nous avons interrogé Frédéric Bardolle, membre de Data For Good et d'Algotransparency, une plateforme qui décrypte les mécanismes de l'algorithme de YouTube. "
‹ Previous 21 - 37 of 37
Showing 20 items per page