Skip to main content

Home/ QN2019/ Group items tagged développement

Rss Feed Group items tagged

Aurialie Jublin

[Écologie] Le monde du logiciel est en train de se détruire... Manifeste pour... - 0 views

  • Tout est lent, et cela ne va pas dans le bon sens. Certaines voix s’élèvent. Je vous invite notamment à lire “Le désenchantement du logiciel”. Tout est insupportablement lent, tout est ÉNORME, tout finit par devenir obsolète… La taille des sites web explose. Un site web est aussi gros que le jeu Doom. Le phénomène ne touche pas que le Web mais aussi l’IoT, le mobile… Le saviez-vous ? Il faut 13% de CPU pour faire clignoter un curseur…
  • Tout grossit : la taille des applications, les données stockées, la taille des pages web, la mémoire des téléphones… Les téléphones ont maintenant 2 Go de mémoire, échanger une photo de 10 Mo par mail est maintenant classique… À la limite, cela ne serait peut-être pas un problème si tous les logiciels étaient utilisés, efficaces et performants… Mais cela n’est pas le cas,
  • Alors tout le monde se cale sur une lenteur. Tout est uniformément lent. On se cale sur cela et tout va bien. Être performant aujourd’hui, c’est arriver à atteindre un ressenti utilisateur qui correspond à cette lenteur uniforme. On élague les choses qui pourraient être trop visibles. Une page qui met plus de 20 secondes à se charger, c’est trop lent. Par contre, 3 secondes c’est bien. 3 secondes ? Avec les multicoeurs de nos téléphones/PC et les data centers partout dans le monde, le tout relié par des supers technologies de communication (4G, fibre…),c’est un peu bizarre non ? Si on regarde la débauche de ressources pour le résultat obtenu, 3 secondes, c’est énorme. D’autant plus que les bits circulent dans nos processeurs avec des unités de temps du niveau de la nanoseconde. Donc oui, tout est uniformément lent.
  • ...29 more annotations...
  • Il est nécessaire de revenir à plus d’efficience, de « challenger » les besoins en matériel, de redéfinir ce qu’est la performance. Tant que l’on se satisfera de cette lenteur uniforme avec des solutions pour ne pas ralentir plus (comme l’ajout de matériel), nous n’avancerons pas. La dette technique, notion largement assimilée par les équipes de développement, n’est malheureusement pas adaptée à ce problème (on y reviendra). Nous sommes sur une dette de ressources matérielles et de mauvaise adéquation entre le besoin utilisateur et la solution technique. On parle ici d’efficience et non pas uniquement de performance. L’efficience est une histoire de mesure du gaspillage. L’ISO définie l’efficience avec comme domaine : Time behaviour, Resource utilization et Capacity. Pourquoi ne pas pousser plus ces concepts ?
  • Développez du code Java pour un serveur J2EE ou pour un téléphone Android, ce n’est pas pareil. Des structures spécifiques existent par exemple pour traiter des données en Android mais les structures classiques sont toujours utilisées. Les développeurs ont perdu le lien avec le hardware. C’est malheureux car c’est passionnant (et utile) de savoir comment fonctionne un processeur. Pourquoi : abstraction et spécialisation (nous verrons cela plus loin). Car en perdant ce lien, on perd une des forces du développement. Ce lien est important chez les hackers ou chez les développeurs d’informatique embarquée mais malheureusement de moins en moins présent chez les autres développeurs.
  • Les pratiques devops pourraient répondre à cette perte de lien. Là, c’est pareil, nous n’allons pas jusqu’au au bout : généralement le devops va se focaliser à bien gérer le déploiement d’une solution logicielle sur une infrastructure mixte (matérielle et un peu logicielle). Il faudrait aller plus loin en remontant par exemple les métriques de consommation, en discutant sur les contraintes d’exécution… plutôt que de “scaler” juste parce que c’est plus simple.
  • Certaines technologies ont une utilité mais sont maintenant systématiquement utilisées. C’est le cas par exemple des ORM qui sont devenus systématiques. Aucune réflexion n’est faite sur son intérêt en début des projets. Résultat : on a rajouté une surcouche qui consomme, qu’il faut maintenir et des développeurs qui n’ont plus l’habitude d’effectuer des requêtes natives. Cela ne serait pas un problème si chaque développeur connaissait très bien le fonctionnement des couches d’abstraction : comment fonctionne HIBERNATE par exemple ? On s’appuie hélas de façon aveugle sur ces frameworks.
  • Le besoin d’abstraction est lié à un autre défaut: nous attendons toujours des outils miracles. La silver bullet qui améliorera encore plus nos pratiques. Le langage idéal, le framework pour aller plus vite, l’outil de gestion miracle des dépendances… C’est la promesse à chaque fois d’un nouveau framework : gagner du temps en développement, être plus performant… Et on y croit, on fonce. On abandonne les frameworks sur lesquels nous avions investi, sur lesquels on avait passé du temps… et on passe au nouveau. C’est le cas actuellement des frameworks JS. L’histoire du développement est pavé de framework oubliés, non maintenus, abandonnés… Nous sommes les champions pour réinventer ce qui existe déjà. Si on le gardait suffisamment longtemps, on aurait le temps de maîtriser un framework, de l’optimiser, de le comprendre. Mais ce n’est pas le cas. Et que l’on ne me dise pas que si on n’avait pas continuellement réinventé la roue, on aurait encore des roues en pierre… Innover serait d’améliorer les frameworks existants .
  • Sur les langages, c’est la même rengaine. Attention, je ne préconise pas de rester sur l’assembleur et sur le C… C’est le cas par exemple dans le monde Android, pendant plus de 10 ans les développeurs ont pu travailler sur des outils et des frameworks Java. Et comme cela, par magie, le nouveau Langage de la communauté est Kotlin. On imagine l’impact sur les applications existantes (si elles doivent changer), il faut recréer des outils, retrouver des bonnes pratiques… Pour quel gain?
  • Sincèrement, on ne voit aucun ralentissement sur les cycles de renouvellement des technologies. C’est toujours un rythme frénétique. Nous trouverons bien le Graal un jour. Le problème est ensuite l’empilement de ses technologies. Comme aucune ne meurt vraiment et que l’on en maintient toujours des parties, on développe d’autres couches pour s’adapter et continuer à maintenir ces bouts de code ou ces librairies. Le problèmen’est pas le code legacy,, c’est la glue que l’on développe autour qui pêche.
  • Au final, on passe du temps à résoudre des problèmes techniques internes, on recherche des outils pour résoudre les problèmes que l’on ajoute, on passe son temps à s’adapter à ses nouveaux outils, on ajoute des surcouches (voir chapitre précédent…) … et on n’a pas améliorer la qualité intrinsèque du logiciel ou les besoins auxquels on doit répondre.
  • Au final, le rythme frénétique des changements ne nous permet pas de nous stabiliser sur une technologie. J’avoue qu’en tant que vieux développeur que je suis, j’ai été découragé par le changement Java vers Kotlin pour Android. C’est peut-être pour certains de véritables challenges, mais quand je repense au temps que j’ai passé sur l’apprentissage, sur la mise en place d’outils
  • Ensuite, comme aucune solution ne meurt vraiment, que de nouvelles arrivent… on se retrouve avec des projets avec des multitudes de technologies à gérer avec les compétences associées aussi… On s’étonne ensuite que le marché du recrutement de développeur soit bouché. Pas étonnant.. Il y a énormément de développeurs mais il est difficile de trouver un développeur React avec 5 ans d’expérience qui connaîsse le Go. Le marché est fractionné, comme les technologies. C’est peut-être bon pour les développeurs car cela crée de la rareté et cela fait monter les prix, mais pas pour le projet !
  • Cependant, cet apprentissage continu des technologies pose le problème d’apprentissage de domaines transverses : accessibilité, agilité, performance… En effet, qu’est-ce qui nous prouve que les outils et les langages que nous allons choisir ne vont pas changer dans 4 ans ? Rust, Go… dans 2 ans ? Rien ne tend à donner une tendance.
  • On ne se remet pas en question car on veut s’amuser. Le fun est important, car si l’on s’ennuie dans son boulot, on va déprimer. Par contre, on ne peut pas, sous prétexte de vouloir du fun tout le temps, changer nos outils continuellement. Il y a un déséquilibre entre l’expérience du développeur et l’expérience de l’utilisateur. On veut du fun, mais qu’est-ce que cela va réellement apporter à l’utilisateur ? Un produit plus « joyeux » ? Non, nous ne sommes pas des acteurs.
  • On ne se pose pas de question sur l’éthique de notre domaine, sur sa durabilité… Cela vient peut-être du fait que notre domaine n’a pas réellement de code éthique (comme par exemple les médecins ou les avocats). Mais sommes-nous en tant que développeurs réellement libres si l’on ne peut pas avoir une autocritique ? Nous sommes peut être asservis à une cause portée par d’autres personnes ? Le problème n’est pas simple mais nous avons dans tous les cas une responsabilité. Sans code éthique, c’est le plus fort et le plus malhonnête qui est le plus fort. Le buzz et les pratiques pour manipuler les utilisateurs sont de plus en plus répandus. Sans Dark Pattern ton produit ne sera rien. Les plus gros (GAFA…) n’en sont pas arrivés là pour rien.
  • Est-ce que la solution est politique ? Il faut légiférer pour mieux gouverner le monde du logiciel. On le voit avec les dernières réponses législatives aux problèmes concrets : RGPD, notification des cookies… la source du problème n’est pas résolue. Peut-être parce que les politiques ne comprennent que très mal le monde du logiciel.
  • Car si cette structuration n’est pas faite, les développeurs vont perdre la main sur ce qu’ils font. Or le manque d’éthique de la profession est critiqué à l’extérieur. Rachel Coldicutt (@rachelcoldicutt) directrice de DotEveryOne, un think tank britannique qui promeut une technologie plus responsable, encourage à former des diplômés non-informaticiens qui traiteraient de ces problèmes (Voir plus précisément dans l’article d’Internet Actu). Pour poursuivre sur ce dernier article, cela serait dans la droite ligne de l’informatique, domaine issu du monde militaire où les ingénieurs et développeurs seraient formés à suivre des décisions et des commandements.
  • Le monde du logiciel s’intègre dans un système organisationnel classique. Grands groupes, sous-traitances via des ESN, web agencies… Tous suivent les mêmes techniques de gestion des projets informatiques. Et tout le monde va « dans le mur ». Aucune analyse sérieuse n’est faite sur le coût global d’un logiciel (TCO), sur son impact sur la société, sur son bénéfice, sa qualité… C’est la rapidité de release(Time to Market), la surcharge featurale (fonctionnelle), la productivité immédiate, qui comptent. Premièrement car les gens externes à ce monde ne connaissent que trop peu la technicité du logiciel et son monde. Il est virtuel donc simple (sic). Mais ce n’est pas le cas. Les écoles de commerce et autres usines de managers n’ont pas de cours de développement. Comment peuvent-ils bien diriger et piloter des projets ?
  • On continue a vouloir chiffrer des projets informatiques comme de simples projets alors que des mouvements comme le no estimate propose des approches innovantes. Les projets continuent d’échouer : le chaos report rapporte que simplement 30% des projets réussissent bien. Et face à cette mauvaise gouvernance, les équipes techniques continuent de se battre sur les technologies. Dommages collatéraux : la qualité, l’éthique, l’environnement… et au final l’utilisateur. Cela ne serait pas si critique si le logiciel n’avait pas un impact aussi fort sur le monde. Software eats the world… et oui, on le « bouffe »…
  • Si ces décisions absurdes arrivent, ce n’est pas uniquement la faute du développeur mais bien de l’organisation. Et qui dit organisation dit management (sous-différente forme). Si l’on revient au livre de Morel, il parle de piège cognitif dans lesquels les managers et les techniciens tombent souvent. C’est le cas de la navette Challenger qui a été quand même lancée malgré la connaissance du problème d’un joint défectueux. Les managers ont sous-évalué les risques et les ingénieurs ne les ont pas prouvés. Chacun a reproché à l’autre de ne pas fournir assez de preuves scientifiques. C’est souvent ce qui se passe dans les entreprises : des warnings sont levés par certains développeurs mais le management ne les prend pas assez au sérieux.
  • En même temps, on revient aux causes précédentes (silver bullet, on s’amuse…), il est nécessaire d’avoir une vraie ingénierie et une vraie analyse des technologies. Sans cela, les équipes techniques seront toujours non-écoutées par le management. Des outils et benchmark existent mais ils sont encore trop peu connus. Par exemple, Technologie Radar qui classe les technologies en terme d’adoption.
  • Ce phénomène de décision absurde est renforcé par le tissu complexe du développement logiciel : Les sociétés historiquement hors du numérique sous-traitent à des entreprises du numérique, les ESN sous-traitent aux freelances… Le partage de responsabilité technique / management est encore plus complexe et les décisions absurdes plus nombreuses.
  • Mais cela ne s’arrête pas là. On peut aussi voir l’usage de l’open-source comme une sorte de sous-traitance. Idem pour l’usage de framework. On est juste consommateur passif, on se déleste de plein de problématiques (qui ont un impact sur les ressources, la qualité…).
  • C’est d’autant plus facile que le domaine est passionnant et que la pratique des sides-projects, du temps passé sur les projets open-source hors des horaires de bureau est chose commune… La recherche de “fun” et le temps passé bénéficient alors plus aux organisations qu’aux développeurs. Difficile dans ce cas de chiffrer le coût réel d’un projet. Et pourtant, cela ne serait pas un problème si on arrivait à des logiciels « au top ».
  • Le développeur n’est ici plus un artisan du code, mais plutôt un pion dans un système critiquable du point de vue humain. Cela n’est pas visible, tout va bien et on s’amuse. En apparence seulement, car certains domaines du développement logiciel vont plus loin et rendent beaucoup plus visible cette exploitation : Le domaine du jeux-vidéo où les heures explosent.
  • Et donc, toutes ces maladresses (logiciel trop lourd, sans qualité…) se retrouvent chez les utilisateurs. Comme on doit releaser au plus vite les logiciels, que l’on ne tente pas de résoudre les inefficiences internes, et que l’on ne met pas plus de ressource pour faire de la qualité, on arrive à des logiciels médiocres. Mais on a tellement d’outils de monitoring et de suivi des utilisateurs pour détecter ce qui se passe directement chez eux qu’au final, on pense que ce n’est pas grave. Cela serait une bonne idée si les outils étaient bien utilisés. Or la multitude d’informations récoltées (en plus des bugs remontés par les utilisateurs) n’est que faiblement utilisée. Trop d’information, difficulté de cibler la vraie source du problème… on s’y perd et au final, c’est l’utilisateur qui trinque. Tous les logiciels sont maintenant en bêta-test. A quoi bon faire de la sur-qualité, autant attendre que l’utilisateur le demande. Et on revient ainsi au premier chapitre : un logiciel uniformément lent … et médiocre.
  • Heureusement, on est sauvé par la non-sensibilisation des utilisateurs au monde du logiciel. C’est un monde effectivement virtuel et magique qu’ils ont l’habitude d’utiliser. On leur a mis en main les outils mais sans notice explicative. Comment évaluer la qualité d’un logiciel, les risques sur l’environnement, les problèmes de sécurité… si l’on n’a pas des notions d’informatique, même rudimentaires ?
  • L’informatique du 21ème siècle est ce que l’agroalimentaire était pour les consommateurs au 20ème siècle. Pour des raisons de productivité, on a poussé des solutions médiocres avec un calcul court-termiste : mise sur le marché de plus en plus rapide, profit en hausse constante… agriculture intensive, malbouffe, pesticides… avec des impacts importants sur la santé, sur l’environnement… Les consommateurs savent maintenant (de plus en plus) les conséquences désastreuses de ces dérives, l’industrie agroalimentaire doit donc se réinventer, techniquement, commercialement et éthiquement. Pour le logiciel, quand les utilisateurs comprendront les tenants et les aboutissants des choix techniques, l’industrie du logiciel devra gérer les mêmes problèmes. En effet, le retour au bon sens et aux bonnes pratiques n’est pas une chose simple pour l’agroalimentaire. Dans l’IT, on commence à le voir avec ses conséquence sur la vie privée des utilisateurs (mais nous n’en sommes qu’aux balbutiements).
  • On va dans la mauvaise direction. L’industrie de l’informatique a déjà effectué dans les années 70 des erreurs avec des impacts non-négligeables. L’exclusion des femmes de l’informatique en fait partie. Non seulement cela a été fatal pour certaines industries mais on peut se poser la question de comment on peut maintenant adresser des réponses à seulement 50% de la population informatique, avec une représentativité très faible. Le chemin est maintenant difficile à retrouver.
  • Mais l’impact du monde IT ne s’arrête pas là. La source et le modèle d’une grosse partie de l’informatique sont issus de la Silicon valley. Si l’on écarte les gagnants de la Silicon Valley, les populations locales subissent la montée des prix, le déclassement, la pauvreté…
  • Dans sa lancée vers le progrès technique, le monde du logiciel crée aussi sa dette environnementale…
  •  
    "Le monde du logiciel va mal et si l'on n'agit pas, on risque de le regretter. Environnement, qualité, exclusion… Software Eats The World (Le logiciel mange le monde…) ? Oui un peu trop. "
Aurialie Jublin

Des plateformes en leurs limites | InternetActu.net - 0 views

  • L’ouvrage commence par remettre la réalité des plateformes en perspective… Après le temps des promesses de l’avènement de « l’économie du partage » (voir notre dossier de 2014) voire de « la quatrième révolution industrielle », Srnicek rappelle que nous en sommes bien loin. Le secteur des technologies reste relativement modeste dans l’économie, tant en terme de valeur ajouté que d’emplois. Le secteur industriel, malgré la désindustrialisation, est encore bien plus flamboyant que le monde des nouvelles technologies.
  • Pour Srnicek, le capitalisme s’est tourné vers les données pour assurer la croissance et la vitalité de l’économie, à l’heure où l’industrie ralentissait. En ce sens, les plateformes sont un nouveau modèle d’entreprise, dont la fonction est d’extraire, de contrôler et de rendre productifs les données. Un « mirage compétitif », comme l’évoquaient Maurice Stucke et Ariel Ezrachi dans leur livre, qui tend à devenir de plus en plus monopolistique.
  • Le capitalisme s’est restructuré autour du numérique, réservoir de nouveaux concepts, d’innovations réelles ou à venir, reposant sur l’extraction des données. Les données sont devenues la matière première à extraire et les activités des usagers, leur source naturelle. Elles sont désormais au coeur du système capitaliste : « elles nourrissent les algorithmes et donnent [aux entreprises] des avantages concurrentiels, elles coordonnent la main d’oeuvre et permettent souvent de l’externaliser, elles optimisent et flexibilisent les processus de production, elles transforment des produits peu rentables en services hautement profitables et, après leur analyse, elles donnent accès à toujours plus de données – dans une sorte de cercle vertueux. »
  • ...21 more annotations...
  • La plupart des entreprises capitalistes n’étaient pas conçues pour extraire et utiliser des données, mais pour produire des marchandises. Pour améliorer l’extraction de données, un nouveau type d’entreprise s’est développée : la plateforme. Ce nouveau modèle est un intermédiaire entre différents usagers qui vise via des outils ou une infrastructure dédiée à produire des données à exploiter. Leur seconde caractéristique est de reposer sur des effets de réseaux qui favorisent le nombre et donc produits par nature des formes monopolistiques, très rapidement. Autre caractéristique des plateformes, contrairement aux entreprises allégées qui ne visaient qu’à conserver les compétences essentielles au coeur du projet, les plateformes démultiplient les activités rentables et non rentables pour diversifier les données, comme Google fourbit des services gratuits pour capter un maximum de données. Enfin, elles se présentent souvent comme des espaces ouverts, alors que les services sont entièrement déterminés par leurs propriétaires. Bien que se présentant comme des intermédiaires, les plateformes contrôlent et gouvernent les règles du jeu !
  • Srnicek distingue 5 catégories de plateformes : la plateforme publicitaire (type Google ou Facebook qui consiste à extraire de l’information pour vendre de l’espace publicitaire), la plateforme nuagique (type Amazon Web Services… qui loue de l’équipement à la demande), la plateforme industrielle (comme celles développées par GE ou Siemens… qui visent à transformer la production industrielle en processus produisant des données), la plateforme de produits (comme celles mises en place par Rolls Royce ou Spotify… qui transforment les produits en service sous forme de location ou d’abonnement) et enfin, la plateforme allégée (type Uber ou Airbnb… qui réduisent les actifs au minimum et dégage des profits en baissant au maximum leurs coûts de fonctionnement).
  • Plus qu’un digital labor, concept à l’égard duquel le philosophe semble méfiant, les plateformes publicitaires reposent sur l’appropriation des données et leur raffinage pour assortir annonceurs et usagers. Ce modèle n’est pas seulement prédominant sur internet : Dunnhumby, propriété de Tesco, est une entreprise d’analyse des habitudes de consommation. Ces plateformes publicitaires ont connu un grand succès. Leurs revenus, leurs profits sont élevés.
  • Les plateformes nuagiques permettent aux entreprises de sous-traiter leur développement technologique. Le modèle locatif permet aux entreprises qui développent des services en ligne de collecter de nouvelles données pour renforcer l’extraction. Là encore, les profits et revenus s’envolent.
  • Les plateformes industrielles, comme MindSphere de Siemens ou Predix de GE, sont certainement moins connues. Elles consistent à introduire des capteurs et des puces dans la chaîne de production pour améliorer la traçabilité logistique, afin d’optimiser l’efficacité du processus de production, de développer de la personnalisation dans la chaîne de montage et dans la chaîne de distribution. Ces plateformes construites pour collecter des mégadonnées de filières industrielles spécifiques, sont, elles aussi, particulièrement rentables.
  • Les plateformes de produits et de services en tant que produits reposent pour beaucoup sur le modèle de l’abonnement, à l’image de Spotify ou encore de Rolls Royce, qui, pour ses moteurs d’avion, fait payer les compagnies aériennes pour l’utilisation de ses moteurs plutôt que de les leur vendre. En retour, Rolls Royce prend en charge l’entretien et les pièces de rechange. En récupérant ainsi les données, ces plateformes améliorent leurs produits, à l’image de Rolls Royce qui a pu ainsi améliorer la consommation de carburant de ses moteurs et leur durée de vie, au détriment de ses compétiteurs.
  • Enfin, les plateformes allégées externalisent à maximum leurs coûts. La plateforme contrôle uniquement ce qui lui permet de percevoir une rente de monopole (un pourcentage sur les transactions qu’elle facilite). C’est là clairement le modèle d’Uber ou de Airbnb, de TaskRabbit ou Mechanical Turk. Mais, rappelle Srnicek, ce phénomène n’est pas propre au numérique. Le marché des travailleurs journaliers, des emplois informels, de la sous-traitance… bref du travail traditionnel… est également très proche de ce modèle.
  • Le numérique y ajoute une couche de surveillance. Aux États-Unis, les emplois non conventionnels représenteraient 15 millions de travailleurs soit 10 % de la main d’oeuvre du pays en 2005, et 15,8 % en 2015. Ces emplois non conventionnels ont même dépassé le nombre d’emplois créés entre 2005 et 2015 aux États-Unis (9,4 millions contre 9,1 millions). Reste que l’accélération de la précarisation de l’emploi n’est pas tout entier imputable aux plateformes numériques. On estime que l’économie du partage en ligne représente 1 % de la main-d’oeuvre américaine et que les chauffeurs d’Uber en représenteraient la grande majorité. En fait, ce secteur demeure encore relativement marginal, estime Srnicek. Ces plateformes prolongent la précarisation du travail initié par les entreprises allégées dès les années 70. Srnicek rappelle très justement que ce travail « autonome » demeure largement contraint 
  • Pour Srnicek, ces entreprises qui bénéficient de force investissements, sont un phénomène consécutif à la crise de 2008, mais Uber, Airbnb et Didi Chuxing (le concurrent chinois d’Uber), ont raflé à elles trois en 2015 59 % du financement des entreprises émergentes des services à la demande. Elles ont surtout bénéficié de capitaux excédentaires cherchant des opportunités de rendements élevés dans un contexte de faible taux d’intérêt. Pour Srnicek, la rentabilité des plateformes allégées est encore largement à prouver. Elle repose sur leur capacité à comprimer les coûts et à abaisser les salaires… comme on le constate dans le monde des livreurs à vélo où le prix de la course n’a cessé de s’effondrer.
  • Srnicek en tire un enseignement qui va à l’encontre des discours ambiants sur le modèle des plateformes : « le modèle allégé reste un joueur marginal », qui ne survit que par l’apport de capital-risque plutôt qu’en générant ses propres revenus. « Loin d’incarner l’avenir du travail ou de l’économie, il est fort probable que ces modèles finissent par s’écrouler dans les années à venir ».
  • Reste souligne Srnicek, que « nous n’assistons pas à la fin de la propriété, mais bien à sa concentration ». Les plateformes en imposant leur monopole sur l’extraction des données sont en passe de devenir « propriétaires de l’infrastructure même de la société ».
  • Le problème est que les monopoles qu’elles construisent sont donc de plus en plus importants. Qui pourrait aujourd’hui venir défaire le monopole d’un Google par exemple ? Pour autant, cela ne signifie pas que la concurrence est morte, souligne Srnicek, mais qu’elle a changé de forme. Pour lui, nous serions plutôt dans un colonialisme de plateforme, un moment où la capitalisation sur la quantité et la diversité des données importent plus que leur qualité.
  • Outre l’extraction de données, l’autre travail des plateformes repose sur leur capacité d’analyse et de traitement qui participe lui aussi à la concentration. D’où les investissements massifs dans l’intelligence artificielle : « le moindre goulot d’étranglement dans la circulation de données (…) contribue à entraver la production de valeur ». Pour Srnicek, l’expansionnisme des plateformes repose sur un modèle de convergence, tant et si bien que malgré leurs différences, les grandes plateformes se concurrencent de plus en plus entre elles.
  • Pour Srnicek, cette tendance devrait à terme se cristalliser dans des écosystèmes de plus en plus clos : « la concurrence capitaliste risque fort bien de mener à une fragmentation d’internet » que seule une intervention politique pourrait ralentir ou renverser.
  • Encore faudrait-il être sûr que la concurrence soit encore une caractéristique du capitalisme tel qu’il s’est transformé ces dernières années… C’est peut-être oublier combien celui-ci est en train de muter. Les comportements assez similaires des grandes plateformes, leurs ententes et collusions, montrent que si elles se font effectivement une petite guerre entre elles, leurs principes semblent imposer une vision du monde sans grande concurrence. Le retour des monopoles, le fait que d’énormes conglomérats dominent les marchés, souligne que nous ne sommes peut-être plus dans un capitalisme où la concurrence était un préalable. Peut-être que l’analyse de Srnicek n’est peut-être pas assez radicale ?
  • La conclusion de Srnicek est limpide. Le numérique ne nous conduit pas du tout à dépasser le capitalisme. Nous restons dans une économie où règne la concurrence et la rentabilité. Pour lui cependant, le modèle des plateformes fait face à un défi d’importance qui risque d’éprouver leurs limites : la crise de la production industrielle. Depuis 2008, la croissance est en berne. La Chine elle-même connaît une surcapacité industrielle, qui entraîne une baisse des prix… L’internet industriel est vu comme un espoir pour inverser la situation et ajuster la production à la demande. Or, souligne Srnicek, l’internet industriel lui-même ne semble pas capable de transformer le mode de production en profondeur : il se cantonne plutôt à réduire les coûts et le temps de production, plutôt que d’améliorer la productivité ou de développer de nouveaux marchés. L’internet industriel vise plutôt à agir sur la baisse des prix, et ce alors que l’austérité tend à diminuer la demande et à faire chuter la productivité. Quant au capital, explique-t-il, il cherche un peu partout les moindres opportunités, mais sans qu’elles soient raccord avec les difficultés actuelles.
  • Pour Srnicek, le scénario le plus probable est que les plateformes se propagent dans tous les secteurs, alors que la concurrence les entraîne à se refermer sur elles-mêmes. Les plateformes publicitaires pourraient être poussées à offrir des services payants, alors que les plateformes allégées pourraient être amenées à se transformer en plateformes de produits. « En dernière analyse, il semble que le capitalisme de plateforme tende inéluctablement à prendre la forme d’un échange d’une rente contre un service ». C’est-à-dire à construire des rentes par ceux qui souhaitaient les défaire…
  • La grande promesse de libération des plateformes, de fluidification de l’économie, se termine sous la forme de simples droits de péages (le fameux 30 % de marge qu’elles pratiquent toutes peu ou prou) pour accéder aux services, selon le modèle de bien des entreprises traditionnelles qu’elles prétendaient détrôner.
  • Dans une conclusion certainement trop rapide, Nick Srnicek, rappelle que les enjeux à venir consistent à s’opposer aux monopoles, à développer d’autres types de plateformes qui bénéficient à ceux qui les utilisent, à l’image du coopérativisme de plateforme, à lutter contre l’ubérisation, c’est-à-dire contre la précarisation, qu’induisent les plateformes allégées, à lutter contre l’évasion fiscale et l’exploitation des données… Pour lui, pour agir sur ce qui a permis le développement des plateformes, il est nécessaire de construire des plateformes publiques, de collectiviser les plateformes existantes pour mettre leurs données au service d’une meilleure redistribution des ressources, d’une plus grande participation… D’imaginer une autre innovation ne reposant plus sur l’optimisation capitalistique. Dommage que cette dernière partie ne dépasse pas l’appel d’intention.
  • Pour Erik Brynjolfsson et Andrew McAfee, dans Des machines, des plateformes et des foules (2018), la plateforme était encore définie comme une solution magique, puissante, sans réelle externalité (« la plateforme est un environnement numérique qui se caractérise par un coût marginal d’accès, de reproduction et de distribution proche de zéro »). La catégorisation de Srnicek apporte donc un peu de complexité et de mise en perspective et permet de relativiser l’enthousiasme et la fascination pour les plateformes, longtemps vues comme des infrastructures qui mettent en correspondance l’offre et la demande.
  • La plateforme était surtout un instrument pour industrialiser la création de valeurs et accélérer les rendements d’échelle nécessaires à l’établissement d’une position dominante sur les marchés, via un ensemble de mécanismes allant du crowdsourcing à l’appariement, en passant par des technologies comme les API et toutes les capacités offertes aux développeurs tiers. Reste que ces mécanismes et ces technologies ne sont plus magiques.
  •  
    "En attendant leurs nouvelles publications, intéressons-nous au précédent livre de Nick Srnicek Plaform Capitalism (2016), qui vient d'être traduit en français sous le titre Capitalisme de plateforme (Lux éditeur, 2018). Il est certainement moins ambitieux sur le plan politique que son manifeste, mais très stimulant pour comprendre les transformations concrètes de l'économie numérique. Ce court essai d'analyse de la réalité économique des plateformes nous aide à en saisir leur impact en les situant dans leur réalité économique."
Aurialie Jublin

La directive Copyright n'est pas une défaite pour l'Internet Libre et Ouvert ... - 0 views

  • Trop souvent, nous avons concentré nos énergies sur des combats législatifs, hypnotisés par l’idée que le décompte des voix conduirait à une sorte « d’ordalie démocratique ». Cela nous a donné plusieurs fois l’illusion d’avoir remporté quelque chose, comme au moment du rejet de l’ACTA, alors que les racines du problème restaient intactes. Mais heureusement en sens inverse, si la victoire n’est jamais acquise en cas de succès législatif, il en est de même pour la défaite. Et rien ne serait plus faux que de penser que le vote de cette semaine sur la directive Copyright constitue la fin de l’histoire, sous prétexte que nous aurions encaissé là une défaite décisive !
  • Certes les articles 11 et 13 du texte, qui instaurent une obligation de filtrage automatisé des plateformes et une taxe sur les liens hypertextes au profit des éditeurs de presse, représentent des monstruosités contre lesquelles il était nécessaire de lutter. Mais il convient à présent d’apprécier exactement la portée de ces mesures, pour réadapter très rapidement notre stratégie en conséquence à partir d’une appréhension claire de la situation. Or cette « vision stratégique d’ensemble » est à mon sens précisément ce qui a manqué tout au long de cette campagne dans le camp des défenseurs des libertés numériques et il est inquiétant de constater que ces erreurs de jugement n’ont pas disparu maintenant que l’heure est venue d’analyser les conséquences du scrutin.
  • On a pu voir par exemple cette semaine l’eurodéputée du Parti Pirate Julia Reda expliquer sur son blog que ce vote constituait un « coup dur porté à l’internet libre et ouvert » (Today’s decision is a severe blow to the free and open internet). De son côté, Cory Doctorow a écrit un article sur le site de l’EFF, où il affirme que « l’Europe a perdu Internet » (Today, Europe lost the Internet). Sur Next INpact, Marc Rees déplore dans la même veine « une mise au pilori du Web tel que nous le connaissons, un affront à la liberté d’expression. » Ces appréciations font écho au mot d’ordre qui fut celui des défenseurs des libertés en campagne contre les articles 11 et 13 de la Directive : Save Your Internet (Sauvez votre Internet).
  • ...12 more annotations...
  • Or lorsqu’on lit attentivement ces articles, tels qu’amendés par le vote des eurodéputés, on se rend compte qu’ils ne visent pas pas « l’Internet » ou « le Web » tout entier, mais seulement une catégorie d’acteurs déterminés, à savoir les plateformes centralisées à but lucratif. Ce n’est donc pas « l’Internet libre et ouvert » qui va être frappé par cette directive, mais plutôt exactement ce qui représente son antithèse ! A savoir cette couche d’intermédiaires profondément toxiques qui ont dénaturé au fil du temps les principes sur lesquels Internet et le Web s’appuyaient à l’origine pour nous faire basculer dans la « plateformisation ».
  • Or le grand mensonge sur lesquels s’appuient les GAFAM – principaux responsables de cette centralisation -, c’est de chercher à faire croire qu’ils représentent à eux-seuls l’Internet tout entier, comme si rien ne pouvait plus exister en dehors de leur emprise. En ce sens quand j’entends Cory Doctorow dire que nous « avons perdu Internet » à cause de mesures ciblant les acteurs centralisés lucratifs, je ne peux que frémir. Avec tout le respect que je peux avoir pour ce grand monsieur, ses propos paraissent avoir incorporé la prétention des GAFAM à recouvrir le web et c’est particulièrement grave. Car c’est précisément cela qui constituerait la défaite finale des défenseurs des libertés : se résigner à cet état de fait et ne pas agir sur les marges dont nous disposons encore pour briser cette hégémonie.
  • Sur Next INpact, Marc Rees identifie avec raison le changement le plus profond que ce texte va amener : il remet en question la distinction classique entre hébergeurs et éditeurs, issue de la directive eCommerce de 2000. Jusqu’à présent, les hébergeurs bénéficiaient d’une responsabilité atténuée vis-à-vis des actes commis par leurs utilisateurs. Au lieu de cela, la directive Copyright introduit une nouvelle catégorie d’intermédiaires dits « actifs » qui devront assumer la responsabilité des contenus qu’ils diffusent, même s’ils ne sont pas directement à l’origine de leur mise en ligne.
  • On voit que le « rôle actif » se déduit de trois éléments : la taille de l’acteur, son but lucratif et la hiérarchisation automatisée de contenus. Ce sont donc bien des plateformes centralisées lucratives, type Facebook ou YouTube, qui devront assumer cette nouvelle responsabilité. Pour y échapper, elles devront conclure des accords de licence pour rémunérer les ayant droits et, à défaut, déployer un filtrage automatisé des contenus a priori. En pratique, elles seront certainement toujours obligées de mettre en place un filtrage, car il est quasiment impossible d’obtenir une licence capable de couvrir l’intégralité des œuvres pouvant être postées.
  • La directive a par ailleurs pris le soin de préciser que les « prestataires sans finalité commerciale, comme les encyclopédies en ligne de type Wikipedia » ainsi que les « plateformes de développement de logiciels Open Source » seraient exclus du champ d’application de l’article 13, ce qui donne des garanties contre d’éventuels dommages collatéraux.
  • Marc Rees nous explique que cette évolution est dangereuse, parce que l’équilibre fixé par la directive eCommerce constituerait le « socle fondamental du respect de la liberté d’expression » sur Internet. Mais cette vision me paraît relever d’une conception purement « formelle » de la liberté d’expression. Peut-on encore dire que ce qui se passe sur Facebook ou YouTube relève de l’exercice de la liberté d’expression, alors que ces acteurs soumettent leurs utilisateurs à l’emprise d’une gouvernance algorithmique de plus en plus insupportable, que cible précisément la notion de « rôle actif » ?
  • Il est peut-être temps de tirer réellement les conséquences de la célèbre maxime « Code Is Law » de Lawrence Lessig : le droit n’est qu’une sorte de voile dans l’environnement numérique, car c’est le soubassement technique sur lequel s’appuie les usages qui conditionne réellement l’exercice des libertés. Quoi que dise la directive eCommerce, il n’y a quasiment plus rien qui relève de l’exercice de la liberté d’expression sur les plateformes centralisées lucratives, sinon une grotesque parodie qui salit le nom même de la liberté et nous en fait peu à peu perdre jusqu’au sens ! En le lisant « en creux », l’article 13 dessine au contraire l’espace sur Internet où la liberté d’expression peut encore réellement s’exercer : le réseau des sites personnels, celui des hébergeurs ne jouant pas un rôle actif et – plus important encore – les nouveaux services s’appuyant sur une fédération de serveurs, comme Mastodon ou Peertube.
  • Ce qui va se passer à présent avec l’obligation de filtrage automatisée, c’est que les grandes plateformes centralisées lucratives, type YouTube ou Facebook, vont sans doute devenir des espaces où les utilisateurs éprouveront le poids d’une répression « à la chinoise » avec la nécessité de se soumettre à un contrôle algorithmique avant même de pouvoir poster leurs contenus. Le contraste n’en sera que plus fort avec les espaces restant en dehors du périmètre de l’article 13, que les créateurs et leur public seront d’autant plus incités à rejoindre. Doit-on réellement le déplorer ?
  • On retrouve ici le problème de « l’agnosticisme économique » dont j’ai déjà parlé sur ce blog à propos du fonctionnement même des licences libres. En refusant de discriminer selon les types d’usages économiques, les défenseurs du Libre se sont en réalité privés de la possibilité de développer une réelle doctrine économique. C’est ce même aveuglement aux questions économiques qui conduit à des aberrations de positionnement comme celles que l’on a vu au cours de cette campagne contre la directive Copyright. Comment mobiliser autour du mot d’ordre « Save Your Internet », alors que cet « Internet » que l’on a voulu faire passer pour « le notre » comprend en réalité les principaux représentants du capitalisme de surveillance ? C’est le sens même de nos luttes qui disparaît si nous ne nous donnons pas les moyens d’opérer des distinctions claires parmi les acteurs économiques.
  • En juin dernier, c’est-à-dire avant même le premier vote sur la directive, La Quadrature du Net a commencé à développer ce type d’analyses, en suggérant de ne pas s’opposer à l’introduction du critère du « rôle actif » des plateformes pour au contraire le retourner comme une arme dans la lutte contre la centralisation
  • L’enjeu n’est pas de chercher – sans doute vainement – à supprimer l’article 13, mais de réussir à délimiter clairement son périmètre pour s’assurer qu’il ne s’appliquera qu’à des acteurs centralisés lucratifs procédant à une hiérarchisation des contenus. Manœuvrer ainsi ferait peser sur les GAFAM une charge écrasante, tout en préservant un espace pour développer un réseau d’acteurs éthiques non-centralisés et inscrits dans une logique d’économie solidaire. Il n’y a qu’au sein d’une telle sphère que l’on puisse encore espérer œuvrer pour un « Internet Libre et Ouvert ».
  • Il faut aussi sortir de l’urgence immédiate imposée par cette série de votes pour se replacer dans le temps long. De toutes façons, quelle que soit l’issue des dernières négociations, il restera encore plusieurs années (3, 4, peut-être plus ?) avant que la directive ne soit transposée dans les pays de l’Union. C’est un délai appréciable qui nous laisse encore le temps de travailler au développement de cette sphère d’acteurs alternatifs.
  •  
    "Bien que la directive droit d'auteur soit le symptôme d'une soumission économique de nos industries aux géants du Web, elle crée néanmoins l'opportunité de remettre en cause ces géants, au profit de l'Internet décentralisé. C'est ce que nous rappelle Calimaq, membre de La Quadrature du Net, dans cette tribune - initialement publiée sur son blog."
Aurialie Jublin

Pour une pratique féministe de la visualisation de données - Catherine D'Igna... - 0 views

  • Et pourtant, il existe des façons de procéder à des représentations plus responsables. Il existe des moyens pour « situer » le regard et le localiser dans des corps et des géographies concrètes. Les cartographes critiques, les artistes de la contre-cartographie, les pratiquants de cartographie participative et d’autres développent des expérimentations et des méthodes pour cela depuis des années et ont beaucoup à nous apprendre.
  • Une manière de re-situer les visualisations de données pourrait être de les déstabiliser en rendant les désaccords possibles. Comment créer des manières de répondre aux données ? De mettre en question les faits ? De présenter des points de vue et des réalités alternatives ? De contester et même de saper les bases de l’existence de ces données et des méthodes par lesquelles elles ont été acquises ? Comment procéder ? Sachant que la plupart des gens qui travaillent sur les données sont des hommes blancs, il s’agit simplement d’inclure des gens différents, avec des points de vue différents, dans la production des visualisations. Ainsi par exemple, le Detroit Geographical Expedition and Institute était né, à la fin des années 1960, d’une collaboration entre des géographes universitaires, dont les responsables étaient des hommes blancs, et des jeunes du centre ville de Detroit conduits par Gwendolyn Warren, une militante de la communauté noire de 19 ans.
  • Cette carte, intitulée « Where Commuters Run Over Black Children on the Pointes-Downtown Track », était technologiquement en avance sur son temps. Peut-être est-elle assez conventionnelle (à nos yeux) dans sa stratégie visuelle. Mais ce qui donne à cette carte son caractère dissident, c’est le titre, formulé par les jeunes Noirs qui ont produit la carte. « Où les banlieusards qui rentrent du boulot écrasent les enfants noirs ». Un titre qui n’est pas neutre. On est loin de « Localisation des accidents de la route dans le centre de Detroit », titre qui aurait probablement été donné à la carte si elle avait été élaborée par des consultants extérieurs employés par la ville. Mais du point de vue des familles noires dont les enfants avaient été tués, il ne faisait aucun doute que les enfants étaient noirs, les banlieusards blancs, et les événements décrits comme des « meurtres » plutôt que des « accidents ».
  • ...4 more annotations...
  • ToxicSites.us, un site web géré par Brooke Singer, met en ligne un rapport sur chacun des sites « superfund » — ces lieux répertoriés par le CERCLA, l’agence américaine en charge des sites souillés par des déchets dangereux. Le site invite les contributeur·e·s à ajouter des reportages locaux, des images et des films qui documentent ces sites (et contredisent potentiellement les données), et cherche à faciliter l’organisation et le plaidoyer pour les efforts de nettoyage. Permettre de « répondre aux données » invite aussi à transformer la conversation en action.
  • Si les infographies — je ne parle pas ici des outils de recherche et d’exploration, mais des représentations publiques et populaires — excellent à présenter des mondes entièrement contenus, elles ne savent pas représenter visuellement leurs limites. Où sont les lieux où l’enquête n’est pas allée, qu’elle n’a pas pu atteindre ? Comment les indiquer ? Comment représente-t-on les données manquantes ? Andy Kirk a fait cet exposé remarquable sur le design du rien, qui recense diverses manières de représenter l’incertitude et d’intégrer le zéro, l’absent et le vide. Comment encourager plus de designers à prendre ces méthodes en considération ? Peut-on demander à nos données qu’elles montrent aussi ce qui constitue leur extérieur ?
  • Quelles sont les conditions matérielles qui ont rendu cette infographie possible ? Qui l’a financée ? Qui a collecté les informations ? Quel travail a été nécessaire en coulisses et comment la production de ce graphique s’est-elle déroulée ? Par exemple, le Public Laboratory for Open Technology and Science — un groupe de science citoyenne dont je fais partie — utilise une technique de cartographie consistant à suspendre une caméra à un cerf-volant où à un ballon pour collecter des photos aériennes. Un effet secondaire de cette méthode, adopté avec entrain par la communauté, est que la caméra capture aussi l’image des personnes qui collectent les images. On voit le corps des collecteurs des données, un objet généralement absent des représentations sous forme de produit fini.
  • Quel est le problème ? La théorie féministe du point de vue situé rappelle que toute connaissance est située socialement et que les perspectives des groupes opprimés — femmes, minorités et autres — sont exclues de manière systématique de la connaissance dite « générale ». La cartographie critique dirait que les cartes sont des sites du pouvoir et produisent des mondes qui sont intimement associés à ce pouvoir. Comme le soulignent Denis Wood et John Krygier, le choix de ce que l’on place sur la carte « fait inévitablement surgir le problème de la connaissance, tout comme les opérations de symbolisation, de généralisation et de classification ». Il faudra bien admettre l’existence de ce pouvoir d’inclure et d’exclure, apprendre à le dépister et développer un langage visuel pour le décrire. Dans l’immédiat, il importe de reconnaître que la visualisation de données est un des outils de pouvoir parmi les plus puissants et les plus biaisés.
  •  
    "La visualisation de données, ou infographie, est à la mode et chacun s'enthousiasme pour les nouveaux outils qui permettent d'en produire - nous en avons dénombré, avec mon collègue Rahul Bhargava, plus de cinq cents. Malgré cette richesse technique, on manque souvent d'outils permettant une réflexion critique sur la politique et l'éthique de la représentation. Et comme le grand public est plutôt facile à impressionner avec des graphiques, la « data visualization » acquiert un grand pouvoir rhétorique. Quand bien même nous savons rationnellement que ces images ne représentent pas « le monde entier », nous avons tendance à l'oublier, et à accepter les graphiques comme des faits car ils sont généralisés, scientifiques et semblent présenter un point de vue neutre et expert. Quel est le problème ? La théorie féministe du point de vue situé rappelle que toute connaissance est située socialement et que les perspectives des groupes opprimés - femmes, minorités et autres - sont exclues de manière systématique de la connaissance dite « générale ». La cartographie critique dirait que les cartes sont des sites du pouvoir et produisent des mondes qui sont intimement associés à ce pouvoir. Comme le soulignent Denis Wood et John Krygier, le choix de ce que l'on place sur la carte « fait inévitablement surgir le problème de la connaissance, tout comme les opérations de symbolisation, de généralisation et de classification ». Il faudra bien admettre l'existence de ce pouvoir d'inclure et d'exclure, apprendre à le dépister et développer un langage visuel pour le décrire. Dans l'immédiat, il importe de reconnaître que la visualisation de données est un des outils de pouvoir parmi les plus puissants et les plus biaisés."
Aurialie Jublin

Chartes et manifestes numérique et éthique - HackMD - 0 views

  • En français Manifeste RESET - 2019 - FING Label territoire numérique inclusif-mars 2019 Orientations stratégiques cadrant le développement des projets numériques au Pôle Solidarité Citoyenneté Culture de Rennes métropole 1 Développer des services numériques nouveaux pour une accessibilité renforcée aux services publics 2 Lutter contre la fracture numérique (et l’intégrer dans le point numéro 1) 3 Impulser une culture collaborative (personnes morales, habitants, institutions, etc) 4 Faire place et donner à voir l’innovation et l’expérimentation 5 Accompagner en interne l’appropriation d’une culture du numérique dans la collectivité. Conception numérique responsable - Low tech - Green IT (eco-responsable) Charte territoire France connectée pour un numérique inclusif (décembre 2018 - Etat-Gironde) - il existerait un pdf en ligne :-) Déclaration de Montréal IA Responsable Charte sur l’usage de la donnée - Nantes métropole - juin 2019 Manifeste de la fabcity Manifeste pour une démocratie délibérative (civic tech-BlueNove) Projet de charte des smart cities (ADULLACT - juin 2019) Charte PrestaLibre pour les relations entre prestataires informatiques et collectivités (2018, Lorient et les Consometers). Charte de l’aidant numérique, ville de Paris Charte de l’aidant numérique, Grand Chambery CHARTE DE L’ACCOMPAGNEMENT NUMERIQUE DES RESEAUX LOCAUX D’INCLUSION NUMERIQUE, Stratégie Départementale d’Inclusion numérique des Pyrénées-Atlantique Kit et modèle de mandat de la CNIL pour les travailleurs sociaux Charte internationale des données ouvertes [Serment d’Hippocrate pour Data Scientist by Data For Good] Explications (https://www.hippocrate.tech/) Serment (https://framavox.org/g/Qtz0JHr9/dataforgood-serment) Charte qualité des données de Datatourisme Charte de l’IFLA sur Internet en bibliothèque Charte Biblib ABF (Association des bibliothécaire de France)
  •  
    "L'objectif est de recenser des ressources de type "charte" ou "manifeste" permettant de cadrer éthiquement les développements de projets/plateformes/services/médiations outillés par du numérique, notamment sur des territoires. L'idée est de ne pas se focaliser sur la performance, la précision, le passage à l'échelle de nouveaux services ou de processus optimisés, mais de fabriquer des territoires souhaitables, à l'aide du numérique (le numérique peut servir à "ralentir" ou "déconnecter" des espaces-temps, par exemple. Il peut respecter des principes, utiliser des méthodes éco-responsables, des valeurs comme la démocratie, etc)."
Aurialie Jublin

Pour une Europe des citoyens et des territoires | Alternatives Economiques - 0 views

  •  
    "Les élections européennes du 26 mai 2019 constituent une opportunité historique d'assurer la participation des citoyens dans la construction de l'avenir de l'Union européenne. Dans ce contexte, l'économie sociale et solidaire (ESS) est déterminée à contribuer au façonnement d'un avenir basé sur le développement durable et sur le progrès économique et social à travers une Union européenne fondée sur la coopération, la démocratie, la solidarité et le respect de sa diversité, l'innovation et la citoyenneté active. Partout des initiatives citoyennes innovantes et solidaires émergent sur les territoires pour apporter des solutions économiques et sociales qui n'attendent que d'être structurées et amplifiées. Elles sont relayées ou initiées par des politiques publiques, notamment territoriales, créant des écosystèmes favorables à leur développement. L'Europe peut aider à multiplier ces solutions au travers d'un soutien résolu à l'économie sociale et solidaire. Celle-ci propose un modèle de fonctionnement qui réconcilie l'économique et le social au cœur des territoires et dans la durée."
Aurialie Jublin

Mise en commun de l'action publique  : faut il hacker le droit ?  - La 27e Ré... - 0 views

  • Souvent conçues et testées dans une démarche expérimentale, ces initiatives offrent des réponses efficientes et nouvelles aux enjeux qu’elles traitent. Mais sous leur apparente simplicité, elles posent de nombreux challenges juridiques en matière de mise en œuvre pour l’acteur public. Quid de la responsabilité de l’acteur public en matière de risque sanitaire et de salubrité des aliments d’un frigo partagé, qui s’adresse de facto à des usagers en dehors du seul spectre des membres de l’association qui l’ont conçu ? Quid du statut des contributeurs de Sauvlife, qui s’apparentent presque à des pompiers, mais qui ont également la liberté de ne pas intervenir ? Dans le cas du lycée, comment rendre possible un usage multiple d’un équipement public réservé à des mineurs ?
  • Quand certains pans de l’action publique sont gérés et utilisés de manière mutualisée, cela bouscule fondamentalement les piliers de l’acteur public : sa responsabilité face aux risques, ses contributeurs et la manière de les valoriser, la perméabilité avec le secteur marchand et même la légitimité à lever l’impôt pour financer des services devenus communs.
  • Sans surprise, faute de cadre juridique clair et sécurisant, rares sont les initiatives de ce type qui passent le cap de l’expérimentation. Et quand cela advient, cela tient souvent à des qualités individuelles : un élu prêt à prendre le risque, des équipes d’agents et des citoyens à l’implication exceptionnelles.
  • ...6 more annotations...
  • Elle peut s’inspirer des règlements d’administration partagée, développés par le laboratoire Labsus en Italie et actifs dans plus de 200 villes – dont Bologne, Gènes, Florence, Turin. S’appuyant sur un principe de subsidiarité horizontale stipulant que que “l’État, les Régions, les villes métropolitaines, les provinces et les communes favorisent l’initiative autonome des citoyens, seuls et associés, pour le développement d’activité d’intérêt général, sur la base du principe de subsidiarité”, ces règlements permettent aux villes de contracter des Pactes de collaboration avec les citoyens de la ville. Ces pactes actent une collaboration étroite entre citoyens et agents publics pour co-administrer des biens communs : espaces verts, entretien du patrimoine, solidarités… 
  • En rapprochant certaines notions italiennes avec des principes de droit français – comme par exemple le principe de subsidiarité horizontale italien avec la théorie de la collaboration occasionnelle au service public - il semble envisageable de procéder à une transposition effective d’un tel règlement. 
  • Quand ces frigos sont en libre accès et placés sur la voie publique, la responsabilité du maire est engagée au titre de ses pouvoirs de police, de la salubrité publique et de la conservation du domaine public, ce qui le conduit à faire des opérations de contrôle. En explorant les arrêtés et les potentialités offertes par le modèle des régies publiques, les étudiants ont posé les contours d’un partenariat public-commun soutenable du point de vue de l’acteur public et qui favorise le développement de cette solution.
  • Enfin, le terrain nous enseigne qu’il nous faut dépasser les cadres du seul droit public pour trouver des solutions durables. Face à l’enjeu de responsabilité civile de l’occupation d’un bâtiment public vacant par un tiers-lieu, comment renverser le problème, et confronter l’acteur public sur sa responsabilité de non-occupation ou de non usage d’espaces réinvestis ? Parfois les réponses peuvent se situer du côté des droits fondamentaux et du droit constitutionnel. 
  • Parfois les réponses se situent même en dehors du droit : du côté des mécanismes de financement et de démocratie participative, ou encore de l’innovation managériale. La mise en place de budgets participatifs, ou la collaboration occasionnelle au service public obligent par exemple à repenser la place de l’agent : quel est son mandat dans une logique de coproduction de service ? 
  • A cette occasion, les  juristes territoriaux avaient notamment proposé aux étudiants de la clinique juridique territoriale grenobloise de sécuriser la mise en oeuvre des frigos partagés – ces initiatives de lutte contre le gaspillage alimentaire par la mise à disposition gratuite d’aliments frais dans des frigos postés sur la voie publique.
  •  
    "A l'heure où la gestion en commun apparaît comme une piste sérieuse pour améliorer le fonctionnement de nos villes, les expériences territoriales à l'oeuvre appellent une nouvelle pratique du droit pour s'inscrire durablement dans nos politiques publiques. Elles nous invitent nous, agents publics, juristes, acteurs d'innovation publique, chercheurs, à puiser dans le droit d'usage, exhumer des principes constitutionnels et développer notre ingéniosité juridique et nos meilleures pratiques de détournement pour inventer de nouveaux modèles et travailler la souplesse de nos administrations.  Et si pour dépasser le cap de l'expérimentation, il devenait nécessaire d'inventer une nouvelle grammaire réglementaire ?"
Aurialie Jublin

Réguler Internet par la décentralisation - La Quadrature du Net - 0 views

  • Pour compenser cette « règle » qui rendrait la haine et le conflit rentables, le gouvernement veut renforcer les obligations imposées aux plateformes géantes qui en profitent : transparence et devoir de vigilance accrus. Pourquoi pas (cela peut être fait de façon plus ou moins pertinente, nous y reviendrons plus tard). Mais cette solution ne suffira jamais à contrer à elle seule les dérives permises par la « rentabilité du conflit ». Et il est illusoire d’imaginer, comme le fait le rapport cité ci-dessus, qu’on pourrait atténuer ce problème en mettant un juge derrière chaque diffamation ou injure prononcée sur Internet. Il y en a bien trop. Non, si on veut traiter le problème sérieusement, c’est l’ensemble de l’économie de l’attention qu’il faut remettre en question. Et cela doit passer par l’émergence d’alternatives saines qui reposent sur un autre modèle que celui des GAFAM.
  • En pratique, à La Quadrature du Net, nous avons songé à devenir un hébergeur de vidéos (en autorisant tout le monde à mettre en ligne des vidéos sur notre service de streaming Peertube). Ce serait une façon concrète de participer à la construction d’une alternative à Youtube, qui ne tirerait aucun profit des discours conflictuels ou de la surveillance de masse. Mais nous avons dû y renoncer. Nous n’avons pas du tout assez de juristes pour évaluer quelles vidéos seraient « manifestement illicites ». Nous n’avons pas les moyens de supporter des amendes en cas de plaintes. Youtube reste maître.
  • Si le gouvernement veut effectivement lutter contre la diffusion de « contenus haineux et extrêmes », il doit changer le droit pour favoriser le développement d’alternatives à l’économie de l’attention. Voici notre proposition. Premièrement, que les hébergeurs ne soient plus soumis aux mêmes obligations que les plateformes géantes, qui régulent les informations de façon active pour leurs intérêts économiques. Secondement, que les hébergeurs neutres, qui ne tirent aucun profit en mettant en avant de tel ou tel contenu, ne supportent plus la charge d’évaluer si un contenu est « manifestement illicite » et doit être censuré. Seul un juge doit pouvoir leur exiger de censurer un contenu.
  • ...2 more annotations...
  • Dans le cadre de la loi, chaque hébergeur applique ses propres règles de modération, plus ou moins stricte, et chaque personne choisit l’espace de discussion adapté à ses besoins et à ses envies. La liberté de ce choix est renforcée par le développement des standards de « réseaux sociaux décentralisés », notamment du standard ActivityPub publié en janvier 2018 par le World Wide Web Consortium (W3C, à l’origine des standards du Web) et déjà appliqué par Mastodon (alternative à Twitter) ou Peertube. Ces standards permettront à une infinité d’hébergeurs de communiquer entre eux, selon les règles de chacun. Ils permettront aussi à chaque personne de passer librement d’un hébergeur à un autre, d’un jeu de règles à un autre (ce que les plateformes géantes font tout pour empêcher aujourd’hui).
  • Si le gouvernement veut mieux réguler le Web, il doit le faire sérieusement. En se contentant d’alourdir les obligations des géants, son action restera superficielle. Pour agir en profondeur et sur le long terme, sa démarche doit aussi être constructive, favorisant le développement de modèles vertueux.
  •  
    "La directive droit d'auteur et les récents débats sur les « fausses informations » ont servi d'introduction au débat général sur la régulation du Web, tel qu'il s'annonce pour l'année à venir. Aujourd'hui, La Quadrature du Net présente ses propositions concrètes."
Aurialie Jublin

Paris se dote d'une « stratégie de résilience » - 0 views

  • Pour définir ce plan, la ville s’est notamment appuyée sur le réseau « 100 Résilient Cities », une initiative de la Fondation Rockefeller pour accompagner les villes confrontées à une multiplication des menaces, tout en favorisant le partage d’expériences, les bonnes pratiques et solutions.
  • Cette stratégie de résilience, à laquelle Paris s’engage à dédier 10 % de ses investissements, se décline en 35 actions qui viennent renforcer différentes politiques déjà initiées pour adapter la ville aux évolutions du climat, améliorer sa qualité environnementale ou encore favoriser des modes de production et de consommation responsables.
  • « L’idée est de remettre de l’humain dans les grandes politiques, que tout un chacun, à son échelle, participe, se mobilise et se responsabilise par rapport aux enjeux », explique Célia Blauel, adjointe à la Maire de Paris en charge de l’environnement. La Ville va ainsi créer un « réseau de citoyens solidaires et volontaires », qui pourront renforcer les moyens d’interventions des autorités en cas de crise majeure, comme au quotidien.
  • ...3 more annotations...
  • « Indépendamment des crises, il s’agit aussi de remettre du lien entre les gens, de renforcer la cohésion sociale. Une ville soudée et solidaire est une ville plus résiliente. Les réseaux qui se créent au quotidien sont des réseaux qui fonctionnent d’emblée le jour où l’on connaît une crise », insiste Célia Blauel
  • Plus solidaire au quotidien, Paris souhaite aussi adapter ses infrastructures. La ville veut s’inspirer de l’expérience de Rotterdam qui, face au risque d’inondation, a créé des bassins de rétention d’eau qui sont devenus de véritables espaces publics intégrés au quartier. Paris entend ainsi développer un « référentiel de voie résiliente » (matériaux adaptés aux différents risques, typologies de surfaces, mobiliers polyvalents…) avant d’aménager une ou plusieurs rues.
  • À travers sa stratégie de résilience, Paris affiche aujourd’hui sa volonté de recoudre le lien avec les territoires qui l’entourent, proches comme ruraux. Car la ville sait qu’elle ne peut pas répondre seule aux défis qui se posent à elle, qu’ils s’agissent des transports, des risques liés à la Seine, à l’alimentation, à l’énergie…
  •  
    "La capitale veut renforcer sa capacité à faire face aux chocs prévisibles comme imprévisibles. Une stratégie qui la conduit à développer une gouvernance participative et à coopérer avec les territoires qui l'entourent."
Aurialie Jublin

Concrètement, comment rendre les algorithmes responsables et équitables ? | I... - 0 views

  • Et rappelle la difficulté à définir mathématiquement l’équité, comme l’a souligné l’informaticien Arvind Narayanan (@random_walker) lors de la dernière édition de la conférence FAT (la conférence annuelle sur l’équité, la responsabilité et la transparence). Outre les biais et déséquilibres statistiques, rappelle David Robinson (@drobinsonian), responsable des associations EqualFuture et Upturn (et qui a notamment publié un rapport sur la question de l’examen public des décisions automatisées (.pdf)), leur impact dépend surtout de la manière dont sont utilisés ces systèmes, avec le risque, que pointait Eubanks, que les plus discriminés soient encore plus surveillés par ces systèmes.
  • Pour remédier à ces problèmes, beaucoup d’agences américaines ont recours à des chercheurs extérieurs pour déjouer les biais de leurs systèmes. En avril, l’AI Now Institute a défini un cadre (voir le rapport (.pdf)) pour les organismes publics qui souhaitent mettre en place des outils de prise de décision algorithmique, recommandant notamment de mettre à contribution la communauté de la recherche et de permettre à ceux que le système calcul de faire appel des décisions prises à leur sujet.
  • Leurs recommandations invitent les systèmes à respecter le droit d’information du public, à recourir à des examens par des chercheurs indépendants, à améliorer l’expertise des organismes qui les conçoivent et à développer des modalités pour permettre au public de contester les décisions prises. L’initiative recommande aux agences publiques de répertorier et décrire les systèmes de décision automatisés, y compris d’évaluer leur portée et impact. Elle recommande également de mettre en place des modalités d’accès afin que des chercheurs, des experts indépendants, des associations ou des journalistes puissent accéder et évaluer ces systèmes et pour cela doivent s’assurer notamment que leurs fournisseurs privés de systèmes acceptent ces vérifications. Elle souligne également que les agences doivent monter en compétences pour être expertes des systèmes qu’elles mettent en place, notamment pour mieux informer le public, et invite les fournisseurs de solutions à privilégier l’équité, la responsabilité et la transparence dans leurs offres.
  • ...7 more annotations...
  • Mais ce n’est pas la seule piste qui permettrait d’interroger les biais des systèmes automatisés. Microsoft travaille à un outil de détection automatique des biais, Facebook également (notamment via le projet Fairness Flow annoncé par Isabel Kloumann du département d’IA de FB research à la dernière conférence de F8 Conference parmi une longue liste d’outils pour l’IA) rapporte la Technology Review.
  • La mathématicienne Cathy O’Neil (@mathbabedotorg, blog), qui s’est fait connaître en dénonçant les dangers de ces outils, a lancé une entreprise d’audit algorithmique. Visiblement, souligne Wired, ses premiers clients sont des entreprises qui ont besoin de certifier qu’elles sont équitables : comme cela a été le cas de Rentlogic, une entreprise qui évalue les immeubles automatiquement pour leur attribuer une note, ou comme Pymetrics, une entreprise qui utilise des tests de personnalité pour aider les entreprises à embaucher qui avait besoin d’assurer que ses logiciels n’étaient pas discriminants.
  • Dans son livre, Weapons of Math Destruction, Cathy O’Neil avait émis l’idée de créer un serment d’Hippocrate pour les datascientists, sous la forme d’un code de conduite édictant quelques principes moraux. Elle soulignait dans une remarquable interview pour Wired, que ce code de conduite n’était certes pas suffisant en soi, notamment parce que les datascientists ne sont pas seuls à décider de ce qui sera implémenté dans les services développés par les entreprises. Pour autant, ces techniciens ne peuvent pas seulement suivre « les recommandations des manuels d’optimisation qu’ils utilisent, sans tenir compte des conséquences plus larges de leur travail ».
  • Cathy O’Neil a proposé une matrice éthique, basée sur les travaux du philosophe Ben Mepham qui l’a utilisé en bioéthique, qui aide à saisir ce sur quoi ce que l’on développe a un impact, et de l’autre ce dont s’inquiète les gens qui sont impactés par ce que l’on développe. Cette grille confronte quelques notions (exactitude, cohérence, partialité, transparence, équité, rapidité) à leur impact sur chacune des parties prenantes. La matrice sert à créer une conversation. Chaque case propose des questions : « qui souffre si le système se trompe ? » Le but est de révéler des problèmes. Quand la réponse pose problème, la case est colorée de rouge.
  • Elle propose également de se poser plusieurs questions, comme « les algorithmes que nous déployons vont-ils améliorer les processus humains qu’ils remplacent ? » Bien souvent, on constate qu’ils fonctionnent beaucoup plus mal que les systèmes précédents. Pour elle, il est également nécessaire de se demander : « pour qui l’algorithme échoue-t-il ? » Un système de reconnaissance facial échoue-t-il plus souvent pour les femmes que pour les hommes, pour les gens de couleurs que pour les blancs, pour les personnes âgées que pour les jeunes ?… Enfin, elle invite à se poser une troisième catégorie de questions : « est-ce que cela fonctionne pour la société (donc à très large échelle) ? Est-ce que nous enregistrons les erreurs du système ? Peut-on les réintroduire dans l’algorithme pour l’améliorer ? Est-ce que le système a des conséquences non intentionnelles ?… » Et la chercheuse de rappeler qu’aucunes de ces questions ne mettent en danger les secrets des algorithmes que les entreprises veulent protéger.
  • Le militant pour la protection de la vie privée Aral Balkan (@aral) estime qu’un code d’éthique risque surtout d’être utilisé comme caution de vertu par les entreprises pour continuer à faire comme d’habitude. Appliquer le RGPD aux États-Unis aurait plus d’impact pour prévenir les dommages algorithmiques. Sur son blog, Virginia Eubanks a réagi en proposant plutôt un « serment de non-violence numérique », qui, dans la forme au moins, est plus impliquant pour celui amené à le prononcer que de signer à quelques grands principes vagues
  • Mais l’enjeu demeure de les mettre en pratique. « Tout code d’éthique des données vous indiquera que vous ne devez pas collecter des données de sujets expérimentaux sans leur consentement éclairé. Mais ce code de conduite ne vous dira pas comment implémenter ce consentement éclairé. Or, celui-ci est facile si vous interrogez quelques personnes pour une expérience de psychologie. Mais il signifie quelque chose de bien différent en ligne ». Et ce n’est pas la même chose bien sûr de demander la permission via une fenêtre pop-up par exemple ou que via une case précochée cachée… La mise en oeuvre de principes éthiques englobe des questions qui vont des choix dans l’interface utilisateur aux choix de structuration des données ou d’interrogation des données de connexion. Et pose la question de rendre néanmoins le service utilisable sans dégrader l’expérience utilisateur…
  •  
    "Face aux multiples biais inscrits dans la production même des données utilisées par les algorithmes et les outils d'apprentissage automatisés, le risque, rappelle la chercheuse Kate Crawford (@katecrowford), co-fondatrice de l'AI Now Institute (@AINowInstitute), est que « plutôt que de concevoir des systèmes censés résoudre les problèmes, nous les exacerbions »."
Aurialie Jublin

Le Libre peut-il faire le poids ? - Framablog - 0 views

  • l’économie des géants du numérique est, pour certains, basée sur une attitude extrêmement agressive : il faut être le moins cher possible, perdre de l’argent à en crever et lever des fonds à tire-larigot pour abattre ses concurrents avec comme logique un pari sur la quantité d’argent disponible à perdre par participants. Celui qui ne peut plus se permettre de vider les poches de ses actionnaires a perdu. Tout simplement. Si ces entreprises imaginent, un jour, remonter leurs prix pour envisager d’être à l’équilibre ou rentable, l’argument du « ce n’est pas possible puisque ça rouvrira une possibilité de concurrence » sortira du chapeau de ces génies pour l’interdire. Du capitalisme qui marche sur la tête.
  • La deuxième grande technique des géants du numérique est basée sur la revente de statistiques collectées auprès de leurs utilisateurs. Ces données privées que vous fournissez à Google, Facebook Inc,, Twitter & co permettent à ces sociétés de disposer d’une masse d’informations telle que des entreprises sont prêtes à dégainer leurs portefeuilles pour en dégager des tendances.
  • Une troisième technique consiste à reprendre les données collectées auprès des utilisateurs pour afficher de la pub ciblée, donc plus efficace, donc plus cher. C’est une technique connue, alors je ne développe pas.
  • ...11 more annotations...
  • Une autre technique est plus sournoise. Pas pour nous autres, vieux loubards, mais pour les jeunes : le placement produit. Même si certain Youtubeurs en font des blagues pas drôles (Norman…), ce truc est d’un vicieux.
  • Ces influenceurs sont friands de plateformes taillées pour leur offrir de la visibilité et clairement organisées pour attirer l’œil des Directeurs de Communication des marques. Mastodon, Pixelfed, diaspora* et les autres ne permettent pas de spammer leurs utilisateurs, n’attirent donc pas les marques, qui sont la cible des influenceurs, ces derniers n’y dégageant, in fine, aucun besoin d’y être présents.
  • On peut attendre que les Uber se cassent la figure calmement, on peut attendre que le droit décide enfin de protéger les données des utilisateurs, on peut aussi attendre le jour où les consommateurs comprendront qu’ils sont les seuls responsables de l’inintérêt de ce qu’ils regardent à la télé, au cinéma, en photos ou encore que les mastodontes du numérique soient démantelés. Bref, on peut attendre. La question est : qu’aurons-nous à proposer quand tout ceci finira par se produire ?
  • Après la FinTech, la LegalTech, etc, faites place à la LowTech ou SmallTech. Je ne connaissais pas ces expressions avant de tomber sur cet article dans le Framablog et celui de Ubsek & Rica d’Aral. On y apprend que c’est un mouvement qui s’oppose frontalement aux géants, ce qui est fantastique. C’est une vision du monde qui me va très bien, en tant que militant du Libre depuis plus de 10 ans maintenant. On peut visiblement le rapprocher de l’initiative CHATONS. Cependant, j’ai du mal à saisir les moyens qui pourraient être mis en œuvre pour sa réussite.
  • Les mentalités actuelles sont cloisonnées : le Libre, même s’il s’impose dans quelques domaines, reste mal compris. Rien que l’idée d’utiliser un programme au code source ouvert donne des sueurs froides à bon nombre de DSI. Comment peut-on se protéger des méchants si tout le monde peut analyser le code et en sortir la faille de sécurité qui va bien ? Comment se démarquer des concurrents si tout le monde se sert du même logiciel ? Regardez le dernier changelog : il est plein de failles béantes : ce n’est pas sérieux !
  • Parlons aussi de son mode de fonctionnement : qui se souvient d’OpenSSL utilisé par tout le monde et abandonné pendant des années au bénévolat de quelques courageux qui n’ont pas pu empêcher l’arrivée de failles volontaires ? Certains projets sont fantastiques, vraiment, mais les gens ont du mal à réaliser qu’ils sont, certes, très utilisés mais peu soutenus. Vous connaissez beaucoup d’entreprises pour lesquelles vous avez bossé qui refilent une petite partie de leurs bénéfices aux projets libres qui les font vivre ?
  • On peut faire un vrai parallèle entre la situation de la Presse en ligne et les services numériques. Trouver des gens pour payer l’accès à un Nextcloud, un Matomo ou que sais-je est une gageure. La seule différence qui me vient à l’esprit est que des services en ligne arrivent à s’en sortir en coinçant leurs utilisateurs dans des silos : vous avez un Windows ? Vous vous servirez des trucs de Microsoft. Vous avez un compte Gmail, vous vous servirez des trucs de Google. Les premiers Go sont gratuits, les autres seront payants. Là où les journaux généralistes ne peuvent coincer leurs lecteurs, les géants du numérique le peuvent sans trop de souci.
  • Perso, je l’ai déjà dit, j’adhère volontiers à cette vision du monde horizontale et solidaire. Malgré tout, mon envie de travailler, d’avoir un salaire, une couverture sociale, une activité rentable, et peut-être un jour une retraite, me poussent à grimacer. Si les bribes d’idéologie LowTech orientent les gens vers des associations, comment fait-on pour sortir de terre une entreprise éthique, rentable et solidaire ?
  • L’idée, connue, serait de s’attaquer au marché des entreprises et des collectivités pour laisser celui des particuliers aux associations sérieuses. Mais là encore, on remet un pied dans le combat pour les logiciels libres contre les logiciels propriétaires dans une arène encerclée par des DSI pas toujours à jour. Sans parler de la compétitivité, ce mot adoré par notre Président, et de l’état des finances de ces entités. Faire le poids face à la concurrence actuelle, même avec les mots « éthique, solidaire et responsable » gravés sur le front, n’est pas évident du tout.
  • Cette conférence vue au FOSDEM, The Cloud Is Just Another Sun, résonne terriblement en moi. L’intervenant y explique que les outils libres que nous utilisons dans le cloud sont incontrôlables. Qui vous certifie que vous tapez bien dans un MariaDB ou un ES quand vous n’avez accès qu’a une boite noire qui ne fait que répondre à vos requêtes ? Rien.
  • Pour finir, ne mettons pas complètement de côté l’existence réelle d’un marché : Nextcloud en est la preuve, tout comme Dolibarr et la campagne de financement réussie d’OpenDSI. Tout n’est peut-être pas vraiment perdu. C’est juste très compliqué.
  •  
    "Dans un article assez lucide de son blog que nous reproduisons ici, Dada remue un peu le fer dans la plaie. Faiblesse économique du Libre, faiblesse encore des communautés actives dans le développement et la maintenance des logiciels et systèmes, manque de visibilité hors du champ de perception de beaucoup de DSI. En face, les forces redoutables de l'argent investi à perte pour tuer la concurrence, les forces tout aussi redoutables des entreprises-léviathans qui phagocytent lentement mais sûrement les fleurons du Libre et de l'open source… Lucide donc, mais aussi tout à fait convaincu depuis longtemps de l'intérêt des valeurs du Libre, Dada appelle de ses vœux l'émergence d'entreprises éthiques qui permettraient d'y travailler sans honte et d'y gagner sa vie décemment. Elles sont bien trop rares semble-t-il. D'où ses interrogations, qu'il nous a paru pertinent de vous faire partager. Que cette question cruciale soit l'occasion d'un libre débat : faites-nous part de vos réactions, observations, témoignages dans les commentaires qui comme toujours sont ouverts et modérés. Et pourquoi pas dans les colonnes de ce blog si vous désirez plus longuement exposer vos réflexions."
Aurialie Jublin

Une IA concertée et open source comme outil éducatif pour les citoyens et les... - 0 views

  • Un autre aspect particulier du projet est d'explorer le concept de "privacy by using" et de faire du projet un outil de sensibilisation et d'éducation aux problématiques d'éthique et de protection de la vie privée dans les services intégrant de l'IA. 
  • Dans ce sens, nous travaillons sur des contenus et des formats (ateliers et rencontres de type barcamp) spécifiquement pensés de manière ludique pour les écoles afin de sensibiliser dès le plus jeune âge aux problématiques liées aux biais et à l'économie de l'attention, problématiques inhérentes à la "vie numérique" de l'époque actuelle et qui vont s'avérer toujours plus critiques avec le développement de l'IA (de plus en plus d'enfants sont confrontés très tôt à des services potentiellement problématiques, en particulier avec le boom des assistants vocaux).
  • Ainsi, en combinant la méthode "society in the loop" et l'approche "privacy by using", le projet permet de constituer de façon concertée une base de connaissances libre et ouverte tout en participant à l'éducation de la société sur les enjeux et les bonnes pratiques d'une intelligence artificielle d'intérêt général éthique et responsable.
  •  
    "Je travaille depuis quelques temps avec Matteo Mazzeri sur un projet de recherche appliquée en partenariat avec le CERN (cf. https://twitter.com/Genial_Project) qui propose une approche assez singulière de l'articulation entre intelligence artificielle (IA) et service public. Il s'agit de concevoir une "IA concertée" et open source qui permette de développer des services d'intérêt général / à vocation de service public. L'originalité de notre approche est d'appliquer le concept de "society in the loop" exposé par le MIT Medialab (concept très bien expliqué en français par Irénée Régnauld dans cet article) de manière à proposer une méthodologie, un travail humain sur les données et des modèles d'apprentissage qui permettent de refléter au plus près les besoins de "la société" et d'aboutir à une IA éthique et responsable."
Aurialie Jublin

[Logiciel libre] Et si le monde numérique devenait vraiment « libre » ? - 0 views

  • « Je ne vois pas ce qui peut exister et qui ne soit pas remplaçable par une solution open source, en particulier dans les innovations sociales et tous les projets d’intérêt général, dit-elle. Hier, je suis tombée sur un logiciel qui gère la projection dans les cinémas... Le libre permet aussi de répondre à des besoins publics, à l’image d’OpenCimetière qui a été produit pour une commune et qui sert à présent à d’autres mairies.
  • Cet élan d’ouverture s’est décliné dans la production de marchandises avec l’open hardware, dans les données avec l’open data (mise à disposition de données publiques) ou encore dans le partage des connaissances avec l’open innovation, l’open science, etc. Ce mouvement général repose sur la libre circulation des savoirs, l’accessibilité au « faire » et la coopération entre pairs.
  • « Quand des salariés transforment leur entreprise en coopérative, cela ne les empêche pas de recruter un directeur, mais la direction est une compétence de coordination et non un organe de pouvoir. C’est la même chose dans le pair-à-pair », précise-t-elle.
  • ...4 more annotations...
  • Mais, si l’open source a permis au libre de gagner en efficacité, sa focalisation sur la technique l’a sans doute éloigné de ceux à qui il s’adressait en premier lieu : tous les autres, qui ne développent pas. Le libre reste, en effet, très circonscrit au monde de l’informatique et se compose majoritairement d’hommes, même si d’une multitude de nationalités.
  • Les logiciels libres ne permettent pas forcément de protéger les données, mais on est sûr que l’exploitation des données ne constitue pas le modèle économique du service. Quand on entre dans l’état d ’esprit du logiciel libre, on prend conscience de l’impact de l’informatique dans sa propre vie, on est plus vigilant et on est assuré que quelqu’un quelque part vérifiera s’il y a des mouchards dans le code et alertera les autres. La faiblesse du libre, c’est que si j’envoie un mail à un ami qui est sur Gmail, malgré tous mes efforts, Google aura mes données. Le libre te pousse à considérer l’interconnexion aux autres et le risque qu’on fait prendre aux autres en laissant ses données sur internet sans s’assurer de ce qu’elles deviennent », explique Catherine Guillard.
  • L’une des clés serait sans doute de rendre l’engagement dans le libre aussi mobilisateur pour d’autres métiers que ceux du développement... Par exemple les graphistes, les juristes ou pourquoi pas le monde médical, qui tous doivent composer avec le numérique et les dérives de certains de ses acteurs. Enfin, il faudrait peut-être revenir aux origines sociales et politiques du libre.
  • En effet, à l’image du bio qui n’est pas qu’une méthode de culture, le libre n’est pas qu’une méthode de développement, mais propose un modèle de société plus respectueux des autres, plus solidaire, plus attentif aux impacts sociaux et environnementaux. Faire un pas vers le libre, c’est, au fond, soutenir le « faire ensemble ».
  •  
    "Les logiciels libres et le mouvement open source luttent contre les boîtes noires, prônant le partage des savoirs et le « faire ensemble ». Mais l'ouverture des codes est-elle vraiment un gage d'ouverture aux autres ? Le monde du « libre » ne devrait-il pas engager une mutation pour rendre plus tangible sa dimension solidaire et toucher un public plus large ? Ce sont les questions que pose cet article de Solidarum, issu du numéro 3 de la revue Visions solidaires pour demain, en librairie depuis la mi-janvier."
Aurialie Jublin

The next billion users : une immersion dans l'internet des pauvres - Digital Society Forum - 0 views

  • Rien n’y fait : équipés d’Internet, les pauvres ne font pas du tout ce qu’on attend d’eux, à savoir se sortir de la pauvreté. Les cabines numériques disposées dans les villages indiens deviennent des bornes d’arcade et, surprise, les cent millions d’ordinateurs de l’opération « One laptop per child » (financée par des entreprises, notamment AMD, Brightstar Corporation, eBay, Google, Marvell, etc.) n’ont pas réduit le fossé éducatif, sans doute parce qu’ils avaient été distribués à des enfants ne sachant parfois ni lire ni écrire. Des absurdités de ce type, l’autrice en dresse une longue liste, comme ces smartphones que l’on distribue à de jeunes femmes n’ayant le droit de s’en servir que pour passer des appels d’urgence. A New Delhi, d’autres jeunes femmes (les « computer girls ») deviennent des craques de l’informatique, mais restent assignées à leur statut traditionnel, système de castes oblige. Le constat est sans ambiguïté : non seulement la technologie tombe du ciel sans être intégrée dans une quelconque stratégie sociale, mais toute tentative de réappropriation est méprisée et découragée.
  • Histoire similaire en Chine, où l’on craignait que les cybercafés populaires ne favorisent les activités anti-régime. Ils furent rapidement interdits aux mineurs et on y généralisa le tracking, une pratique désormais monnaie courante dans l’Empire du Milieu. D’exemple en exemple, Payal Arora démontre que les décisions prises par les pouvoirs en place n’ont eu de cesse de réduire l’accès à Internet et à la culture aux personnes les moins dotées, sous prétexte que l’usage qui en serait fait n’entrerait pas dans les bons standards de moralité. Comme souvent, les pauvres font l’objet de politiques paternalistes : on leur demande d’être vertueux et le moindre faux pas les condamne.
  • A l’inverse, la débrouille des quartiers défavorisés est érigée en exemple à suivre. La mode de l’innovation frugale (ou « Jugaad innovation » ) qui consiste à innover avec des ressources limitées, en témoigne. En Inde par exemple, la customisation des véhicules afin de transporter plus de passagers est souvent mise en avant. Cependant, elle augmente sensiblement le nombre d’accidents : « la frugalité a un coût, celui de la sécurité », écrit Arora. Les Nano cars de Tata – des petites voitures accessibles au plus grand nombre – quant à elles, sont certes pratiques mais occasionnent de lourds dégâts environnementaux : rien ne dit aujourd’hui que ces innovations améliorent réellement la vie des pauvres, affirme la chercheuse
  • ...9 more annotations...
  • Plus grave encore, il y a fort à parier qu’elles freinent les solutions de plus long terme comme par exemple le développement de transports publics accessibles à tous. Côté mobile, une application comme AquaSift permet de détecter la toxicité de l’eau mais ne résout en rien le fait que dans beaucoup de communautés pauvres, y accéder reste difficile. On ne change pas le gouvernement avec une application. Si l’innovation frugale rencontre un succès fulgurant en Occident, ce n’est que parce que nous en avons totalement romantisé l’image.
  • En somme, la frugalité (Jugaad en Inde, « Shan-zaï » en Chine, « Gambiarra », « Bacalhau » ou « Jeitinho » au Brésil) est aussi une forme de solutionnisme technologique qui repose, une fois encore, sur la confortable conviction que les pauvres ont toutes les ressources en eux pour s’en sortir, pourvu qu’ils articulent habilement leurs problèmes aux dernières technologies disponibles.
  • Payal Arora n’a pas de mots assez durs pour dénoncer la vaste supercherie du système. Non seulement aucune relation de causalité n’a prouvé son efficacité, mais en plus, il structure l’éducation dans un sens qui pose une multitude de questions d’ordre éthiques et politiques. Ainsi, ces appareils et les programmes soi-disant éducatifs avec lesquels ils fonctionnent restent des boîtes noires, indisponibles à tout audit sérieux. L’expérimentation, qui dure 75 jours, nécessite la présence d’un ou plusieurs adultes dont on ne connaît pas la rémunération et le protocole de suivi des enfants est tout sauf rigoureux scientifiquement. Des études plus sérieuses ont rapporté que la plupart des machines ne fonctionnaient pas, faute de connexion Internet. Et quand elles marchaient, elles étaient souvent monopolisés par de jeunes garçons devant des jeux vidéos. Enfin, les contenus pédagogiques, souvent en anglais, présentent un danger pour la pérennité des langues traditionnelles. Pour le professeur Mark Warschauer (University of California), cité par Arora, ces dispositifs sont un échec total. Pourtant, Mitra a bien récolté un million d’euros grâce au Ted Prize pour cette « école dans le cloud » résolument inefficace… Pour Arora, cette triste histoire trouve ses racines dans la foi encore trop peu contestée dans le constructivisme , une théorie qui stipule que l’enfant peut apprendre seul et sans professeur.
  • En prenant un peu de hauteur, la chercheuse critique plus largement une certaine forme de philanthropie très à la mode dans les milieux technologiques. Elle l’accuse ouvertement d’être contre-productive et de servir les intérêts de grandes corporations plus que des populations pauvres : « la technologie est devenue une institution en soi, la pauvreté une opportunité. La croyance néolibérale en l’efficacité absolue du marché transforme n’importe quelle inégalité en actif pour l’innovation. » Pour Arora, cette idéologie vient justifier la nécessité de tester sur les moins aisés de nouvelles solutions qu’un riche Occidental n’imaginerait même pas pour ses propres enfants. Les pauvres n’ont pas besoin de plus d’innovation, mais de moins d’innovation, affirme-telle : « Si l’innovation est une courroie de transmission pour des projets pilote, alors les pauvres seront mieux sans. Ils ne devraient pas servir de rats de laboratoires pour les nouvelles technologies. Le simple fait qu’une technologie est nouvelle ne devrait pas justifier en soi qu’on l’expérimente sur des pauvres ».
  • Sa dénonciation englobe aussi le projet « AltSchool » largement financé par Mark Zuckerberg et Priscilla Chan, une sorte de « classe Ikea », où les enfants terminent seuls devant des écrans, pour un prix conséquent et sans que son efficacité réelle soit démontrée. Le plus grand problème selon elle, reste que le marché pardonne plus facilement les défaillances technologiques qu’humaines : la Silicon Valley peut réinjecter des millions de dollars pour trouver une nouvelle solution technique à un problème ancien, mais elle refuse de réfléchir aux problèmes de fond, comme le manque de professeurs ou l’état désastreux des écoles dans certains quartiers.
  • En dernière partie d’ouvrage, Payal Arora attaque les questions liant surveillance et vie privée. On le savait déjà, les pauvres en ont toujours été surveillés. Le « social credit system » chinois et son cousin indien « Unique Digital Number » (UID) sont ainsi connus pour conforter les hiérarchies sociales en place et agir par contagion : en Chine, fréquenter une personne dont le score est bas revient à prendre le risque de voir baisser son propre score. On en déduirait un peu rapidement que dans les pays pauvres, et plus généralement en dehors de l’Occident, la vie privée aurait moins de valeur aux yeux des individus. A y regarder de près, cela semble un peu plus compliqué. En interrogeant plus largement les usages quotidiens des réseaux sociaux dans les favelas et autres bidonvilles, Arora montre qu’ici comme là-bas, la vie privée n’est pas sans valeur ni abstraite, mais un concept avant tout lié à des particularités culturelles. Au Brésil par exemple, une jeune femme déclare ne pas en vouloir à sa mère de la « stalker » en ligne (c’est-à-dire à suivre ces déplacements, fouiller ses messages et autres réseaux d’amis)
  • En Inde, Facebook est pour de nombreux jeunes l’occasion de parler au sexe opposé, chose difficile dans la vie réelle. Le Chat est à ce titre tout à fait adapté à la romance, à travers des poèmes et autres conversations romantiques. Cependant, à l’échelle mondiale, un tiers de ces échanges se font anonymement, avant tout pour protéger les données personnelles et par souci de réputation, notamment en Asie.
  • Arora en profite pour démonter les profonds préjugés qui tendent nous à faire croire que parce que l’on est pauvre, parce que l’on vit dans une communauté étroitement liée, parfois à plusieurs dans une même pièce, on ne valoriserait pas la vie privée. En réalité, les pauvres, dans les pays étudiés par Arora, ne sont pas moins attachés à la confidentialité que les Occidentaux, même si celle-ci prend différentes significations en fonction des pays, des cultures et des genres. Dans un village en Jordanie, la confidentialité sert avant tout à protéger la vertu féminine et l’honneur masculin (préserver son image dans la communauté, ne pas s’exposer publiquement pour les femmes). Dans une famille aisée du Royaume-Uni, elle préserve l’innocence des jeunes (notamment à travers le filtrage des contenus). Plus encore qu’en Occident, préserver sa confidentialité dans les pays pauvres relève de la lutte car le succès immense des réseaux amène aussi son lot de danger : « revenge porn » et harcèlement peuvent ruiner la réputation d’un individu, conduire à l’exil et même au suicide.
  • The Next Billion Users, Digital Life Beyond the West est, en résumé, une étude inestimable, formidablement documentée et regorgeant d’illustrations plus pertinentes les unes que els autres. Loin des théories globalisantes qui tendent à mettre dans un même sac « Les Chinois », « Les Indiens », quitte à les opposer à l’Occident dans une lutte pour la puissance technologique, cette enquête de terrain vient au contraire contredire nos préjugés sur ce monde que nous jugeons bien souvent à l’emporte-pièce et sans nous embarrasser de détails. A travers son étude et notamment ses entretiens et anecdotes, la chercheuse met en lumière les relents colonialistes qui ponctuent les relations Nord-Sud, notamment en matière numérique. Arora brise notre propension à romantiser la pauvreté, à ne l’envisager qu’à travers nos lunettes postcoloniales, comme une tribu de bons sauvages qu’il faudrait éduquer à notre mode de vie. Enfin, elle réduit en poussière le fantasme du pauvre débrouillard, entrepreneur par nature, auto-organisé et vertueux. Cette vision, biaisée, n’a pour objet que d’asseoir les projets technocratiques de l’Occident, qui ne regarde que ses intérêts propres et surtout pas ceux des populations « à civiliser ».
  •  
    "A quoi ressemble l'Internet des pauvres ? Pas à l'image romantique forgée par la philanthropie occidentale, explique l'anthropologue Payal Arora. Pourtant, cette conception paternaliste de la pauvreté informe toujours nombre d'initiatives de développement par la technologie, qui s'apparentent à une nouvelle forme de solutionnisme."
Aurialie Jublin

Retour sur MyData2018 : quelle(s) approche(s) collective(s) des données perso... - 0 views

  • L’entrée en vigueur du RGPD a clairement été l’événement marquant de 2018 et beaucoup d’intervenants s’y sont référés. Le principe d’équité y est affirmé. Or il s’agit d’un principe qui recouvre une dimension collective : l’équité suppose un groupe, contrairement aux autres principes (transparence, légalité, limitation de but, rétention, intégrité et confidentialité, minimisation des données, précision). Toutefois le texte ne donne pas de définition de l’équité dans le contexte de la gestion des données personnelles a fait remarquer Jussi Leppälä, Privacy Officer (Global) chez Valmet. Finalement, les intervenants s’accordaient à dire que le RGPD est un texte axé sur les besoins individuels plutôt que collectifs. Il protège l’individu, mais ne porte pas de vision véritablement collective des données personnelles.
  • Sur cette question de l’équité, l’exemple d’openSCHUFA donné par Walter Palmetshofer (Open Knowledge Allemagne) est inspirant : une campagne de collecte de données a été faite auprès de milliers d’individus pour comprendre l’algorithme de credit-scoring (pointage de crédit) de SCHUFA, bureau de crédit privé allemand. Cela a permis à des individus de pouvoir demander, preuves à l’appui, à corriger des décisions prises par l’algorithme. De manière générale, le biais algorithmique est un enjeu sociétal important, surtout pour les groupes les plus fragiles dont les données personnelles sont plus exposées et davantage victimes de biais algorithmiques (à ce sujet, lire Internet Actu).
  • D’autres intervenants ont insisté sur la nécessité d’accompagner les entreprises vers plus de prises en compte de leur responsabilité sociale. Le modèle de gouvernance qui domine actuellement étant l’hégémonie d’acteurs économiques (GAFA, BATX) raconte Bruno Carballa Smichowski, de Chronos, le rééquilibrage des pouvoirs doit venir des Etats. Ces derniers disposent de données personnelles, mais peuvent également demander des comptes et pousser les acteurs qui utilisent les données à être plus ouverts et actifs : littératie, infrastructure, open innovation, construire la confiance et faire reculer la peur, ou encore impliquer les personnes concernées (Hetan Shah et Jeni Tennison), sont autant d’actions que les pouvoirs publics peuvent mettre en place.
  • ...9 more annotations...
  • Depuis le lancement de MyData, la nécessité de développer les enjeux collectifs des données personnelles apparaît chaque année plus forte. En parallèle, les communs numériques apparaissent de plus en plus comme un modèle alternatif désirable face aux comportements abusifs des acteurs dominants. Les communs autorisent par nature une gestion transparente et au service de la communauté, car gérés par leurs membres.
  • Si sa remarque a donné naissance au track “OurData” en 2017 et en 2018,, le terme de “commun” était pourtant quasiment absent des discussions du track OurData, essentiellement tourné vers l’acteur public et la régulation. L’exemple d’OpenSCHUFA se rattache néanmoins au courant des communs en donnant un exemple concret.
  • L’idée derrière la coopérative de données qui s’intègrerait au modèle MyData/Self Data viserait plutôt à créer un commun : une association d’individus développant des outils et services (chat, moteur de recherche,…) leur permettant de gérer leurs données de A à Z. Il existe plusieurs coopératives de données de ce type : diglife.coop, schluss, open.coop,…
  • Laura James (doteveryone) a suggéré  cette session afin d’échanger avec les participants sur la faisabilité de créer une ou des coopératives “de masse”, appartenant à leurs membres et gérées par eux. L’objectif serait d’offrir aux gens de meilleurs services que les géants de la technologie et les entreprises de type Silicon Valley. Laura James constate que si le problème avec les géants numériques est leur modèle d’entreprise (capitalisme de surveillance) et le modèle de propriété (extraction de richesse au profit de quelques-uns), la “data coop” doit permettre d’offrir une technologie en laquelle nous pouvons avoir confiance – c’est-à-dire préservant notre vie privée, accessible, fiable, équitable, basée sur les sources ouvertes existantes, avec un meilleur support et une véritable durabilité.
  • Est-ce que le peu de succès de Digital Life Collective est dû à un manque d’intérêt de la part des consommateurs pour les questions liées aux données personnelles ? Ou bien est-ce que les enjeux ne sont pas encore bien compris par les gens ? Les porteurs de coopératives présents à la session échangent sur plusieurs éléments de réponse. D’abord, il n’y a pas une absence d’intérêt pour les questions de privacy mais une perception et un traitement différent selon les personnes (par les « millenials » par exemple). Ensuite, les consommateurs veulent-ils avoir à supporter la responsabilité qui va avec la reprise du contrôle sur leurs données ? Rien n’est moins sûr : comme les services gratuits d’aujourd’hui, cela doit être simple. Mais le contrôle implique nécessairement des responsabilités… Les consommateurs ont aussi besoin de services pratiques. Il faut travailler l’expérience utilisateur. Enfin, il faut une littératie des données pour créer un véritable intérêt et dissiper la peur et les malentendus autour de ce sujet.
  • Comment avoir une véritable gouvernance partagée tout en ayant une organisation suffisamment grande ? A peine 10 personnes sont vraiment actives au sein de Digital Life Collective. Schluss recherche une manière de faire participer davantage les membres. C’est un problème récurrent pour les coopératives, et toute organisation dont la gestion s’appuie sur l’ensemble de ses membres. Toutefois, l’un des participants soulignait que même si seul 1% s’implique dans la prise de décisions, tous reçoivent les bénéfices de la coopérative ! Ca n’est pas la gestion parfaitement partagée et idéale, mais cela fonctionne quand même. Avant de renoncer au modèle participatif, quelques modèles de gouvernance pourraient être expérimentés pour faciliter les prises de décision participatives au sein de la coopérative : les jurys citoyens, sociocracy 3.0 (utilisé par certaines entreprises télécom en Finlande), …
  • Dans les sessions de la thématique “OurData”, nous avons eu le plaisir d’entendre à chaque fois (ou presque) que la propriété appliquée aux données personnelles n’a aucun sens. Bien que ce track, plus qu’aucun autre, soit prédisposé à un tel constat,depuis quelques années, la position de la communauté MyData s’est éclaircie à ce sujet et on voit de moins en moins de personnes prôner ce modèle de propriété et de revente individuelle de ses données..
  • En découle un modèle collectif basé non pas sur des titres de propriété individuels mais sur des droits d’usage. Le RGPD en crée quelques-uns mais d’autres questions restent en suspens, comme le droit à la mémoire collective, notamment pour les catégories les plus défavorisées, ou encore l’équité, qui s’oppose à une régulation par les lois du marché.
  • La plupart des intervenants postulent que c’est l’acteur public qui doit agir : en créant de nouveaux droits associés aux données personnelles, en accompagnant les acteurs privés à fournir des solutions plus éthiques et transparentes, en s’engageant pour une culture et une littératie de la donnée pour tous, en actant juridiquement que les données personnelles sont le résultat d’un processus collectif qui appartient à la société qui l’a co-généré et qu’il ne peut y avoir de propriété associée (en France la CNIL est très claire sur ce dernier point, nous avons besoin d’une voie aussi claire au niveau européen !), en promouvant leur valeur sociale, et non commerciale, et enfin qu’il fasse que le fruit de ce travail doit servir à répondre à des problématiques collectives telles que la santé, l’éducation, la culture, la protection de l’environnement, …
  •  
    "LE CONSTAT : LA GESTION ACTUELLE DES DONNÉES PERSONNELLES S'INTÉRESSE PEU AU COLLECTIF MyData s'intéresse à toutes les dimensions que recouvre le contrôle des données personnelles : si la privacy occupe souvent le devant de la scène, MyData explore également la transparence des organisations et des technologies, l'équité et la dimension collective des données personnelles."
Aurialie Jublin

La plupart des applis pour les réfugiés ne sont pas utilisées - Digital Socie... - 0 views

  • avec la généralisation du mobile. Celle-ci a instauré un mode d’existence différent, fondé sur la joignabilité permanente. Les nouvelles technologies ont apporté des réponses immédiates à certains besoins des migrants : rester proche de la famille, rendre la migration supportable. À mesure que ces technologies se sont développées, elles ont envahi tous les aspects de la vie des migrants. Elles ont aussi amené de nouvelles contraintes : les smart borders , le tracking, la question de la privacy, ainsi que des contraintes sociales nouvelles comme l’obligation d’être présent même à distance, d’envoyer de l’argent…
  • Tout s’accélère en 2015, quand les médias mettent en lumière le migrant connecté. De tous côtés activistes et hackers se mettent à créer des applications pour les réfugiés. Il y a une vague d’idées, une sorte de « technophorie ». Avec une expertise technique sur le sujet, beaucoup d’élan et d’initiative, mais sans vraiment avoir étudié la chose avant, sans avoir réellement regardé les usages.
  • Toutes les associations doivent soudain s’y mettre, le Haut Commissariat aux Réfugiés de l’ONU se lance aussi là-dedans, Techfugees naît et la presse encourage beaucoup ces initiatives. Il y a de l’argent, public et privé, pour développer des prototypes, mais pas assez pour accompagner ces applications vers leur maturation, les phases de testing, le développement d’un business model.
  • ...6 more annotations...
  • Avec mes collègues Léa Macias et Samuel Huron, nous avons inventorié une centaine d’applications et de plateformes construites ces 8 dernières années. Celles-ci proposent des services très variés : Information-service, mise en relation, recherche d’emploi, hébergement, traduction, apprentissage des langues, éducation et formation, identité, santé… Nous avons constaté que ces applications ont une vie de comète : ainsi en juin 2018, 27 % des applications recensées précédemment avaient disparu (13 sur les 48 recensées). En septembre 2018, 29 % avaient disparu (soit 10 sur les 35 recensées).
  • Nous avons aussi testé ces applications avec des réfugiés inscrits à l’école Simplon, dans le programme Refugeek qui les forme à être programmeurs en France. Ce sont des gens habitués au code, aux applications. Dans leur téléphone, nous n’avons trouvé aucune application destinée aux réfugiés. Ils utilisent Facebook, WhatsApp, Google, comme tout le monde
  • Nous avons aussi constaté que toutes les applications, même les plus simples, demandaient des informations personnelles. Toutes ont l’idée de faire reposer leur modèle économique sur les data. C’est classique dans le champ des applications. Mais quand on travaille avec des réfugiés, c’est délicat. Car ces personnes ne sont pas réfugiées par hasard : elles fuient des dangers et il faut faire très attention avec ces données.
  • Les applications qui marchent, comme CALM (Comme à la Maison, application qui met en lien des réfugiés avec des particuliers qui peuvent les héberger pour des durées variables, ndlr), c’est parce qu’elles mettent en pratique une idée longuement mûrie, dans le cas de CALM celle de favoriser l’intégration par l’immersion.
  • CALM, développé par le mouvement citoyen Singa , repose sur l’idée de l’intégration par l’immersion. je crois aussi que c’est très efficace. Les codes d’une société s’acquièrent plus facilement lorsqu’on est immergé dans un environnement, on approche l’altérité différemment. Surtout, des sentiments naissent de cette mise en relation de reconnaissance, de satisfaction... Cela crée une énergie très positive. Parfois ces relations durent quelques semaines, parfois toute une vie. Quand les migrants racontent des trajectoires migratoires réussies, il y a toujours une personne, à un moment donné, qui les a tiré vers la société. Singa a essayé de capter ce moment, de l’investir de manière numérique et je pense que c’est une bonne chose.
  • Ensuite, nous avons vu que l’hospitalité ne pouvait pas être déléguée à des techniques de matching. L’hospitalité, ce n’est pas Tinder. Nous avons essayé d’utiliser le matching pour organiser des rencontres, par exemple, sur la base d’intérêts communs. Mais ça ne marchait pas. Ou bien, quand ça prenait, les gens passaient sur Facebook, qui donne un aperçu plus complet de l’environnement social de la personne... Mais CALM reste une plateforme importante. Elle a été beaucoup médiatisée et a permis d’ouvrir les esprits, de faire parler de l’hébergement chez soi. Je pense qu’elle n’est pas étrangère à l’amendement adopté en octobre 2018 par l’Assemblée Nationale, instaurant un crédit d’impôt pour les personnes hébergeant des réfugiés chez elles .
  •  
    "Depuis le début de la crise migratoire en 2015, de nombreuses applications pour les réfugiés ont vu le jour. Si elles naissent de bonnes intentions, elles sont rarement utiles. C'est ce qu'explique la sociologue Dana Diminescu , enseignante-chercheuse à Télécom Paris-Tech, qui étudie depuis longtemps les usages des TIC chez les migrants (elle avait d'ailleurs coordonné le dossier consacré aux diasporas connectées sur notre site )."
Aurialie Jublin

Pour une politique de souveraineté européenne du numérique | Saisines en cour... - 0 views

  •  
    "C'est l'un des défis actuels de l'Union européenne : réussir à construire un modèle numérique viable, adapté à ses spécificités internes et au contexte mondial. Dans le contexte d'une domination des géants américains du Web (GAFAM) et d'une possible montée en puissance d'acteurs asiatiques comme les BATX, l'Union européenne (UE) est confrontée à un enjeu de préservation de sa souveraineté dans le domaine numérique. La structure même du secteur, limité à un petit nombre d'acteurs et opérateurs, accroît le risque que soient imposés des normes et usages ainsi qu'un modèle économique ou culturel contraires au respect des libertés fondamentales qui sous-tendent le projet européen. Dès lors, l'UE doit s'attacher à renforcer la régulation des plateformes numériques et à bâtir une stratégie numérique garante du développement durable, de la compétitivité et de la souveraineté de ses Etats membres. C'est dans ce contexte que la section des Affaires européennes et internationales, par la voix du rapporteur du projet d'avis Benoît Thieulin, rendra ses préconisations sur le sujet au cours du premier trimestre de l'année 2019."
Aurialie Jublin

Ce nuage que je ne saurais voir. Promouvoir, contester et réguler les data ce... - 0 views

  •  
    Tandis que les données informatiques deviennent un enjeu commercial et politique majeur, une infrastructure occupe une place croissante sur les territoires : les centres de stockage de données ou data centers. Les façades aveugles des entrepôts massifs dans lesquels s'installent leurs opérateurs nous projettent bien loin des nuages qu'évoquent le cloud ou des discours sur la dématérialisation permise par le numérique. Le nord de Paris connaît l'essor entre 1990 et 2015 de la plus importante concentration de centre de données en Europe, générant des interrogations croissantes et des controverses entre riverains, élus, agents territoriaux et employés en charge de la gestion des réseaux électriques. L'article propose d'éclairer ces tensions en montrant la pluralité des manières de rendre visibles les data centers, c'est-à-dire, en analysant les dimensions matérielles, économiques, juridiques et écologiques qui sont saisies par les acteurs du territoire pour promouvoir l'implantation de ces infrastructures, ou au contraire pour les contester. Ce faisant, l'article qualifie différentes modalités de l'invisibilité qui facilitent l'implantation des centres de données : il rend compte des conditions politiques et sociales de leur implantation. Il identifie également deux démarches initiées par les acteurs pour qualifier ce que font les infrastructures numériques au territoire. D'abord, les centres de données se développent initialement comme des projets immobiliers ordinaires, puis sont légitimés a posteriori par les acteurs qui les soutiennent afin de les rendre acceptables à moindres frais. Or ces infrastructures sont aussi ciblées par une critique écologique du numérique, portée par des contestations qui en dénoncent l'empreinte environnementale et qui s'appuient sur les centres de données pour en matérialiser les conséquences.
Aurialie Jublin

Learning analytics et université : quels risques pour la vie privée des étudi... - 0 views

  • Un professeur du Wisconsin soulignait à juste titre que « quand des personnes défendent des budgets, elles doivent ensuite prouver que les crédits obtenus ont été utilisés intelligemment. Et un des moyens d’y parvenir est de s’appuyer sur les données d’utilisation. »
  • Par ailleurs, cette surveillance est parfois réalisée à l’insu des étudiants qui ne mesurent pas que l’accès à telle ressource électronique, le temps passé sur tel article ou le téléchargement d’un livre électronique est consciencieusement collecté. Par conséquent, si l’étudiant n’a pas connaissance de ces techniques d’analyse d’apprentissage, il n’a pas la possibilité d’exercer son opposition à ce traitement de données. En outre, l’analyse d’apprentissage suppose, comme pour tout traitement de données, une sécurisation des données collectées qui pourraient être utilisées à des fins qui ne correspondent pas aux finalités initiales du traitement. Ou bien elles pourraient être utilisées par un prestataire sur lequel l’établissement n’a aucun contrôle.
  • Dans ce contexte, Briney participe à Data Doubles un projet financé par l’Institue Museum and Library Services qui consiste à mesurer l’impact sur les étudiants de l’utilisation de leurs données par les universités et les bibliothèques. Ce serait intéressant de construire un projet similaire en France.
  • ...1 more annotation...
  • Et bien évidemment plus on recueille de données, plus le risque de ré-identification est fort. La responsable de la vie privée de l’Université de Berkley a produit une grille de questions qu’il convient de se poser afin de réduire les risques : Degré de transparence et de prédictabilité : dans quelle mesure les personnes sont-elles informées sur l’objet de la collecte de données et l’utilisation qui en sera faite ? Degré d’anonymité et de choix : dans quelle mesure les données sont-elles rendues anonymes, ou la personne a-t-elle le choix de participer ? Degré d’accès, de propriété et de contrôle : quel est le niveau d’accès et de propriété des données pour les individus, les institutions, les vendeurs de prestations et le public ? Responsabilité en matière d’utilisation éthique, de gérance et de gouvernance : quels principes éthiques et quelles mesures de responsabilisation les entités qui manipulent les données des étudiant·e·s démontrent-elles ? Quels sont les standards de sécurité et techniques mis en oeuvre ?
  •  
    "Le développement du big data traverse l'ensemble des secteurs de notre société y compris les universités. En effet, le milieu universitaire est également confronté à une production exponentielle de données réalisée dans le cadre de la recherche, c'est évident, mais aussi par les étudiants. Un article de l'Université de l'Arizona publié en début d'année rappelait combien les étudiants étaient scrutés notamment à travers l'utilisation de leur carte étudiante. L'objectif de l'université était de pouvoir prédire quels sont les étudiants qui abandonneront leurs études en cours d'année ou de cursus. Qui dit étudiant, dit aussi bibliothèque universitaire. Les BU pourraient être tentées de céder « à la mesure, la collecte, l'analyse et la présentation de rapports basés sur des données des apprenants en contexte d'apprentissage » (source), autrement dit aux méthodes de Learning Analytics."
Aurialie Jublin

Pourquoi la technologie n'est pas démocratique et comment elle peut le devenir - 0 views

  • les technologies font rarement l’objet de débats démocratiques, il nous semble même étrange d’accoler les deux termes, comme si ce qui était « technique » sortait par principe de la sphère du débat. Les seuls critères peut-être, qui mériteraient des discussions, seraient les analyses coûts / bénéfices et les risques sanitaires et environnementaux.
  • Comment expliquer ce déficit démocratique ? Sclove le met sur le compte d’un malentendu à propos de la technologie : nous aurions trop tendance à penser chaque objet à travers un usage unique. Un marteau par exemple, sert à planter un clou et ce serait tout. En fait, lorsqu’un homme plante un clou, il développe ses muscles, sue, s’affirme, se souvient des mythes de Vulcain et Thor, du garage de son grand-père, etc. Le marteau lui, a nécessité de couper un arbre, extraire du minerai de fer, c’est un objet plutôt utilisé pour travailler seul (il n’a qu’un manche) qui véhicule donc une certaine forme d’organisation du travail. Comme toutes les technologies, les marteaux sont « polypotents », c’est-à-dire bourrés d’effets secondaires et d’externalités de toutes sortes qui passent bien souvent à la trappe. C’est au regard de ces effets qu’une démocratie devrait pouvoir anticiper, jauger, et décider ou non d’adopter une technologie.
  • La seconde critique affirme que « prévoir » les externalités positives ou négatives d’une technologie est difficile. Sclove l’admet volontiers mais nuance néanmoins : il reste que les citoyens sont les plus à même de savoir si une technologie va changer leur vie, les forcer à travailler ensemble ou isolément, procurer du plaisir ou de l’apathie, accroitre ou non l’autonomie ou la dépendance à une entité centralisée. Qui plus est, la démocratie technique n’agit pas qu’à l’endroit des nouveautés, elle concerne également le régime technologique présent : questionner l’existant est aussi une manière de ne pas le renforcer dans ses défauts.
  • ...10 more annotations...
  • Mais tout n’est pas si simple et les résistances sont nombreuses. La démocratie technique souffre de deux critiques majeures. La première prétend que les gens simples ne sont « pas capables » de prendre ce genre de décisions, ne font pas le poids face aux avis d’experts, en bref, la parole populaire est envisagée comme un risque à ne pas prendre.
  • En fait, les freins à la démocratie technique sont ceux dont souffre la représentativité citoyenne en général (la démocratie participative, le tirage au sort) : une certaine peur de la parole populaire et une foi aveugle en un régime technocratique qui pourrait s’absoudre de toute position idéologique, quand bien même il est incapable d’observer les siennes. Cela s’explique. Pour Sclove, les citoyens ont davantage d’intérêt au développement de la démocratie que les experts car ils sont plus à même de comprendre comment la technologie va concrètement changer leur vie.
  • Très concrètement, les technologies peuvent être autoritaires (quand par exemple elles perpétuent des hiérarchies illégitimes), individualisées (lorsque les individus peuvent leur attribuer seuls un rôle ou un autre), communautaires ou coopératives (lorsqu’elles perpétuent des hiérarchies légitimes, par exemple une hiérarchie qui amène à plus de démocratie), de masse (ce qui implique une élite détachée du reste) et transcommunautaires (qui facilite les relations entre plusieurs communautés).
  • De cette patiente déconstruction des enjeux démocratiques liés aux différents régimes technologiques, Richard Sclove dégage un certain nombre de critères de nature à faciliter la prise de décision démocratique. Pour commencer, il faudrait veiller à trouver le juste équilibre entre toutes ces formes de technologies (c’est-à-dire le bon rapport de pouvoir). Richard Sclove propose ensuite de « limiter les techniques débilitantes »
  • Parmi les autres « critères de conception démocratiques », Richard Sclove mentionne les technologies permettant une relative autonomie, capables de contenir les externalités environnementales et sociales à l’intérieur du domaine politique local, soutenables écologiquement et flexibles, c’est-à-dire susceptible de recevoir des évolutions facilement.
  • Ces critères peuvent bien sûr soulever un certain nombre de craintes légitimes. Un cadre aussi strict n’est-il pas l’assurance de signer l’arrêt de mort de toute innovation ? Richard Sclove répond par la négative. D’une part, les procédés démocratiques qu’il promeut (inspirés des modèles de conférences de consensus et autres conférences citoyennes) agissent toujours à un niveau relativement local. Si une technologie n’est pas adoptée à un endroit, elle le sera probablement ailleurs, l’objectif étant de favoriser un pluralisme technologique. Si la technologie s’avère être sans risque, alors elle pourra se diffuser.
  • Entrer dans le concret est une autre paire de manche. Pour Sclove, la première étape doit être celle de la prise de conscience. Il faudrait commencer au niveau local, par inventorier les technologies selon les critères déjà expliqués.
  • Il faudrait aussi changer de regard sur la technologie, les discours médiatiques sont bien souvent focalisés sur des « découvertes stupéfiantes » et autres « récits sensationnels ». Il faut une critique sociale de la technologie qui ne soit pas une parole descendante de la part des « experts-qui-éclairent-les-masses. »
  • Concernant le type d’institutions à mettre en place, pas de suspense, il faut tester, échouer, apprendre. De nombreuses approches déjà bien documentées ont fait leurs preuves. Le point sensible reste la bonne représentativité des citoyens. Structurellement, les experts sont surreprésentés car le personnel politique, peu formé et en manque de temps, se repose sur un personnel non-élu qui les sollicite. Ceux-là sont rarement impartiaux, peu à même d’envisager les implications sociales et politiques d’une technologie et participent pourtant à des décisions d’envergure (comme on l’a vu dans le cas des systèmes automatisés pour les aides sociales). I
  • Pour autant, nous ne devrions pas totalement baisser les bras : il reste des tas d’endroits où un contrôle démocratique est possible et même souhaitable : transport et mobilité, urbanisme, automatisation du travail, ces champs sont bien souvent laissés à l’appréciation d’entreprises, de techniciens et d’experts qui peinent à solliciter les citoyens (si tant est qu’ils le veuillent).
  •  
    "L'innovation, loin de n'être qu'une affaire technique, transforme profondément et durablement les sociétés. La plupart des technologies sont pourtant adoptées sans qu'aucun processus démocratique ne soit mis en oeuvre. Le citoyen peut-il avoir son mot à dire, et sous quelle forme ? Cette question essentielle a été posée il y a 15 ans par Richard Sclove, fondateur du Loka Institute. Mais Où Va Le Web, média d'analyse souhaitant « p(a)nser le numérique », s'est plongé dans un essai d'autant plus intéressant qu'il promeut des procédés démocratiques concrets, des conférences de consensus aux « Déclarations d'impact social et politique »"
1 - 20 of 71 Next › Last »
Showing 20 items per page