Skip to main content

Home/ QN2019/ Group items tagged données

Rss Feed Group items tagged

3More

Des "apps" envoient des données personnelles sensibles à Facebook - TV5Monde - 0 views

  • De son côté, Facebook explique que s'il collecte bien certaines données via des "apps" externes, il interdit à ces dernières de lui faire parvenir des informations sensibles des usagers.
  • Parmi ces données collectées figurent des infos très sensibles, poursuit le WSJ, citant l'exemple d'une application qui sert à surveiller ses périodes d'ovulation et dans laquelle l'utilisatrice rentre les dates de ses cycles menstruels.Selon les tests du WSJ, ces données, mais aussi le poids ou des habitudes en matière de shopping sont envoyées à Facebook à l'insu des usagers.
  •  
    "Facebook récupère en toute opacité des données personnelles sensibles et intimes, comme des informations relatives à la santé, venues d'autres applications même si l'usager n'a pas de compte Facebook, selon le Wall Street Journal vendredi."
2More

Pour les partenaires de Facebook, vos données personnelles, c'est open bar - 0 views

  • Entre 2010 et 2017 (au moins), c'était donc open bar sur les données personnelles des utilisateurs du réseau social pour les partenaires commerciaux de Facebook. Jugez plutôt : le moteur de recherche de Microsoft, Bing, pouvait accéder aux noms de tous les amis des utilisateurs, tandis que Netflix et Spotify pouvaient consulter les messages privés des individus inscrits sur le réseau social. Le tout via les applications de ses partenaires commerciaux et, évidemment, sans le consentement des individus concernés. Amazon pouvait, de son côté, obtenir le nom et les coordonnées des utilisateurs par l'intermédiaire de leurs amis, et Yahoo consulter des flux de messages d'amis.
  •  
    "Une nouvelle enquête du New York Times sur le réseau social le confirme : Facebook a autorisé de grandes entreprises comme Amazon, Netflix, Microsoft ou Spotify à se servir allègrement dans les données personnelles de ses utilisateurs."
8More

Comment gouverner à l'ère du numérique ? - 0 views

  • « Voilà longtemps que les données de Facebook sont un inestimable matériau de recherche. Mais la politique de l’entreprise de Mark Zuckerberg en la matière est digne de celle d’un État. […] La nécessité d’une obligation contraignante de service public pour les données des plateformes monopolistiques s’impose de plus en plus. »
  • Or depuis quelques années, les États laissent, par négligence ou par intérêt, la voie libre aux plateformes, jusqu’à parfois se faire concurrencer sur des terrains jusque-là assumés par les pouvoirs publics. Pour ne pas voir surgir un futur géré par des puissances « quasi-État », le rôle d’une gouvernance étatique assurant la souveraineté numérique de ses citoyens est à redéfinir.
  • « Ce qu’on commence à observer, c’est que les géants du numérique proposent des services qui ressemblent de plus en plus aux services publics : des services liés au logement, à la recherche d’emploi, au transport… et qui commencent à concurrencer les États mais sans nécessairement respecter les valeurs du service public. C’est-à-dire qu’il n’y a pas de transparence sur les opérations, pas de recours citoyen possible et pas de notion d’égalité d’accès à tous  », résume Paula Forteza.
  • ...4 more annotations...
  • L’exemple du « Safety Check », système mis en place par Facebook à l’automne 2015, qui permet aux utilisateurs de faire savoir à leurs proches qu’ils sont en sécurité en cas de catastrophe, l’illustre bien. S’il fonctionnait bien à Paris, ce n’était pas le cas à Beyrouth. Certains États, qui ont tenté de dupliquer le mécanisme d’alerte, ont passablement échoué à faire utiliser leur application. Le relais est par défaut passé à Facebook qui peut selon les choix effectués (sur le choix des mécanismes déployés selon les évènements) jouer le rôle de décideur politique à échelle mondiale. Le fonctionnement du « Safety Check » a changé depuis — il est désormais activé par les utilisateurs eux-mêmes, dans un processus d’autorégulation — mais fait toujours l’objet de critiques virulentes.
  • La députée soutient qu’une délimitation claire entre le positionnement des acteurs est nécessaire : les États assument leur rôle de régulateur, l’indépendance des institutions françaises est respectée, et les géants du numérique sont des entreprises privées soumises au contrôle démocratique.
  • Dans un contexte géopolitique divisé entre géants du web américains et chinois, l’Europe représente un marché très juteux pour les GAFA. Redonner leur souveraineté numérique aux États européens, c’est également leur permettre de disposer de marges de manœuvre non négligeables dans la prise de décision économique et politique : quelles données rendre accessibles ; à qui ? quels futurs acteurs de l’innovation faire émerger ; sous quelles conditions ? Et pour voir apparaître une Europe maîtresse de son destin numérique, une transition institutionnelle seule ne suffira pas. Elle doit être accompagnée d’un mouvement de conscientisation des populations aux enjeux du numérique et d’actions citoyennes innovantes.
  • Redéfinir le rôle de l’État dans nos sociétés, c’est donc potentiellement le penser comme un État plateforme — une organisation sociale et politique qui met des ressources à disposition de la société civile (ces ressources peuvent être des données en open source provenant des secteurs publics et privés par exemple), puis qui s’appuie sur l’intervention des individus pour développer des services utiles à tous. Un exemple de réussite de tels projets participatifs est OpenStreetMap, qui a pour but de constituer une base de données géographiques du monde, en utilisant le système GPS et d’autres données en accès libre.
  •  
    "Le futur sera-t-il géré sans les États ? Alors que le chiffre d'affaire des GAFA équivaut quasiment à celui d'un État moyen et qu'on commence à reconnaître le pouvoir diplomatique de certaines de ces entreprises, le rôle de l'État est questionné. C'est autour de ce constat, et à l'occasion du festival de l'innovation et des économies numériques Futur.e.s, que se sont engagées les réflexions sur le rôle de l'Etat à l'ère du numérique. Autour de la table pour cette conférence, Paula Forteza, députée La République en Marche !, Judith Rochfeld, professeur des universités à Paris 1 Panthéon-Sorbonne, et Henri Verdier, directeur de la Direction interministérielle du numérique et du système d'information et de communication de l'État (DINSIC). RSLN y était."
8More

J'ai testé pour vous : 8 jours de data detox challenge - 0 views

  • « Pour adopter un lifestyle data équilibré, il est crucial de diversifier les services que vous utilisez ». Comme tout régime qui se respecte, le Data Détox Challenge rappelle l’importance diversifier les familles d’aliments. Cinq moteurs de recherche et navigateurs par jour ? Ca va être dur.
  • Mais comment m’alléger en data sans perdre mes courbes d’audience sur chaque plateforme ? Les défauts du Par défaut. Je commence par changer mon profil publicitaire sur Facebook : non, on ne pourra plus me cibler selon mon genre. J’enfile dans la foulée ma panoplie d’agent de propreté des temps modernes, et j’efface les tags sur mes photos et celles de mes amis. Désormais nous circulerons incognito, ou presque.
  • Dans une détox, chaque jour est un challenge : aujourd’hui la chasse au trackers est ouverte. Comme de vilains sucres, ils se nichent partout de manière invisible. Chasser les pixels espions de Facebook et Twitter (cachés dans les boutons Like et Share de très nombreuses pages) n’est pas si simple. Puisqu’il est impossible de les faire disparaître, c’est à nous de nous éclipser. J’active le mode privé par défaut dans mon navigateur, je bloque les trackers et je vérifie la sécurité de mes connexions avec l’aide de mes nouveaux compléments de navigateur préférés : Privacy Badger, Panopticlick et HTTPS Everywhere. Mon nouveau menu favori ? Pomme + Maj + N (pour la navigation privée).
  • ...4 more annotations...
  • Le challenge invite à télécharger l’application Architecture of radio, qui cartographie les ondes électromagnétiques émises par les antennes relais de téléphonie mobile, les routeurs Wi-Fi, les satellites et les rend visibles, le tout en temps réel. Ici pas de login pour l’utiliser, mais la CB comme passage obligé. La vidéo démo m’a convaincue et je m'acquitte des 2,49 € pour assouvir ma curiosité. Cette fois au moins, je ne paierai pas avec mes data.
  • Je me plie au calcul de mon Indice de Masse Informationnelle. L’équation est facile : pour connaître son exposition à la collecte de données, il suffit de compter ses applications.
  • Tout à coup je me demande quelle utilisation fait Data Selfie de mes données. C’est le métier qui rentre ! Je vérifie : le code est accessible de manière transparente sur GitHub, et les créateurs précisent bien que les données ne sont pas stockés ni utilisées ailleurs que dans Data Selfie.
  • l'extension gratuite open source Adnauseam qui noie l'activité de l'utilisateur en cliquant sur des pubs aléatoires en arrière plan.
  •  
    "Scandale Cambridge Analytica, Règlement Général sur la Protection des Données (RGPD)... La mode est à la diète des datas. Chacun y va de son petit écrémage électronique, de sa politique anti-cookie et tout le monde ne jure plus que par son indice de masse d'info personnelle. Sortez de la boulimie et relevez comme Millie Servant, en charge de la communication numérique pour Cap Digital & Futur.e.s Festival, le seul défi slim qui vaille : le Data Detox Challenge. Un parcours « détox » proposé sur 8 jours par la fondation Mozilla et le Tactical Technology Collective. "
5More

Pour protéger la vie privée des internautes, la première « coopérative de don... - 0 views

  • MyCO propose d’abord un navigateur sécurisé pour naviguer sur Internet sans laisser de traces. Celui-ci permet de choisir à tout moment entre trois niveaux de protection : « invisible » (aucune trace laissée sur les sites), « protégé » (empêche tout échange de données à l’insu de l’internaute) ou « à risque » (comparable à un navigateur classique). Mais l’ambition de la plateforme est d’aller plus loin en proposant une véritable « boîte à outils digitale ». Partage et édition de documents, de photos, de contacts, de calendriers, cagnottes façon crowdfunding, messagerie instantanée, mais aussi nouvelle adresse email sécurisée (non polluée et gérée en France) comptent parmi les fonctionalités de myCO.
  • L’aspect le plus ambitieux du projet concerne la gestion des données des internautes et c’est la que la forme coopérative entre en jeu. Chaque utilisateur de myCO doit souscrire une part à la coopérative. Celle-ci lui permet de répondre – ou non – à des questions auprès de marques ou d’instituts, de façon anonymisée « Plus un sociétaire est actif, plus il va engranger de myCoins, explique Arnaud Blanchard, CEO . À la fin de chaque mois, il est rétribué en euros selon le chiffre d’affaire engrangé et sa participation. »
  • La coopérative rémunère aussi ses membres sous forme de dividendes. « Il est possible de souscrire jusqu’à 500 parts et d’être rémunéré en fin d’exercice au prorata de ses parts », détaille Arnaud Blanchard. Enfin, cette forme juridique permet aux sociétaires de participer à la gouvernance de la plateforme selon le principe un homme égal une voix – et d’éviter que myCO soit rachetée par un grand groupe.
  • ...1 more annotation...
  • Environ 250 utilisateurs ont participé à la phase de bêta test. Ils sont aujourd’hui 2 000 sur la plateforme. Le défi sera évidemment de réussir assez d’utilisateurs pour atteindre une masse critique à même de faire poids face à l’omniprésence des géants américains dans le monde du numérique. Avec l’entrée en vigueur de lois comme la RGPD, Arnaud Blanchard est convaincu que les internautes sont prêts à « participer à la construction d’une approche éthique et européenne du web ».
  •  
    "En souscrivant une part à Myco, chaque utilisateur pourra choisir de partager ses données ou non, de façon anonymisée et rémunérée. Les membres de la coopérative auront aussi accès à de nombreuses fonctionnalités comme un navigateur et une adresse mail sécurisée." => rémunéré ? Est-ce vraiment une bonne idée ?
11More

Concrètement, comment rendre les algorithmes responsables et équitables ? | I... - 0 views

  • Et rappelle la difficulté à définir mathématiquement l’équité, comme l’a souligné l’informaticien Arvind Narayanan (@random_walker) lors de la dernière édition de la conférence FAT (la conférence annuelle sur l’équité, la responsabilité et la transparence). Outre les biais et déséquilibres statistiques, rappelle David Robinson (@drobinsonian), responsable des associations EqualFuture et Upturn (et qui a notamment publié un rapport sur la question de l’examen public des décisions automatisées (.pdf)), leur impact dépend surtout de la manière dont sont utilisés ces systèmes, avec le risque, que pointait Eubanks, que les plus discriminés soient encore plus surveillés par ces systèmes.
  • Pour remédier à ces problèmes, beaucoup d’agences américaines ont recours à des chercheurs extérieurs pour déjouer les biais de leurs systèmes. En avril, l’AI Now Institute a défini un cadre (voir le rapport (.pdf)) pour les organismes publics qui souhaitent mettre en place des outils de prise de décision algorithmique, recommandant notamment de mettre à contribution la communauté de la recherche et de permettre à ceux que le système calcul de faire appel des décisions prises à leur sujet.
  • Leurs recommandations invitent les systèmes à respecter le droit d’information du public, à recourir à des examens par des chercheurs indépendants, à améliorer l’expertise des organismes qui les conçoivent et à développer des modalités pour permettre au public de contester les décisions prises. L’initiative recommande aux agences publiques de répertorier et décrire les systèmes de décision automatisés, y compris d’évaluer leur portée et impact. Elle recommande également de mettre en place des modalités d’accès afin que des chercheurs, des experts indépendants, des associations ou des journalistes puissent accéder et évaluer ces systèmes et pour cela doivent s’assurer notamment que leurs fournisseurs privés de systèmes acceptent ces vérifications. Elle souligne également que les agences doivent monter en compétences pour être expertes des systèmes qu’elles mettent en place, notamment pour mieux informer le public, et invite les fournisseurs de solutions à privilégier l’équité, la responsabilité et la transparence dans leurs offres.
  • ...7 more annotations...
  • Mais ce n’est pas la seule piste qui permettrait d’interroger les biais des systèmes automatisés. Microsoft travaille à un outil de détection automatique des biais, Facebook également (notamment via le projet Fairness Flow annoncé par Isabel Kloumann du département d’IA de FB research à la dernière conférence de F8 Conference parmi une longue liste d’outils pour l’IA) rapporte la Technology Review.
  • La mathématicienne Cathy O’Neil (@mathbabedotorg, blog), qui s’est fait connaître en dénonçant les dangers de ces outils, a lancé une entreprise d’audit algorithmique. Visiblement, souligne Wired, ses premiers clients sont des entreprises qui ont besoin de certifier qu’elles sont équitables : comme cela a été le cas de Rentlogic, une entreprise qui évalue les immeubles automatiquement pour leur attribuer une note, ou comme Pymetrics, une entreprise qui utilise des tests de personnalité pour aider les entreprises à embaucher qui avait besoin d’assurer que ses logiciels n’étaient pas discriminants.
  • Dans son livre, Weapons of Math Destruction, Cathy O’Neil avait émis l’idée de créer un serment d’Hippocrate pour les datascientists, sous la forme d’un code de conduite édictant quelques principes moraux. Elle soulignait dans une remarquable interview pour Wired, que ce code de conduite n’était certes pas suffisant en soi, notamment parce que les datascientists ne sont pas seuls à décider de ce qui sera implémenté dans les services développés par les entreprises. Pour autant, ces techniciens ne peuvent pas seulement suivre « les recommandations des manuels d’optimisation qu’ils utilisent, sans tenir compte des conséquences plus larges de leur travail ».
  • Cathy O’Neil a proposé une matrice éthique, basée sur les travaux du philosophe Ben Mepham qui l’a utilisé en bioéthique, qui aide à saisir ce sur quoi ce que l’on développe a un impact, et de l’autre ce dont s’inquiète les gens qui sont impactés par ce que l’on développe. Cette grille confronte quelques notions (exactitude, cohérence, partialité, transparence, équité, rapidité) à leur impact sur chacune des parties prenantes. La matrice sert à créer une conversation. Chaque case propose des questions : « qui souffre si le système se trompe ? » Le but est de révéler des problèmes. Quand la réponse pose problème, la case est colorée de rouge.
  • Elle propose également de se poser plusieurs questions, comme « les algorithmes que nous déployons vont-ils améliorer les processus humains qu’ils remplacent ? » Bien souvent, on constate qu’ils fonctionnent beaucoup plus mal que les systèmes précédents. Pour elle, il est également nécessaire de se demander : « pour qui l’algorithme échoue-t-il ? » Un système de reconnaissance facial échoue-t-il plus souvent pour les femmes que pour les hommes, pour les gens de couleurs que pour les blancs, pour les personnes âgées que pour les jeunes ?… Enfin, elle invite à se poser une troisième catégorie de questions : « est-ce que cela fonctionne pour la société (donc à très large échelle) ? Est-ce que nous enregistrons les erreurs du système ? Peut-on les réintroduire dans l’algorithme pour l’améliorer ? Est-ce que le système a des conséquences non intentionnelles ?… » Et la chercheuse de rappeler qu’aucunes de ces questions ne mettent en danger les secrets des algorithmes que les entreprises veulent protéger.
  • Le militant pour la protection de la vie privée Aral Balkan (@aral) estime qu’un code d’éthique risque surtout d’être utilisé comme caution de vertu par les entreprises pour continuer à faire comme d’habitude. Appliquer le RGPD aux États-Unis aurait plus d’impact pour prévenir les dommages algorithmiques. Sur son blog, Virginia Eubanks a réagi en proposant plutôt un « serment de non-violence numérique », qui, dans la forme au moins, est plus impliquant pour celui amené à le prononcer que de signer à quelques grands principes vagues
  • Mais l’enjeu demeure de les mettre en pratique. « Tout code d’éthique des données vous indiquera que vous ne devez pas collecter des données de sujets expérimentaux sans leur consentement éclairé. Mais ce code de conduite ne vous dira pas comment implémenter ce consentement éclairé. Or, celui-ci est facile si vous interrogez quelques personnes pour une expérience de psychologie. Mais il signifie quelque chose de bien différent en ligne ». Et ce n’est pas la même chose bien sûr de demander la permission via une fenêtre pop-up par exemple ou que via une case précochée cachée… La mise en oeuvre de principes éthiques englobe des questions qui vont des choix dans l’interface utilisateur aux choix de structuration des données ou d’interrogation des données de connexion. Et pose la question de rendre néanmoins le service utilisable sans dégrader l’expérience utilisateur…
  •  
    "Face aux multiples biais inscrits dans la production même des données utilisées par les algorithmes et les outils d'apprentissage automatisés, le risque, rappelle la chercheuse Kate Crawford (@katecrowford), co-fondatrice de l'AI Now Institute (@AINowInstitute), est que « plutôt que de concevoir des systèmes censés résoudre les problèmes, nous les exacerbions »."
17More

dWeb : vers un web (à nouveau) décentralisé ? | InternetActu.net - 0 views

  • Les partisans du web décentralisé, explique Corbyn, souhaitent promouvoir et développer un web qui ne dépendrait plus des grandes entreprises qui amassent nos données pour en tirer profit. Pour ses promoteurs (parmi lesquels on trouve Tim Berners-Lee, Brewster Kahle ou Ted Nelson…), l’enjeu est de revenir à un web originel, avant qu’il ne soit perverti par les grandes plateformes qui ont émergé avec le web 2.0. Redistribuer le web afin que les utilisateurs gardent le contrôle de leurs données, interagissent et échangent des messages directement avec les autres membres du réseau sans passer par des services centralisés : tel est l’enjeu du dWeb.
  • Dans une série de billets un peu techniques présentant des applications concrètes de ce nouveau web décentralisé, on découvre plusieurs solutions émergentes comme Scuttlebutt, un réseau social décentralisé qui repose sur un protocole chiffré qui permet de stocker ses messages en local afin de les partager avec d’autres utilisateurs en pair à pair ; WebTorrent, un lecteur de torrent qui fonctionne dans le navigateur ; ou encore IPFS, un protocole pour remplacer le protocole HTTP du web…
  • Si ce web décentralisé est encore balbutiant, ce mouvement a été largement renouvelé par le développement des protocoles blockchain. De nouvelles applications sont apparues, comme Stealthy (un système de messagerie instantanée décentralisée), OpenBazaar (une place de marché décentralisée), GraphiteDocs (une alternative à Google Doc), Textile (une alternative à Instagram), Matrix (une alternative à Slack), DTube (une alternative à YouTube)… On y trouve aussi bien sûr les alternatives décentralisées aux réseaux sociaux que sont Akasha et Diaspora… Et même un navigateur pour explorer le web en pair à pair : Beaker Browser basé sur le protocole dat (voire les explications).
  • ...13 more annotations...
  • Cet espace ressemble plutôt à une niche de geeks, à l’image des vidéos que l’on trouve sur DTube. La contestation de la centralisation ne suffira pas à faire décoller ce nouvel attrait pour la décentralisation, pointait-il avec pertinence.
  • Dans cet essai, intitulé « Information Civics » (qu’on pourrait traduire par la citoyenneté de l’information ou par l’éducation civique des réseaux), Frazee invite à reprendre le pouvoir sur les grands réseaux sociaux. Il rappelle combien nous sommes déconnectés de la gouvernance des grandes plateformes et que cette déconnexion est ce qui motive la réponse proposée par la décentralisation.
  • Paul Frazee rappelle néanmoins que toute décentralisation n’est pas démocratique pour autant. Il égratigne notamment la gouvernance de Bitcoin qui est plus ploutocratique qu’autre chose, donnant le pouvoir à ceux qui ont le plus de capital. Etherum a provoqué la colère de nombre de ses membres lorsque l’état du registre a été modifié pour contrer un piratage. Pour Frazee, cet exemple est également la preuve que des autorités existent en dehors du code du protocole. « Ces controverses montrent que nous pourrions avoir une vision incomplète de la gouvernance et de l’autorité ».
  • Peut-on considérer la décentralisation comme étant simplement une élimination de toute autorité ? Si c’était le cas, nous n’aurions pas à discuter d’éducation civique aux réseaux, estime-t-il. Pour lui, la décentralisation ne peut pas seulement reposer sur la maximalisation de la répartition du pouvoir, au risque de donner plus de pouvoir à certains qu’à d’autres.
  • Dans les applications centralisées comme Facebook ou Google, toute autorité est confiée au serveur. Pour Frazee, ils sont par essence des services autoritaires. Les utilisateurs n’ont aucun mécanisme à leur disposition pour contraindre ou ignorer les décisions du serveur. Aucune loi ne restreint la puissance du serveur. Dire qu’ils sont autoritaires n’est pas les dénigrer, c’est décrire leur conception politique. Cet autoritarisme est particulièrement saillant lors de controverses, comme lors de mécontentement des utilisateurs dû à des changements d’interfaces, lors de colères contre les politiques de modération, la conception d’algorithmes, le placement publicitaire ou l’utilisation des données personnelles des utilisateurs… Mais au-delà de leur indignation, les utilisateurs n’ont aucun pouvoir sur ces politiques autoritaires, qui, si elles apportent du confort, apportent aussi leur lot d’anxiété quant à la manipulation, la surveillance ou la censure. Dans ce système politique, pour l’utilisateur, se révolter consiste à changer de service, bien souvent au détriment de leurs données – perdues -, ce qui ne laisse en fait pas beaucoup de place à la révolte. En passant d’un service à un autre, « les utilisateurs ne trouvent aucune libération politique ».
  • Proposer des alternatives nécessite donc de distribuer l’autorité, à l’image des services P2P, des services d’adressage chiffrés, des blockchains… Chacune de ces méthodes n’empêche pas l’utilisation de serveurs centraux ni la formation d’autorités, mais vise à les réduire. Proposer de nouvelles applications nécessite également de nouveaux protocoles qui sont plus lents à changer et à se déployer. Mais au-delà des défis techniques et sociaux liés à la mise en application, il existe des défis politiques liés à trouver des accords sur ces nouvelles normes tout comme à trouver des processus de partage de pouvoir qui ne provoquent pas de dysfonctionnements.
  • Pour y remédier, Frazee propose de s’appuyer sur des « protocoles de réseaux constitutionnels », c’est-à-dire des protocoles qui appliquent automatiquement le code, comme dans les contrats intelligents. Le code est alors une constitution parce qu’elle fournit les règles pour le fonctionnement de l’autorité et que les utilisateurs peuvent s’assurer à tout moment que la constitution est respectée. « Le constitutionnalisme de réseaux a pour effet de transférer l’autorité de l’opérateur au code » : elle assure du processus, décrit des autorités et limites leurs possibilités d’action.
  •  Je crois en l’engagement civique. Nous disposons d’outils puissants qui encodent des valeurs et des droits. Nous devons transformer les architectures de pouvoir qui sont les nôtres. »
  • Pour améliorer la structure civique du web – le rendre plus démocratique -, il faut donc rééquilibrer les droits. Peut-on permettre que les clients (c’est-à-dire les ordinateurs de chacun) aient plus de droits que les serveurs, qu’ils aient le droit de publier, le droit d’avoir une identité, le droit de déployer du code (pour décider de comment ils souhaitent que leurs applications fonctionnent) ? Seuls les réseaux pair-à-pair déploient des noeuds avec des droits égaux, rappelle-t-il. Cette question n’est pas qu’une question technique, estime Frazee, c’est une question démocratique, une question civique. Les techniciens n’ont pas à résoudre les problèmes pour les gens, mais à laisser les gens résoudre ces problèmes comme ils veulent.
  • En février, l’entrepreneur et investisseur Chris Dixon (@cdixon) était déjà revenu sur l’importance de la décentralisation. Il rappelait que le premier internet était basé sur des protocoles décentralisés, mais qu’il avait été dépassé dans les années 2000 par des services qui avaient supplanté les capacités des protocoles ouverts, comme ceux des majors du web. Pour lui aussi, la centralisation est l’une des causes des tensions sociales qui s’expriment aujourd’hui que ce soit la désinformation, la surveillance, les brèches de données… Pour autant, souligne-t-il, les réseaux décentralisés ne résoudront pas tous les problèmes.
  • Pour Primavera De Filippi (@yaoeo) – qui a publié avec Aaron Wright, Blockchain and the law ainsi qu’un Que-sais-Je ? sur ces sujets -, le web décentralisé pose également des défis juridiques et de gouvernance : qui est responsable des problèmes quand tout est décentralisé ?
  • Comme elle le souligne en conclusion de son livre, si ces systèmes promettent d’améliorer la société, ils pourraient également restreindre plus que renforcer l’autonomie et la liberté des individus. L’hypothèse qui veut que la règle du code soit supérieure à celle du droit n’est pas sans poser problème. Comme Lawrence Lessig l’a déjà dit : « Quand le gouvernement disparaît, ce n’est pas comme si le paradis allait prendre sa place. Quand les gouvernements sont partis, d’autres intérêts prendront leur place. » Pour Primavera de Filippi et Aaron Wright, le déploiement de systèmes autonomes régulés seulement par le code nous pose de nouveaux défis de responsabilité.
  • Comme le dit Yochai Benkler : «Il n’y a pas d’espace de liberté parfaite hors de toute contrainte ». Tout ce que nous pouvons faire est de choisir entre différents types de contraintes. (…) Les applications décentralisées basées sur une blockchain pourraient bien nous libérer de la tyrannie des intermédiaires centralisés et des autorités de confiance, mais cette libération pourrait se faire au prix d’une menace beaucoup plus grande encore : celle de la chute sous le joug de la tyrannie du code. »
  •  
    "La journaliste Zoë Corbyn, pour le Guardian est revenue sur le Sommet pour un web décentralisé (vidéos), qui se tenait début août à San Francisco."
3More

CHATONS, ces hébergeurs alternatifs qui ne collectent pas vos données personn... - 0 views

  • en détenant bien un quart des capitaux des entreprises américaines, Apple, Microsoft et Google forment à eux trois une domination économique, technologique et culturelle monstrueuse. Par principe de précaution, a-t-on réellement envie de totalement dépendre de ces géants de la télécommunication ?
  • C'est là que se situe tout l'intérêt d'avoir recours à des hébergeurs locaux. "Plutôt que de machinalement faire confiance au 'cloud', mot qui veut surtout dire 'serveur d'un géant du numérique', il est important de pousser la réflexion autour des hébergeurs transparents et neutres", propose Pierre-Yves Gosset. Outre-Atlantique par exemple, on a vu comme le Patriot Act avait servi de passe-droit aux autorités américaines voulant obliger les entreprises à leur céder des données personnelles de citoyens surveillés. Stocker ses informations dans des endroits moins centralisés, c'est donc aussi complexifier l'accès à nos données personnelles.
  •  
    "Aujourd'hui, Framasoft va plus loin encore. L'association qui promeut la culture du libre veut créer un réseau d'hébergeurs libres. But : mettre à disposition des internautes la possibilité de ne pas stocker toutes leurs données personnelles au même endroit, c'est-à-dire chez les géants du numérique qui tiennent le monde entier dépendant d'eux. Pour cela, à la façon d'une AMAP, il suffit à chaque aspirant libriste [NDLR : citoyen attaché aux valeurs éthiques du logiciel libre] de consulter cette carte afin de choisir un hébergeur pas loin de chez lui. À condition d'avoir la fibre et un garage, il est également possible de soi-même devenir hébergeur. "
9More

Aucun algorithme, jamais, ne pourra défendre la démocratie - Libération - 0 views

  • Comment avons-nous pu nous retrouver au début du XXIe siècle dans une situation où Mark Zuckerberg – et quelques autres patrons de plateformes numériques – se fixent comme objectif récurrent de «protéger la démocratie», principalement à grands coups «d’algorithmes» et «d’intelligence artificielle» et affirment que cela sera une de leurs principales «missions» au sein de leur entreprise et à l’échelle du monde ?
  • En 2011, deux théoriciens de l’intelligence artificielle traitant des problèmes éthiques qu’allaient poser les algorithmes écrivaient que «les algorithmes de plus en plus complexes de prise de décision sont à la fois souhaitables et inévitables, tant qu’ils restent transparents à l’inspection, prévisibles pour ceux qu’ils gouvernent, et robustes contre toute manipulation» (Bostrom et Yudowski, «The Ethics of Artificial Intelligence»).
  • Aujourd’hui, «les algorithmes» dont nous parlons se déploient au sein d’architectures techniques toxiques englobant des millions ou des milliards d’utilisateurs. Aujourd’hui, «les algorithmes» dont nous parlons reposent sur des jeux de données propriétaires et donc totalement opaques. Aujourd’hui, «les algorithmes» dont nous parlons sont explicitement développés pour se doter d’un niveau d’autonomie (ou «d’apprentissage») qui rend leur «comportement» et leurs décisions souvent imprévisibles pour leurs créateurs eux-mêmes. Aujourd’hui, «les algorithmes» dont nous parlons interagissent en permanence avec d’autres algorithmes, d’autres jeux de données et d’autres architectures techniques toxiques ; et ils le font à des échelles toujours plus vastes et dans des environnements toujours plus contraints qui augmentent encore le niveau de risque et d’incertitude.
  • ...5 more annotations...
  • Pendant les dix dernières années, le combat principal d’activistes, de journalistes, de défenseurs des libertés numériques fut celui visant à limiter l’impact de l’empreinte algorithmique sur nos vies privées et intimes. Ce combat-là est terminé, obsolète et, pour l’essentiel, perdu. C’est un autre combat qu’il nous faut aujourd’hui mener, sur un tout autre front, avec une tout autre urgence et à une tout autre échelle. C’est le combat pour limiter l’impact de l’empreinte algorithmique décisionnelle sur notre vie publique, sur nos infrastructures sociales communes et sur notre destin collectif
  • Il est urgent et impératif que toute forme, ambition ou projet de gouvernance algorithmique, dès lors qu’il touche à des secteurs régaliens (transport, éducation, santé, justice, sécurité) soit, obligatoirement et par contrainte législative, développé sur le modèle des licences GNU GPL du logiciel libre pour garantir a minima l’auditabilité complète et pérenne des processus à l’œuvre.
  • Il est urgent et impératif que le développement d’un modèle universel de portabilité de l’ensemble de nos données (1) soit une priorité des Etats, et qu’il soit imposé à l’ensemble des acteurs du monde économique en lien avec la conservation ou le dépôt de données numériques, et ce quels qu’en soient la nature, le volume et l’usage.
  • Il est urgent et impératif que les entreprises qui captent aujourd’hui l’essentiel des données et des flux numériques (en gros les Gafam, Natu et autres Batx) soient taxées à la hauteur réelle de leur volume d’affaire et que cet impôt finance directement les actions précitées, ce processus de redistribution devant impérativement rester hors du contrôle desdites sociétés. Car le processus inverse a déjà commencé, celui dans lequel quelques entreprises omnipotentes s’arrogent le droit de défier la puissance publique et l’intérêt général dans la levée de l’impôt, comme Amazon et Starbucks en ont encore récemment fait la démonstration à Seattle.
  • L’enjeu est de savoir si nous serons capables à très court terme de construire une alternative qui, après le temps numérique de la «désintermédiation» des vingt dernières années, sera celle de formes de remédiations algorithmiques respectueuses du corps social et partant de sa partie la plus fragile, la plus pauvre, et la plus exposée. Alors peut-être, et alors seulement, les questions de gouvernance algorithmique pourront commencer d’être envisagées sereinement.
  •  
    "Nous avons perdu la bataille contre les algorithmes en ce qui concerne la vie privée. Il faut aujourd'hui se battre pour limiter leur impact sur nos vies publiques et notre destin collectif. "
36More

Technologie : l'âge sombre | InternetActu.net - 0 views

  • Pire, la technologie s’est fait la complice de tous les défis auxquels nous sommes confrontés : à la fois d’un système économique hors de contrôle qui ne cesse d’élargir les inégalités, la polarisation politique comme le réchauffement climatique. Pour Bridle, la technologie n’est pas la solution à ces défis, elle est devenue le problème. Il nous faut la comprendre plus que jamais, dans sa complexité, ses interconnexions et ses interactions : mais cette compréhension fonctionnelle ne suffit pas, il faut en saisir le contexte, les conséquences, les limites, le langage et le métalangage.
  • Trop souvent, on nous propose de résoudre ce manque de compréhension de la technologie par un peu plus d’éducation ou son corollaire, par la formation d’un peu plus de programmeurs. Mais ces deux solutions se limitent bien souvent en une compréhension procédurale des systèmes. Et cette compréhension procédurale vise surtout à renforcer la « pensée computationnelle », c’est-à-dire la pensée des ingénieurs et des informaticiens qui n’est rien d’autre que le métalangage du solutionnisme technologique 
  • Les systèmes techniques sont devenus de plus en plus complexes. Trop critiques et interconnectés pour être compris, pensés ou conçus. Leur compréhension n’est disponible plus que pour quelques-uns et le problème est que ces quelques-uns sont les mêmes que ceux qui sont au sommet des structures de pouvoir. Pour James Bridle, il y a une relation causale entre la complexité des systèmes, leur opacité, et les violences et inégalités qu’ils propagent.
  • ...32 more annotations...
  • Le cloud (l’informatique en nuage) n’est plus une métaphore du réseau, c’est l’incarnation de ce système global et surpuissant qu’aucun d’entre nous ne peut désormais attraper. Ce nuage est pourtant une bien mauvaise métaphore. Rien de ce qu’il recèle n’y est sans poids, rien n’y est amorphe ou invisible. Le cloud cache une infrastructure physique complexe faite de lignes téléphoniques, de fibre optique, de satellite, de vastes entrepôts d’ordinateurs, qui consomment d’énormes quantités d’énergie et qui influent sur de multiples juridictions. Le cloud est l’incarnation d’une nouvelle industrie.
  • De la sécurité nationale aux secrets industriels, il y a beaucoup de raisons à obscurcir ce que recouvre ce nuage. Mais ce qui s’en évapore est assurément notre propriété (dans les nuages, tout appartient à d’autres) et notre agentivité, c’est-à-dire notre capacité à faire.
  • Le réseau donne l’impression d’être à la fois l’idéal de progrès le plus abouti et l’idéal de base de notre culture tout en paraissant avoir émergé inconsciemment, poursuivant son but d’interconnexion sans fin pour lui-même et par lui-même… « Nous présumons que l’interconnexion est inhérente et inévitable. Le réseau semble être devenu le résultat du progrès, son accomplissement ultime », à l’image de machines qui accompliraient ainsi leurs propres désirs. Internet semble avoir accompli l’idéal des Lumières, l’idéal du progrès : celui que plus de connaissance et plus d’information conduit toujours à prendre de meilleures décisions.
  • Mais n’est-ce pas plutôt le contraire auquel nous assistons ? « Ce qui était censé éclairer le monde l’a obscurci. L’abondance d’information et la pluralité d’opinion accessible à tous n’ont pas produit un consensus cohérent, mais au contraire a déchiré la réalité en narrations simplistes, en théories fumeuses et en politique d’opinion. Contrairement au Moyen Âge, où l’âge sombre était lié à une perte de connaissance antique, l’âge sombre moderne est lié à une abondance de connaissance dont nous ne savons plus démêler collectivement l’apport. »
  • L’obscurité dont parle Bridle c’est notre incapacité à voir clairement ce qui est devant nous, avec capacité et justice. Pour Bridle pourtant, ce constat ne doit pas être lu comme une condamnation de la technologie. Au contraire. Pour relever l’âge sombre qui s’annonce, il nous faut nous engager plus avant dans la technologie, avec elle, mais avec une compréhension radicalement différente de ce qu’il est possible d’en faire, en retrouver un sens que la seule recherche d’efficacité nous a fait perdre. Tout comme le changement climatique, les effets de la technologie s’étendent sur le globe et affectent tous les aspects de nos vies. Mais comme le changement climatique, ses effets sont potentiellement catastrophiques et résultent de notre incapacité à comprendre les conséquences de nos propres inventions. Nous devons changer de manière de voir et penser le monde, nous invite Bridle, un peu facilement ou naïvement.
  • « En rapprochant la simulation de l’approximation, les grands prêtres de la pensée computationnelle pensent remplacer le monde par des modèles biaisés de lui-même ; et en le faisant, les modeleurs s’assurent du contrôle du monde. » James Bridle s’inscrit dans la continuité des constats de l’historien des sciences David Noble qui, dans Le progrès sans le peuple notamment, soulignait combien la pensée des ingénieurs avait contribué à donner du pouvoir aux puissants plutôt que favoriser l’équité ou la démocratie ; comme dans celle de Richard Sclove du Loka Institute, qui dans Choix technologiques, choix de société, soulignait combien les enjeux démocratiques restaient le parent pauvre de la question technologique.
  • La pensée computationnelle s’infiltre partout : elle devient notre culture. Elle nous conditionne à la fois parce qu’elle nous est illisible et à la fois parce que nous la percevons comme neutre émotionnellement et politiquement. Les réponses automatisées nous semblent plus dignes de confiance que celles qui ne le sont pas. Dans la pensée computationnelle, nous sommes victimes du biais d’automatisation : « nous avons plus confiance dans l’information automatisée que dans notre propre expérience, même si elle est en conflit avec ce qu’on observe ». Les conducteurs de voitures comme les pilotes d’avion ont plus tendance à croire leurs instruments que leur expérience, même si celle-ci n’est pas alignée.
  • Pour Bridle, l’informatique, en ce sens, est un piratage de notre capacité cognitive, de notre capacité attentionnelle, qui renvoie toute responsabilité sur la machine. « À mesure que la vie s’accélère, les machines ne cessent de prendre en main de plus en plus de tâches cognitives, renforçant par là leur autorité – sans regarder les conséquences ». « Nous nous accommodons de mieux en mieux et de plus en plus aux confortables raccourcis cognitifs que nous proposent nos machines. L’informatique remplace la pensée consciente. Nous pensons de plus en plus comme des machines, ou plutôt nous ne pensons plus du tout ! ».
  • « Ce qui est difficile à modéliser, à calculer, à quantifier, ce qui est incertain ou ambigu, est désormais exclu du futur possible. » L’informatique projette un futur qui ressemble au passé (« Les algorithmes ne prédisent pas le futur, ils codifient le passé », disait déjà Cathy O’Neil). La pensée computationnelle est paresseuse. Elle propose finalement des réponses faciles. Elle nous fait croire qu’il y a toujours des réponses.
  • les réseaux souffrent d’une gouvernance fragmentée, sans responsabilités claires, peu cartographiés et sous-financés ; des infrastructures en silos ; des investissements privés comme publics insuffisants et plus encore un manque de compréhension de la complexité de leur fonctionnement… expliquent leur fragilité intrinsèque et la difficulté de leur maintenance. Ajoutez à cela les impacts du changement climatique sur leur maintenance et leur évolution et vous comprendrez que les réseaux ne sont pas dimensionnés pour faire face au futur. Bref, non seulement l’informatique contribue largement au réchauffement climatique, mais elle risque d’en être l’une des principales victimes.
  • Mais les grands volumes de données ne produisent pas de la connaissance automatiquement. Dans la recherche pharmacologique par exemple, les dépenses et investissements n’ont jamais été aussi forts alors que les découvertes, elles, n’ont jamais produit aussi peu de nouveaux traitements. On appelle cela la loi d’Eroom : l’exact inverse de la loi de Moore. Le nombre de résultats de recherche chute et ces résultats sont de moins en moins dignes de confiance. Si les publications scientifiques n’ont jamais été aussi volumineuses (au détriment de leur qualité), les rétractions ont augmenté et le nombre de recherches ayant un impact significatif, elles, ont diminué proportionnellement. La science connaît une crise de réplicabilité majeure.
  • Plusieurs facteurs expliquent ce revirement de la loi du progrès. La première est que les choses les plus évidentes à découvrir ont été exploitées. La régulation est également devenue plus exigeante et la société moins tolérante aux risques. Mais le problème principal relève certainement des méthodes désormais employées. Historiquement, la découverte de médicament était le fait de petites équipes de chercheurs qui se concentrait intensément sur de petits groupes de molécules. Mais depuis 20 ans, ces processus ont été largement automatisés, sous la forme de ce qu’on appelle le HTS (High-throughput screening pour criblage à haut débit) qui consiste en des recherches automatisées de réactions potentielles via de vastes bibliothèques de composants. Le HTS a priorisé le volume sur la profondeur. Ce qui a marché dans d’autres industries a colonisé la recherche pharmaceutique : automatisation, systématisation et mesures… Certains commencent à douter de l’efficacité de ces méthodes et voudraient revenir à l’empirisme humain, au hasard, au bordel, au jeu… À nouveau, « la façon dont nous pensons le monde est façonnée par les outils à notre disposition ». Nos instruments déterminent ce qui peut être fait et donc, ce qui peut être pensé. À mesure que la science est de plus en plus technologisée, tous les domaines de la pensée humaine le sont à leur tour. Les vastes quantités de données ne nous aident qu’à voir les problèmes des vastes quantités de données.
  • Les bourses et places de marchés d’antan ont été remplacées par des entrepôts, des data centers, anonymes, dans des banlieues d’affaires impersonnelles. La dérégulation et la numérisation ont transformé en profondeur les marchés financiers. La vitesse des échanges s’est accélérée avec la technologie. Les transactions à haute fréquence (HFT, High-frequency trading) reposent sur la latence et la visibilité. La latence, c’est-à-dire la rapidité d’échange où des millions peuvent s’échanger en quelques millisecondes et la visibilité (sauf pour les non-initiés), c’est-à-dire le fait que les échanges sont visibles de tous les participants, instantanément. Les échanges reposent sur des algorithmes capables de calculer des variations éclair et de masquer les mouvements de fonds. Les échanges sont plus opaques que jamais : ils s’imposent sur des forums privés, les « dark pools » (en 2015, la SEC, l’organisme américain de réglementation et de contrôle des marchés financiers, estimait que les échanges privés représentaient 1/5e du total des échanges)… Les échanges financiers ont été rendus obscurs et plus inégaux que jamais, rappelle Bridle.
  • Pour Bridle, l’une des clefs qui expliquent que les inégalités se renforcent avec la technologie est intrinsèquement liée à l’opacité des systèmes. Comme les robots des entrepôts d’Amazon et ses employés commandés par des commandes vocales émanant de robots, nous sommes en train d’arranger le monde pour rendre les machines toujours plus efficaces, quitte à ce que le monde devienne incompréhensible et inadapté aux humains. Les travailleurs deviennent le carburant des algorithmes, utiles seulement pour leurs capacités à se déplacer et à suivre des ordres. Pour Bridle, les startups et les Gafam signent le retour des barons voleurs, ces tyrans industriels du XIXe siècle. La technologie est venue couvrir d’un voile d’opacité la prédation : l’avidité s’est habillée de la logique inhumaine des machines. Amazon ou Uber cachent derrière des pixels lumineux un système d’exploitation sans faille
  • Pour la sociologue Deborah Cowen (@debcowen), nous sommes entrés dans la tyrannie de la techne explique-t-elle dans The Deadly Life of Logistics (2014) : l’efficacité est devenu primordiale sur tous les autres objectifs, sur toutes les autres valeurs
  • Autre exemple avec How-Old.net un outil de reconnaissance faciale qui tente de prédire l’âge d’une personne, et qui a été utilisée pour deviner l’âge de migrants arrivants au Royaume-Uni. Microsoft, qui a développé cette application, s’est défendu et a dénoncé cette utilisation… comme les 2 chercheurs chinois. Ceux-ci expliquaient néanmoins dans leur défense que leur système était « sans préjugé » (sic). Comme souvent, on nous explique que la technologie, et plus encore l’apprentissage automatisé, est neutre. Mais « la technologie n’émerge pas de nulle part. Elle est toujours la réification de croyances et de désirs, notamment de ses créateurs. Leurs biais sont encodés dans les machines et les bases de données ou les images que nous prenons du monde. »
  • Pour Bridle, le problème n’est pas tant que les machines puissent réécrire la réalité, mais que la réalité, le passé comme le futur, ne puissent plus être correctement racontés. DeepDream de Google illustre parfaitement cela. L’enjeu n’est pas pour nous de comprendre ce qu’est l’image, mais de nous demander ce que le réseau de neurones veut y voir ?
  • Pour Bridle, nous devrions ajouter une 4e loi aux trois lois de la robotique d’Asimov. Les machines intelligentes devraient être capables de s’expliquer aux humains. Ce devrait être une loi première, car éthique. Mais le fait que ce garde-fou ait déjà été brisé laisse peu d’espoir quant au fait que les autres règles le soient à leur tour. « Nous allons devoir affronter un monde où nous ne comprendrons plus nos propres créations et le résultat d’une telle opacité sera toujours et inévitablement violent ».
  • Pour Bridle, l’alliance entre l’humain et la machine peut encore fonctionner, comme l’a montré Garry Kasparov avec les échecs avancés, consistant à ce qu’une IA et qu’un humain jouent ensemble plutôt qu’ils ne s’affrontent. C’est dans la perspective d’associer les talents des humains et des machines, d’associer leurs différences d’une manière coopérative plutôt que compétitive que nous parviendrons à réduire l’opacité computationnelle. La perspective que l’intelligence des machines nous dépasse dans nombre de disciplines est une perspective destructrice. Nous devons trouver la voie d’une éthique de la coopération avec les machines, plutôt qu’un affrontement.
  • Bridle s’en prend également longuement à la surveillance et notamment à la surveillance d’Etat pour souligner combien elle nous est masquée et continue à l’être, malgré les révélations d’Edward Snowden. Vous pouvez lire n’importe quel e-mail dans le monde d’une personne dont vous avez l’adresse. Vous pouvez regarder le trafic de tout site web. Vous pouvez suivre les mouvements de tout ordinateur portable à travers le monde. Pour Bridle, cela nous a montré qu’il n’y a pas de restriction possible à la capacité de surveillance du réseau. L’échelle et la taille de la surveillance a excédé ce que nous pensions comme étant techniquement possible.
  • En opposition au secret, nous demandons de la transparence, mais elle n’est peut-être pas le bon levier. La NSA et Wikileaks partagent la même vision du monde avec des finalités différentes, rappelle Bridle. Les deux pensent qu’il y a des secrets au coeur du monde qui, s’ils étaient connus, pourraient rendre le monde meilleur. Wikileaks veut la transparence pour tous. La NSA veut la transparence pour elle. Les deux fonctionnent sur une même vision du monde. Wikileaks ne voulait pas devenir le miroir de la NSA, mais voulait briser la machine de surveillance. En 2006, Assange a écrit « Conspiracy as Governance » (.pdf). Pour lui, tout système autoritaire repose sur des conspirations, car leur pouvoir repose sur le secret. Les leaks minent leur pouvoir, pas par ce qui fuite, mais parce que la peur et la paranoïa dégradent la capacité du système autoritaire à conspirer. Mais les fuites de données ne suffisent pas à remettre en cause ou à abattre l’autorité. Les révélations ne font pas bouger l’opinion, sinon, nous aurions réagi bien avant les révélations de Snowden. Tant que les organisations de surveillance ne changent pas de l’intérieur, ceux qui sont en dehors de ces organisations, comme les lanceurs d’alertes, n’ont pas de capacité d’action. Ils attendent que des fonctionnaires ou que la justice confirment ce qu’ils avancent.
  • Mais la lumière du calcul nous dépossède de pouvoir, car elle nous fait crouler sous l’information et nous donne un faux sens de la sécurité. C’est là encore une conséquence de la pensée computationnelle. « Notre vision est devenue universelle, mais notre capacité d’action, elle, s’est réduite plus que jamais. » A l’image du réchauffement climatique, à nouveau, « nous savons de plus en plus de choses sur le monde, mais nous sommes de moins en moins capable d’agir sur lui ». Au final, nous nous sentons plus démunis que jamais. Plutôt que de reconsidérer nos hypothèses, nous nous enfonçons dans la paranoïa et la désintégration sociale.
  • Le monde est devenu trop complexe pour des histoires simples. En fait, « la démultiplication de l’information ne produit pas plus de clarté, mais plus de confusion ». L’un des symptômes de la paranoïa consiste à croire que quelqu’un vous surveille. Mais cette croyance est désormais devenue raisonnable, s’amuse Bridle en évoquant la surveillance d’Etat comme la surveillance des services numériques. Nous sommes entièrement sous contrôle, tant et si bien qu’on peut se demander qui est paranoïaque désormais ?
  • « Les théories conspirationnistes sont le dernier ressort des sans pouvoirs, imaginant ce que serait que d’être puissant », avance Bridle. Pour le spécialiste de la postmodernité, Frederic Jameson, les théories conspirationnistes sont « la cartographie cognitive des plus démunis dans un âge postmoderne ». C’est la figure dégradée de la logique par ceux qui ont le moins de capital culturel, une tentative désespérée de se représenter un système qu’ils ne comprennent pas. Encerclé par l’évidence de la complexité, l’individu a recours à un récit simpliste pour tenter de regagner un peu de contrôle sur la situation. À mesure que la technologie augmente et accélère le monde, celui-ci devient plus complexe. Les théories conspirationnistes deviennent alors des réponses, étranges, intriquées et violentes, pour s’en accommoder.
  • Ainsi, si vous cherchez de l’information sur les vaccins, vous tomberez invariablement sur de l’information contre les vaccins. Si vous cherchez de l’information sur la rotondité de la terre, vous tomberez inexorablement sur ceux qui pensent qu’elle est plate. Ces opinions divergentes semblent devenir la majorité tant elles sont exprimées et répétées avec force. « Ce qui se passe quand vous désirez en savoir de plus en plus sur le monde entre en collision avec un système qui va continuer à assortir ses réponses à n’importe quelle question, sans résolution ». Vous trouverez toujours quelqu’un pour rejoindre vos points de vue. Et toujours un flux pour les valider. Voici l’âge de la radicalisation algorithmique (à l’image de ce que disait Zeynep Tufekci de YouTube). Les théories conspirationnistes sont devenues la narration dominante. Elles expliquent tout. Dans la zone grise des connaissances, tout prend un sens.
  • Les failles des algorithmes sont les dernières failles du capitalisme où certains s’infiltrent non pas pour le renverser, mais pour tenter de gratter un peu d’argent que les plus gros systèmes s’accaparent. Au final, des vidéos automatisées finissent par être vues par des enfants. Leurs personnages préférés y font n’importe quoi, parfois suggèrent des scènes de meurtre ou de viols. Ces effets de réseaux causent des problèmes réels. Les algorithmes de YouTube ont besoin d’exploitation pour produire leurs revenus. Derrière leurs aspects séduisants, ils encodent les pires aspects du marché, notamment l’avidité. « La capacité à exploiter l’autre est encodée dans les systèmes que nous construisons », pointe très justement James Bridle, puisque leur efficacité repose sur leur capacité à extraire de l’argent de nos comportements.
  • À défaut d’une solution, Google annonçait en avril que l’application YouTube Kids allait devenir « non-algorithmique »… À croire, comme le pointait très justement le chercheur Olivier Ertzscheid, que l’algorithimsation n’est pas une solution sans limites.
  • Pour Bridle, les humains sont dégradés des deux côtés de l’équation : à la fois dans l’exploitation qui est faite de leur attention et à la fois dans l’exploitation de leur travail. Ces nouvelles formes de violence sont inhérentes aux systèmes numériques et à leur motivation capitaliste. Le système favorise l’abus et ceux qui le produisent sont complices, accuse-t-il. L’architecture qu’ils ont construite pour extraire le maximum de revenus des vidéos en ligne a été hackée par d’autres systèmes pour abuser d’enfants à une échelle massive. Les propriétaires de ces plateformes ont une responsabilité forte dans l’exploitation qu’ils ont mise en place. « C’est profondément un âge sombre quand les structures qu’on a construites pour étendre la sphère de communications sont utilisées contre nous d’une manière systématique et automatique. »
  • Pour Bridle, les fausses nouvelles ne sont pas le produit de l’internet. Elles sont le produit de la cupidité et de la démocratisation de la propagande où tout a chacun peut devenir un propagandiste. Elles sont un amplificateur de la division qui existe déjà dans la société, comme les sites conspirationnistes amplifient la schizophrénie.
  • Mais ce qu’il y a de commun avec le Brexit, les élections américaines ou les profondeurs de YouTube, c’est que malgré tous les soupçons, il reste impossible de savoir qui fait ça, qu’elles sont leurs motivations, leurs intentions. On peut regarder sans fin ces flux vidéos, on peut parcourir sans fin les murs de mises à jour de statuts ou de tweets… cela ne permet pas de discerner clairement ce qui est généré algorithmiquement ou ce qui est construit délibérément et soigneusement pour générer des revenus publicitaires. On ne peut pas discerner clairement la fiction paranoïaque, l’action d’États, la propagande du spam… Ces confusions servent les manipulateurs quels qu’ils soient bien sûr, mais cela les dépasse aussi. C’est la manière dont le monde est. Personne ne semble réellement décider de son évolution… « Personne ne veut d’un âge sombre, mais nous le construisons quand même et nous allons devoir y vivre. »
  • Exploiter plus de données pour construire de meilleurs systèmes est une erreur. Cette méthode ne parviendra pas à prendre en compte la complexité humaine ni à la résoudre. Le développement de l’information n’a pas conduit à une meilleure compréhension du monde, mais au développement de points de vue alternatifs et concurrents. Nous devons changer nos façons de penser comme nous y invitait Lovecraft. Nous ne survivrons pas plus à l’information brute qu’à la bombe atomique. Le nouvel âge sombre est un lieu où le futur devient radicalement incertain et où le passé devient irrévocablement contesté. Mais c’est le présent dans lequel nous devons vivre et penser. Nous ne sommes pas sans pouvoir ni capacités. Mais pour cela nous devons nous défaire des promesses illusoires de la pensée computationnelle. Penser le monde autre, c’est ce à quoi nous invite James Bridle dans le nouvel âge sombre.
  • Reste à savoir si cet âge sombre des technologies est vraiment notre avenir. L’âge sombre du Moyen Âge n’a jamais vraiment existé ailleurs que dans les lacunes des historiens. On peut douter également de cette nouvelle obscurité ou regretter le titre faussement prophétique. Reste que la complexité et l’intrication du monde que décrit James Bridle, montrent combien il nous faut, plus que jamais, nous défaire justement d’une vision simple et manichéenne de la technologie.
  •  
    "Ce New Dark Age porte un titre prophétique et apocalyptique. Un peu trop peut-être. C'est effectivement un livre très critique sur notre rapport à la technologie, très éloigné du rapport souvent curieux et amusé que Bridle portait aux technologies avec la nouvelle esthétique. En une dizaine de chapitres, Bridle explore les glitchs qui sont désormais devenus des schismes, des scissions, des ruptures… comme s'ils n'étaient plus aussi distrayants. Dans son livre, il montre combien les bugs se cristallisent en caractéristiques. Combien la complexité technique que nous avons construite s'entremêle pour produire des effets en réseau, complexes, profonds, intriqués que nous ne parvenons plus vraiment à démêler. Son constat principal consiste à dire que ces dysfonctionnements ne sont pas amenés à être corrigés. Ils sont au contraire intrinsèques à la nature même des technologies qui se déploient aujourd'hui. Contrairement à ce que nous annonçaient les pionniers et les prophètes des technologies, pour Bridle, la technologie n'annonce pas de nouvelles Lumières ou une Renaissance, mais, comme Jules Michelet parlait du Moyen Âge, un âge sombre, une ère d'obscurité pour ne pas dire d'obscurantisme. Ni les réseaux sociaux, ni l'intelligence artificielle, ni les systèmes techniques ne vont nous aider à faire monde commun. Au contraire."
8More

[Logiciel libre] Et si le monde numérique devenait vraiment « libre » ? - 0 views

  • « Je ne vois pas ce qui peut exister et qui ne soit pas remplaçable par une solution open source, en particulier dans les innovations sociales et tous les projets d’intérêt général, dit-elle. Hier, je suis tombée sur un logiciel qui gère la projection dans les cinémas... Le libre permet aussi de répondre à des besoins publics, à l’image d’OpenCimetière qui a été produit pour une commune et qui sert à présent à d’autres mairies.
  • Cet élan d’ouverture s’est décliné dans la production de marchandises avec l’open hardware, dans les données avec l’open data (mise à disposition de données publiques) ou encore dans le partage des connaissances avec l’open innovation, l’open science, etc. Ce mouvement général repose sur la libre circulation des savoirs, l’accessibilité au « faire » et la coopération entre pairs.
  • « Quand des salariés transforment leur entreprise en coopérative, cela ne les empêche pas de recruter un directeur, mais la direction est une compétence de coordination et non un organe de pouvoir. C’est la même chose dans le pair-à-pair », précise-t-elle.
  • ...4 more annotations...
  • Mais, si l’open source a permis au libre de gagner en efficacité, sa focalisation sur la technique l’a sans doute éloigné de ceux à qui il s’adressait en premier lieu : tous les autres, qui ne développent pas. Le libre reste, en effet, très circonscrit au monde de l’informatique et se compose majoritairement d’hommes, même si d’une multitude de nationalités.
  • Les logiciels libres ne permettent pas forcément de protéger les données, mais on est sûr que l’exploitation des données ne constitue pas le modèle économique du service. Quand on entre dans l’état d ’esprit du logiciel libre, on prend conscience de l’impact de l’informatique dans sa propre vie, on est plus vigilant et on est assuré que quelqu’un quelque part vérifiera s’il y a des mouchards dans le code et alertera les autres. La faiblesse du libre, c’est que si j’envoie un mail à un ami qui est sur Gmail, malgré tous mes efforts, Google aura mes données. Le libre te pousse à considérer l’interconnexion aux autres et le risque qu’on fait prendre aux autres en laissant ses données sur internet sans s’assurer de ce qu’elles deviennent », explique Catherine Guillard.
  • L’une des clés serait sans doute de rendre l’engagement dans le libre aussi mobilisateur pour d’autres métiers que ceux du développement... Par exemple les graphistes, les juristes ou pourquoi pas le monde médical, qui tous doivent composer avec le numérique et les dérives de certains de ses acteurs. Enfin, il faudrait peut-être revenir aux origines sociales et politiques du libre.
  • En effet, à l’image du bio qui n’est pas qu’une méthode de culture, le libre n’est pas qu’une méthode de développement, mais propose un modèle de société plus respectueux des autres, plus solidaire, plus attentif aux impacts sociaux et environnementaux. Faire un pas vers le libre, c’est, au fond, soutenir le « faire ensemble ».
  •  
    "Les logiciels libres et le mouvement open source luttent contre les boîtes noires, prônant le partage des savoirs et le « faire ensemble ». Mais l'ouverture des codes est-elle vraiment un gage d'ouverture aux autres ? Le monde du « libre » ne devrait-il pas engager une mutation pour rendre plus tangible sa dimension solidaire et toucher un public plus large ? Ce sont les questions que pose cet article de Solidarum, issu du numéro 3 de la revue Visions solidaires pour demain, en librairie depuis la mi-janvier."
5More

Modération, tri des données: l'ONU s'inquiète des conditions de travail des «... - 0 views

  • La majeure partie des tâches proposées consiste à compléter des questionnaires, souvent à des fins de recherche scientifique. La collecte de données arrive en second: il peut s'agir par exemple de trouver les adresses mails de tous les podologues d'une ville, moyennant 10 centimes par adresse mail trouvée. Une part non négligeable repose sur la transcription d'images ou d'extraits sonores. C'est grâce à ce type de travaux que les géants du Web entraînent leurs intelligences artificielles. Enfin, la modération de contenus est extrêmement fréquente. Pour l'ONU, toutes ces tâches «ne correspondent pas au niveau d'éducation des travailleurs», qui sont 37% à être titulaire d'un diplôme universitaire.
  • Pire, certains de ces travaux sont extrêmement difficiles sur le plan psychologique: beaucoup de modérateurs souffrent ainsi de syndromes de stress post-traumatiques à force d'être exposés aux contenus les plus sombres du Web (images de torture, de pédopornographie, de massacres...).
  • Pour couronner le tout, les rythmes de travail sont particulièrement soutenus: 43% des sondés travaillent la nuit, 68% travaillent entre 20h et 22h, souvent car ils exercent en parallèle une autre activité professionnelle, les revenus du digital labor ne permettant pas d'en faire une activité à temps plein. Les salaires sont, à l'échelle mondiale, ramenés à la moyenne de 3,31 dollars de l'heure en fourchette basse, 4,43 dollars en fourchette haute (soit entre 2,81 et 3,76 euros). L'enquête démontre qu'une proportion substantielle de travailleurs gagne moins que le salaire minimum de leur lieu de résidence. L'ONU ajoute qu'une part non négligeable de «para-travail» n'est pas payée: pour chaque heure travaillée, au moins 20 minutes sont consacrées à des tâches comme la connexion sur les plateformes, les démarches administratives, chercher de nouvelles tâches, comprendre les énoncés des instructions... À noter également, 90% des répondants affirment avoir déjà été non payés pour des tâches accomplies.
  • ...1 more annotation...
  • Malgré les conditions de travail difficiles, 88% des sondés aimeraient se voir proposer plus de microtâches en ligne afin d'accroître leurs revenus. L'ONU observe que le secteur du digital labor est voué à continuer de se développer étant donné les besoins croissants en main d'œuvre de l'économie numérique. Pour cette raison, l'enquête appelle à une régulation plus ferme des conditions de travail. La majeure partie des travailleurs n'est ainsi couverte par aucune assurance maladie ou civile, ne cotise pas pour la retraite et le revenu gagné échappe souvent au radar des autorités fiscales.
  •  
    "Ces petites mains invisibles sont indispensables pour nettoyer les bases de données, entraîner les intelligences artificielles ou encore assurer la modération des contenus sur le Web. Pour la première fois, une étude de grande ampleur de l'ONU se penche sur ce travail qu'on appelle le «digital labor», et dresse un constat alarmant."
1More

Artificial Intelligence & Human Rights | Berkman Klein Center - 0 views

  •  
    L'intelligence artificielle (IA) est en train de changer le monde sous nos yeux. Le potentiel que présente l'IA pour améliorer nos vies est énorme. Des systèmes reposant sur l'IA sont déjà plus performants que des médecins spécialistes pour diagnostiquer certaines maladies, tandis que l'utilisation de l'IA dans le système financier élargit l'accès au crédit à des emprunteurs qui étaient autrefois ignorés. Toutefois, l'IA présente aussi des inconvénients qui viennent assombrir son potentiel considérable. Les systèmes reposant sur l'IA ont une incidence sur le droit à la vie privée étant donné qu'ils dépendent de la collecte et de l'utilisation de vastes quantités de données pour faire des prédictions qui, dans de nombreux cas, ont pour effet de perpétrer des tendances sociales de préjugés et de discrimination. Ces possibilités dérangeantes ont donné lieu à un mouvement qui cherche à intégrer des considérations éthiques dans le développement et la mise en œuvre de l'IA. Ce projet, en revanche, démontre l'utilité considérable d'utiliser la législation sur les droits de la personne pour évaluer et aborder les répercussions complexes de l'IA sur la société. La législation sur les droits de la personne fournit un ensemble de normes communément admis et un langage commun ainsi qu'une infrastructure institutionnelle pour contribuer à faire en sorte que le potentiel de l'IA soit réalisé et que ses plus grands périls soient évités. Notre projet vise à faire progresser la conversation émergente sur l'IA et les droits de la personne en évaluant les répercussions sur les droits de la personne de six utilisations courantes de l'IA. Notre cadre de travail reconnaît que les systèmes d'IA ne sont pas déployés sur un canevas vierge, mais plutôt sur la toile de fond de conditions sociales qui ont elles-mêmes des répercussions complexes préexistantes sur les droits de la personne
2More

Liberté, Libertés chéries: Menace sur l'Open Data par défaut - 0 views

  • L'affaire montre qu'il ne faut jamais sous-estimer les questions de procédure car ce sont elles qui garantissent l'effectivité des droits et libertés. Si le tribunal administratif accueillait le moyen développé par le ministre de l'intérieur, il supprimerait de facto l'Open Data par défaut, repassant subrepticement, au mépris de la loi Lemaire, de la logique de l'offre à celle de la demande. La libre communication des données publiques sera-t-elle tuée par des services cherchent à se soustraire au devoir de transparence par un grignotage procédural efficace et discret ? Reste à savoir si la juridiction administrative sera ou non complice de ce mauvais coup.
  •  
    "L'Open Data peut être défini comme la mise à disposition des données produites et détenues par les administrations. L'Open Data par défaut, formule un peu obscure, signifie que toute administration de plus de cinquante salariés est désormais tenue de mettre à la disposition du public les documents administratifs qui ont déjà été individuellement communiqués à une personne, à la suite d'un avis favorable de la Commission d'accès aux documents administratifs (CADA). Les responsables du site spécialisé Next INPact ont entrepris de tester la procédure d'Open Data par défaut, en allant jusqu'au recours contentieux. En mettant en ligne à la fois le texte de sa requête et le mémoire en défense communiqué par le ministère de l'intérieur, ils mettent en lumière les difficultés techniques qui surgissent lorsque l'on veut faire respecter le principe d'ouverture des données publiques et les réticences d'une administration qui affirme la transparence en s'efforçant autant que possible d'en réduire le champ."
4More

Les solutions de Tim Berners-Lee pour sauver le web - Le Temps - 0 views

  • Le scientifique a identifié trois problèmes principaux qui minent le web. D’abord, les appels à la haine, les trolls et les fausses informations qui se multiplient sur les réseaux. Ensuite, l’ensemble des actions de piratage, issues d’acteurs privés ou publics. Enfin, comme il l’écrit dans une tribune parue lundi soir, «une conception de système qui crée des incitations perverses dans lesquelles la valeur des utilisateurs est sacrifiée, comme des modèles de revenus basés sur la publicité qui récompensent commercialement les pièges à clics et la propagation virale de la désinformation».
  • A la tête de la Web Foundation, Tim Berners-Lee a présenté fin 2018 un «Contrat pour le web», sorte de charte des droits et devoirs des gouvernements, entreprises et particuliers. Mais pour le chercheur, qui n’appelle pas forcément à davantage de lois, ce document théorique ne suffit pas. Il faut agir sur les données. «Il y a la nécessité très forte, aujourd’hui, de séparer les applications des données, affirme-t-il. Ces programmes peuvent accéder et traiter vos photos, vos informations, vos contacts, etc., il n’y a pas de problème à cela. Mais vous devez avoir un contrôle permanent et total sur vos informations. C’est vous qui devez autoriser tel ou tel service à y accéder.»
  • Tim Berners-Lee a pour ce faire lancé sa propre entreprise, Inrupt, qui collabore avec le Massachusetts Institute of Technology (MIT). Le physicien développe actuellement le projet Solid, qui vise à stocker les données personnelles des internautes dans des serveurs cloud ou physiquement chez soi. Le particulier décide ensuite quel service (LinkedIn, Facebook, Flickr, etc.) a accès à quelles données. «Le concept est simple, mais il s’agit d’un renversement total par rapport à la logique actuelle, avance Tim Berners-Lee. Nous créons des logiciels en open source pour Solid et nous appelons tous les développeurs intéressés à nous rejoindre.» Le physicien n’avance pas de date pour le lancement de Solid, qui vise selon lui à revenir au web originel, lorsque beaucoup de personnes connectées avaient leur propre site web.
  •  
    "Trente ans après l'invention du web, son créateur Tim Berners-Lee s'inquiète des dérives du réseau. De passage mardi au CERN, à Genève, il a présenté plusieurs pistes pour réparer un système qui a changé le monde"
5More

Mark Zuckerberg : "Quatre idées pour réguler Internet" - JDD - 0 views

  • Une idée pourrait être de confier à des organismes tiers le soin de définir des standards sur la diffusion des contenus violents et haineux, et d'évaluer les entreprises sur la base de ces standards. La régulation pourrait établir une base de référence de ce qui est interdit, et exiger des entreprises qu'elles mettent en place des moyens pour réduire au maximum les contenus violents et haineux.
  • Mais décider de ce qui relève de la publicité politique n’est pas toujours évident. Nos systèmes seraient plus performants si la régulation établissait des standards communs pour vérifier l’identité des acteurs politiques.
  • 3. Troisièmement, pour être efficace, la protection de la vie privée et des données personnelles nécessite un cadre harmonisé à l'échelle mondiale. Partout dans le monde, les gens réclament une réglementation complète en matière de protection de la vie privée en accord avec le RGPD (Règlement Européen de Protection des Données), et je suis d'accord. Je pense qu'il serait bon pour Internet que davantage de pays adoptent une réglementation telle que le RGPD comme cadre commun.
  • ...1 more annotation...
  • 4. Enfin, la réglementation devrait garantir le principe de la portabilité des données. Si vous partagez des données avec un service, vous devriez pouvoir les transférer facilement et de manière sécurisée vers un autre service. Cela donne aux gens le choix et permet aux développeurs d'innover et d'être plus compétitifs.
  •  
    "TRIBUNE - Mark Zuckerberg, le PDG de Facebook, publie dans Le Journal du Dimanche, une longue tribune dans laquelle il dévoile quatre idées pour réguler Internet. Il indique notamment que les gouvernements doivent jouer un rôle plus important dans cette régulation. "
13More

[Démocratie/Logiciel libre] Alerte / en marche vers la privatisation de la dé... - 0 views

  • Pourquoi cette entreprise continue à jouer solo, à capter les contributions communes, et malgré toutes les demandes, à fermer son code ? Et par quelle magie est arrivé ce quasi monopole alors que dans d’autres pays de nombreuses solutions libres, ouvertes et transparentes ont fait leur preuve ?
  • Avons-nous compris qu'un code fermé et propriétaire c'est comme un brevet Monsanto ? Qui s'approprie le vivant, qui fait disparaître la diversité du vivant et donc des espèces, qui privatise le commun, qui installe une dépendance mortifère avec sa solution et nécessite de toujours racheter la même solution ? Avons-nous bien compris qu'un code propriétaire s'est s'approprier la richesse offerte par les gens, leur travail, leurs données ?Avons-nous bien compris qu'un code propriétaire c'est une boîte noire en qui personne, je dis bien personne, à part celui qui l’a codé, ne peut avoir confiance ?
  • il n’y a que le logiciel libre qui peut garantir les conditions de transparence, de responsabilité collective (hackers, développeurs, usagers, citoyennes et citoyens, associations de liberté et neutralité du net), qui coopérant les unes avec les autres, peuvent être les seuls garants d’un processus numérique démocratique sincère et sous surveillance.
  • ...9 more annotations...
  • Je ne sais pas à combien d'entre nous cette proposition a été faite. D’ailleurs ça m’intéresse de savoir qui travaille avec des solutions Cap Co pour comprendre l’entendue du problème et du désastre dans lequel nous nous sommes mis. De notre côté, il en était hors de question, un de nos principes fondateurs était que tout ce qui serait créé par nos petites mains serait libre, public, partageable et pourrait servir à toutes et tous. C’est exactement ce qu’il s’est passé, on s’est servi d’autres travaux d’autres équipes par delà le monde et on a offert nos travaux à d’autres équipes qui les ont adapté en fonction de leurs besoins. Tous ces travaux sont à dispo de toutes et tous. Et n’importe quel codeur peut venir voir le cœur du réacteur, déceler les failles, les signaler, et donc les réparer, etc…
  • Nous avions donc à l'époque refusé cette proposition d’utiliser en marque blanche et gratuitement la plateforme de Cap Collectif. Mais combien ont accepté la bonne affaire ? En toute bonne foi, sans comprendre les enjeux immenses autour de la bataille des bases de données, l'ouverture des données, des choix d'algorithme, de la surveillance. Vous connaissez toutes et tous l'adage, "si c'est gratuit, c'est toi le produit".
  • Revenons un peu en arrière, la plateforme en question originelle qui a donné naissance à Cap Collectif, Parlement et citoyens, a été construite bénévolement par un tas de gens extraordinaires, qui ont vu leur travail capté, et fermé dans Cap Collectif. C’est un tout premier scandale. Qui l'a vendu et revendu à des collectivités ou "prêté" à des expérimentations citoyennes.
  • On arrive aujourd'hui ce mercredi 29 janvier 2019 à un énorme gag sur ce nouvel épisode du Grand débat, opération massive de communication gouvernementale : Cap Collectif met en place les plateformes de tous les cotés CESE, gouvernement, Gilets jaunes, provoquant un énorme malaise de ces derniers lorsqu’ils ont compris qu’ils partageaient le même outil et même prestataire, et une défiance accrue envers les outils au service de l'expression citoyenne pour celles et ceux qui s’intéresseraient aux dispositifs.
  • Cap Collectif étant en mesure de vendre ses plateformes grâce à un immense travail collectif en faveur de la participation citoyenne, dont nous sommes toutes et tous actrices et acteurs ici-mêmes (et pas que nous évidemment), et financé avec les deniers publics, donc l'argent des français, il n'est plus question de continuer à tolérer ce qui était déjà hier intolérable : le code doit être ouvert et publié.
  • Comment imaginer rétablir un lien de confiance dans la société avec des boîtes noires ? La démocratie se fonde sur la transparence de la décision publique, sa souveraineté, sa responsabilité, comment imaginer une seconde que les outils à son service ne soit pas fondé sur les mêmes obligations de transparence, souveraineté et responsabilité ?
  • Premièrement, je demande donc officiellement à Cap Collectif de publier son code. Et je vous demande, chaleureusement, à chacune et chacun d'entre vous, usagers et usagères, en tant qu'orga ou en tant que citoyen.ne.s d'en faire de même. Ou alors d’assumer publiquement votre choix du logiciel propriétaire avec tout ce que cela comporte d’antagonique avec les principes fondamentaux de la démocratie.
  • Deuxièmement, je demande aux instances de Démocratie Ouverte de favoriser la diversité des acteurs, des solutions, de ne plus recommander ou contribuer à des outils en logiciels propriétaires, de ne plus jamais favoriser une entreprise de participation par rapport à d'autres.
  • Enfin je demande à toutes les institutions, aux collectivités, de ne plus reproduire leurs erreurs en utilisant des solutions opaques : erreur sur la souveraineté des données, erreur sur la sécurité des outils, erreur et gabegie budgétaires.
  •  
    "Alors qu'explose en France une demande sans précédent de démocratie de la part des citoyens et des citoyens, de Nuit Debout, aux Gilets jaunes (assemblées réunies à Commercy)... ... celles et ceux qui sont censés être au service de cette participation citoyenne, ne voient pas ou font semblant de ne pas voir, qu'une entreprise s'approprie et capte cette formidable émulation collective, qui représente un commun, puisque financé par des deniers publics et enrichis grâce au travail de toutes et tous. Tous ces efforts collectifs pour mettre les citoyennes et les citoyens au cœur de la démocratie. Pour aller vers la transparence. De la coopération. Du partage. Des communs.  Pour quoi ? Moi je croyais que c'était vraiment notre rêve d'asseoir les citoyennes et citoyens à la table des décisions. A peine née, l'utopie d'une meilleure participation des habitantes et habitants de ce pays est déjà pervertie, et déjà gravement menacée."
1More

Les entreprises de mobilités bientôt dépossédées de leurs données ? - 0 views

  •  
    La loi mobilités pourrait forcer des entreprises privées à ouvrir l'accès aux données de leurs services de transport, de navigation et de véhicule connecté. Quelles conséquences sur leur business ?
1More

affordance.info: World Wide (under)Wear : l'homme de Vitruve numérique - 0 views

  •  
    "Evolution qui pourrait être la suivante : l'économie de l'attention se transformera en "économie de l'occupation" avec comme point pivot de l'une à l'autre une économie de la distraction. La distraction qui, algorithmiquement régulée et organisée, est seule capable de focaliser notre attention et de la transformer en occupation. Là où l'attention dans la thèse de Herbert Simon était définie - en gros hein ... - comme la somme du temps de visionnage, du temps d'audition et du temps d'usage, l'économie de l'occupation pourrait être définie par la somme du temps de captation passive, du temps de mesure passive et du temps d'interaction directe avec des équipements et des dipositifs à portée ou en relation directe avec 3 de nos 5 sens (vue, toucher, voix). Plus précisément l'économie de l'occupation pourrait se résumer ainsi : + Temps de captation passive (principalement de nos données) + Temps de mesure passive (principalement de nos comportements) + Temps d'usage passif (de dispositifs et/ou d'objets disséminés à même notre corps et/ou dans notre environnement cinesthésique direct, c'est à dire à portée de 3 de nos 5 sens) = Temps d'occupation Comme on le voit sur la métaphore visuelle de l'Homme de Vitruve ci-après, si l'économie de l'attention s'exerçait sur la partie "haute" de nos facultés, l'économie de l'occupation est davantage centrée sur la partie basse de notre "mobilité", sur nos fonctions motrices plus que sur nos fonctions cérébrales. Et là où l'économie de l'attention mobilisait avant tout de l'information et des espaces de discours (partie haute toujours), l'économie de l'occupation mobilise principalement des données et des capteurs (partie basse)."
1More

Numérique : « Il faut un écosystème de partage des données soutenable sur le ... - 0 views

  •  
    "L'économiste Joëlle Farchy estime, dans une tribune au « Monde », que les données numériques, à la fois privées et d'intérêt général, doivent être gérées sous le régime des « biens communs », défini par l'économiste américaine Elinor Ostrom."
‹ Previous 21 - 40 of 133 Next › Last »
Showing 20 items per page