Skip to main content

Home/ QN2019/ Group items tagged donnée

Rss Feed Group items tagged

Aurialie Jublin

Retour sur MyData2018 : quelle(s) approche(s) collective(s) des données perso... - 0 views

  • L’entrée en vigueur du RGPD a clairement été l’événement marquant de 2018 et beaucoup d’intervenants s’y sont référés. Le principe d’équité y est affirmé. Or il s’agit d’un principe qui recouvre une dimension collective : l’équité suppose un groupe, contrairement aux autres principes (transparence, légalité, limitation de but, rétention, intégrité et confidentialité, minimisation des données, précision). Toutefois le texte ne donne pas de définition de l’équité dans le contexte de la gestion des données personnelles a fait remarquer Jussi Leppälä, Privacy Officer (Global) chez Valmet. Finalement, les intervenants s’accordaient à dire que le RGPD est un texte axé sur les besoins individuels plutôt que collectifs. Il protège l’individu, mais ne porte pas de vision véritablement collective des données personnelles.
  • Sur cette question de l’équité, l’exemple d’openSCHUFA donné par Walter Palmetshofer (Open Knowledge Allemagne) est inspirant : une campagne de collecte de données a été faite auprès de milliers d’individus pour comprendre l’algorithme de credit-scoring (pointage de crédit) de SCHUFA, bureau de crédit privé allemand. Cela a permis à des individus de pouvoir demander, preuves à l’appui, à corriger des décisions prises par l’algorithme. De manière générale, le biais algorithmique est un enjeu sociétal important, surtout pour les groupes les plus fragiles dont les données personnelles sont plus exposées et davantage victimes de biais algorithmiques (à ce sujet, lire Internet Actu).
  • D’autres intervenants ont insisté sur la nécessité d’accompagner les entreprises vers plus de prises en compte de leur responsabilité sociale. Le modèle de gouvernance qui domine actuellement étant l’hégémonie d’acteurs économiques (GAFA, BATX) raconte Bruno Carballa Smichowski, de Chronos, le rééquilibrage des pouvoirs doit venir des Etats. Ces derniers disposent de données personnelles, mais peuvent également demander des comptes et pousser les acteurs qui utilisent les données à être plus ouverts et actifs : littératie, infrastructure, open innovation, construire la confiance et faire reculer la peur, ou encore impliquer les personnes concernées (Hetan Shah et Jeni Tennison), sont autant d’actions que les pouvoirs publics peuvent mettre en place.
  • ...9 more annotations...
  • Depuis le lancement de MyData, la nécessité de développer les enjeux collectifs des données personnelles apparaît chaque année plus forte. En parallèle, les communs numériques apparaissent de plus en plus comme un modèle alternatif désirable face aux comportements abusifs des acteurs dominants. Les communs autorisent par nature une gestion transparente et au service de la communauté, car gérés par leurs membres.
  • Si sa remarque a donné naissance au track “OurData” en 2017 et en 2018,, le terme de “commun” était pourtant quasiment absent des discussions du track OurData, essentiellement tourné vers l’acteur public et la régulation. L’exemple d’OpenSCHUFA se rattache néanmoins au courant des communs en donnant un exemple concret.
  • L’idée derrière la coopérative de données qui s’intègrerait au modèle MyData/Self Data viserait plutôt à créer un commun : une association d’individus développant des outils et services (chat, moteur de recherche,…) leur permettant de gérer leurs données de A à Z. Il existe plusieurs coopératives de données de ce type : diglife.coop, schluss, open.coop,…
  • Laura James (doteveryone) a suggéré  cette session afin d’échanger avec les participants sur la faisabilité de créer une ou des coopératives “de masse”, appartenant à leurs membres et gérées par eux. L’objectif serait d’offrir aux gens de meilleurs services que les géants de la technologie et les entreprises de type Silicon Valley. Laura James constate que si le problème avec les géants numériques est leur modèle d’entreprise (capitalisme de surveillance) et le modèle de propriété (extraction de richesse au profit de quelques-uns), la “data coop” doit permettre d’offrir une technologie en laquelle nous pouvons avoir confiance – c’est-à-dire préservant notre vie privée, accessible, fiable, équitable, basée sur les sources ouvertes existantes, avec un meilleur support et une véritable durabilité.
  • Est-ce que le peu de succès de Digital Life Collective est dû à un manque d’intérêt de la part des consommateurs pour les questions liées aux données personnelles ? Ou bien est-ce que les enjeux ne sont pas encore bien compris par les gens ? Les porteurs de coopératives présents à la session échangent sur plusieurs éléments de réponse. D’abord, il n’y a pas une absence d’intérêt pour les questions de privacy mais une perception et un traitement différent selon les personnes (par les « millenials » par exemple). Ensuite, les consommateurs veulent-ils avoir à supporter la responsabilité qui va avec la reprise du contrôle sur leurs données ? Rien n’est moins sûr : comme les services gratuits d’aujourd’hui, cela doit être simple. Mais le contrôle implique nécessairement des responsabilités… Les consommateurs ont aussi besoin de services pratiques. Il faut travailler l’expérience utilisateur. Enfin, il faut une littératie des données pour créer un véritable intérêt et dissiper la peur et les malentendus autour de ce sujet.
  • Comment avoir une véritable gouvernance partagée tout en ayant une organisation suffisamment grande ? A peine 10 personnes sont vraiment actives au sein de Digital Life Collective. Schluss recherche une manière de faire participer davantage les membres. C’est un problème récurrent pour les coopératives, et toute organisation dont la gestion s’appuie sur l’ensemble de ses membres. Toutefois, l’un des participants soulignait que même si seul 1% s’implique dans la prise de décisions, tous reçoivent les bénéfices de la coopérative ! Ca n’est pas la gestion parfaitement partagée et idéale, mais cela fonctionne quand même. Avant de renoncer au modèle participatif, quelques modèles de gouvernance pourraient être expérimentés pour faciliter les prises de décision participatives au sein de la coopérative : les jurys citoyens, sociocracy 3.0 (utilisé par certaines entreprises télécom en Finlande), …
  • Dans les sessions de la thématique “OurData”, nous avons eu le plaisir d’entendre à chaque fois (ou presque) que la propriété appliquée aux données personnelles n’a aucun sens. Bien que ce track, plus qu’aucun autre, soit prédisposé à un tel constat,depuis quelques années, la position de la communauté MyData s’est éclaircie à ce sujet et on voit de moins en moins de personnes prôner ce modèle de propriété et de revente individuelle de ses données..
  • En découle un modèle collectif basé non pas sur des titres de propriété individuels mais sur des droits d’usage. Le RGPD en crée quelques-uns mais d’autres questions restent en suspens, comme le droit à la mémoire collective, notamment pour les catégories les plus défavorisées, ou encore l’équité, qui s’oppose à une régulation par les lois du marché.
  • La plupart des intervenants postulent que c’est l’acteur public qui doit agir : en créant de nouveaux droits associés aux données personnelles, en accompagnant les acteurs privés à fournir des solutions plus éthiques et transparentes, en s’engageant pour une culture et une littératie de la donnée pour tous, en actant juridiquement que les données personnelles sont le résultat d’un processus collectif qui appartient à la société qui l’a co-généré et qu’il ne peut y avoir de propriété associée (en France la CNIL est très claire sur ce dernier point, nous avons besoin d’une voie aussi claire au niveau européen !), en promouvant leur valeur sociale, et non commerciale, et enfin qu’il fasse que le fruit de ce travail doit servir à répondre à des problématiques collectives telles que la santé, l’éducation, la culture, la protection de l’environnement, …
  •  
    "LE CONSTAT : LA GESTION ACTUELLE DES DONNÉES PERSONNELLES S'INTÉRESSE PEU AU COLLECTIF MyData s'intéresse à toutes les dimensions que recouvre le contrôle des données personnelles : si la privacy occupe souvent le devant de la scène, MyData explore également la transparence des organisations et des technologies, l'équité et la dimension collective des données personnelles."
Aurialie Jublin

Des plateformes en leurs limites | InternetActu.net - 0 views

  • L’ouvrage commence par remettre la réalité des plateformes en perspective… Après le temps des promesses de l’avènement de « l’économie du partage » (voir notre dossier de 2014) voire de « la quatrième révolution industrielle », Srnicek rappelle que nous en sommes bien loin. Le secteur des technologies reste relativement modeste dans l’économie, tant en terme de valeur ajouté que d’emplois. Le secteur industriel, malgré la désindustrialisation, est encore bien plus flamboyant que le monde des nouvelles technologies.
  • Pour Srnicek, le capitalisme s’est tourné vers les données pour assurer la croissance et la vitalité de l’économie, à l’heure où l’industrie ralentissait. En ce sens, les plateformes sont un nouveau modèle d’entreprise, dont la fonction est d’extraire, de contrôler et de rendre productifs les données. Un « mirage compétitif », comme l’évoquaient Maurice Stucke et Ariel Ezrachi dans leur livre, qui tend à devenir de plus en plus monopolistique.
  • Le capitalisme s’est restructuré autour du numérique, réservoir de nouveaux concepts, d’innovations réelles ou à venir, reposant sur l’extraction des données. Les données sont devenues la matière première à extraire et les activités des usagers, leur source naturelle. Elles sont désormais au coeur du système capitaliste : « elles nourrissent les algorithmes et donnent [aux entreprises] des avantages concurrentiels, elles coordonnent la main d’oeuvre et permettent souvent de l’externaliser, elles optimisent et flexibilisent les processus de production, elles transforment des produits peu rentables en services hautement profitables et, après leur analyse, elles donnent accès à toujours plus de données – dans une sorte de cercle vertueux. »
  • ...21 more annotations...
  • La plupart des entreprises capitalistes n’étaient pas conçues pour extraire et utiliser des données, mais pour produire des marchandises. Pour améliorer l’extraction de données, un nouveau type d’entreprise s’est développée : la plateforme. Ce nouveau modèle est un intermédiaire entre différents usagers qui vise via des outils ou une infrastructure dédiée à produire des données à exploiter. Leur seconde caractéristique est de reposer sur des effets de réseaux qui favorisent le nombre et donc produits par nature des formes monopolistiques, très rapidement. Autre caractéristique des plateformes, contrairement aux entreprises allégées qui ne visaient qu’à conserver les compétences essentielles au coeur du projet, les plateformes démultiplient les activités rentables et non rentables pour diversifier les données, comme Google fourbit des services gratuits pour capter un maximum de données. Enfin, elles se présentent souvent comme des espaces ouverts, alors que les services sont entièrement déterminés par leurs propriétaires. Bien que se présentant comme des intermédiaires, les plateformes contrôlent et gouvernent les règles du jeu !
  • Srnicek distingue 5 catégories de plateformes : la plateforme publicitaire (type Google ou Facebook qui consiste à extraire de l’information pour vendre de l’espace publicitaire), la plateforme nuagique (type Amazon Web Services… qui loue de l’équipement à la demande), la plateforme industrielle (comme celles développées par GE ou Siemens… qui visent à transformer la production industrielle en processus produisant des données), la plateforme de produits (comme celles mises en place par Rolls Royce ou Spotify… qui transforment les produits en service sous forme de location ou d’abonnement) et enfin, la plateforme allégée (type Uber ou Airbnb… qui réduisent les actifs au minimum et dégage des profits en baissant au maximum leurs coûts de fonctionnement).
  • Plus qu’un digital labor, concept à l’égard duquel le philosophe semble méfiant, les plateformes publicitaires reposent sur l’appropriation des données et leur raffinage pour assortir annonceurs et usagers. Ce modèle n’est pas seulement prédominant sur internet : Dunnhumby, propriété de Tesco, est une entreprise d’analyse des habitudes de consommation. Ces plateformes publicitaires ont connu un grand succès. Leurs revenus, leurs profits sont élevés.
  • Les plateformes nuagiques permettent aux entreprises de sous-traiter leur développement technologique. Le modèle locatif permet aux entreprises qui développent des services en ligne de collecter de nouvelles données pour renforcer l’extraction. Là encore, les profits et revenus s’envolent.
  • Les plateformes industrielles, comme MindSphere de Siemens ou Predix de GE, sont certainement moins connues. Elles consistent à introduire des capteurs et des puces dans la chaîne de production pour améliorer la traçabilité logistique, afin d’optimiser l’efficacité du processus de production, de développer de la personnalisation dans la chaîne de montage et dans la chaîne de distribution. Ces plateformes construites pour collecter des mégadonnées de filières industrielles spécifiques, sont, elles aussi, particulièrement rentables.
  • Les plateformes de produits et de services en tant que produits reposent pour beaucoup sur le modèle de l’abonnement, à l’image de Spotify ou encore de Rolls Royce, qui, pour ses moteurs d’avion, fait payer les compagnies aériennes pour l’utilisation de ses moteurs plutôt que de les leur vendre. En retour, Rolls Royce prend en charge l’entretien et les pièces de rechange. En récupérant ainsi les données, ces plateformes améliorent leurs produits, à l’image de Rolls Royce qui a pu ainsi améliorer la consommation de carburant de ses moteurs et leur durée de vie, au détriment de ses compétiteurs.
  • Enfin, les plateformes allégées externalisent à maximum leurs coûts. La plateforme contrôle uniquement ce qui lui permet de percevoir une rente de monopole (un pourcentage sur les transactions qu’elle facilite). C’est là clairement le modèle d’Uber ou de Airbnb, de TaskRabbit ou Mechanical Turk. Mais, rappelle Srnicek, ce phénomène n’est pas propre au numérique. Le marché des travailleurs journaliers, des emplois informels, de la sous-traitance… bref du travail traditionnel… est également très proche de ce modèle.
  • Le numérique y ajoute une couche de surveillance. Aux États-Unis, les emplois non conventionnels représenteraient 15 millions de travailleurs soit 10 % de la main d’oeuvre du pays en 2005, et 15,8 % en 2015. Ces emplois non conventionnels ont même dépassé le nombre d’emplois créés entre 2005 et 2015 aux États-Unis (9,4 millions contre 9,1 millions). Reste que l’accélération de la précarisation de l’emploi n’est pas tout entier imputable aux plateformes numériques. On estime que l’économie du partage en ligne représente 1 % de la main-d’oeuvre américaine et que les chauffeurs d’Uber en représenteraient la grande majorité. En fait, ce secteur demeure encore relativement marginal, estime Srnicek. Ces plateformes prolongent la précarisation du travail initié par les entreprises allégées dès les années 70. Srnicek rappelle très justement que ce travail « autonome » demeure largement contraint 
  • Pour Srnicek, ces entreprises qui bénéficient de force investissements, sont un phénomène consécutif à la crise de 2008, mais Uber, Airbnb et Didi Chuxing (le concurrent chinois d’Uber), ont raflé à elles trois en 2015 59 % du financement des entreprises émergentes des services à la demande. Elles ont surtout bénéficié de capitaux excédentaires cherchant des opportunités de rendements élevés dans un contexte de faible taux d’intérêt. Pour Srnicek, la rentabilité des plateformes allégées est encore largement à prouver. Elle repose sur leur capacité à comprimer les coûts et à abaisser les salaires… comme on le constate dans le monde des livreurs à vélo où le prix de la course n’a cessé de s’effondrer.
  • Srnicek en tire un enseignement qui va à l’encontre des discours ambiants sur le modèle des plateformes : « le modèle allégé reste un joueur marginal », qui ne survit que par l’apport de capital-risque plutôt qu’en générant ses propres revenus. « Loin d’incarner l’avenir du travail ou de l’économie, il est fort probable que ces modèles finissent par s’écrouler dans les années à venir ».
  • Reste souligne Srnicek, que « nous n’assistons pas à la fin de la propriété, mais bien à sa concentration ». Les plateformes en imposant leur monopole sur l’extraction des données sont en passe de devenir « propriétaires de l’infrastructure même de la société ».
  • Le problème est que les monopoles qu’elles construisent sont donc de plus en plus importants. Qui pourrait aujourd’hui venir défaire le monopole d’un Google par exemple ? Pour autant, cela ne signifie pas que la concurrence est morte, souligne Srnicek, mais qu’elle a changé de forme. Pour lui, nous serions plutôt dans un colonialisme de plateforme, un moment où la capitalisation sur la quantité et la diversité des données importent plus que leur qualité.
  • Outre l’extraction de données, l’autre travail des plateformes repose sur leur capacité d’analyse et de traitement qui participe lui aussi à la concentration. D’où les investissements massifs dans l’intelligence artificielle : « le moindre goulot d’étranglement dans la circulation de données (…) contribue à entraver la production de valeur ». Pour Srnicek, l’expansionnisme des plateformes repose sur un modèle de convergence, tant et si bien que malgré leurs différences, les grandes plateformes se concurrencent de plus en plus entre elles.
  • Pour Srnicek, cette tendance devrait à terme se cristalliser dans des écosystèmes de plus en plus clos : « la concurrence capitaliste risque fort bien de mener à une fragmentation d’internet » que seule une intervention politique pourrait ralentir ou renverser.
  • Encore faudrait-il être sûr que la concurrence soit encore une caractéristique du capitalisme tel qu’il s’est transformé ces dernières années… C’est peut-être oublier combien celui-ci est en train de muter. Les comportements assez similaires des grandes plateformes, leurs ententes et collusions, montrent que si elles se font effectivement une petite guerre entre elles, leurs principes semblent imposer une vision du monde sans grande concurrence. Le retour des monopoles, le fait que d’énormes conglomérats dominent les marchés, souligne que nous ne sommes peut-être plus dans un capitalisme où la concurrence était un préalable. Peut-être que l’analyse de Srnicek n’est peut-être pas assez radicale ?
  • La conclusion de Srnicek est limpide. Le numérique ne nous conduit pas du tout à dépasser le capitalisme. Nous restons dans une économie où règne la concurrence et la rentabilité. Pour lui cependant, le modèle des plateformes fait face à un défi d’importance qui risque d’éprouver leurs limites : la crise de la production industrielle. Depuis 2008, la croissance est en berne. La Chine elle-même connaît une surcapacité industrielle, qui entraîne une baisse des prix… L’internet industriel est vu comme un espoir pour inverser la situation et ajuster la production à la demande. Or, souligne Srnicek, l’internet industriel lui-même ne semble pas capable de transformer le mode de production en profondeur : il se cantonne plutôt à réduire les coûts et le temps de production, plutôt que d’améliorer la productivité ou de développer de nouveaux marchés. L’internet industriel vise plutôt à agir sur la baisse des prix, et ce alors que l’austérité tend à diminuer la demande et à faire chuter la productivité. Quant au capital, explique-t-il, il cherche un peu partout les moindres opportunités, mais sans qu’elles soient raccord avec les difficultés actuelles.
  • Pour Srnicek, le scénario le plus probable est que les plateformes se propagent dans tous les secteurs, alors que la concurrence les entraîne à se refermer sur elles-mêmes. Les plateformes publicitaires pourraient être poussées à offrir des services payants, alors que les plateformes allégées pourraient être amenées à se transformer en plateformes de produits. « En dernière analyse, il semble que le capitalisme de plateforme tende inéluctablement à prendre la forme d’un échange d’une rente contre un service ». C’est-à-dire à construire des rentes par ceux qui souhaitaient les défaire…
  • La grande promesse de libération des plateformes, de fluidification de l’économie, se termine sous la forme de simples droits de péages (le fameux 30 % de marge qu’elles pratiquent toutes peu ou prou) pour accéder aux services, selon le modèle de bien des entreprises traditionnelles qu’elles prétendaient détrôner.
  • Dans une conclusion certainement trop rapide, Nick Srnicek, rappelle que les enjeux à venir consistent à s’opposer aux monopoles, à développer d’autres types de plateformes qui bénéficient à ceux qui les utilisent, à l’image du coopérativisme de plateforme, à lutter contre l’ubérisation, c’est-à-dire contre la précarisation, qu’induisent les plateformes allégées, à lutter contre l’évasion fiscale et l’exploitation des données… Pour lui, pour agir sur ce qui a permis le développement des plateformes, il est nécessaire de construire des plateformes publiques, de collectiviser les plateformes existantes pour mettre leurs données au service d’une meilleure redistribution des ressources, d’une plus grande participation… D’imaginer une autre innovation ne reposant plus sur l’optimisation capitalistique. Dommage que cette dernière partie ne dépasse pas l’appel d’intention.
  • Pour Erik Brynjolfsson et Andrew McAfee, dans Des machines, des plateformes et des foules (2018), la plateforme était encore définie comme une solution magique, puissante, sans réelle externalité (« la plateforme est un environnement numérique qui se caractérise par un coût marginal d’accès, de reproduction et de distribution proche de zéro »). La catégorisation de Srnicek apporte donc un peu de complexité et de mise en perspective et permet de relativiser l’enthousiasme et la fascination pour les plateformes, longtemps vues comme des infrastructures qui mettent en correspondance l’offre et la demande.
  • La plateforme était surtout un instrument pour industrialiser la création de valeurs et accélérer les rendements d’échelle nécessaires à l’établissement d’une position dominante sur les marchés, via un ensemble de mécanismes allant du crowdsourcing à l’appariement, en passant par des technologies comme les API et toutes les capacités offertes aux développeurs tiers. Reste que ces mécanismes et ces technologies ne sont plus magiques.
  •  
    "En attendant leurs nouvelles publications, intéressons-nous au précédent livre de Nick Srnicek Plaform Capitalism (2016), qui vient d'être traduit en français sous le titre Capitalisme de plateforme (Lux éditeur, 2018). Il est certainement moins ambitieux sur le plan politique que son manifeste, mais très stimulant pour comprendre les transformations concrètes de l'économie numérique. Ce court essai d'analyse de la réalité économique des plateformes nous aide à en saisir leur impact en les situant dans leur réalité économique."
Aurialie Jublin

L'ouverture des données publiques : un bien commun en devenir ? - 0 views

  • La mise à disposition des données publiques : une logique du don Les traitements préalables à la mise à disposition des données : un investissement de la collectivité Conditions et limites à l’ouverture des données publiques comme bien commun Les licences comme garantie de préservation de la ressource commune Les flux de données comme ressource collective Commun et ré-utilisateurs des open data : un point d’achoppement Le rôle des ré-utilisateurs dans la gouvernance des données Communs urbains et open data : le cas de Bologne
  •  
    "Cet article interroge les données ouvertes en tant que bien commun. Le traitement préalable effectué sur les données à mettre à disposition permet de créer une ressource partagée et, à première vue, possède le potentiel pour être un bien commun. L'article relève plusieurs points d'achoppement qui nuancent cette affirmation. Le premier argument provient des licences qui n'exigent pas du fournisseur de données en temps réel une continuité du service. Le deuxième argument pointe le rôle du ré-utilisateur de la donnée qui ne participe pas à la gouvernance de la donnée. Enfin, le dernier argument souligne le fait que les collectivités impliquées dans les communs urbains ne présentent pas l'open data comme tel. Nos justifications sont le fruit d'analyses de portails de villes et d'entretiens menés auprès de ré-utilisateurs de données ouvertes."
Aurialie Jublin

Pour une pratique féministe de la visualisation de données - Catherine D'Igna... - 0 views

  • Et pourtant, il existe des façons de procéder à des représentations plus responsables. Il existe des moyens pour « situer » le regard et le localiser dans des corps et des géographies concrètes. Les cartographes critiques, les artistes de la contre-cartographie, les pratiquants de cartographie participative et d’autres développent des expérimentations et des méthodes pour cela depuis des années et ont beaucoup à nous apprendre.
  • Une manière de re-situer les visualisations de données pourrait être de les déstabiliser en rendant les désaccords possibles. Comment créer des manières de répondre aux données ? De mettre en question les faits ? De présenter des points de vue et des réalités alternatives ? De contester et même de saper les bases de l’existence de ces données et des méthodes par lesquelles elles ont été acquises ? Comment procéder ? Sachant que la plupart des gens qui travaillent sur les données sont des hommes blancs, il s’agit simplement d’inclure des gens différents, avec des points de vue différents, dans la production des visualisations. Ainsi par exemple, le Detroit Geographical Expedition and Institute était né, à la fin des années 1960, d’une collaboration entre des géographes universitaires, dont les responsables étaient des hommes blancs, et des jeunes du centre ville de Detroit conduits par Gwendolyn Warren, une militante de la communauté noire de 19 ans.
  • Cette carte, intitulée « Where Commuters Run Over Black Children on the Pointes-Downtown Track », était technologiquement en avance sur son temps. Peut-être est-elle assez conventionnelle (à nos yeux) dans sa stratégie visuelle. Mais ce qui donne à cette carte son caractère dissident, c’est le titre, formulé par les jeunes Noirs qui ont produit la carte. « Où les banlieusards qui rentrent du boulot écrasent les enfants noirs ». Un titre qui n’est pas neutre. On est loin de « Localisation des accidents de la route dans le centre de Detroit », titre qui aurait probablement été donné à la carte si elle avait été élaborée par des consultants extérieurs employés par la ville. Mais du point de vue des familles noires dont les enfants avaient été tués, il ne faisait aucun doute que les enfants étaient noirs, les banlieusards blancs, et les événements décrits comme des « meurtres » plutôt que des « accidents ».
  • ...4 more annotations...
  • ToxicSites.us, un site web géré par Brooke Singer, met en ligne un rapport sur chacun des sites « superfund » — ces lieux répertoriés par le CERCLA, l’agence américaine en charge des sites souillés par des déchets dangereux. Le site invite les contributeur·e·s à ajouter des reportages locaux, des images et des films qui documentent ces sites (et contredisent potentiellement les données), et cherche à faciliter l’organisation et le plaidoyer pour les efforts de nettoyage. Permettre de « répondre aux données » invite aussi à transformer la conversation en action.
  • Si les infographies — je ne parle pas ici des outils de recherche et d’exploration, mais des représentations publiques et populaires — excellent à présenter des mondes entièrement contenus, elles ne savent pas représenter visuellement leurs limites. Où sont les lieux où l’enquête n’est pas allée, qu’elle n’a pas pu atteindre ? Comment les indiquer ? Comment représente-t-on les données manquantes ? Andy Kirk a fait cet exposé remarquable sur le design du rien, qui recense diverses manières de représenter l’incertitude et d’intégrer le zéro, l’absent et le vide. Comment encourager plus de designers à prendre ces méthodes en considération ? Peut-on demander à nos données qu’elles montrent aussi ce qui constitue leur extérieur ?
  • Quelles sont les conditions matérielles qui ont rendu cette infographie possible ? Qui l’a financée ? Qui a collecté les informations ? Quel travail a été nécessaire en coulisses et comment la production de ce graphique s’est-elle déroulée ? Par exemple, le Public Laboratory for Open Technology and Science — un groupe de science citoyenne dont je fais partie — utilise une technique de cartographie consistant à suspendre une caméra à un cerf-volant où à un ballon pour collecter des photos aériennes. Un effet secondaire de cette méthode, adopté avec entrain par la communauté, est que la caméra capture aussi l’image des personnes qui collectent les images. On voit le corps des collecteurs des données, un objet généralement absent des représentations sous forme de produit fini.
  • Quel est le problème ? La théorie féministe du point de vue situé rappelle que toute connaissance est située socialement et que les perspectives des groupes opprimés — femmes, minorités et autres — sont exclues de manière systématique de la connaissance dite « générale ». La cartographie critique dirait que les cartes sont des sites du pouvoir et produisent des mondes qui sont intimement associés à ce pouvoir. Comme le soulignent Denis Wood et John Krygier, le choix de ce que l’on place sur la carte « fait inévitablement surgir le problème de la connaissance, tout comme les opérations de symbolisation, de généralisation et de classification ». Il faudra bien admettre l’existence de ce pouvoir d’inclure et d’exclure, apprendre à le dépister et développer un langage visuel pour le décrire. Dans l’immédiat, il importe de reconnaître que la visualisation de données est un des outils de pouvoir parmi les plus puissants et les plus biaisés.
  •  
    "La visualisation de données, ou infographie, est à la mode et chacun s'enthousiasme pour les nouveaux outils qui permettent d'en produire - nous en avons dénombré, avec mon collègue Rahul Bhargava, plus de cinq cents. Malgré cette richesse technique, on manque souvent d'outils permettant une réflexion critique sur la politique et l'éthique de la représentation. Et comme le grand public est plutôt facile à impressionner avec des graphiques, la « data visualization » acquiert un grand pouvoir rhétorique. Quand bien même nous savons rationnellement que ces images ne représentent pas « le monde entier », nous avons tendance à l'oublier, et à accepter les graphiques comme des faits car ils sont généralisés, scientifiques et semblent présenter un point de vue neutre et expert. Quel est le problème ? La théorie féministe du point de vue situé rappelle que toute connaissance est située socialement et que les perspectives des groupes opprimés - femmes, minorités et autres - sont exclues de manière systématique de la connaissance dite « générale ». La cartographie critique dirait que les cartes sont des sites du pouvoir et produisent des mondes qui sont intimement associés à ce pouvoir. Comme le soulignent Denis Wood et John Krygier, le choix de ce que l'on place sur la carte « fait inévitablement surgir le problème de la connaissance, tout comme les opérations de symbolisation, de généralisation et de classification ». Il faudra bien admettre l'existence de ce pouvoir d'inclure et d'exclure, apprendre à le dépister et développer un langage visuel pour le décrire. Dans l'immédiat, il importe de reconnaître que la visualisation de données est un des outils de pouvoir parmi les plus puissants et les plus biaisés."
Aurialie Jublin

Livre blanc PrivacyTech (pdf) - Une nouvelle gouvernance pour les données du ... - 0 views

  •  
    Une économie digitale performante et éthique nécessite une libre circulation des données personnelles sous le contrôle des individus. Le RGPD (Règlement Général sur la Protection des Données), lancé le 25 mai 2018, est un pas en avant majeur vers une nouvelle économie centrée sur l'individu grâce : au nouveau droit à la portabilité (Article 20) qui encourage la circulation des données, à une série de mesures et principes visant à augmenter la protection des individus comme le consentement spécifique et informé et le privacy by design. Le RGPD s'inscrit dans la stratégie de Marché Unique du Digital (Digital Single Market) de l'Union Européenne et a pour but de créer les conditions pour une économie sans barrières qui bénéficierait autant aux individus et aux entreprises qu'à la société dans son ensemble. Presque un an après le lancement du RGPD, nous observons un paysage prometteur d'organisations qui commencent à s'adapter au nouveau règlement, autant en Europe que dans le reste du monde. Mais il reste encore beaucoup à faire, particulièrement en ce qui concerne la mise en œuvre du contrôle des données par l'individu et de la portabilité. La tâche est éminemment complexe et requiert une coordination internationale, multisectorielle et multi-expertises. Pour réussir nous avons définitivement besoin d'une nouvelle approche ambitieuse qui pourrait partir de l'Europe pour s'étendre à l'international. Dans un tel contexte, nous proposons d'engager un échange constructif entre tous les acteurs de la donnée personnelle (entreprises, administrations, académies, associations) qui voudraient joindre leurs efforts au sein d'une nouvelle forme d'organisation dont le but serait de construire, harmoniser et proposer des standards technologiques, terminologies et bonnes pratiques pour la circulation et la protection des données personnelles, ainsi qu'une gouvernance adaptée. Les grandes pro
Aurialie Jublin

Learning analytics et université : quels risques pour la vie privée des étudi... - 0 views

  • Un professeur du Wisconsin soulignait à juste titre que « quand des personnes défendent des budgets, elles doivent ensuite prouver que les crédits obtenus ont été utilisés intelligemment. Et un des moyens d’y parvenir est de s’appuyer sur les données d’utilisation. »
  • Par ailleurs, cette surveillance est parfois réalisée à l’insu des étudiants qui ne mesurent pas que l’accès à telle ressource électronique, le temps passé sur tel article ou le téléchargement d’un livre électronique est consciencieusement collecté. Par conséquent, si l’étudiant n’a pas connaissance de ces techniques d’analyse d’apprentissage, il n’a pas la possibilité d’exercer son opposition à ce traitement de données. En outre, l’analyse d’apprentissage suppose, comme pour tout traitement de données, une sécurisation des données collectées qui pourraient être utilisées à des fins qui ne correspondent pas aux finalités initiales du traitement. Ou bien elles pourraient être utilisées par un prestataire sur lequel l’établissement n’a aucun contrôle.
  • Dans ce contexte, Briney participe à Data Doubles un projet financé par l’Institue Museum and Library Services qui consiste à mesurer l’impact sur les étudiants de l’utilisation de leurs données par les universités et les bibliothèques. Ce serait intéressant de construire un projet similaire en France.
  • ...1 more annotation...
  • Et bien évidemment plus on recueille de données, plus le risque de ré-identification est fort. La responsable de la vie privée de l’Université de Berkley a produit une grille de questions qu’il convient de se poser afin de réduire les risques : Degré de transparence et de prédictabilité : dans quelle mesure les personnes sont-elles informées sur l’objet de la collecte de données et l’utilisation qui en sera faite ? Degré d’anonymité et de choix : dans quelle mesure les données sont-elles rendues anonymes, ou la personne a-t-elle le choix de participer ? Degré d’accès, de propriété et de contrôle : quel est le niveau d’accès et de propriété des données pour les individus, les institutions, les vendeurs de prestations et le public ? Responsabilité en matière d’utilisation éthique, de gérance et de gouvernance : quels principes éthiques et quelles mesures de responsabilisation les entités qui manipulent les données des étudiant·e·s démontrent-elles ? Quels sont les standards de sécurité et techniques mis en oeuvre ?
  •  
    "Le développement du big data traverse l'ensemble des secteurs de notre société y compris les universités. En effet, le milieu universitaire est également confronté à une production exponentielle de données réalisée dans le cadre de la recherche, c'est évident, mais aussi par les étudiants. Un article de l'Université de l'Arizona publié en début d'année rappelait combien les étudiants étaient scrutés notamment à travers l'utilisation de leur carte étudiante. L'objectif de l'université était de pouvoir prédire quels sont les étudiants qui abandonneront leurs études en cours d'année ou de cursus. Qui dit étudiant, dit aussi bibliothèque universitaire. Les BU pourraient être tentées de céder « à la mesure, la collecte, l'analyse et la présentation de rapports basés sur des données des apprenants en contexte d'apprentissage » (source), autrement dit aux méthodes de Learning Analytics."
Aurialie Jublin

Ouvrir, ce n'est pas juste partager des données : simple, basique - 0 views

  • Les cas d’Airbnb ou d’Uber qui proclament faire de l’open data alors que les données ne répondent pas aux principes essentiels de l’open data ne créent aucun usage réel. Cela revient à faire de l’open washing (inspiré du «greenwashing» ou éco-blanchiment) : les producteurs proclament leurs données ouvertes, même si dans les faits, l’accès et la réutilisation des données sont trop limités.
  • Lorsque les données sont disponibles uniquement à travers une API demandant inscription, l’usager des données n’a aucune garantie que la base de données pourra être téléchargée et n’est pas assuré d’avoir effectivement accès aux données. Pour l’usager, cela crée une incertitude sur la pérennité des services réutilisant des données : l’organisation qui partage ses données reste libre d’exclure l’usager si elle considère que le service ne va pas dans le sens de ses intérêts. Ce n’est donc qu’un partage contrôlé là où l’ouverture consiste à laisser place à l’inattendu et à laisser libre cours à chacun de créer des services auquel nous n’aurions pas pensé quitte à parfois concurrencer les services développés par l’organisation qui a ouvert des données.
  • Distinguer l’ouverture du partage de données permet aussi de souligner l’essence même des principes de l’open data qui consiste à réduire les asymétries d’information et à créer une situation équitable entre tous les acteurs.
  •  
    "Durant l'été, Frédéric Charles, directeur Stratégie & Innovation chez SUEZ Smart Solutions, lançait sur Twitter une polémique sur la définition de l'open data qui a abouti sur un billet sur son blog sur ZDNet. Ce billet demande, rien de moins, que de redéfinir les principes de l'open data. Il nous paraît essentiel d'y répondre et de clarifier un point : ouvrir et partager des données sont deux choses différentes."
Aurialie Jublin

Données personnelles et CGU : l'UFC Que Choisir fait plier Twitter - ZDNet - 0 views

  •  
    Les magistrats ont suivi l'association qui considérait que ces clauses abusives ou illégales avaient pour effet de : "considérer les données personnelles comme des données « publiques » par défaut ; de transférer librement les données personnelles dans un autre pays sans autres précisions. "Il y a des données, que vous ne voulez pas partager comme le contenu du carnet d'adresses, les photos stockées dans le smartphone..., les clauses permettent la collecte de ces données", affirmait l'UFC lors de la mise en demeure ; de se déclarer irresponsable en cas de faille de sécurité entraînant la fuite notamment des données personnelles ; de copier, adapter, modifier, vendre les contenus postés ou futurs des utilisateurs, y compris ceux protégés par le droit de la propriété intellectuelle, à tout bénéficiaire sur tout support, sans autorisation préalable ; de clôturer le compte d'un utilisateur en conservant notamment son nom sans limitation de durée ; de modifier les 25 pages de « conditions générales d'utilisation », renvoyant en partie à des contenus en anglais, sans en informer systématiquement les utilisateurs ; d'user trop fortement du recours aux liens hypertextes (38 pour accéder à une dizaine d'autres documents !), rendant impossible pour le consommateur la vision de ses droits et devoirs".
Aurialie Jublin

Ce nuage que je ne saurais voir. Promouvoir, contester et réguler les data ce... - 0 views

  •  
    Tandis que les données informatiques deviennent un enjeu commercial et politique majeur, une infrastructure occupe une place croissante sur les territoires : les centres de stockage de données ou data centers. Les façades aveugles des entrepôts massifs dans lesquels s'installent leurs opérateurs nous projettent bien loin des nuages qu'évoquent le cloud ou des discours sur la dématérialisation permise par le numérique. Le nord de Paris connaît l'essor entre 1990 et 2015 de la plus importante concentration de centre de données en Europe, générant des interrogations croissantes et des controverses entre riverains, élus, agents territoriaux et employés en charge de la gestion des réseaux électriques. L'article propose d'éclairer ces tensions en montrant la pluralité des manières de rendre visibles les data centers, c'est-à-dire, en analysant les dimensions matérielles, économiques, juridiques et écologiques qui sont saisies par les acteurs du territoire pour promouvoir l'implantation de ces infrastructures, ou au contraire pour les contester. Ce faisant, l'article qualifie différentes modalités de l'invisibilité qui facilitent l'implantation des centres de données : il rend compte des conditions politiques et sociales de leur implantation. Il identifie également deux démarches initiées par les acteurs pour qualifier ce que font les infrastructures numériques au territoire. D'abord, les centres de données se développent initialement comme des projets immobiliers ordinaires, puis sont légitimés a posteriori par les acteurs qui les soutiennent afin de les rendre acceptables à moindres frais. Or ces infrastructures sont aussi ciblées par une critique écologique du numérique, portée par des contestations qui en dénoncent l'empreinte environnementale et qui s'appuient sur les centres de données pour en matérialiser les conséquences.
Asso Fing

« On cherche à éveiller la conscience éthique des développeurs et data scient... - 0 views

  • Comment la communauté Data For Good utilise-t-elle les algorithmes ? Qu’est-ce qui vous différencie des grandes entreprises tech ? Avec Data For Good, on veut permettre aux associations, aux projets citoyens et aux institutions d’avoir accès à la data science, qui est utilisée uniquement par les grandes entreprises comme les GAFA et les start-up pour l’instant, car c’est un service qui coûte très cher. Notre communauté bénévole soutient certains projets comme celui de l’association Frateli, qui travaille sur du mentorat. On leur a créé une plateforme de matching, avec des algorithmes, pour matcher en un clic un mentor avec un mentoré, alors qu’avant tout était fait à la main sur un tableur Excel. L’humain garde la décision finale, il peut changer les résultats donnés par l’algorithme, mais cela reste beaucoup plus rapide.
  • Notre but n’est pas de récolter des données, on ne fait pas des algorithmes qui utilisent les données des utilisateurs pour faire de la publicité. De plus, les codes sources produits par Data For Good sont tous en open source, donc si une autre association veut les utiliser, elle peut le faire gratuitement et librement. Les GAFA ouvrent certains de leurs codes sources, mais c’est avant tout pour attirer des développeurs, et ils n’ouvrent que des bribes de leurs codes. Et ils savent très bien que sans les données qu’ils possèdent, ces extraits de codes ne servent à rien.
  • Vous travaillez aussi chez AlgoTransparency, une plateforme qui cherche à décrypter les mécanismes de l’algorithme de YouTube : avez-vous réussi à savoir comment était construit cet algorithme, qui est un secret bien gardé par YouTube ? Sur YouTube, on est enfermé dans une spirale de recommandations qui ne montre pas forcément le meilleur de l’humanité... Sur AlgoTransparency, on a mis en place un robot qui est capable de mesurer quelle vidéo est recommandée, à partir de quelle vidéo. On a donc des données sur ces vidéos, mais comprendre comment fonctionne l’algorithme est très compliqué car celui-ci est très complexe, et il évolue en permanence car il est ré-entraîné tous les jours. Nous, on a décidé d’étudier nos données, en rentrant des mots clés, et de voir ce qu’il en sort.
  • ...4 more annotations...
  • L’algorithme de la plateforme, et YouTube le dit lui-même, c’est de maximiser le temps passé sur la plateforme, le « watch time ». Et quand l’algorithme voit que les gens passent plus de temps sur la plateforme quand ils regardent des vidéos complotistes par exemple, il va plus recommander ce contenu. Il fait juste le boulot pour lequel on l’a programmé.
  • Et dans un second temps, on pourrait créer pour la plateforme un statut hybride, qui serait entre l’hébergeur, qui n’a pas de responsabilité sur le contenu qu’il héberge, et le média, qui a toute la responsabilité sur ce qu’il partage. Pour l’instant, YouTube dit être un hébergeur, car il ne peut pas éditorialiser tout le contenu qui se trouve sur la plateforme. Pourtant, les algorithmes ont un rôle éditorial : quand ils recommandent un million de fois une vidéo à des êtres humains, il y a un choix fait derrière, l’algorithme a privilégié un contenu plutôt qu’un autre.
  • Par contre, là où on peut avoir peur, c’est quand ces algorithmes, notamment de machine learning (c’est-à-dire des algorithmes qui vont apprendre à partir des données qu’on leur a fourni pour prédire des choses), impactent la vie humaine : par exemple, lorsqu’on les utilise dans l’espace public pour faire de la reconnaissance faciale, ou quand les décisions concernant les peines de prison sont prises par des algorithmes. Si on ne sait pas quels sont les critères choisis pour définir les algorithmes, c’est là que ça devient dangereux. Et c’est pour cela qu’on demande l’ouverture de tous les codes sources utilisés dans les administrations (comme la loi Le Maire le recommande).
  • Est-ce que le problème de l’algorithme ne serait pas de décontextualiser les données ? Normalement, c’est aux data scientists de garder en tête le contexte des données qu’ils étudient, et de savoir qu’elles peuvent être biaisées : par exemple, connaître le quartier où habitent les utilisateurs peut être un biais sur leur niveau social. Dans le serment d’Hippocrate de Data For Good, on cherche au mieux à éveiller la conscience éthique des data scientist, en « informant les parties prenantes sur (…) l’utilisation des données », en assurant que « les individus ne soient pas discriminés par rapport à des critères illégaux ou illégitimes », en « respectant la vie privée et la dignité humaine » et en « assumant ses responsabilités en cas de difficulté ou de conflits d’intérêts ».
  •  
    "Et si les développeurs et data scientists prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ? Data For Good, une communauté de data scientists et de développeurs bénévoles au service de projets d'intérêt général, en a fait une de ses missions. Ce « serment d'Hippocrate » des data scientists sera mis en ligne le 26 juin, lors d'un « Demo Day » qui présentera les projets soutenus par Data For Good. Curieux d'en savoir plus, nous avons interrogé Frédéric Bardolle, membre de Data For Good et d'Algotransparency, une plateforme qui décrypte les mécanismes de l'algorithme de YouTube. "
Aurialie Jublin

Le contrôle des données numériques personnelles est un enjeu de liberté colle... - 0 views

  • Il serait commode de penser que l’humain du XXIe siècle a renoncé à sa vie privée. Mais il ne s’agit pourtant pas d’indifférence. Les sondages montrent avec insistance et sans ambiguïté que les internautes la chérissent encore à l’heure des réseaux sociaux et des smartphones. Comment, alors, expliquer cette apathie ?
  • Pendant des décennies, à raison, défendre la vie privée revenait à protéger l’individu. Aujourd’hui encore, on s’obstine à rechercher et mesurer les conséquences individuelles de cette collecte effrénée de données personnelles et de ces piratages à répétition. Mais le paradigme a changé : la question des données personnelle n’est pas un problème d’intimité. C’est un enjeu de liberté collective.
  • Prenez l’affaire Cambridge Analytica : le problème n’est pas que Donald Trump et son équipe de campagne ont consulté méthodiquement la liste d’amis de 87 millions d’utilisateurs de Facebook (dont plus de 200 000 Français). Mais qu’ils aient pu utiliser ces informations, agrégées à des millions d’autres, pour mener une campagne politique extrêmement personnalisée, quasi individualisée, en utilisant à plein l’invraisemblable machine à cibler des messages proposée par Facebook. L’impact de cette fuite de données personnelles n’est plus individuel, il est collectif. Il ne s’agit pas de l’intimité de son existence vis-à-vis d’une organisation politique, mais de la liberté collégiale de choisir en conscience son dirigeant politique ou ses conditions de vie commune.
  • ...2 more annotations...
  • Au bout du compte et si rien ne change, alors que ces entreprises s’immisceront de plus en plus dans nos activités quotidiennes, passant peu à peu de la « suggestion » à l’« injonction », nous serons sans doute pris au piège des données personnelles. On décidera à notre place, d’une manière qu’on nous présentera comme optimale puisque conçue sur l’analyse de données de millions de personnes dont la vie nous est similaire, et en nous confisquant une part de notre libre arbitre. Il ne s’agit pas d’intimité vis-à-vis d’une quelconque entreprise de la Silicon Valley, mais de liberté individuelle.
  • La seule solution est de limiter la dissémination aux quatre vents de nos données personnelles. Mais comment le faire sans se retirer des connexions, sociales et professionnelles, d’une société désormais numérisée ? Comment renoncer à tous ces avantages ? La solution se trouve quelque part entre le collectif (des règles politiques pour limiter la collecte et l’exploitation des données) et l’individuel (le recours à une technologie plus frugale et plus décentralisée).
  •  
    Les révélations des failles de sécurité touchant des services en ligne s'accumulent. Et la collecte de nos données fait peser un risque collectif d'envergure.
Aurialie Jublin

Les données de Google sont devenues une mine d'or pour la police américaine -... - 0 views

  • Le recours à cette technique d’investigation, utilisée pour la première fois en 2016, a « fortement augmenté » ces six derniers mois, assurent les employés de Google interrogés par le New York Times. Un salarié parle d’un record de 180 requêtes comptabilisées en une seule semaine. Google refuse de commenter ces chiffres. Que lui demande exactement la police ? Un mandat pour avoir accès à une gigantesque base de données qui contient la position géographique précise de plusieurs centaines de millions d’appareils dans le monde depuis près de dix ans. Google, l'appelle, en interne, « Sensorvault ».
  • La police indique une zone géographique et une période de temps, Google lui fournit la liste de tous les appareils présents au moment et au lieu indiqués. Une fois que la police a enquêté et réduit son champ de recherches à quelques appareils, Google révèle les noms et adresses mail de leurs propriétaires. Et ce au risque d’arrêter des innocents, s’inquiète le New York Times. 
  • Ces recherches posent par ailleurs une question constitutionnelle, car le quatrième amendement stipule qu’un mandat doit avoir une portée limitée et établir des motifs probables et suffisants. Or, le mandat demandé à Google peut parfois concerner des zones et des plages horaires étendues, ou même s’éloigner de la demande initiale jusqu’à « offrir un portrait précis des habitudes d’un individu ». Enfin, Google ne dispose pas des données de tous les appareils - les données de géolocalisation peuvent être désactivées - sa vue est donc biaisée, et incomplète.
  • ...2 more annotations...
  • Les révélations du New York Times sur Sensorvault rappellent les nombreuses questions éthiques et légales posées par les requêtes de la police ou de la justice, toujours plus nombreuses, faites aux entreprises de la tech. On se souvient d’Amazon qui, en 2016, s’était refusée à donner à la justice américaine les enregistrements de l’enceinte connectée d’un homme accusé d’avoir tué un de ses amis. L’homme avait finalement clamé son innocence et autorisé Amazon à fournir les données réclamées, et les charges contre lui avaient été abandonnées.
  • Les entreprises de la tech ne sont pas les seules à intéresser la police. Les bases de données des plateformes proposant des tests ADN dits « récréatifs » suscitent également la convoitise du FBI. Pendant l’été 2018, les quatre entreprises dominant le secteur avaient toutes promis qu’elle ne laisseraient pas la police entrer dans leurs bases de données sans mandat, mais quelques semaines plus tard, « Family Tree DNA autorisait déjà le FBI à télécharger l’ADN récupéré sur des cadavres et des tâches de sang et à naviguer dans la base de données comme n’importe quel client, en regardant les noms et les relations entre les utilisateurs. »
  •  
    "La police américaine adresse de plus en plus de requêtes à Google pour géolocaliser des suspects en accédant à une base de données qui contient les positions géographiques de centaines de millions de téléphones dans le monde, a révélé le New York Times. La méthode est critiquée. "
Asso Fing

Louise Drulhe cartographie le web caché | Mediapart - 0 views

  • « Lorsque nous naviguons sur Internet, nous allons de lien en lien, il y a une force qui s’exerce sur notre mouvement et qui nous fait vagabonder de page en page. Cette attraction est due à la pente du web qui nous fait glisser lentement à la façon d’une dérive numérique. Au début d’Internet, la pente était douce, elle s’apparentait à une errance numérique et facilitait la sérendipité. Aujourd’hui la pente est beaucoup plus raide et nous glissons presque systématiquement vers les mêmes services », écrit l’artiste.
  • Résultat, le web s’est creusé, comme le montre ce dessin du chapitre 4, « Un relief dirigé ». Pire encore, il s’est dédoublé. Toute une mécanique s’est installée, celle des données, et c’est alors à la représentation de ce web caché que Louise Drulhe s’est attaquée, un projet qu’elle évoquera mardi 6 novembre à la Gaîté-Lyrique, à Paris, lors de la première soirée d’un cycle de rencontres intitulé Technologies et idéologies. L’occupation idéologique des réseaux numériques, organisé en partenariat avec Mediapart et l’EHESS. 
  • « En moyenne, explique Louise Drulhe, neuf autres pages sont activées par chaque page que nous consultons, et nos données fuitent par là. Elles sont récupérées par des sites tiers bénins ou malins qui récupèrent nos données de navigation. »
  • ...5 more annotations...
  • Pour cette cartographie, Louise Drulhe s’est appuyée sur les données de fréquentation des sites, elles-mêmes issues d’Alexa, le service de mesure d’audience d’Amazon, et sur les travaux de Timothy Libert, spécialiste des questions de données personnelles et vie privée, actuellement chargé de cours à l’université Carnegie Mellon de Pittsburgh (États-Unis). Sur l’image ci-dessus (à consulter en plus grand ici), elle a représenté les sites agrégés par compagnies (YouTube inclus dans Google qui le possède, Bing dans Microsoft…). Où l’on voit que « le poids grignote et déforme l’espace, crée des gouffres ». 
  • Au centre, Google et ses dépendances, Gmail, Blogspot, YouTube... En bas à gauche, les compagnies chinoises, proches des russes. En bas au centre, Wikipédia. Tout en haut, autour de Reddit gravitent les sites d'info, New York Times, CNN, Huffington Post... © Louise Drulhe.
  • Dans l’Internet chinois, Baidu occupe, comme Google dans le reste du monde, une place centrale : il est au milieu, et très profond. Tous sont très étroits : moins qu’ailleurs, d’autres sites y conduisent. Mais ils sont proches de l’Internet russe, beaucoup de liens menant de l’un à l’autre.
  • De l’autre côté du web se trouvent les aspirateurs à données (voir ici l’image en plus grand). « La hauteur des bosses représente la portion du web qui est tracké », et Google, qui surveille 78 % des pages du web, se retrouve encore une fois très loin devant les autres.
  • Entre la surface du web, celle que l’on connaît, où l’on navigue, et ses profondeurs, où sont aspirées nos données, Louise Drulhe a fait apparaître, ou plutôt constaté, « comme un miroir, ou une contreforme ». Il y a d’abord des monopoles dans les deux espaces, dit-elle. Ces monopoles sont bien souvent les mêmes, à deux exceptions notables : le serveur de cache Akamai, invisible pour l’internaute, n’est « que » dans le web caché, et c’est le contraire pour Wikipédia, qui ne récupère aucune donnée et n’est présent que sur le web visible. Et enfin, « Google tient la même place des deux côtés ».
  •  
    "Collecte des données et centralisation du web seront au centre de la première rencontre organisée par Mediapart, la Gaîté-Lyrique et l'EHESS, mardi 6 novembre à Paris. Brève rencontre avec Louise Drulhe, designer graphique, qui matérialise au feutre cet étau de plus en plus serré."
Asso Fing

Il est temps de reconnaître l'intégrité numérique des individus - Le Temps - 0 views

  • Aujourd’hui, les individus ont une existence numérique qui ne dépend pas de leur propre volonté. En effet, quelqu’un qui ne s’inscrit pas sur un réseau social a toutes les chances d’être connu de ce réseau social du simple fait que son entourage interagit avec cette plateforme. La compilation et l’analyse des données personnelles sont déjà suffisamment sophistiquées pour réaliser le profil précis d’un individu sans qu’il ait lui-même fourni des données personnelles à l’entreprise concernée. Il suffit par exemple pour cela, lorsqu’on s’inscrit sur un tel site, de donner accès à son répertoire.
  • De même, on commence à voir l’émergence d’une génération d’individus qui ont une existence numérique antérieure à leur naissance. Des parents qui partagent leur échographie sur un réseau social, cela existe. Il suffit aussi d’annoncer la naissance de cet enfant pour qu’il existe déjà numériquement. Bref, que nous le voulions ou non, une partie de notre existence est désormais numérique. C’est pourquoi les données qui nous concernent ne sont pas de simples propriétés, elles font partie de notre individualité, elles nous définissent, disent beaucoup de choses de nous. «Nous» sommes nos données personnelles et ces données personnelles, c’est «nous».
  • Si les êtres humains ont une existence numérique, il y a lieu de considérer que leur intégrité s’étend aussi à cette dimension. Puisqu’il y a une intégrité physique, qui correspond à notre corps, une intégrité psychique qui correspond à notre monde mental, il doit y avoir une intégrité numérique, laquelle se réfère logiquement à la dimension numérique de notre existence.
  • ...2 more annotations...
  • De ce fait, nos données personnelles font partie intégrante de notre intégrité numérique, ce qui revient à dire qu’exploiter nos données porte atteinte à notre intégrité.
  • Aujourd’hui, les Etats et les entreprises invoquent toujours d’excellentes raisons pour porter atteinte à l’intégrité numérique des individus en exploitant leurs données personnelles. Mais bien souvent, le traitement de ces données sert à influencer, de façon opaque, nos comportements, ou à mener des politiques sécuritaires de surveillance massive. La révolution numérique doit profiter à l’humanité, et non pas faciliter son exploitation pour favoriser des intérêts particuliers, dont seule une caste privilégiée en tirera la quasi-totalité des profits.
  •  
    "Reconnaître et protéger notre intégrité numérique constituent un premier pas nécessaire pour que l'humain ne soit pas l'objet de la technologie, écrit le journaliste Grégoire Barbey "
Aurialie Jublin

[Données Perso] Facebook dit avoir besoin de vos données combattre le terrorisme - 0 views

  • Le régulateur fédéral allemand de la concurrence, le Bundeskartellamt, vient d’ordonner à Facebook de cesser de collecter les données des utilisateurs de ses différents réseaux sociaux sans leur consentement explicite. Jusqu’à présent, les données des utilisateurs allemands de Facebook, WhatsApp, Instagram et d’autres applications tierces étaient en effet combinées et associées au même compte Facebook sans possibilité de désactiver cette collecte.
  • Très contrarié par cette décision, Facebook s’est défendu d’une manière surprenante. Dans son communiqué officiel, la firme estime que  » le Bundeskartellamt interprète mal sa conformité au RGPD et méprise les mécanismes prodigués par la loi européenne pour assurer les standards de protection des données cohérents dans toute l’UE « .
  • En outre, Facebook insiste sur le fait que le fait de combiner toutes les données en provenance de ses différents réseaux sociaux est une pratique très bénéfique dont le véritable objectif est de  » protéger les utilisateurs en identifiant par exemple les comportements abusifs et en désactivant les comptes liés au terrorisme ou à la maltraitance infantile « .
  •  
    "Alors que les régulateurs allemands demandent à Facebook de ne plus associer les données collectées sur Instagram et WhatsApp d'une personne à son compte Facebook, l'entreprise de Mark Zuckerberg se défend en affirmant que cette pratique a pour but de protéger les utilisateurs contre les terroristes ou la maltraitance infantile… "
Aurialie Jublin

Tout ce que dit Mark Zuckerberg sur Facebook dans sa tribune est vrai* - Numerama - 0 views

  • Dans ces lignes, tout est effectivement vrai : Le « produit Facebook » n’est pas son business model (Facebook est un service pour mettre en relation les particuliers entre eux et les particuliers avec des professionnels). Facebook ne vend pas vos données à des tiers (ce serait céder son trésor de guerre qui, du coup perdrait énormément de valeur). Facebook n’a pas d’intérêt à favoriser des contenus « appât à clic » sur sa plateforme (il n’est pas apprécié par ses utilisateurs et n’a qu’une durée de vie à court terme qui n’est pas rémunératrice) Facebook n’a pas intérêt à garder les contenus de haine sur sa plateforme (il n’est pas rémunéré, car les marques qui font de la pub ne s’y associent pas). Humains et algorithmes ont une tâche encore jamais vue dans l’histoire, pour modérer une quantité de données colossale et font encore des erreurs même s’ils cherchent à faire de leur mieux.
  • Par exemple, quand il est question de vendre des données pour la publicité, il est évident que Facebook ne les vend pas : il n’a aucun intérêt, en tant qu’entreprise, à faire sortir ce précieux trésor de son enclave. Si Facebook vendait vos données à une marque, pourquoi paierait-elle Facebook la fois d’après, pour vendre ses produits ? Et pourtant, une fois cette tournure exclue, on se rappelle que Facebook vend un droit d’utilisation de ces profils publicitaires ciblés. Ce qui, pour l’utilisateur, est exactement la même chose en termes d’expérience : il va être pressé par la publicité ciblée.
  • Oui, des données collectées par Facebook ont été sorties illégalement et utilisées illégalement — c’est toute l’affaire Cambridge Analytica. Oui, tout logiciel, même sur le web, contient des bugs, des failles de sécurité ou des problèmes de fonctionnement qui peuvent entraîner une perte de données — Facebook, comme Google, n’est pas épargné. La question est donc plutôt à reposer en ces termes : de quelles données a-t-on vraiment besoin pour faire tourner un business  ? Peut-on prendre le risque de collecter autant d’information, parce que l’on peut ? Et si Mark Zuckerberg semble croire que ce profilage permet un meilleur ciblage et une plus grande satisfaction des internautes, l’esprit du privacy by design qui semble prendre de l’ampleur dans le web dit tout au contraire qu’il n’y a aucun intérêt, ni économique ni pratique, à s’embarrasser de données inutiles.
  • ...1 more annotation...
  • La tribune de Mark Zuckerberg n’est donc pas fausse, mais elle parle d’un Facebook dans un best case scenario. Alors oui, si tout se passait bien, Facebook serait utilisé pour rapprocher les gens et se rémunérerait avec de la publicité tout juste ciblée qui rendrait tout le monde plus heureux. Mais les affaires à répétition, mises en évidence depuis que la presse s’intéresse sérieusement aux acteurs du web, montrent que ce scénario idéal n’existe pas. S’il veut grandir et être une meilleure version de lui-même pour ses 25 ans, au lieu de répéter qu’il n’est pas dangereux par essence, Facebook devrait au contraire mettre les deux pieds dans le plat et affronter son pire cauchemar : qu’est-ce qu’il se passe si tout va mal ?
  •  
    "*mais c'est ce qu'il ne dit pas qui nous intéresse. Pour la nouvelle année, Facebook a lancé en Europe et aux États-Unis un plan de communication articulée autour d'une tribune de son CEO, Mark Zuckerberg. En France, c'est le quotidien Le Monde qui a eu la primeur sur la parole du fondateur du réseau social - et a réservé la tribune à ses abonnés, comme d'autres médias. Une version gratuite en anglais est disponible à cette adresse pour qui souhaiterait se confronter directement à la prose de M. Zuckerberg."
Aurialie Jublin

Paris se dote de sa propre infrastructure pour héberger les données de ses ad... - 0 views

  • Alors que les services publics sont de plus en plus numérisés, ce nouvel équipement doit offrir les plus hauts standards de sécurité quant à l’hébergement des données. Il permet notamment à Paris, qui externalisait jusque-là cette prestation, de ne plus dépendre d’acteurs étrangers – possiblement soumis à des réglementations, comme le Cloud Act, lequel permet aux Etats-Unis de réclamer à des fournisseurs de service américains l’accès à des données stockées à l’étranger – et de garantir ainsi la souveraineté des données. En outre, sauf dans le cas de missions ponctuelles, les équipements sont entièrement gérés par les services informatiques de la mairie. « Nous avons la maîtrise physique du stockage de bout en bout », se réjouit M. Grégoire.
  • La mairie a également tenu à ce que cette installation ait une empreinte environnementale limitée. Manifestation la plus visible de cette volonté, la chaleur dégagée par le data center est utilisée pour alimenter le réseau de chauffage de bâtiments voisins.
  • Ce nouvel équipement a nécessité un investissement de 16 millions d’euros. Pour faire baisser la facture, la mairie a dimensionné le lieu de telle sorte qu’il puisse proposer à d’autres services publics d’accueillir leurs serveurs, moyennant finances – à un coût qu’elle assure avantageux. L’Assistance publique-Hôpitaux de Paris et Eau de Paris comptent parmi ses premiers clients, et des discussions sont en cours pour conclure de nouveaux contrats.
  • ...1 more annotation...
  • Une telle solution pourrait-elle être adoptée par d’autres villes françaises ? L’adjoint au maire admet que le coût d’entrée est prohibitif et que Paris n’aurait pas pu faire ce choix s’il ne disposait pas des compétences en interne pour créer et maintenir ce site. Mais, veut-il croire, « c’est une philosophie qui est appelée à se développer ».
  •  
    "Alors qu'elle externalisait jusque-là le stockage de ses données numériques, la ville a investi 16 millions d'euros dans un centre de données pour en reprendre le contrôle."
Aurialie Jublin

'C'est de la surveillance': Tim Cook vient de démolir Facebook devant les gen... - 0 views

  • "Il ne faut pas édulcorer les conséquences: c'est de la surveillance." Fort de cette attaque en règle, Tim Cook a salué les efforts politiques menés en Europe avec la mise en application du RGPD (Règlement général sur la protection des données) cette année et les questions posées par le régulateur aux géants de la tech. 
  • Il a aussi affirmé que "chez Apple, nous soutenons pleinement une loi fédérale exhaustive sur la vie privée aux Etats-Unis" et dit considérer le droit à la vie privée comme un "droit humain fondamental". Tim Cook a défendu quatre principes sur lesquels il repose: 1) le droit de minimiser les données personnelles — limitant le droit des entreprises à collecter ces données; 2) le droit à la transparence — pour qu'un internaute sache ce qui est collecté sur lui et à quelles fins; 3) un droit d'accès — pour que les utilisateurs puissent accéder, modifier ou supprimer leurs données; 4) le droit à la sécurité, fondement de la confiance. 
  • En revanche, il ne s'est pas exprimé à Bruxelles sur la question de la fiscalité des acteurs du numérique, alors que le ministre français de l'économie Bruno Le Maire s'efforce de rallier ses pairs européens à un consensus sur l'épineuse question et que la Commissaire européenne à la concurrence Margrethe Vestager a sanctionné Apple pour ses acrobaties fiscales avec l'Irlande en 2016. 
  •  
    "Convié à s'exprimer lors de la Conférence internationale des commissaires à la protection des données et de la vie privée à Bruxelles, ce mercredi 24 octobre 2018, Tim Cook a fait l'apologie d'Apple en dénonçant avec vigueur les travers dont se rend coupable un autre géant de la tech de la Silicon Valley selon lui - Facebook, sans jamais le nommer. "
Aurialie Jublin

Cambridge analytica: «Le scandale a montré que les politiciens sont aussi mal... - 0 views

  • Le scandale Cambridge analytica a-t-il changé notre manière de voir la démocratie ? Le lien avec la démocratie n’est pas direct. Je ne crois pas qu’avec quelques posts finement ajustés, on a pu modifier lourdement le résultat des élections. Des gens qui cherchent à modifier le résultat des élections, c’est vieux comme Hérode, cela s’appelle des candidats. En revanche, Cambridge analytica a montré quelque chose de plus embêtant. Avec des mots crus : il y a différentes familles de margoulins qui tripatouillent les données personnelles pour faire des choses malsaines. Et je constate que les politiciens sont aussi malhonnêtes que les autres. Je trouve extrêmement embêtant qu’on retrouve dans la même classe le capitaliste qui veut faire du pognon pour vendre des produits et le politicien qui veut se faire élire à tout prix. Ce qui met en danger la démocratie, ce n’est pas tant le fait que certaines personnes font n’importe quoi avec les données personnelles, mais le fait que les politiciens trouvent normal d’avoir recours à ces méthodes.
  • Un an après, a-t-on des leviers plus efficaces pour lutter contre ces dérives ? Les leviers existent, mais on les utilise très faiblement. Le texte européen sur les données personnelles (RGPD) interdit d’utiliser les données personnelles des gens pour n’importe quoi. Les personnes doivent donner leur consentement à l’usage qu’on fait de leurs données. Pour chaque usage, il faut demander l’autorisation. A l’heure actuelle, ce n’est pas respecté, puisqu’on utilise vos données personnelles pour cibler la publicité. Je pense qu’aucun être humain sur terre n’a dit explicitement : « Oui, je souhaite que vous analysiez ma vie privée pour mieux me cibler ». C’est toujours plus ou moins implicite, plus ou moins inclus dans un contrat. Si on applique fermement le droit européen, c’est interdit. Les textes européens devraient écrire : « La publicité ciblée est interdite ». C’est écrit autrement parce qu’il y a eu un lobbying au Parlement européen pour espérer gagner quelques années, quelques exceptions, quelques passe-droits, quelques tolérances autour de certaines dérives…
  • Selon vous, Cambridge analytica n’a pas changé le cours de l’élection de Donald Trump. Pourquoi pensez-vous cela ? Donald Trump s’est fait élire avec des méthodes électorales d’une malhonnêteté fabuleuse. Au mieux Cambridge analytica a pu convaincre quelques républicains conservateurs d’aller voter alors qu’ils n’en avaient pas très envie. Je ne crois pas que Cambridge analytica a eu plus d’effet qu’un meeting électoral. Ce qui est embêtant, c’est de le faire de manière malhonnête. Le but de ces plateformes est de vous manipuler, elles gagnent leur vie de cette manière. Le client chez Facebook, c’est le publicitaire et le but de Facebook est de satisfaire ses clients. Les plateformes pourraient vous manipuler pour vous mettre dans la main des politiques. La France y travaille d’arrache pied. Quand on nous dit : « L’État va collaborer avec Facebook pour faire la chasse aux fakes news ». C’est extrêmement inquiétant. Un gouvernement décide le vrai du faux et se met d’accord avec les plus puissants manipulateurs pour vous faire admettre que le vrai gouvernemental est vrai et que le faux gouvernemental est faux. C’est de la manipulation à très grande échelle.
  • ...3 more annotations...
  • Comment décririez-vous la démocratie de demain ? Depuis une trentaine d’années, il n’y a plus de discussion politique. Tous les gouvernements, depuis 1983, sont des partisans de l’économie libérale de marché et ils expliquent qu’ils ne font pas de politique, mais de la bonne gestion. Fondamentalement, la politique, c’est arbitrer entre des intérêts divergents dans la société. Il faut résoudre le conflit entre deux catégories qui s’opposent sur un sujet. D’un côté, il y a des gens qui voudraient protéger leur vie privée et, de l’autre, il y a Facebook qui ne voudrait pas. Les deux s’affrontent et les politiques doivent trancher. Un conflit n’est pas malsain, mais tant qu’on n’a pas posé les termes d’un conflit, on ne sait pas qui cherche à obtenir quoi, et on obtient des arbitrages implicites au lieu d’arbitrages explicites.
  • Dans le futur, la démocratie va-t-elle retrouver la discussion politique ? Je pense qu’elle va la retrouver via Internet. Pas forcément via les réseaux sociaux tels qu’on les connaît aujourd’hui, mais ce n’est pas exclu. Internet comme outil de communication qui permet à tout le monde de s’exprimer tout le temps et de former des sujets politiques. Il ne s’agit pas forcément de sujets très complexes, il s’agit d’identifier le problème et d’identifier son ennemi.
  • Sur le même rond-point, vous avez des gens dont les intérêts divergent. Ils évitent de parler d’immigration, d’impôts, de libéralisme, de gauche, de droite… Mais à un moment, ils vont se remettre à en discuter. Je pense que la démocratie du futur ressemblera à ça : on va se remettre à discuter, à identifier de qui on dépend, de qui on a besoin.
  •  
    "Benjamin Bayart, cofondateur de la Quadrature du Net, revient sur le scandale Cambridge analytica et ouvre les portes à la démocratie du futur"
Aurialie Jublin

Windows 10 : plongée en eaux troubles - Framablog - 0 views

  • Les versions normales de Windows ont seulement trois niveaux différents de télémétrie. Le BSI a trouvé qu’entre la version Basic et la version Full on passe de 503 à 534 procédés de surveillance. La seule véritable réduction de télémétrie vient des versions Entreprise de Windows qui peuvent utiliser un réglage supplémentaire de « sécurité » pour leur télémétrie qui réduit le nombre de traqueurs actifs à 13.
  • Voici quelques faits intéressants issus de ce document : • Windows envoie vos données vers les serveurs Microsoft toutes les 30 minutes ; • La taille des données enregistrées équivaut à 12 à 16 Ko par heure sur un ordinateur inactif (ce qui, pour donner une idée, représente chaque jour à peu près le volume de données d’un petit roman comme Le Vieil homme et la mer d’Hemingway) ; • Il envoie des informations à sept endroits différents, y compris l’Irlande, le Wyoming et la petite ville de Boston en Virginie.
  • Logiquement l’étape suivante consiste à découvrir ce qui figure dans ces 300 Ko de données quotidiennes. J’aimerais aussi savoir à quel point l’utilisation de Windows Media Player, Edge et les autres applications intégrées influe sur l’empreinte laissée par les données, ainsi que le nombre d’éléments actifs d’enregistrement.
  • ...1 more annotation...
  • Au sein des communautés dédiées à l’administration des systèmes ou à la vie privée, la télémétrie Windows est l’objet de nombreuses discussions et il existe plusieurs guides sur les méthodes qui permettent de la désactiver complètement.
  •  
    "Vous avez sans doute remarqué que lorsque les médias grand public évoquent les entreprises dominantes du numérique on entend « les GAFA » et on a tendance à oublier le M de Microsoft. Et pourtant…On sait depuis longtemps à quel point Microsoft piste ses utilisateurs, mais des mesures précises faisaient défaut. Le bref article que Framalang vous propose évoque les données d'une analyse approfondie de tout ce que Windows 10 envoie vers ses serveurs pratiquement à l'insu de ses utilisateurs… Article original : 534 Ways that Windows 10 Tracks You - From German Cyber Intelligence Traduction Framalang : Khrys, goofy, draenog, Sphinx"
1 - 20 of 133 Next › Last »
Showing 20 items per page