Skip to main content

Home/ QN2019/ Group items tagged protection

Rss Feed Group items tagged

Aurialie Jublin

[GAFA] Facebook est aussi néfaste pour la démocratie que fumer l'est pour la ... - 0 views

  • "Pour inciter à manipuler l'attention, il s'agit avant tout de s'attaquer aux éléments les plus faibles de la psychologie humaine. Il ne suffit plus de savoir beaucoup de choses sur nous. L'objectif est maintenant de changer ce que nous pensons et ce que nous faisons."
  • Jim Steyer a ajouté: "À mon avis, la comparaison avec les cigarettes était impressionnante parce que tout le monde la comprend... Il faut une conversation mondiale à ce sujet et une réglementation sensée des entreprises du secteur de la technologie".
  • Le PDG de Common Sense Media a participé à l'élaboration de nouvelles lois sur la protection de la vie privée en Californie et était à Bruxelles la semaine dernière pour discuter avec les législateurs de la loi européenne sur la protection de la vie privée, du RGPD, ainsi que d'autres réglementations relatives aux technologies.
  • ...1 more annotation...
  • Roger McNamee pense que le pouvoir d'entreprises telles que Facebook, Google et Amazon devrait être limité. Dans un article du magazine Time avant la sortie de son livre le mois prochain, il a suggéré de les empêcher de faire des acquisitions et d'empêcher le partage de données entre filiales.
  •  
    "Lors de la réunion annuelle du forum économique mondial à Davos, certains experts tech ont évoqué la comparaison entre Facebook et le tabagisme faite par le patron de Salesforce, Marc Benioff.  "Les incitations à manipuler l'attention concernent uniquement les éléments les plus faibles de la psychologie humaine", a déclaré Roger McNamee, ancien mentor de Mark Zuckerberg, à Business Insider. McNamee et Jim Steyer, fondateur de Common Sense Media, estiment qu'il est temps de réglementer de manière stricte - et même de démanteler Facebook."
Asso Fing

Imagining a Universal Declaration of Digital Rights - Ding Magazine - 0 views

  •  
    "With this question, we kicked off a "Future-proofing our digital rights" workshop in Berlin. Together with digital rights experts, campaigners and activists, we imagined a positive future conversation about our digital rights and penned a multitude of statements. Temporarily switching our focus from the digital rights battles being fought today to the future we want turned out to be an invigorating and inspiring experience; the energy fed into our own imagining of a "Universal Declaration of Digital Rights". From a starting point of how rights are currently protected in our international human rights system, we looked at how these would be interpreted in the future and asked ourselves what would need to be established over the coming years. The collated document from our collective imagination was a combination of both re-imagined existing rights, such as fair trial rights, focused on algorithmic decision-making, or a right to "understand the implications of technology" as a manifestation of the right to education, and the formulation of new potential rights, such as a right to modify and update devices, the right to interoperability of technologies, and the right to disconnect. "
Aurialie Jublin

Retour sur MyData2018 : quelle(s) approche(s) collective(s) des données perso... - 0 views

  • L’entrée en vigueur du RGPD a clairement été l’événement marquant de 2018 et beaucoup d’intervenants s’y sont référés. Le principe d’équité y est affirmé. Or il s’agit d’un principe qui recouvre une dimension collective : l’équité suppose un groupe, contrairement aux autres principes (transparence, légalité, limitation de but, rétention, intégrité et confidentialité, minimisation des données, précision). Toutefois le texte ne donne pas de définition de l’équité dans le contexte de la gestion des données personnelles a fait remarquer Jussi Leppälä, Privacy Officer (Global) chez Valmet. Finalement, les intervenants s’accordaient à dire que le RGPD est un texte axé sur les besoins individuels plutôt que collectifs. Il protège l’individu, mais ne porte pas de vision véritablement collective des données personnelles.
  • Sur cette question de l’équité, l’exemple d’openSCHUFA donné par Walter Palmetshofer (Open Knowledge Allemagne) est inspirant : une campagne de collecte de données a été faite auprès de milliers d’individus pour comprendre l’algorithme de credit-scoring (pointage de crédit) de SCHUFA, bureau de crédit privé allemand. Cela a permis à des individus de pouvoir demander, preuves à l’appui, à corriger des décisions prises par l’algorithme. De manière générale, le biais algorithmique est un enjeu sociétal important, surtout pour les groupes les plus fragiles dont les données personnelles sont plus exposées et davantage victimes de biais algorithmiques (à ce sujet, lire Internet Actu).
  • D’autres intervenants ont insisté sur la nécessité d’accompagner les entreprises vers plus de prises en compte de leur responsabilité sociale. Le modèle de gouvernance qui domine actuellement étant l’hégémonie d’acteurs économiques (GAFA, BATX) raconte Bruno Carballa Smichowski, de Chronos, le rééquilibrage des pouvoirs doit venir des Etats. Ces derniers disposent de données personnelles, mais peuvent également demander des comptes et pousser les acteurs qui utilisent les données à être plus ouverts et actifs : littératie, infrastructure, open innovation, construire la confiance et faire reculer la peur, ou encore impliquer les personnes concernées (Hetan Shah et Jeni Tennison), sont autant d’actions que les pouvoirs publics peuvent mettre en place.
  • ...9 more annotations...
  • Depuis le lancement de MyData, la nécessité de développer les enjeux collectifs des données personnelles apparaît chaque année plus forte. En parallèle, les communs numériques apparaissent de plus en plus comme un modèle alternatif désirable face aux comportements abusifs des acteurs dominants. Les communs autorisent par nature une gestion transparente et au service de la communauté, car gérés par leurs membres.
  • Si sa remarque a donné naissance au track “OurData” en 2017 et en 2018,, le terme de “commun” était pourtant quasiment absent des discussions du track OurData, essentiellement tourné vers l’acteur public et la régulation. L’exemple d’OpenSCHUFA se rattache néanmoins au courant des communs en donnant un exemple concret.
  • L’idée derrière la coopérative de données qui s’intègrerait au modèle MyData/Self Data viserait plutôt à créer un commun : une association d’individus développant des outils et services (chat, moteur de recherche,…) leur permettant de gérer leurs données de A à Z. Il existe plusieurs coopératives de données de ce type : diglife.coop, schluss, open.coop,…
  • Laura James (doteveryone) a suggéré  cette session afin d’échanger avec les participants sur la faisabilité de créer une ou des coopératives “de masse”, appartenant à leurs membres et gérées par eux. L’objectif serait d’offrir aux gens de meilleurs services que les géants de la technologie et les entreprises de type Silicon Valley. Laura James constate que si le problème avec les géants numériques est leur modèle d’entreprise (capitalisme de surveillance) et le modèle de propriété (extraction de richesse au profit de quelques-uns), la “data coop” doit permettre d’offrir une technologie en laquelle nous pouvons avoir confiance – c’est-à-dire préservant notre vie privée, accessible, fiable, équitable, basée sur les sources ouvertes existantes, avec un meilleur support et une véritable durabilité.
  • Est-ce que le peu de succès de Digital Life Collective est dû à un manque d’intérêt de la part des consommateurs pour les questions liées aux données personnelles ? Ou bien est-ce que les enjeux ne sont pas encore bien compris par les gens ? Les porteurs de coopératives présents à la session échangent sur plusieurs éléments de réponse. D’abord, il n’y a pas une absence d’intérêt pour les questions de privacy mais une perception et un traitement différent selon les personnes (par les « millenials » par exemple). Ensuite, les consommateurs veulent-ils avoir à supporter la responsabilité qui va avec la reprise du contrôle sur leurs données ? Rien n’est moins sûr : comme les services gratuits d’aujourd’hui, cela doit être simple. Mais le contrôle implique nécessairement des responsabilités… Les consommateurs ont aussi besoin de services pratiques. Il faut travailler l’expérience utilisateur. Enfin, il faut une littératie des données pour créer un véritable intérêt et dissiper la peur et les malentendus autour de ce sujet.
  • Comment avoir une véritable gouvernance partagée tout en ayant une organisation suffisamment grande ? A peine 10 personnes sont vraiment actives au sein de Digital Life Collective. Schluss recherche une manière de faire participer davantage les membres. C’est un problème récurrent pour les coopératives, et toute organisation dont la gestion s’appuie sur l’ensemble de ses membres. Toutefois, l’un des participants soulignait que même si seul 1% s’implique dans la prise de décisions, tous reçoivent les bénéfices de la coopérative ! Ca n’est pas la gestion parfaitement partagée et idéale, mais cela fonctionne quand même. Avant de renoncer au modèle participatif, quelques modèles de gouvernance pourraient être expérimentés pour faciliter les prises de décision participatives au sein de la coopérative : les jurys citoyens, sociocracy 3.0 (utilisé par certaines entreprises télécom en Finlande), …
  • Dans les sessions de la thématique “OurData”, nous avons eu le plaisir d’entendre à chaque fois (ou presque) que la propriété appliquée aux données personnelles n’a aucun sens. Bien que ce track, plus qu’aucun autre, soit prédisposé à un tel constat,depuis quelques années, la position de la communauté MyData s’est éclaircie à ce sujet et on voit de moins en moins de personnes prôner ce modèle de propriété et de revente individuelle de ses données..
  • En découle un modèle collectif basé non pas sur des titres de propriété individuels mais sur des droits d’usage. Le RGPD en crée quelques-uns mais d’autres questions restent en suspens, comme le droit à la mémoire collective, notamment pour les catégories les plus défavorisées, ou encore l’équité, qui s’oppose à une régulation par les lois du marché.
  • La plupart des intervenants postulent que c’est l’acteur public qui doit agir : en créant de nouveaux droits associés aux données personnelles, en accompagnant les acteurs privés à fournir des solutions plus éthiques et transparentes, en s’engageant pour une culture et une littératie de la donnée pour tous, en actant juridiquement que les données personnelles sont le résultat d’un processus collectif qui appartient à la société qui l’a co-généré et qu’il ne peut y avoir de propriété associée (en France la CNIL est très claire sur ce dernier point, nous avons besoin d’une voie aussi claire au niveau européen !), en promouvant leur valeur sociale, et non commerciale, et enfin qu’il fasse que le fruit de ce travail doit servir à répondre à des problématiques collectives telles que la santé, l’éducation, la culture, la protection de l’environnement, …
  •  
    "LE CONSTAT : LA GESTION ACTUELLE DES DONNÉES PERSONNELLES S'INTÉRESSE PEU AU COLLECTIF MyData s'intéresse à toutes les dimensions que recouvre le contrôle des données personnelles : si la privacy occupe souvent le devant de la scène, MyData explore également la transparence des organisations et des technologies, l'équité et la dimension collective des données personnelles."
Aurialie Jublin

The urgent case for a new ePrivacy law | European Data Protection Supervisor - 0 views

  •  
    A swarm of misinformation and misunderstanding surrounds the case for revising our rules on the confidentiality of electronic communications, otherwise known as ePrivacy. It's high time for some honest debunking.
Aurialie Jublin

Pour la consécration constitutionnelle des droits fondamentaux des utilisateu... - 0 views

  • Une charte du numérique pourrait porter ces principes fondamentaux : • Le droit d’accès à Internet pour tous Comme prérequis de l’inclusion dans la Société : de la participation à la vie publique jusqu’à la communication dans la vie privée ; • Le droit à la neutralité du net Garant d’un Internet sans barrières de coûts et d’une capacité d’innovation sans permission préalable • Le droit d’accès gratuit et de réutilisation libre des informations publiques C’est-à-dire des informations produites, collectées ou recueillies dans le cadre d’une mission de service public, dans le respect de la vie privée des individus et des secrets protégés par la loi • Le droit à la protection des données personnelles Et le contrôle des usages qui en sont faits.
  •  
    "Parce qu'Internet est un bien commun : nous, citoyens engagés en faveur d'un numérique au service des individus et de la société, invitons ardemment le constituant à adopter une charte du numérique à valeur constitutionnelle"
Aurialie Jublin

Pour protéger la vie privée des internautes, la première « coopérative de don... - 0 views

  • MyCO propose d’abord un navigateur sécurisé pour naviguer sur Internet sans laisser de traces. Celui-ci permet de choisir à tout moment entre trois niveaux de protection : « invisible » (aucune trace laissée sur les sites), « protégé » (empêche tout échange de données à l’insu de l’internaute) ou « à risque » (comparable à un navigateur classique). Mais l’ambition de la plateforme est d’aller plus loin en proposant une véritable « boîte à outils digitale ». Partage et édition de documents, de photos, de contacts, de calendriers, cagnottes façon crowdfunding, messagerie instantanée, mais aussi nouvelle adresse email sécurisée (non polluée et gérée en France) comptent parmi les fonctionalités de myCO.
  • L’aspect le plus ambitieux du projet concerne la gestion des données des internautes et c’est la que la forme coopérative entre en jeu. Chaque utilisateur de myCO doit souscrire une part à la coopérative. Celle-ci lui permet de répondre – ou non – à des questions auprès de marques ou d’instituts, de façon anonymisée « Plus un sociétaire est actif, plus il va engranger de myCoins, explique Arnaud Blanchard, CEO . À la fin de chaque mois, il est rétribué en euros selon le chiffre d’affaire engrangé et sa participation. »
  • La coopérative rémunère aussi ses membres sous forme de dividendes. « Il est possible de souscrire jusqu’à 500 parts et d’être rémunéré en fin d’exercice au prorata de ses parts », détaille Arnaud Blanchard. Enfin, cette forme juridique permet aux sociétaires de participer à la gouvernance de la plateforme selon le principe un homme égal une voix – et d’éviter que myCO soit rachetée par un grand groupe.
  • ...1 more annotation...
  • Environ 250 utilisateurs ont participé à la phase de bêta test. Ils sont aujourd’hui 2 000 sur la plateforme. Le défi sera évidemment de réussir assez d’utilisateurs pour atteindre une masse critique à même de faire poids face à l’omniprésence des géants américains dans le monde du numérique. Avec l’entrée en vigueur de lois comme la RGPD, Arnaud Blanchard est convaincu que les internautes sont prêts à « participer à la construction d’une approche éthique et européenne du web ».
  •  
    "En souscrivant une part à Myco, chaque utilisateur pourra choisir de partager ses données ou non, de façon anonymisée et rémunérée. Les membres de la coopérative auront aussi accès à de nombreuses fonctionnalités comme un navigateur et une adresse mail sécurisée." => rémunéré ? Est-ce vraiment une bonne idée ?
Aurialie Jublin

Concrètement, comment rendre les algorithmes responsables et équitables ? | I... - 0 views

  • Et rappelle la difficulté à définir mathématiquement l’équité, comme l’a souligné l’informaticien Arvind Narayanan (@random_walker) lors de la dernière édition de la conférence FAT (la conférence annuelle sur l’équité, la responsabilité et la transparence). Outre les biais et déséquilibres statistiques, rappelle David Robinson (@drobinsonian), responsable des associations EqualFuture et Upturn (et qui a notamment publié un rapport sur la question de l’examen public des décisions automatisées (.pdf)), leur impact dépend surtout de la manière dont sont utilisés ces systèmes, avec le risque, que pointait Eubanks, que les plus discriminés soient encore plus surveillés par ces systèmes.
  • Pour remédier à ces problèmes, beaucoup d’agences américaines ont recours à des chercheurs extérieurs pour déjouer les biais de leurs systèmes. En avril, l’AI Now Institute a défini un cadre (voir le rapport (.pdf)) pour les organismes publics qui souhaitent mettre en place des outils de prise de décision algorithmique, recommandant notamment de mettre à contribution la communauté de la recherche et de permettre à ceux que le système calcul de faire appel des décisions prises à leur sujet.
  • Leurs recommandations invitent les systèmes à respecter le droit d’information du public, à recourir à des examens par des chercheurs indépendants, à améliorer l’expertise des organismes qui les conçoivent et à développer des modalités pour permettre au public de contester les décisions prises. L’initiative recommande aux agences publiques de répertorier et décrire les systèmes de décision automatisés, y compris d’évaluer leur portée et impact. Elle recommande également de mettre en place des modalités d’accès afin que des chercheurs, des experts indépendants, des associations ou des journalistes puissent accéder et évaluer ces systèmes et pour cela doivent s’assurer notamment que leurs fournisseurs privés de systèmes acceptent ces vérifications. Elle souligne également que les agences doivent monter en compétences pour être expertes des systèmes qu’elles mettent en place, notamment pour mieux informer le public, et invite les fournisseurs de solutions à privilégier l’équité, la responsabilité et la transparence dans leurs offres.
  • ...7 more annotations...
  • Mais ce n’est pas la seule piste qui permettrait d’interroger les biais des systèmes automatisés. Microsoft travaille à un outil de détection automatique des biais, Facebook également (notamment via le projet Fairness Flow annoncé par Isabel Kloumann du département d’IA de FB research à la dernière conférence de F8 Conference parmi une longue liste d’outils pour l’IA) rapporte la Technology Review.
  • La mathématicienne Cathy O’Neil (@mathbabedotorg, blog), qui s’est fait connaître en dénonçant les dangers de ces outils, a lancé une entreprise d’audit algorithmique. Visiblement, souligne Wired, ses premiers clients sont des entreprises qui ont besoin de certifier qu’elles sont équitables : comme cela a été le cas de Rentlogic, une entreprise qui évalue les immeubles automatiquement pour leur attribuer une note, ou comme Pymetrics, une entreprise qui utilise des tests de personnalité pour aider les entreprises à embaucher qui avait besoin d’assurer que ses logiciels n’étaient pas discriminants.
  • Dans son livre, Weapons of Math Destruction, Cathy O’Neil avait émis l’idée de créer un serment d’Hippocrate pour les datascientists, sous la forme d’un code de conduite édictant quelques principes moraux. Elle soulignait dans une remarquable interview pour Wired, que ce code de conduite n’était certes pas suffisant en soi, notamment parce que les datascientists ne sont pas seuls à décider de ce qui sera implémenté dans les services développés par les entreprises. Pour autant, ces techniciens ne peuvent pas seulement suivre « les recommandations des manuels d’optimisation qu’ils utilisent, sans tenir compte des conséquences plus larges de leur travail ».
  • Cathy O’Neil a proposé une matrice éthique, basée sur les travaux du philosophe Ben Mepham qui l’a utilisé en bioéthique, qui aide à saisir ce sur quoi ce que l’on développe a un impact, et de l’autre ce dont s’inquiète les gens qui sont impactés par ce que l’on développe. Cette grille confronte quelques notions (exactitude, cohérence, partialité, transparence, équité, rapidité) à leur impact sur chacune des parties prenantes. La matrice sert à créer une conversation. Chaque case propose des questions : « qui souffre si le système se trompe ? » Le but est de révéler des problèmes. Quand la réponse pose problème, la case est colorée de rouge.
  • Elle propose également de se poser plusieurs questions, comme « les algorithmes que nous déployons vont-ils améliorer les processus humains qu’ils remplacent ? » Bien souvent, on constate qu’ils fonctionnent beaucoup plus mal que les systèmes précédents. Pour elle, il est également nécessaire de se demander : « pour qui l’algorithme échoue-t-il ? » Un système de reconnaissance facial échoue-t-il plus souvent pour les femmes que pour les hommes, pour les gens de couleurs que pour les blancs, pour les personnes âgées que pour les jeunes ?… Enfin, elle invite à se poser une troisième catégorie de questions : « est-ce que cela fonctionne pour la société (donc à très large échelle) ? Est-ce que nous enregistrons les erreurs du système ? Peut-on les réintroduire dans l’algorithme pour l’améliorer ? Est-ce que le système a des conséquences non intentionnelles ?… » Et la chercheuse de rappeler qu’aucunes de ces questions ne mettent en danger les secrets des algorithmes que les entreprises veulent protéger.
  • Le militant pour la protection de la vie privée Aral Balkan (@aral) estime qu’un code d’éthique risque surtout d’être utilisé comme caution de vertu par les entreprises pour continuer à faire comme d’habitude. Appliquer le RGPD aux États-Unis aurait plus d’impact pour prévenir les dommages algorithmiques. Sur son blog, Virginia Eubanks a réagi en proposant plutôt un « serment de non-violence numérique », qui, dans la forme au moins, est plus impliquant pour celui amené à le prononcer que de signer à quelques grands principes vagues
  • Mais l’enjeu demeure de les mettre en pratique. « Tout code d’éthique des données vous indiquera que vous ne devez pas collecter des données de sujets expérimentaux sans leur consentement éclairé. Mais ce code de conduite ne vous dira pas comment implémenter ce consentement éclairé. Or, celui-ci est facile si vous interrogez quelques personnes pour une expérience de psychologie. Mais il signifie quelque chose de bien différent en ligne ». Et ce n’est pas la même chose bien sûr de demander la permission via une fenêtre pop-up par exemple ou que via une case précochée cachée… La mise en oeuvre de principes éthiques englobe des questions qui vont des choix dans l’interface utilisateur aux choix de structuration des données ou d’interrogation des données de connexion. Et pose la question de rendre néanmoins le service utilisable sans dégrader l’expérience utilisateur…
  •  
    "Face aux multiples biais inscrits dans la production même des données utilisées par les algorithmes et les outils d'apprentissage automatisés, le risque, rappelle la chercheuse Kate Crawford (@katecrowford), co-fondatrice de l'AI Now Institute (@AINowInstitute), est que « plutôt que de concevoir des systèmes censés résoudre les problèmes, nous les exacerbions »."
Aurialie Jublin

Facebook n'est pas un réseau social, c'est un scanner qui nous numérise - Fra... - 0 views

  • Le modèle économique de Facebook, Google et de la cohorte des startups financées par le capital-risque de la Silicon Valley, j’appelle ça de l’élevage d’être humains. Facebook est une ferme industrielle pour les êtres humains. Et le manifeste de Mark n’est rien d’autre que la dernière tentative d’un milliardaire paniqué pour enjoliver un modèle d’affaires répugnant fondé sur la violation des droits humains avec l’objectif faussement moral de se débarrasser de la réglementation et de justifier un désir décomplexé de créer une seigneurie à l’échelle planétaire, en connectant chacun d’entre nous à Facebook, Inc.
  • Ce n’est pas le rôle d’une entreprise de « développer l’infrastructure sociale d’une communauté » comme Mark veut le faire. L’infrastructure sociale doit faire partie des biens communs, et non pas appartenir aux entreprises monopolistiques géantes comme Facebook. La raison pour laquelle nous nous retrouvons dans un tel bazar avec une surveillance omniprésente, des bulles de filtres et des informations mensongères (de la propagande) c’est que, précisément, la sphère publique a été totalement détruite par un oligopole d’infrastructures privées qui se présente comme un espace public.
  • Il est grand temps que nous commencions à financer et à construire l’équivalent numérique de parcs à l’ère du numérique au lieu de construire des centres commerciaux de plus en plus grands.
  • ...7 more annotations...
  • Nous ne pouvons plus nous offrir le luxe de ne pas comprendre la nature du « moi » à l’âge numérique. L’existence même de nos libertés et de la démocratie en dépend. Nous sommes (et nous le sommes depuis un moment maintenant) des organismes cybernétiques. Nous devons résister de toutes nos forces à toute tentative de réduire les personnes à des propriétés.
  • il s’ensuit que nous devons étendre les protections du moi au-delà de nos limites biologiques pour y inclure toutes ces technologies qui servent à nous prolonger. Par conséquent, toute tentative par des tierces parties de posséder, contrôler et utiliser ces technologies comme une marchandise est une tentative de posséder, contrôler et monétiser les éléments constitutionnels des individus comme des marchandises. Pour faire court, c’est une tentative de posséder, contrôler et utiliser les êtres humains comme des marchandises.
  • Inutile de dire que nous devons résister avec la plus grande vigueur à toute tentative de réduire les êtres humains à de la marchandise. Car ne pas le faire, c’est donner notre consentement tacite à une nouvelle servitude : une servitude qui ne fait pas commerce des aspects biologiques des êtres humains mais de leurs paramètres numériques. Les deux, bien sûr, n’existent pas séparément et ne sont pas réellement séparables lorsque la manipulation de l’un affecte nécessairement l’autre.
  • Il s’ensuit également que toute tentative de violation des limites de ce moi doit être considérée comme une attaque du moi cybernétique. C’est précisément cette violation qui constitue aujourd’hui le modèle économique quotidien de Facebook, Google et des majors de la technologie de la Sillicon Valley. Dans ce modèle, que Shoshana Zuboff appelle le capitalisme de surveillance, ce que nous avons perdu, c’est notre souveraineté individuelle. Les personnes sont à nouveau redevenues des possessions, bien que sous forme numérique et non biologique.
  • Imaginez un monde où chacun possède son propre espace sur Internet, fondé sur les biens communs. Cela représente un espace privé (un organe de notre être cybernétique) auquel nos appareils dits intelligents (qui sont aussi des organes), peuvent se connecter.
  • Au lieu d’envisager cet espace comme un nuage personnel, nous devons le considérer comme un nœud particulier, permanent, dans une infrastructure de pair à pair dans laquelle nos appareils divers (nos organes) se connectent les uns aux autres. En pratique, ce nœud permanent est utilisé pour garantir la possibilité de trouver la localisation (à l’origine en utilisant des noms de domaine) et la disponibilité (car il est hébergé/toujours en service) tandis que nous passerons de l’architecture client/serveur du Web actuel à l’architecture de pair à pair de la prochaine génération d’Internet.
  • Les fournisseurs de services doivent, naturellement, être libres d’étendre les fonctionnalités du système tant qu’ils partagent les améliorations en les remettant dans les biens communs (« partage à l’identique »), évitant ainsi le verrouillage. Afin de fournir des services au-dessus et au-delà des services de base fondés sur les biens communs, les organisations individuelles doivent leur attribuer un prix et faire payer les services selon leur valeur ajoutée. De cette manière, nous pouvons construire une économie saine basée sur la compétition reposant sur un socle éthiquement sain à la place du système de monopoles que nous rencontrons aujourd’hui reposant sur une base éthiquement pourrie.
  •  
    "Dans son manifeste récent Mark Zuckerberg mettait en valeur sa vision d'une colonie mondiale centralisée dont les règles seraient dictées par l'oligarchie de la Silicon Valley. J'affirme que nous devons faire exactement l'inverse et œuvrer à un monde fondé sur la souveraineté individuelle et un patrimoine commun sain."
Aurialie Jublin

Charter for Building a Data Commons for a Free, Fair, and Sustainable Future - HackMD - 0 views

  • This Charter/Carta provides practical guidance and political orientation for mapping, modelling, managing and sharing data as a Commons. If you follow these guidelines, you will contribute to a Global Data Commons. That is, you will govern your mapping community and manage data differently than people who centralize data control for profit.The Charter does not describe the vision, scope or values of a specific mapping project, but Data Commons principles. It will help you reimagine how you protect the animating spirit of your mapping project and prevents your data from being co-opted or enclosed.The Charter as a whole is the maximum „commons denominator“ of mapping projects that aspire to share data for the common good.Help commonize maps and data! For the people, by the people.
  •  
    "Charter for Building a Data Commons for a Free, Fair, and Sustainable Future"
Aurialie Jublin

Le Crédit Social chinois et le dilemme éthique de la confiance par la notatio... - 1 views

  • Qu’est-ce que ce Crédit social ? Un système par lequel le comportement de chacun des citoyens chinois ainsi que les personnes morales sera évalué et noté. Une version béta est actuellement en test. Des entreprises, parmi lesquelles on retrouve par exemple China Rapid Finance, partenaire de Tencent (WeChat), Sésame Credit, une filiale de Alibaba et Didi Chuxing (équivalent chinois de Uber), participent à ce programme-pilote basé sur le volontariat mais qui deviendra obligatoire en 2020. Les citoyens seront ainsi notés selon cinq facteurs : leur historique de crédit, leur capacité à remplir leurs obligations contractuelles, leurs informations personnelles, mais aussi leurs comportements et préférences, et enfin leurs relations interpersonnelles.
  • Les propos tenus sur les réseaux sociaux seront ainsi analysés pour repérer les « énergies positives » : des messages favorables au gouvernement ou positifs sur l’économie du pays feront grimper le score des individus. Pour le moment les propos négatifs ne seraient pas pris en compte. Mais au-delà des paroles, les actes seront analysés. Un représentant de Sésame Crédit admet par exemple inférer des jugements sur les personnes en fonction du type de produit acheté : « quelqu’un qui joue aux jeux vidéo dix heures par jour sera considéré comme une personne inactive (ou fainéante) », alors qu’une personne qui « achète fréquemment des couches sera considérée comme un probable parent, qui par comparaison sera plus à même d’avoir le sens des responsabilités ». Rachel Botsman précise de façon pertinente que le système ne fait pas qu’analyser les comportements, mais qu’il les façonne et biaise les citoyens afin qu’ils adoptent des attitudes jugées plus vertueuses par les gouvernements.
  • Dans un autre contexte, la notion d’exemplarité en Chine atteint parfois des points qui seraient comiques, s’ils n’étaient pas attentatoires aux libertés des personnes. Un système de reconnaissance faciale et  « name and shame » a ainsi été mis en place à certains carrefours : lorsqu’une personne traverse alors qu’elle n’en a pas l’autorisation, sa photo et son nom sont projetés sur un panneau pendant quelques minutes afin de la pointer comme l’exemple à ne pas suivre.
  • ...3 more annotations...
  • Mais pourquoi les Chinois accepteraient-ils un tel système de surveillance ? Pour le moment celui-ci se fait sur la base du volontariat. Les individus ayant choisi d’y participer ne gagnent pas seulement le droit d’être bien vus du gouvernement, mais obtiennent également des droits au crédit supplémentaires ainsi que des récompenses. Si leurs scores dépassent les 600 points (sur 950 possibles), ils auront accès à des offres de crédit à la consommation, à 650, le droit de louer une voiture sans dépôt de garantie, au-delà de 750, un billet coupe-file pour l’obtention d’un visa Schengen, etc. Des rétributions qui ne sont pas du tout symboliques. Et c’est bien là que le parallèle entre des logiques en cours dans l’économie numérique et leur appropriation par un État pose question.
  • La Chine n’a jamais eu de système de crédit institutionnalisé tel que nous les connaissons avec pour conséquence un déficit de confiance : beaucoup de contrats ne sont en effet pas honorés. Ce Social Credit system a pour vocation à y remédier, alors que la consommation de masse s’impose depuis peu, en se calant sur des standards occidentaux. Il commence néanmoins à avoir des effets négatifs sur certains citoyens dont le score est trop bas. Bien que le système ne soit pour le moment qu’en phase de test, et non déployé sur l’ensemble de la population (il le sera en 2020), on apprend dans un article de Fast Company daté du 24 avril que 11 millions de chinois ne peuvent déjà plus voyager en avion, quatre millions ne le peuvent plus en train. On touche là à des finalités qui ne sont plus le seul droit au crédit, mettant en cause les libertés fondamentales des individus. 
  • Parmi ces droits fondamentaux figurent les droits à la protection des données personnelles. Le règlement européen, en imposant notamment le principe de finalité  : les données personnelles ne peuvent être utilisées pour d’autres usages que celles pour lesquelles elles ont été collectées, sauf base légale spécifique ou nouvelle demande de consentement. Par ailleurs, dans son article 22, le RGPD interdit « la prise de décision fondée exclusivement sur un traitement automatisé […] produisant des effets juridiques la concernant ou l'affectant de manière significative de façon similaire. » A n’en pas douter, ne plus pouvoir se déplacer en train ou en avion entre dans cette catégorie.
  •  
    "Quand la Chine travaille sur une version béta de son Social Credit System, un système de notation obligatoire des individus basé sur l'ensemble de leurs comportements, c'est le principe même de la confiance par la notation qui questionne des pratiques largement généralisées en occident. "
Aurialie Jublin

Une IA concertée et open source comme outil éducatif pour les citoyens et les... - 0 views

  • Un autre aspect particulier du projet est d'explorer le concept de "privacy by using" et de faire du projet un outil de sensibilisation et d'éducation aux problématiques d'éthique et de protection de la vie privée dans les services intégrant de l'IA. 
  • Dans ce sens, nous travaillons sur des contenus et des formats (ateliers et rencontres de type barcamp) spécifiquement pensés de manière ludique pour les écoles afin de sensibiliser dès le plus jeune âge aux problématiques liées aux biais et à l'économie de l'attention, problématiques inhérentes à la "vie numérique" de l'époque actuelle et qui vont s'avérer toujours plus critiques avec le développement de l'IA (de plus en plus d'enfants sont confrontés très tôt à des services potentiellement problématiques, en particulier avec le boom des assistants vocaux).
  • Ainsi, en combinant la méthode "society in the loop" et l'approche "privacy by using", le projet permet de constituer de façon concertée une base de connaissances libre et ouverte tout en participant à l'éducation de la société sur les enjeux et les bonnes pratiques d'une intelligence artificielle d'intérêt général éthique et responsable.
  •  
    "Je travaille depuis quelques temps avec Matteo Mazzeri sur un projet de recherche appliquée en partenariat avec le CERN (cf. https://twitter.com/Genial_Project) qui propose une approche assez singulière de l'articulation entre intelligence artificielle (IA) et service public. Il s'agit de concevoir une "IA concertée" et open source qui permette de développer des services d'intérêt général / à vocation de service public. L'originalité de notre approche est d'appliquer le concept de "society in the loop" exposé par le MIT Medialab (concept très bien expliqué en français par Irénée Régnauld dans cet article) de manière à proposer une méthodologie, un travail humain sur les données et des modèles d'apprentissage qui permettent de refléter au plus près les besoins de "la société" et d'aboutir à une IA éthique et responsable."
Aurialie Jublin

[Données Perso] Facebook dit avoir besoin de vos données combattre le terrorisme - 0 views

  • Le régulateur fédéral allemand de la concurrence, le Bundeskartellamt, vient d’ordonner à Facebook de cesser de collecter les données des utilisateurs de ses différents réseaux sociaux sans leur consentement explicite. Jusqu’à présent, les données des utilisateurs allemands de Facebook, WhatsApp, Instagram et d’autres applications tierces étaient en effet combinées et associées au même compte Facebook sans possibilité de désactiver cette collecte.
  • Très contrarié par cette décision, Facebook s’est défendu d’une manière surprenante. Dans son communiqué officiel, la firme estime que  » le Bundeskartellamt interprète mal sa conformité au RGPD et méprise les mécanismes prodigués par la loi européenne pour assurer les standards de protection des données cohérents dans toute l’UE « .
  • En outre, Facebook insiste sur le fait que le fait de combiner toutes les données en provenance de ses différents réseaux sociaux est une pratique très bénéfique dont le véritable objectif est de  » protéger les utilisateurs en identifiant par exemple les comportements abusifs et en désactivant les comptes liés au terrorisme ou à la maltraitance infantile « .
  •  
    "Alors que les régulateurs allemands demandent à Facebook de ne plus associer les données collectées sur Instagram et WhatsApp d'une personne à son compte Facebook, l'entreprise de Mark Zuckerberg se défend en affirmant que cette pratique a pour but de protéger les utilisateurs contre les terroristes ou la maltraitance infantile… "
Aurialie Jublin

Demain, les nains… - Framablog - 0 views

  • Les géants du numérique, avec leurs « licornes » à plusieurs milliards de dollars, nous ont confisqué le potentiel d’Internet. Alimentée par la très courte vue et la rapacité du capital-risque et des start-ups, la vision utopique d’une ressource commune décentralisée et démocratique s’est transformée en l’autocratie dystopique des panopticons de la Silicon Valley que nous appelons le capitalisme de surveillance. Cette mutation menace non seulement nos démocraties, mais aussi l’intégrité même de notre personne à l’ère du numérique et des réseaux1.
  • Alors que la conception éthique décrit sans ambiguïté les critères et les caractéristiques des alternatives éthiques au capitalisme de surveillance, c’est l’éthique elle-même qui est annexée par les Big Tech dans des opérations de relations publiques qui détournent l’attention des questions systémiques centrales2 pour mettre sous les projecteurs des symptômes superficiels3.
  • Small Tech elle est conçue par des humains pour des humains 4 ; elle n’a pas de but lucratif 5 ; elle est créée par des individus et des organisations sans capitaux propres6 ; elle ne bénéficie d’aucun financement par le capitalisme de la surveillance des Big Tech7 ; elle respecte la vie privée par défaut8 ; elle fonctionne en pair à pair9 ; elle est copyleft10 ; elle favorise les petits plutôt que les grands, les simples plutôt que les complexes et tout ce qui est modulaire plutôt que monolithique11 ; elle respecte les droits humains, leurs efforts et leur expérience12 ; elle est à l’échelle humaine13.
  • ...6 more annotations...
  • Ces critères signifient que la Small Tech : est la propriété des individus qui la contrôlent, et non des entreprises ou des gouvernements ; respecte, protège et renforce l’intégrité de la personne humaine, des droits humains, de la justice sociale et de la démocratie à l’ère du numérique en réseau ; encourage une organisation politique non-hiérarchisée et où les décisions sont prises à l’échelle humaine ; alimente un bien commun sain ; est soutenable ; sera un jour financée par les communs, pour le bien commun. ne rapportera jamais des milliards à quiconque.
  • Des entreprises comme Google et Facebook sont des fermes industrielles pour les êtres humains. Leurs produits sont les machines agricoles. Ils doivent fournir une façade brillante pour garder notre attention et nous rendre dépendants afin que nous, le bétail, puissions volontairement nous autoriser à être exploités. Ces institutions ne peuvent être réformées. Les Big Tech ne peuvent être réglementées que de la même manière que la Big Tobacco pour réduire ses méfaits sur la société. Nous pouvons et devrions investir dans une alternative éthique : la Small Tech
  • Nous construisons la Small Tech principalement pour le bien commun, pas pour faire du profit. Cela ne signifie pas pour autant que nous ne tenons pas compte du système économique dans lequel nous nous trouvons actuellement enlisés ou du fait que les solutions de rechange que nous élaborons doivent être durables. Même si nous espérons qu’un jour Small Tech sera financé par les deniers publics, pour le bien commun, nous ne pouvons pas attendre que nos politiciens et nos décideurs politiques se réveillent et mettent en œuvre un tel changement social. Alors que nous devons survivre dans le capitalisme, nous pouvons vendre et faire des profits avec la Small Tech. Mais ce n’est pas notre but premier. Nos organisations se préoccupent avant tout des méthodes durables pour créer des outils qui donnent du pouvoir aux gens sans les exploiter, et non de faire du profit. Small Tech n’est pas une organisation caritative, mais une organisation à but non lucratif
  • La vie privée, c’est avoir le droit de décider de ce que vous gardez pour vous et de ce que vous partagez avec les autres. Par conséquent, la seule définition de la protection de la vie privée qui importe est celle de la vie privée par défaut. Cela signifie que nous concevons la Small Tech de sorte que les données des gens restent sur leurs appareils. S’il y a une raison légitime pour laquelle cela n’est pas possible (par exemple, nous avons besoin d’un nœud permanent dans un système de pair à pair pour garantir l’accessibilité et la disponibilité), nous nous assurons que les données sont chiffrées de bout en bout et que l’individu qui possède l’outil possède les clés des informations privées et puisse contrôler seul qui est à chacun des « bouts » (pour éviter le spectre du Ghosting)
  • La configuration de base de notre technologie est le pair à pair : un système a-centré dans lequel tous les nœuds sont égaux. Les nœuds sur lesquels les individus n’ont pas de contrôle direct (p. ex., le nœud toujours actif dans le système pair à pair mentionné dans la note précédente) sont des nœuds de relais non fiables et non privilégiés qui n’ont jamais d’accès aux informations personnelles des personnes.
  • La Small Tech est conçue par des humains, pour des humains ; c’est une approche résolument non-coloniale. Elle n’est pas créée par des humains plus intelligents pour des humains plus bêtes (par exemple, par des développeurs pour des utilisateurs – nous n’utilisons pas le terme utilisateur dans Small Tech. On appelle les personnes, des personnes.) Nous élaborons nos outils aussi simplement que possible pour qu’ils puissent être compris, maintenus et améliorés par le plus grand nombre. Nous n’avons pas l’arrogance de supposer que les gens feront des efforts excessifs pour apprendre nos outils. Nous nous efforçons de les rendre intuitifs et faciles à utiliser. Nous réalisons de belles fonctionnalités par défaut et nous arrondissons les angles.
  •  
    "Et si les géants de la technologie numérique étaient concurrencés et peut-être remplacés par les nains des technologies modestes et respectueuses des êtres humains ? Telle est l'utopie qu'expose Aral Balkan ci-dessous. Faut-il préciser que chez Framasoft, nous avons l'impression d'être en phase avec cette démarche et de cocher déjà des cases qui font de nous ce qu'Aral appelle une Small Tech (littéralement : les petites technologies) par opposition aux Big Tech, autrement dit les GAFAM et leurs successeurs déjà en embuscade pour leur disputer les positions hégémoniques. Article original sur le blog d'Aral Balkan : Small technology"
Aurialie Jublin

Contre la haine en ligne, des internautes s'organisent | Slate.fr - 0 views

  • Aux côtés de 173 personnes inconnues, il répond méthodiquement à la haine à l'œuvre dans les commentaires d'articles. Avec ses camarades, il se coordonne dans un groupe Facebook, secret et fermé, dont le nom reprend ironiquement un sigle policier. Il réunit femmes et hommes de 20 à 55 ans, «beaucoup de travailleurs sociaux», suppose Simon, même s'il n’en connaît personnellement que très peu. Depuis 2016, le groupe veille sur les posts Facebook des journaux normands pour faire en sorte que les commentaires les plus «likés», et donc ceux qui remontent tout en haut de la section, ne soient pas systématiquement les plus haineux.
  • Une trentaine de membres sont réellement actifs et actives, dont une dizaine qui réalise une veille sur les sujets connus pour être des «attrape-haine»: immigration, sexisme, protection sociale, etc. Dans un Google Doc, des argumentaires, chiffres-clés et articles sont prêts à être copiés-collés pour gagner un peu de temps au moment de rédiger son commentaire.
  • Face aux discours de haine en ligne, une majorité de personnes reste silencieuse, par manque de temps ou tout simplement manque d’arguments. Pour pallier cela, le think tank Renaissance numérique a créé «Seriously» en 2015, une méthode pour accompagner les internautes afin d'apprendre à répondre à la haine et à dépassionner les débats. Créé à l'origine dans le but d’aider des associations comme SOS homophobie ou SOS Racisme sur les réseaux sociaux, le site a aujourd’hui une portée plus vaste.
  • ...4 more annotations...
  • Xavier estime que la responsabilité de répondre à la haine est collective. «Les journalistes ne sont ni assez nombreux, ni assez payés pour le faire sous tous leurs articles, souligne-t-il, il ne faut pas laisser la désinformation se répandre. On a trop longtemps considéré les commentaires comme un bruit de fond.» Pourtant, nous connaissons aujourd’hui le pouvoir de ces derniers sur le lectorat. En 2015, une équipe de recherche a prouvé que la perception d’un article était modifiée par les commentaires correspondant sur Facebook. Les scientifiques ont fait lire le même article à des volontaires, avec une variation de mentions «j’aime» et de commentaires. Plus le nombre de commentaires négatifs était important, plus l’article était perçu comme peu convaincant –le nombre de «likes» était cependant loin d’avoir le même effet.
  • «On peut arriver à se comprendre, ce sont juste des personnes en colère, constate-t-il. On a laissé faire les choses en considérant cela comme un bruit de fond. “Don’t feed the troll”, pour moi c’est complètement faux, il faut intervenir!». En effet, trois scientifiques ont analysé les commentaires sous 100.000 posts et découvert que si le premier commentaire visible est positif, les internautes ont tendance à être positifs dans leur réaction et inversement quand le premier commentaire est négatif.
  • Au mois de janvier, SOS Racisme a créé un groupe Facebook fermé appelé «#TEAMRIPOSTE!» qui a pour but de réunir des personnes qui veulent militer de chez elles et aider à commenter les publications sur les réseaux sociaux. Sur la page du groupe, on peut lire: «La légalité ne s’arrête pas aux portes d’internet, il est aussi important de rappeler qu’un grand nombre de mesures peuvent être prises pour supprimer ces messages racistes ou faire condamner leurs auteurs». Pharos, une plateforme en ligne mise en place par le gouvernement, permet de signaler des contenus ou des comportements illicites.
  • Selon Jennyfer Chrétien du think tank Renaissance numérique, l’un des plus gros combats à mener est éducatif. Pour cela, le groupe de réflexion prépare des programmes de sensibilisation, surtout auprès du jeune public. «Nous ne pouvons pas nous contenter de sanctionner les propos illicites», affirme la directrice. Il est impératif de travailler sur le «réflexe de fermeture de l'onglet» qui doit être converti en «réflexe citoyen».
  •  
    "Prendre le temps de répondre aux commentaires qui pourrissent le web pour tenter de le pacifier."
Aurialie Jublin

Qu'est devenue l'utopie d'Internet ? | Revue Projet - 0 views

  • Si les années 1990 constituent bien une sorte d’âge d’or de l’utopie numérique, l’expansion d’Internet va progressivement remettre en cause cette vision enchantée du cyberespace. Afin de financer le développement de l’infrastructure, l’administration scientifique en charge d’Internet décide, en 1993, d’ouvrir le réseau aux entreprises privées. Jusqu’alors soutenu par la puissance publique, il était considéré comme un outil de coordination scientifique dont les usages se devaient d’être strictement non lucratifs. Mais le développement de services commerciaux d’accès favorise la découverte du web par un plus large public.
  • La deuxième trahison tient à l’accroissement du contrôle des communications dans un espace numérique jusqu’ici marqué par le principe d’auto-régulation et de responsabilisation de chaque participant. Dans les années 1990, les premières « affaires du net » révèlent la face sombre du web : incitations à la haine, pédopornographie, piratage informatique, propagande, etc. Ces menaces favorisent un retour progressif des États, jusqu’alors remarquablement absents, pour réguler les échanges et protéger les droits sur Internet. Depuis les années 2000, les initiatives législatives se multiplient pour lutter contre le piratage, la prolifération de contenus haineux ou, plus récemment, la manipulation de l’information.
  • Retour du contrôle des communications, règne de la marchandisation et centralisation du web autour des grandes plateformes : ces transformations d’Internet sont dénoncées comme autant de coups portés au projet initial de « l’Internet libre », principalement de la part des Gafam. Pour autant, on aurait tort d’opposer schématiquement les défenseurs aux fossoyeurs de l’utopie numérique. Google s’est parfois trouvé aux côtés des militants du net pour défendre la libre circulation de l’information, la neutralité du net ou l’assouplissement de la propriété intellectuelle. Le projet « Google books » de numérisation de livres, par exemple, n’est pas sans rappeler celui de bibliothèque universelle formulé par les premiers concepteurs du réseau. On songe également aux prises de position très strictes d’Apple au sujet de la protection de la vie privée5. Ces affinités s’expliquent aussi par les racines culturelles de l’utopie numérique. Les fondateurs d’entreprises numériques, les développeurs qui y travaillent, sont bien souvent des utilisateurs pionniers et passionnés d’Internet. Pour certains, l’esprit de la Silicon Valley, loin de marquer une trahison de l’utopie numérique, en constitue l’expression la plus aboutie en tant que synthèse entre l’esprit de la contre-culture et l’enthousiasme technologique d’entrepreneurs innovants.
  •  
    "Aux débuts d'Internet, un idéal d'horizontalité, de gratuité, de liberté. Trente ans après, le web s'est centralisé, marchandisé, et a été colonisé par les géants du numérique. Ces derniers ont-ils trahi l'utopie des pionniers d'Internet ?"
Aurialie Jublin

Ind.ie - Ethical Design Manifesto - 0 views

  • Technology that respects human rights is decentralised, peer-to-peer, zero-knowledge, end-to-end encrypted, free and open source, interoperable, accessible, and sustainable. It respects and protects your civil liberties, reduces inequality, and benefits democracy.
  • Technology that respects human effort is functional, convenient, and reliable. It is thoughtful and accommodating; not arrogant or demanding. It understands that you might be distracted or differently-abled. It respects the limited time you have on this planet.
  • Technology that respects human experience is beautiful, magical, and delightful. It just works. It’s intuitive. It’s invisible. It recedes into the background of your life. It gives you joy. It empowers you with superpowers. It puts a smile on your face and makes your life better.
‹ Previous 21 - 36 of 36
Showing 20 items per page