Skip to main content

Home/ QN2019/ Group items matching ""vie privée"" in title, tags, annotations or url

Group items matching
in title, tags, annotations or url

Sort By: Relevance | Date Filter: All | Bookmarks | Topics Simple Middle
Aurialie Jublin

À ceux qui ne voient aucun problème à travailler avec Facebook ou Google - Nothing2Hide - 0 views

  • La Free Software Foundation (FSF) est la principale organisation de défense du logiciel libre. La Software Freedom Conservancy « est une organisation à but non lucratif qui promeut, améliore, développe et défend les projets libres et open source (FLOSS) ». Ce mois-ci, la Software Freedom Conservancy organise la première conférence internationale Copyleft sponsorisée par Google, Microsoft et la FSF. En fait, Google est une telle force pour le bien dans le monde qu’elle est autorisée à sponsoriser une conférence Copyleft alors même que ces licences sont bannies au sein de la compagnie. Si même la FSF n’a aucun problème avec le fait d’avoir son logo juste à côté de celui de Google et Microsoft, qui suis-je pour critiquer ces sociétés ?
  • Mozilla n’a aucun problème avec Google, elle s’associe souvent avec eux et utilise même Google Analytics. Si une fondation aussi honnête et éthique qui a tellement à cœur de protéger notre vie privée n’a aucun problème avec le fait d’avoir Google comme moteur de recherche principal ou de recevoir des millions de dollars de leur part, qui suis-je pour critiquer Google sur la vie privée ?
  • Le CEO d’APPLE, Tim Cook, a personnellement approuvé cet engagement pour la vie privée et c’est pourquoi Apple a intégré Google comme moteur de recherche par défaut dans leur navigateur, c’est aussi pourquoi ils ne crachent pas non plus sur les 12 milliards de dollars de revenus que cet accord leur apporte. Parce que Google est tout comme Apple et a construit ses produits pour protéger notre vie privée. Pour quelle autre raison Apple autoriserait leur présence sur ses smartphones et mettrait en danger notre vie privée ? Si Tim Cook est content d’avoir Google dans son iPhone alors il doit certainement y avoir quelque chose qui ne tourne pas rond chez moi.
  • ...6 more annotations...
  • Si Apple est un exemple trop commercial pour vous, alors il y a GNOME, un projet porté par l’organisation à but non lucratif Fondation Gnome. Ils développent un environnement graphique ergonomique et populaire pour systèmes Unix Linux. GNOME ne voit aucun problème avec Google. En fait, Google siège à leur conseil d’administration et les application sur GNOME offrent un support de première classe aux applications Google.
  • Si Gmail était mauvais pour la vie privée, si par exemple, Google lisait tous vos messages et les utilisait pour créer un profil marketing (je sais, voilà que je recommence avec mes théories du complot à la noix) alors la fondation GNOME n’en ferait certainement pas la promotion dans ses logiciels. Si ils étaient obligés de supporter Gmail juste parce que c’est un service populaire mais détestaient le faire, ils afficheraient un message d’avertissement pour vous protéger. Quelque chose comme « Lorsque vous utilisez Gmail, Google Inc. utilise le contenu de vos messages pour vous profiler. Ne continuez que si vous en comprenez les dangers ». Mais ils ne le font pas. Au contraire, ils le mettent en premier et rendent sa configuration aussi simple que possible donc utiliser Gmail ne doit pas poser de problèmes.
  • Quand j’ai ajouté le support de Fastmail dans Geary, mes changements on été refusés. Si FastMail était un fournisseur de messageries éthique, je suis certain que ça n’aurait pas été le cas. Je ne doute pas que l’équipe aurait promu un service de messagerie éthique plutôt qu’un service non éthique qui lit les messages des gens et les profile. Désormais je m’inquiète et je me demande ce que les gens de GNOME connaissent de FastMail que moi je ne connais pas. Qu’est-ce donc que les gens sournois de Fastmail sont en train de nous préparer ?
  • La Nordic Privacy Arena est un événement annuel réunissant des délégués généraux de la protection des données et des professionnels de la vie privée. Lors de l’édition de cette année, Facebook a fait une présentation et les organisateurs m’ont demandé  d’être gentil avec Facebook et Google, de garder mes remarques pour ma propre présentation et de ne pas embarrasser l’orateur avec des questions après sa présentation comme j’avais pu le faire lors de la session de Mozilla.  
  • Par ailleurs, la présentation Facebook était assurée par Nicolas de Bouville, qui officiait précédemment à la CNIL, une organisation connue pour ses fabuleux pantouflages. Donc, si Nicolas a choisi de travailler pour Facebook après son passage à la CNIL, Facebook ne peut pas être si mauvais.
  • À la lumière de ces soutiens massifs au capitalisme de surveillance de la part d’organisations respectueuses, qui disent œuvrer à la protection de nos droits humains, de notre vie privée et de la démocratie, j’en suis venu à la conclusion que je devais être le seul à être dans l’erreur.   Si Google, Facebook, etc., n’étaient qu’à moitié aussi nuisibles que ce pour quoi je les fais passer, ces organisations ne passeraient pas d’accords avec eux, elles ne les soutiendraient pas non plus.
  •  
    "De nombreuses organisations de défense des libertés numériques, essentiellement anglo-saxonnes (Access, FSF, Mozilla, GNOME, etc.), sont financées par Google ou Facebook. Ces deux sociétés vivent pourtant de l'exploitation des données personnelles de leurs utilisateurs, au mépris de leurs vies privées et de leurs libertés. Ce ne sont des acteurs sains ni pour Internet ni pour la démocratie. Aral Balkan, activiste et développeur, pointe dans son billet au titre ironique les contradictions et l'hypocrisie de ces organisations. Ce billet traduit en grande partie ce que nous pensons chez Nothing2Hide (quitte à frôler l'asphyxie financière). Nous en publions une traduction française ici."
Aurialie Jublin

'C'est de la surveillance': Tim Cook vient de démolir Facebook devant les gendarmes européens de la vie privée - Business Insider France - 0 views

  • "Il ne faut pas édulcorer les conséquences: c'est de la surveillance." Fort de cette attaque en règle, Tim Cook a salué les efforts politiques menés en Europe avec la mise en application du RGPD (Règlement général sur la protection des données) cette année et les questions posées par le régulateur aux géants de la tech. 
  • Il a aussi affirmé que "chez Apple, nous soutenons pleinement une loi fédérale exhaustive sur la vie privée aux Etats-Unis" et dit considérer le droit à la vie privée comme un "droit humain fondamental". Tim Cook a défendu quatre principes sur lesquels il repose: 1) le droit de minimiser les données personnelles — limitant le droit des entreprises à collecter ces données; 2) le droit à la transparence — pour qu'un internaute sache ce qui est collecté sur lui et à quelles fins; 3) un droit d'accès — pour que les utilisateurs puissent accéder, modifier ou supprimer leurs données; 4) le droit à la sécurité, fondement de la confiance. 
  • En revanche, il ne s'est pas exprimé à Bruxelles sur la question de la fiscalité des acteurs du numérique, alors que le ministre français de l'économie Bruno Le Maire s'efforce de rallier ses pairs européens à un consensus sur l'épineuse question et que la Commissaire européenne à la concurrence Margrethe Vestager a sanctionné Apple pour ses acrobaties fiscales avec l'Irlande en 2016. 
  •  
    "Convié à s'exprimer lors de la Conférence internationale des commissaires à la protection des données et de la vie privée à Bruxelles, ce mercredi 24 octobre 2018, Tim Cook a fait l'apologie d'Apple en dénonçant avec vigueur les travers dont se rend coupable un autre géant de la tech de la Silicon Valley selon lui - Facebook, sans jamais le nommer. "
Aurialie Jublin

The next billion users : une immersion dans l'internet des pauvres - Digital Society Forum - 0 views

  • Rien n’y fait : équipés d’Internet, les pauvres ne font pas du tout ce qu’on attend d’eux, à savoir se sortir de la pauvreté. Les cabines numériques disposées dans les villages indiens deviennent des bornes d’arcade et, surprise, les cent millions d’ordinateurs de l’opération « One laptop per child » (financée par des entreprises, notamment AMD, Brightstar Corporation, eBay, Google, Marvell, etc.) n’ont pas réduit le fossé éducatif, sans doute parce qu’ils avaient été distribués à des enfants ne sachant parfois ni lire ni écrire. Des absurdités de ce type, l’autrice en dresse une longue liste, comme ces smartphones que l’on distribue à de jeunes femmes n’ayant le droit de s’en servir que pour passer des appels d’urgence. A New Delhi, d’autres jeunes femmes (les « computer girls ») deviennent des craques de l’informatique, mais restent assignées à leur statut traditionnel, système de castes oblige. Le constat est sans ambiguïté : non seulement la technologie tombe du ciel sans être intégrée dans une quelconque stratégie sociale, mais toute tentative de réappropriation est méprisée et découragée.
  • Histoire similaire en Chine, où l’on craignait que les cybercafés populaires ne favorisent les activités anti-régime. Ils furent rapidement interdits aux mineurs et on y généralisa le tracking, une pratique désormais monnaie courante dans l’Empire du Milieu. D’exemple en exemple, Payal Arora démontre que les décisions prises par les pouvoirs en place n’ont eu de cesse de réduire l’accès à Internet et à la culture aux personnes les moins dotées, sous prétexte que l’usage qui en serait fait n’entrerait pas dans les bons standards de moralité. Comme souvent, les pauvres font l’objet de politiques paternalistes : on leur demande d’être vertueux et le moindre faux pas les condamne.
  • A l’inverse, la débrouille des quartiers défavorisés est érigée en exemple à suivre. La mode de l’innovation frugale (ou « Jugaad innovation » ) qui consiste à innover avec des ressources limitées, en témoigne. En Inde par exemple, la customisation des véhicules afin de transporter plus de passagers est souvent mise en avant. Cependant, elle augmente sensiblement le nombre d’accidents : « la frugalité a un coût, celui de la sécurité », écrit Arora. Les Nano cars de Tata – des petites voitures accessibles au plus grand nombre – quant à elles, sont certes pratiques mais occasionnent de lourds dégâts environnementaux : rien ne dit aujourd’hui que ces innovations améliorent réellement la vie des pauvres, affirme la chercheuse
  • ...9 more annotations...
  • Plus grave encore, il y a fort à parier qu’elles freinent les solutions de plus long terme comme par exemple le développement de transports publics accessibles à tous. Côté mobile, une application comme AquaSift permet de détecter la toxicité de l’eau mais ne résout en rien le fait que dans beaucoup de communautés pauvres, y accéder reste difficile. On ne change pas le gouvernement avec une application. Si l’innovation frugale rencontre un succès fulgurant en Occident, ce n’est que parce que nous en avons totalement romantisé l’image.
  • En somme, la frugalité (Jugaad en Inde, « Shan-zaï » en Chine, « Gambiarra », « Bacalhau » ou « Jeitinho » au Brésil) est aussi une forme de solutionnisme technologique qui repose, une fois encore, sur la confortable conviction que les pauvres ont toutes les ressources en eux pour s’en sortir, pourvu qu’ils articulent habilement leurs problèmes aux dernières technologies disponibles.
  • Payal Arora n’a pas de mots assez durs pour dénoncer la vaste supercherie du système. Non seulement aucune relation de causalité n’a prouvé son efficacité, mais en plus, il structure l’éducation dans un sens qui pose une multitude de questions d’ordre éthiques et politiques. Ainsi, ces appareils et les programmes soi-disant éducatifs avec lesquels ils fonctionnent restent des boîtes noires, indisponibles à tout audit sérieux. L’expérimentation, qui dure 75 jours, nécessite la présence d’un ou plusieurs adultes dont on ne connaît pas la rémunération et le protocole de suivi des enfants est tout sauf rigoureux scientifiquement. Des études plus sérieuses ont rapporté que la plupart des machines ne fonctionnaient pas, faute de connexion Internet. Et quand elles marchaient, elles étaient souvent monopolisés par de jeunes garçons devant des jeux vidéos. Enfin, les contenus pédagogiques, souvent en anglais, présentent un danger pour la pérennité des langues traditionnelles. Pour le professeur Mark Warschauer (University of California), cité par Arora, ces dispositifs sont un échec total. Pourtant, Mitra a bien récolté un million d’euros grâce au Ted Prize pour cette « école dans le cloud » résolument inefficace… Pour Arora, cette triste histoire trouve ses racines dans la foi encore trop peu contestée dans le constructivisme , une théorie qui stipule que l’enfant peut apprendre seul et sans professeur.
  • En prenant un peu de hauteur, la chercheuse critique plus largement une certaine forme de philanthropie très à la mode dans les milieux technologiques. Elle l’accuse ouvertement d’être contre-productive et de servir les intérêts de grandes corporations plus que des populations pauvres : « la technologie est devenue une institution en soi, la pauvreté une opportunité. La croyance néolibérale en l’efficacité absolue du marché transforme n’importe quelle inégalité en actif pour l’innovation. » Pour Arora, cette idéologie vient justifier la nécessité de tester sur les moins aisés de nouvelles solutions qu’un riche Occidental n’imaginerait même pas pour ses propres enfants. Les pauvres n’ont pas besoin de plus d’innovation, mais de moins d’innovation, affirme-telle : « Si l’innovation est une courroie de transmission pour des projets pilote, alors les pauvres seront mieux sans. Ils ne devraient pas servir de rats de laboratoires pour les nouvelles technologies. Le simple fait qu’une technologie est nouvelle ne devrait pas justifier en soi qu’on l’expérimente sur des pauvres ».
  • Sa dénonciation englobe aussi le projet « AltSchool » largement financé par Mark Zuckerberg et Priscilla Chan, une sorte de « classe Ikea », où les enfants terminent seuls devant des écrans, pour un prix conséquent et sans que son efficacité réelle soit démontrée. Le plus grand problème selon elle, reste que le marché pardonne plus facilement les défaillances technologiques qu’humaines : la Silicon Valley peut réinjecter des millions de dollars pour trouver une nouvelle solution technique à un problème ancien, mais elle refuse de réfléchir aux problèmes de fond, comme le manque de professeurs ou l’état désastreux des écoles dans certains quartiers.
  • En dernière partie d’ouvrage, Payal Arora attaque les questions liant surveillance et vie privée. On le savait déjà, les pauvres en ont toujours été surveillés. Le « social credit system » chinois et son cousin indien « Unique Digital Number » (UID) sont ainsi connus pour conforter les hiérarchies sociales en place et agir par contagion : en Chine, fréquenter une personne dont le score est bas revient à prendre le risque de voir baisser son propre score. On en déduirait un peu rapidement que dans les pays pauvres, et plus généralement en dehors de l’Occident, la vie privée aurait moins de valeur aux yeux des individus. A y regarder de près, cela semble un peu plus compliqué. En interrogeant plus largement les usages quotidiens des réseaux sociaux dans les favelas et autres bidonvilles, Arora montre qu’ici comme là-bas, la vie privée n’est pas sans valeur ni abstraite, mais un concept avant tout lié à des particularités culturelles. Au Brésil par exemple, une jeune femme déclare ne pas en vouloir à sa mère de la « stalker » en ligne (c’est-à-dire à suivre ces déplacements, fouiller ses messages et autres réseaux d’amis)
  • En Inde, Facebook est pour de nombreux jeunes l’occasion de parler au sexe opposé, chose difficile dans la vie réelle. Le Chat est à ce titre tout à fait adapté à la romance, à travers des poèmes et autres conversations romantiques. Cependant, à l’échelle mondiale, un tiers de ces échanges se font anonymement, avant tout pour protéger les données personnelles et par souci de réputation, notamment en Asie.
  • Arora en profite pour démonter les profonds préjugés qui tendent nous à faire croire que parce que l’on est pauvre, parce que l’on vit dans une communauté étroitement liée, parfois à plusieurs dans une même pièce, on ne valoriserait pas la vie privée. En réalité, les pauvres, dans les pays étudiés par Arora, ne sont pas moins attachés à la confidentialité que les Occidentaux, même si celle-ci prend différentes significations en fonction des pays, des cultures et des genres. Dans un village en Jordanie, la confidentialité sert avant tout à protéger la vertu féminine et l’honneur masculin (préserver son image dans la communauté, ne pas s’exposer publiquement pour les femmes). Dans une famille aisée du Royaume-Uni, elle préserve l’innocence des jeunes (notamment à travers le filtrage des contenus). Plus encore qu’en Occident, préserver sa confidentialité dans les pays pauvres relève de la lutte car le succès immense des réseaux amène aussi son lot de danger : « revenge porn » et harcèlement peuvent ruiner la réputation d’un individu, conduire à l’exil et même au suicide.
  • The Next Billion Users, Digital Life Beyond the West est, en résumé, une étude inestimable, formidablement documentée et regorgeant d’illustrations plus pertinentes les unes que els autres. Loin des théories globalisantes qui tendent à mettre dans un même sac « Les Chinois », « Les Indiens », quitte à les opposer à l’Occident dans une lutte pour la puissance technologique, cette enquête de terrain vient au contraire contredire nos préjugés sur ce monde que nous jugeons bien souvent à l’emporte-pièce et sans nous embarrasser de détails. A travers son étude et notamment ses entretiens et anecdotes, la chercheuse met en lumière les relents colonialistes qui ponctuent les relations Nord-Sud, notamment en matière numérique. Arora brise notre propension à romantiser la pauvreté, à ne l’envisager qu’à travers nos lunettes postcoloniales, comme une tribu de bons sauvages qu’il faudrait éduquer à notre mode de vie. Enfin, elle réduit en poussière le fantasme du pauvre débrouillard, entrepreneur par nature, auto-organisé et vertueux. Cette vision, biaisée, n’a pour objet que d’asseoir les projets technocratiques de l’Occident, qui ne regarde que ses intérêts propres et surtout pas ceux des populations « à civiliser ».
  •  
    "A quoi ressemble l'Internet des pauvres ? Pas à l'image romantique forgée par la philanthropie occidentale, explique l'anthropologue Payal Arora. Pourtant, cette conception paternaliste de la pauvreté informe toujours nombre d'initiatives de développement par la technologie, qui s'apparentent à une nouvelle forme de solutionnisme."
Aurialie Jublin

affordance.info: Undocumented Men - 0 views

  • De fait nous semblons aujourd'hui n'avoir que deux choix fondés sur deux doctrines s'excluant mutuellement : Doctrine n°1 : La vie privée est une anomalie et si vous n'avez rien à vous reprocher vous n'avez rien à cacher. Soit le scénario d'une surveillance totale et globale de chacun de nos comportements par les grandes firmes tech en lien avec les états. Un projet au mieux de nature totalitaire et au pire de nature fasciste. Doctrine n°2 : La vie privée est un droit constitutionnel dont les états et les grandes firmes technologiques doivent être garants. Et là vous aurez toujours quelqu'un pour commencer à parler des exceptions, toujours un "oui mais" : "oui mais s'il s'agit de pédophilie ? De terrorisme ? D'empêcher un pilote d'avion mentalement déséquilibré de causer la mort de centaines de personnes ? A quel moment commence le "principe d'une surveillance de précaution" et quel aspect du droit fondamental à la vie privée doit-il fouler au pied ?" Et on ne s'en sort pas. 
  • Seul un troisième scénario pourra nous permettre d'éviter le pire. Il nécessite de passer par : la multiplication d'outils effectivement respectueux de notre vie privée dans le traitement technique des données qui y circulent (c'est la cas de DuckDuck Go, de Qwant, et de quelques autres) le déploiement de solutions alternatives à la toute puissance des GAFAM (comme l'initiative Dégooglisons internet le permet déjà, et comme le permettrait encore davantage la création d'un index indépendant du web combiné à la mutualisation déjà effective de ressources en Creative Commons) le soutien politique (et législatif) au déploiement du logiciel libre la formation à l'explicitation des enjeux de la surveillance ("Surveillance://" de Tristan Nitot en est un exemple magnifique) la prise de conscience que les données dont nous parlons sont avant tout celles de notre servitude volontaire
  • Demain peut-être, lorsque la dystopie se sera définitivement installée, ne nous faudra-t-il plus parler de "sans papiers" mais de "sans comptes". Des individus sans trace sociale numérique qui permette de les documenter. Ils ne seront plus "undocumented" mais "undigitized", non-numérisés. Et donc non-surveillables. Peut-être que ce sera une chance. Probablement même. De nouvelles formes de résistance documentaire émergeront, de nouvelles pédagogies contre la surveillance seront nécessaires. Et nous serons sans  peur, mais jamais sans reproche(s), car nous aurons compris que la doctrine selon laquelle "si nous n'avons rien à nous reprocher nous n'avons rien à cacher" est la source de tous les totalitarismes, que la vie privée est tout sauf une anomalie. Alors oui nous serons sans peur, dussions-nous pour cela rejoindre la cohorte de toutes celles et ceux qui sont, aujourd'hui, sans documents. Car cette humanité "undocumented" est bien plus qu'une humanité "sans papiers", elle est une humanité "non-documentée", en ce sens elle est aussi libre qu'elle permet de pointer et de mesurer notre propre asservissement aux nouveaux ordres documentaires. 
  •  
    "Deuxio, sa haine viscérale est adressée à des communautés et à des minorités (rien de nouveau sous le fascisme ordinaire ...) mais elle se caractérise en cela qu'elle stigmatise principalement ces communautés du fait de leur absence de papiers (les fameux "Undocumented Men") et qu'elle utilise, pour conduire et guider cette haine, les outils et les métriques ne pouvant s'appliquer qu'à une population "sur-documentable". C'est ainsi que Cambridge Analytica a joué un rôle majeur dans la construction de sa victoire ; c'est ainsi également que la toute puissance du discours totalitaire est d'autant plus efficiente qu'elle s'applique à des communautés ciblées parce que sur-documentées (et sur-documentables) ; c'est ainsi, enfin, qu'il faut voir la volonté affichée de récupérer à toute force les mots de passe de ces "undocumented men" car cela permet au discours totalitaire et au projet fasciste qui le sous-tend de faire entrer le monde dans les deux seules catégories binaires qu'il comprend et qui composent son horizon et son projet : d'un côté ceux qu'il est possible de contrôler et de manipuler (les "sur-documentés") et de l'autre ceux contre qui il faut diriger la haine des premiers (les "sous-documentés", les "undocumented")."
Aurialie Jublin

Demain, les nains… - Framablog - 0 views

  • Les géants du numérique, avec leurs « licornes » à plusieurs milliards de dollars, nous ont confisqué le potentiel d’Internet. Alimentée par la très courte vue et la rapacité du capital-risque et des start-ups, la vision utopique d’une ressource commune décentralisée et démocratique s’est transformée en l’autocratie dystopique des panopticons de la Silicon Valley que nous appelons le capitalisme de surveillance. Cette mutation menace non seulement nos démocraties, mais aussi l’intégrité même de notre personne à l’ère du numérique et des réseaux1.
  • Alors que la conception éthique décrit sans ambiguïté les critères et les caractéristiques des alternatives éthiques au capitalisme de surveillance, c’est l’éthique elle-même qui est annexée par les Big Tech dans des opérations de relations publiques qui détournent l’attention des questions systémiques centrales2 pour mettre sous les projecteurs des symptômes superficiels3.
  • Small Tech elle est conçue par des humains pour des humains 4 ; elle n’a pas de but lucratif 5 ; elle est créée par des individus et des organisations sans capitaux propres6 ; elle ne bénéficie d’aucun financement par le capitalisme de la surveillance des Big Tech7 ; elle respecte la vie privée par défaut8 ; elle fonctionne en pair à pair9 ; elle est copyleft10 ; elle favorise les petits plutôt que les grands, les simples plutôt que les complexes et tout ce qui est modulaire plutôt que monolithique11 ; elle respecte les droits humains, leurs efforts et leur expérience12 ; elle est à l’échelle humaine13.
  • ...6 more annotations...
  • Ces critères signifient que la Small Tech : est la propriété des individus qui la contrôlent, et non des entreprises ou des gouvernements ; respecte, protège et renforce l’intégrité de la personne humaine, des droits humains, de la justice sociale et de la démocratie à l’ère du numérique en réseau ; encourage une organisation politique non-hiérarchisée et où les décisions sont prises à l’échelle humaine ; alimente un bien commun sain ; est soutenable ; sera un jour financée par les communs, pour le bien commun. ne rapportera jamais des milliards à quiconque.
  • Des entreprises comme Google et Facebook sont des fermes industrielles pour les êtres humains. Leurs produits sont les machines agricoles. Ils doivent fournir une façade brillante pour garder notre attention et nous rendre dépendants afin que nous, le bétail, puissions volontairement nous autoriser à être exploités. Ces institutions ne peuvent être réformées. Les Big Tech ne peuvent être réglementées que de la même manière que la Big Tobacco pour réduire ses méfaits sur la société. Nous pouvons et devrions investir dans une alternative éthique : la Small Tech
  • Nous construisons la Small Tech principalement pour le bien commun, pas pour faire du profit. Cela ne signifie pas pour autant que nous ne tenons pas compte du système économique dans lequel nous nous trouvons actuellement enlisés ou du fait que les solutions de rechange que nous élaborons doivent être durables. Même si nous espérons qu’un jour Small Tech sera financé par les deniers publics, pour le bien commun, nous ne pouvons pas attendre que nos politiciens et nos décideurs politiques se réveillent et mettent en œuvre un tel changement social. Alors que nous devons survivre dans le capitalisme, nous pouvons vendre et faire des profits avec la Small Tech. Mais ce n’est pas notre but premier. Nos organisations se préoccupent avant tout des méthodes durables pour créer des outils qui donnent du pouvoir aux gens sans les exploiter, et non de faire du profit. Small Tech n’est pas une organisation caritative, mais une organisation à but non lucratif
  • La vie privée, c’est avoir le droit de décider de ce que vous gardez pour vous et de ce que vous partagez avec les autres. Par conséquent, la seule définition de la protection de la vie privée qui importe est celle de la vie privée par défaut. Cela signifie que nous concevons la Small Tech de sorte que les données des gens restent sur leurs appareils. S’il y a une raison légitime pour laquelle cela n’est pas possible (par exemple, nous avons besoin d’un nœud permanent dans un système de pair à pair pour garantir l’accessibilité et la disponibilité), nous nous assurons que les données sont chiffrées de bout en bout et que l’individu qui possède l’outil possède les clés des informations privées et puisse contrôler seul qui est à chacun des « bouts » (pour éviter le spectre du Ghosting)
  • La configuration de base de notre technologie est le pair à pair : un système a-centré dans lequel tous les nœuds sont égaux. Les nœuds sur lesquels les individus n’ont pas de contrôle direct (p. ex., le nœud toujours actif dans le système pair à pair mentionné dans la note précédente) sont des nœuds de relais non fiables et non privilégiés qui n’ont jamais d’accès aux informations personnelles des personnes.
  • La Small Tech est conçue par des humains, pour des humains ; c’est une approche résolument non-coloniale. Elle n’est pas créée par des humains plus intelligents pour des humains plus bêtes (par exemple, par des développeurs pour des utilisateurs – nous n’utilisons pas le terme utilisateur dans Small Tech. On appelle les personnes, des personnes.) Nous élaborons nos outils aussi simplement que possible pour qu’ils puissent être compris, maintenus et améliorés par le plus grand nombre. Nous n’avons pas l’arrogance de supposer que les gens feront des efforts excessifs pour apprendre nos outils. Nous nous efforçons de les rendre intuitifs et faciles à utiliser. Nous réalisons de belles fonctionnalités par défaut et nous arrondissons les angles.
  •  
    "Et si les géants de la technologie numérique étaient concurrencés et peut-être remplacés par les nains des technologies modestes et respectueuses des êtres humains ? Telle est l'utopie qu'expose Aral Balkan ci-dessous. Faut-il préciser que chez Framasoft, nous avons l'impression d'être en phase avec cette démarche et de cocher déjà des cases qui font de nous ce qu'Aral appelle une Small Tech (littéralement : les petites technologies) par opposition aux Big Tech, autrement dit les GAFAM et leurs successeurs déjà en embuscade pour leur disputer les positions hégémoniques. Article original sur le blog d'Aral Balkan : Small technology"
Aurialie Jublin

Aucun algorithme, jamais, ne pourra défendre la démocratie - Libération - 0 views

  • Comment avons-nous pu nous retrouver au début du XXIe siècle dans une situation où Mark Zuckerberg – et quelques autres patrons de plateformes numériques – se fixent comme objectif récurrent de «protéger la démocratie», principalement à grands coups «d’algorithmes» et «d’intelligence artificielle» et affirment que cela sera une de leurs principales «missions» au sein de leur entreprise et à l’échelle du monde ?
  • En 2011, deux théoriciens de l’intelligence artificielle traitant des problèmes éthiques qu’allaient poser les algorithmes écrivaient que «les algorithmes de plus en plus complexes de prise de décision sont à la fois souhaitables et inévitables, tant qu’ils restent transparents à l’inspection, prévisibles pour ceux qu’ils gouvernent, et robustes contre toute manipulation» (Bostrom et Yudowski, «The Ethics of Artificial Intelligence»).
  • Aujourd’hui, «les algorithmes» dont nous parlons se déploient au sein d’architectures techniques toxiques englobant des millions ou des milliards d’utilisateurs. Aujourd’hui, «les algorithmes» dont nous parlons reposent sur des jeux de données propriétaires et donc totalement opaques. Aujourd’hui, «les algorithmes» dont nous parlons sont explicitement développés pour se doter d’un niveau d’autonomie (ou «d’apprentissage») qui rend leur «comportement» et leurs décisions souvent imprévisibles pour leurs créateurs eux-mêmes. Aujourd’hui, «les algorithmes» dont nous parlons interagissent en permanence avec d’autres algorithmes, d’autres jeux de données et d’autres architectures techniques toxiques ; et ils le font à des échelles toujours plus vastes et dans des environnements toujours plus contraints qui augmentent encore le niveau de risque et d’incertitude.
  • ...5 more annotations...
  • Pendant les dix dernières années, le combat principal d’activistes, de journalistes, de défenseurs des libertés numériques fut celui visant à limiter l’impact de l’empreinte algorithmique sur nos vies privées et intimes. Ce combat-là est terminé, obsolète et, pour l’essentiel, perdu. C’est un autre combat qu’il nous faut aujourd’hui mener, sur un tout autre front, avec une tout autre urgence et à une tout autre échelle. C’est le combat pour limiter l’impact de l’empreinte algorithmique décisionnelle sur notre vie publique, sur nos infrastructures sociales communes et sur notre destin collectif
  • Il est urgent et impératif que toute forme, ambition ou projet de gouvernance algorithmique, dès lors qu’il touche à des secteurs régaliens (transport, éducation, santé, justice, sécurité) soit, obligatoirement et par contrainte législative, développé sur le modèle des licences GNU GPL du logiciel libre pour garantir a minima l’auditabilité complète et pérenne des processus à l’œuvre.
  • Il est urgent et impératif que le développement d’un modèle universel de portabilité de l’ensemble de nos données (1) soit une priorité des Etats, et qu’il soit imposé à l’ensemble des acteurs du monde économique en lien avec la conservation ou le dépôt de données numériques, et ce quels qu’en soient la nature, le volume et l’usage.
  • Il est urgent et impératif que les entreprises qui captent aujourd’hui l’essentiel des données et des flux numériques (en gros les Gafam, Natu et autres Batx) soient taxées à la hauteur réelle de leur volume d’affaire et que cet impôt finance directement les actions précitées, ce processus de redistribution devant impérativement rester hors du contrôle desdites sociétés. Car le processus inverse a déjà commencé, celui dans lequel quelques entreprises omnipotentes s’arrogent le droit de défier la puissance publique et l’intérêt général dans la levée de l’impôt, comme Amazon et Starbucks en ont encore récemment fait la démonstration à Seattle.
  • L’enjeu est de savoir si nous serons capables à très court terme de construire une alternative qui, après le temps numérique de la «désintermédiation» des vingt dernières années, sera celle de formes de remédiations algorithmiques respectueuses du corps social et partant de sa partie la plus fragile, la plus pauvre, et la plus exposée. Alors peut-être, et alors seulement, les questions de gouvernance algorithmique pourront commencer d’être envisagées sereinement.
  •  
    "Nous avons perdu la bataille contre les algorithmes en ce qui concerne la vie privée. Il faut aujourd'hui se battre pour limiter leur impact sur nos vies publiques et notre destin collectif. "
Aurialie Jublin

Artificial Intelligence & Human Rights | Berkman Klein Center - 0 views

  •  
    L'intelligence artificielle (IA) est en train de changer le monde sous nos yeux. Le potentiel que présente l'IA pour améliorer nos vies est énorme. Des systèmes reposant sur l'IA sont déjà plus performants que des médecins spécialistes pour diagnostiquer certaines maladies, tandis que l'utilisation de l'IA dans le système financier élargit l'accès au crédit à des emprunteurs qui étaient autrefois ignorés. Toutefois, l'IA présente aussi des inconvénients qui viennent assombrir son potentiel considérable. Les systèmes reposant sur l'IA ont une incidence sur le droit à la vie privée étant donné qu'ils dépendent de la collecte et de l'utilisation de vastes quantités de données pour faire des prédictions qui, dans de nombreux cas, ont pour effet de perpétrer des tendances sociales de préjugés et de discrimination. Ces possibilités dérangeantes ont donné lieu à un mouvement qui cherche à intégrer des considérations éthiques dans le développement et la mise en œuvre de l'IA. Ce projet, en revanche, démontre l'utilité considérable d'utiliser la législation sur les droits de la personne pour évaluer et aborder les répercussions complexes de l'IA sur la société. La législation sur les droits de la personne fournit un ensemble de normes communément admis et un langage commun ainsi qu'une infrastructure institutionnelle pour contribuer à faire en sorte que le potentiel de l'IA soit réalisé et que ses plus grands périls soient évités. Notre projet vise à faire progresser la conversation émergente sur l'IA et les droits de la personne en évaluant les répercussions sur les droits de la personne de six utilisations courantes de l'IA. Notre cadre de travail reconnaît que les systèmes d'IA ne sont pas déployés sur un canevas vierge, mais plutôt sur la toile de fond de conditions sociales qui ont elles-mêmes des répercussions complexes préexistantes sur les droits de la personne
Aurialie Jublin

FR - A Contract for the Web - 0 views

  • Les gouvernements s'engagent à  :S'assurer que tout le monde peut se connecter à InternetAinsi, n'importe qui, peu importe son identité ou son lieu de résidence, peut participer activement en ligne.Maintenir la disponibilité constante d'InternetAfin que personne ne soit privé de son droit à un accès complet à Internet.Respecter le droit fondamental des personnes à la vie privéeAinsi, tout le monde peut utiliser Internet librement, en toute sécurité et sans crainte.
  • Les entreprises s'engagent à :Rendre Internet abordable et accessible à tousPour que personne ne soit exclu de l’utilisation et de du futur  du Web.Respecter la vie privée et les données personnelles des consommateursAfin que les gens gardent le contrôle de leur privacité et vie en ligne.Développer des technologies qui supportent le meilleur de l'humanité et défient le pireAfin que le Web soit réellement un bien public qui donne la priorité aux gens.
  • Les citoyens s'engagent à :Être des créateurs et des collaborateurs sur le WebPour que le Web présente un contenu riche et pertinent pour tout le monde.Construire des communautés fortes qui respectent un discours civil et la dignité humainePour que tout le monde se sente en sécurité et bienvenu(e) en ligne.Se battre pour le WebPour que le Web reste ouvert et constitue une ressource publique universelle pour les utilisateurs du monde entier, aujourd'hui et à l'avenir.
  • ...1 more annotation...
  • Nous nous engageons à respecter ces principes et à impulser  un processus de délibération afin de créer un « contrat pour le Web » complet, qui définira les rôles et les responsabilités des gouvernements, des entreprises et des citoyens. Les défis auxquels le Web est confronté aujourd'hui sont redoutables et ont des impacts sur  tous les aspects de nos vies, et non seulement lorsque nous sommes en ligne. Mais si nous travaillons ensemble et que chacun de nous assume la responsabilité de ses actes, nous pouvons protéger un Web réellement au service de tous et toutes.
  •  
    " Le Web a été conçu pour rassembler les gens et rendre les connaissances librement disponibles. Tout le monde a un rôle à jouer pour que le Web soit utile à l'humanité. En adhérant aux principes suivants, les gouvernements, les entreprises et les citoyens du monde entier peuvent contribuer à protéger le Web ouvert en tant que bien public et droit fondamental pour tous. "
Aurialie Jublin

« La small tech sera le poison de la Silicon Valley » - Usbek&Rica - 0 views

  • Votre existence numérique est une extension de vous-même, de votre esprit. Et c’est quelque chose de précieux car, si j'ai des informations sur vous, je peux les utiliser pour manipuler votre comportement. Écoutez les mots que j’utilise : je regarde ce que vous faites, j’en fais la liste, j’essaie de comprendre votre psychologie et de vous manipuler pour que vous fassiez ce que je veux. C’est horrible, c’est de l’abus, non ? C’est une relation de pouvoir. Pourtant, c’est ce que font Google et Facebook, que vous utilisez quotidiennement.
  • Quand Tim Berners Lee l’a imaginé, il l’a voulu en Read-Write (lecture-écriture), c’est-à-dire que vous pouviez écrire sur le web, et pas simplement lire. Mais ce qui est arrivé, c'est le capitalisme : les États-Unis ont perçu le potentiel du Web non pas en tant que média en lecture-écriture, mais en tant que média de diffusion. Et le capital-risque est entré dans la partie. Si vous avez un système basé sur des nœuds (nodes) avec des privilèges inégaux, que vous ajoutez du capital-risque, ces nœuds grandissent et deviennent les monopoles que sont Google et Facebook.
  • La conception du web n’a jamais été décentralisée, seule sa philosophie l’était. Nous savons maintenant qu’une centralisation du pouvoir est insoutenable, que ça détruit littéralement notre habitat. La technologie joue le rôle d'amplificateur : peut-être que toutes ces inégalités existaient avant, mais nous n’avions pas la technologie pour « détruire » le monde. Enfin pas le monde, pardon, plutôt notre habitat : la bactérie va survivre quoi qu'il arrive.
  • ...6 more annotations...
  • Deux choses : nous devons d’abord réglementer les abus du capitalisme de surveillance auxquels se livrent Google et Facebook, puis nous devons financer des alternatives. Nous ne pouvons pas attendre des alternatives qu’elles poussent sur des arbres : ça n’arrivera pas.
  • Il faut se demander quels sont les aspects du problème que vous pouvez changer. J’ai retiré Google de ma vie très facilement : vous n’avez pas besoin d’utiliser Gmail, vous pouvez utiliser Fastmail, qui ne vend pas vos informations personnelles. Et les gens peuvent toujours vous envoyer un email. Framasoft est un bel exemple d’organisation qui œuvre pour la bonne cause : protéger l’être humain et sa dignité à l’ère numérique. C’est une organisation fantastique mais, comparé à Google, ils ne sont qu'une poignée de personnes. Framasoft n'est financé par personne. Le réseau social décentralisé Mastodon est un autre exemple qui va dans ce sens. Et pourtant, le système de taxe de la Commission Européenne bénéficie à des start-up qui construisent la même technologie de surveillance que Google. Mais nous ne finançons pas Mastodon, ni Framasoft, ni Indie, notre minuscule organisme à but non lucratif. Nous n’obtenons aucun fonds de qui que ce soit, si ce n’est parfois de particuliers.
  • Si nous voulons une alternative, nous devons la financer alternativement. Elle ne pourra pas être financée par le capital-risque made in Silicon Valley. Ils ont financé les Google et les Facebook, et ils vont financer le prochain Google et le prochain Facebook, car ils chassent des licornes, des entreprises valant des milliards de dollars.
  • Le Danemark, par exemple, a été le premier pays au monde à nommer un ambassadeur auprès de ses entreprises, un ambassadeur pour la Silicon Valley. C’est la chose la plus absurde qui puisse être faite. Le seul pouvoir que le gouvernement danois a sur ces entreprises, c’est la démocratie. Via son mandat, le gouvernement danois devrait protéger les personnes de Facebook. Au lieu de cela, il élève les entreprises au même niveau que lui. Alors oui, un dispositif comme celui du Grand Barouf a du potentiel.
  • La plupart du temps, lorsque les gens parlent de « décentralisation » du pouvoir, ils disent que la solution, c'est la blockchain. Mais vous avez dit que « la blockchain est un fantasme de masturbation libertaire » : qu’est-ce que vous avez voulu dire par là ? Voilà un bon guide : si vous voyez dans la Silicon Valley des investisseurs en capital-risque investir dans quelque chose, ce n’est pas pour la justice sociale, ce n’est pas pour améliorer les choses. C’est pour enrichir un petit groupe d’hommes riches. Pourquoi parle-t-on aujourd’hui à ce point de la blockchain ? À cause du Bitcoin et des crypto-monnaies, à cause de la possibilité pour certaines personnes de gagner des millions ou des milliards avec ça... Les personnes qui veulent généralement un système totalement digne de confiance sont de vrais libertaires, ils ne veulent pas de justice sociale, ils veulent être ceux qui détiennent les rouages du système.
  • Ce projet, que vous appelez Hypha ou Peer-Web, est-ce une nouvelle version du Web ? Comment cela fonctionne-t-il ? Déjà, la différence avec la blockchain, c’est que nous n’essayons pas d’avoir des milliards de copies de la même base de données, mais de donner à un milliard de personnes leurs propres bases de données, toutes séparées, toutes différentes, à notre image. Avec Hypha, nous faisons une chose simple : nous vous donnons un espace que vous possédez et contrôlez. Vous pouvez ensuite définir ce qui est public de ce qui est privé. Vous avez ce choix initial car vous partez d’un espace que vous possédez.
  •  
    "À l'heure où Facebook essaie de se dépêtrer de ses affaires de chiffrement et où Google se prend les pieds dans un bug qui a rendu publique la vie privée des utilisateurs d'Android TV, l'activiste Aral Balkan revient sur les origines de ce qu'il appelle « le capitalisme de surveillance », en amont de sa venue à Lille le 21 mars à l'occasion du Grand Barouf Numérique."
Aurialie Jublin

Le contrôle des données numériques personnelles est un enjeu de liberté collective - 0 views

  • Il serait commode de penser que l’humain du XXIe siècle a renoncé à sa vie privée. Mais il ne s’agit pourtant pas d’indifférence. Les sondages montrent avec insistance et sans ambiguïté que les internautes la chérissent encore à l’heure des réseaux sociaux et des smartphones. Comment, alors, expliquer cette apathie ?
  • Pendant des décennies, à raison, défendre la vie privée revenait à protéger l’individu. Aujourd’hui encore, on s’obstine à rechercher et mesurer les conséquences individuelles de cette collecte effrénée de données personnelles et de ces piratages à répétition. Mais le paradigme a changé : la question des données personnelle n’est pas un problème d’intimité. C’est un enjeu de liberté collective.
  • Prenez l’affaire Cambridge Analytica : le problème n’est pas que Donald Trump et son équipe de campagne ont consulté méthodiquement la liste d’amis de 87 millions d’utilisateurs de Facebook (dont plus de 200 000 Français). Mais qu’ils aient pu utiliser ces informations, agrégées à des millions d’autres, pour mener une campagne politique extrêmement personnalisée, quasi individualisée, en utilisant à plein l’invraisemblable machine à cibler des messages proposée par Facebook. L’impact de cette fuite de données personnelles n’est plus individuel, il est collectif. Il ne s’agit pas de l’intimité de son existence vis-à-vis d’une organisation politique, mais de la liberté collégiale de choisir en conscience son dirigeant politique ou ses conditions de vie commune.
  • ...2 more annotations...
  • Au bout du compte et si rien ne change, alors que ces entreprises s’immisceront de plus en plus dans nos activités quotidiennes, passant peu à peu de la « suggestion » à l’« injonction », nous serons sans doute pris au piège des données personnelles. On décidera à notre place, d’une manière qu’on nous présentera comme optimale puisque conçue sur l’analyse de données de millions de personnes dont la vie nous est similaire, et en nous confisquant une part de notre libre arbitre. Il ne s’agit pas d’intimité vis-à-vis d’une quelconque entreprise de la Silicon Valley, mais de liberté individuelle.
  • La seule solution est de limiter la dissémination aux quatre vents de nos données personnelles. Mais comment le faire sans se retirer des connexions, sociales et professionnelles, d’une société désormais numérisée ? Comment renoncer à tous ces avantages ? La solution se trouve quelque part entre le collectif (des règles politiques pour limiter la collecte et l’exploitation des données) et l’individuel (le recours à une technologie plus frugale et plus décentralisée).
  •  
    Les révélations des failles de sécurité touchant des services en ligne s'accumulent. Et la collecte de nos données fait peser un risque collectif d'envergure.
Aurialie Jublin

Learning analytics et université : quels risques pour la vie privée des étudiants ? - Biblio Numericus - 0 views

  • Un professeur du Wisconsin soulignait à juste titre que « quand des personnes défendent des budgets, elles doivent ensuite prouver que les crédits obtenus ont été utilisés intelligemment. Et un des moyens d’y parvenir est de s’appuyer sur les données d’utilisation. »
  • Par ailleurs, cette surveillance est parfois réalisée à l’insu des étudiants qui ne mesurent pas que l’accès à telle ressource électronique, le temps passé sur tel article ou le téléchargement d’un livre électronique est consciencieusement collecté. Par conséquent, si l’étudiant n’a pas connaissance de ces techniques d’analyse d’apprentissage, il n’a pas la possibilité d’exercer son opposition à ce traitement de données. En outre, l’analyse d’apprentissage suppose, comme pour tout traitement de données, une sécurisation des données collectées qui pourraient être utilisées à des fins qui ne correspondent pas aux finalités initiales du traitement. Ou bien elles pourraient être utilisées par un prestataire sur lequel l’établissement n’a aucun contrôle.
  • Dans ce contexte, Briney participe à Data Doubles un projet financé par l’Institue Museum and Library Services qui consiste à mesurer l’impact sur les étudiants de l’utilisation de leurs données par les universités et les bibliothèques. Ce serait intéressant de construire un projet similaire en France.
  • ...1 more annotation...
  • Et bien évidemment plus on recueille de données, plus le risque de ré-identification est fort. La responsable de la vie privée de l’Université de Berkley a produit une grille de questions qu’il convient de se poser afin de réduire les risques : Degré de transparence et de prédictabilité : dans quelle mesure les personnes sont-elles informées sur l’objet de la collecte de données et l’utilisation qui en sera faite ? Degré d’anonymité et de choix : dans quelle mesure les données sont-elles rendues anonymes, ou la personne a-t-elle le choix de participer ? Degré d’accès, de propriété et de contrôle : quel est le niveau d’accès et de propriété des données pour les individus, les institutions, les vendeurs de prestations et le public ? Responsabilité en matière d’utilisation éthique, de gérance et de gouvernance : quels principes éthiques et quelles mesures de responsabilisation les entités qui manipulent les données des étudiant·e·s démontrent-elles ? Quels sont les standards de sécurité et techniques mis en oeuvre ?
  •  
    "Le développement du big data traverse l'ensemble des secteurs de notre société y compris les universités. En effet, le milieu universitaire est également confronté à une production exponentielle de données réalisée dans le cadre de la recherche, c'est évident, mais aussi par les étudiants. Un article de l'Université de l'Arizona publié en début d'année rappelait combien les étudiants étaient scrutés notamment à travers l'utilisation de leur carte étudiante. L'objectif de l'université était de pouvoir prédire quels sont les étudiants qui abandonneront leurs études en cours d'année ou de cursus. Qui dit étudiant, dit aussi bibliothèque universitaire. Les BU pourraient être tentées de céder « à la mesure, la collecte, l'analyse et la présentation de rapports basés sur des données des apprenants en contexte d'apprentissage » (source), autrement dit aux méthodes de Learning Analytics."
Aurialie Jublin

« Le cyberminimalisme libère du temps, réhabilite les rencontres, préserve la biosphère » - U&R - 0 views

  • D'autres principes s'adressent à tous, comme posséder le moins d’objets connectés possible. Cesser de noter autrui, aussi, permettrait d'éviter de basculer vers le système de « crédit social » chinois. Même si cela semble ludique ou que l'on pense bien faire en notant son prochain sur Uber ou Airbnb, ce sont les prémisses d'une société à la chinoise. Si on n'y prend pas garde, on y va tout droit.
  • J’ai cherché un mot permettant de refléter la façon dont j’avais envie de vivre, entre la mise à distance des objets connectés et le désir de vivre dans mon époque. Je me suis intéressée à l'équipément et aux usages, en listant 7 principes. Certains concernent la jeunesse, comme « ne pas fournir de téléphone portable avant 15 ans ».
  • Le minimalisme matériel concerne aussi les logiciels, donc il faut alléger son téléphone. On peut « libérer » son portable et son ordinateur en optant pour des logiciels libres qui respectent davantage la vie privée. Mais le libre peut prendre du temps et nous river de nouveau aux écrans, c’est toute son ambiguïté.
  • ...6 more annotations...
  • Il y a plusieurs enjeux avec le « life log », c’est-à-dire le fait de mettre sa vie en ligne en permanence. Il y a la perte de temps, d’abord. C’est une activité qui peut prendre le pas sur la vie réelle. Certains ont des vies sur instagram devenues plus intenses que leur vie réelle. D’autres saluent Instagram tous les soirs, « bonne nuit Insta », mais à qui s’adresse-t-on ?
  • Je suis optimiste de nature donc j’ai tendance à estimer que les quelques résistances à l’oeuvre sont des bons signes. On peut parler des éleveurs de « Faut pas pucer » dans le Tarn, qui refusent d’accrocher une boucle électronique à leurs animaux. Les animaux sont parfaitement identifiés par ailleurs, ils ont reçu toute la prophylaxie nécessaire, mais ils n’entrent pas dans la nouvelle norme… Ces éleveurs sont en difficulté et ils ont besoin de soutien. 
  • Je pense à deux autres résistances. Des élus locaux de New York viennent de fermer la porte à Amazon qui voulait y installer son siège social. Craignant une hausse des prix et une gentrification du quartier pressenti pour le projet, ils refusent aussi par principe d’accorder une aide fiscale à Jeff Bezos, l’homme le plus riche du monde. C’est une résistance politique très intéressante. Je pense aussi à la Cour de Cassation qui, en novembre 2018, a requalifié en contrat de travail la relation contractuelle d'un livreur à vélo et de la plateforme de livraison de repas Take Eat Easy. Elle a estimé qu’il y avait un lien de subordination entre le livreur et la plateforme, et non une relation de type travail indépendant. On voit donc des juges qui ne se laissent pas faire, des élus locaux résistant à l'ogre Amazon, et des éleveurs qui tentent d'élever leurs chèvres avec du bon sens. 
  • Il n’y a aucun débat démocratique sur la société cybernétique. Il n’y a donc de la place que pour des résistances locales ou individuelles. Mon espérance est que cela devienne un sujet politique, qu’on nous pose des questions scientifiques, à propos de la société numérique, et que chacun puisse se positionner. Veut-on vraiment des voitures autonomes ? Une médecine « connectée » et « à distance » ? Veut on vraiment tomber sur des répondeurs plutôt que sur des gens ? Bien sûr, il y a d’autres priorités, je ne prétends pas que ce soit toujours le sujet numéro 1. Mais à travers ce thème de l'artificialisation du monde, il y a la question de l’écologie, de la démocratie, de la jeunesse. Il faut faire émerger le débat. 
  • Je trouverais intéressant de faire émerger un nouveau droit fondamental qui donnerait le droit, par exemple, d’accéder aux services publics sans passer par un écran, en allant trouver un humain à un guichet. C’est important pour toutes les personnes qui sont allergiques aux écrans, qui souffrent énormément de passer par Internet, pour les personnes âgées, pour les personnes qui n’ont pas les moyens. Il faut retrouver l’humain dans ce rapport à l’administration. Les enfants et les jeunes doivent de leur côté conserver le droit de vivre de façon non connectée. Cela suppose de renoncer au projet fou de numérisation progressive de l’école. 
  • C’est une démarche qui d’abord libère du temps. Renoncer au « life log » (la captation et la publication de sa vie) permet de laisser moins de données derrière soi, et donne de la liberté mentale en se sentant moins dépendant de l'approbation d'autrui. Le cyberminimalisme apporte aussi du bien-être puisque l’idée est de réhabiliter les rencontres réelles, de privilégier les coups de fil plutôt que les courts messages, les sorties sans téléphone, s’autoriser quelques soirées sans écran et enrichir l'amitié. Enfin il y a préservation de la biosphère par l'achat systématique de numérique d'occasion afin de remettre en circulation les objets déjà produits, et soulager ainsi la Terre d'une activité extractive très polluante. 
  •  
    "Le tout-numérique n'est pas une fatalité et la résistance, déjà à l'oeuvre, doit grossir ses rangs. Tel est le message au coeur de Cyberminimalisme, à la fois essai critique et manuel pratique, paru le 7 février au Seuil dans la collection Anthropocène. Entretien avec son auteure, Karine Mauvilly."
Aurialie Jublin

Pour la consécration constitutionnelle des droits fondamentaux des utilisateurs du numérique - 0 views

  • Une charte du numérique pourrait porter ces principes fondamentaux : • Le droit d’accès à Internet pour tous Comme prérequis de l’inclusion dans la Société : de la participation à la vie publique jusqu’à la communication dans la vie privée ; • Le droit à la neutralité du net Garant d’un Internet sans barrières de coûts et d’une capacité d’innovation sans permission préalable • Le droit d’accès gratuit et de réutilisation libre des informations publiques C’est-à-dire des informations produites, collectées ou recueillies dans le cadre d’une mission de service public, dans le respect de la vie privée des individus et des secrets protégés par la loi • Le droit à la protection des données personnelles Et le contrôle des usages qui en sont faits.
  •  
    "Parce qu'Internet est un bien commun : nous, citoyens engagés en faveur d'un numérique au service des individus et de la société, invitons ardemment le constituant à adopter une charte du numérique à valeur constitutionnelle"
Aurialie Jublin

Pour protéger la vie privée des internautes, la première « coopérative de données » voit le jour en France - ConsoCollaborative - 0 views

  • MyCO propose d’abord un navigateur sécurisé pour naviguer sur Internet sans laisser de traces. Celui-ci permet de choisir à tout moment entre trois niveaux de protection : « invisible » (aucune trace laissée sur les sites), « protégé » (empêche tout échange de données à l’insu de l’internaute) ou « à risque » (comparable à un navigateur classique). Mais l’ambition de la plateforme est d’aller plus loin en proposant une véritable « boîte à outils digitale ». Partage et édition de documents, de photos, de contacts, de calendriers, cagnottes façon crowdfunding, messagerie instantanée, mais aussi nouvelle adresse email sécurisée (non polluée et gérée en France) comptent parmi les fonctionalités de myCO.
  • L’aspect le plus ambitieux du projet concerne la gestion des données des internautes et c’est la que la forme coopérative entre en jeu. Chaque utilisateur de myCO doit souscrire une part à la coopérative. Celle-ci lui permet de répondre – ou non – à des questions auprès de marques ou d’instituts, de façon anonymisée « Plus un sociétaire est actif, plus il va engranger de myCoins, explique Arnaud Blanchard, CEO . À la fin de chaque mois, il est rétribué en euros selon le chiffre d’affaire engrangé et sa participation. »
  • La coopérative rémunère aussi ses membres sous forme de dividendes. « Il est possible de souscrire jusqu’à 500 parts et d’être rémunéré en fin d’exercice au prorata de ses parts », détaille Arnaud Blanchard. Enfin, cette forme juridique permet aux sociétaires de participer à la gouvernance de la plateforme selon le principe un homme égal une voix – et d’éviter que myCO soit rachetée par un grand groupe.
  • ...1 more annotation...
  • Environ 250 utilisateurs ont participé à la phase de bêta test. Ils sont aujourd’hui 2 000 sur la plateforme. Le défi sera évidemment de réussir assez d’utilisateurs pour atteindre une masse critique à même de faire poids face à l’omniprésence des géants américains dans le monde du numérique. Avec l’entrée en vigueur de lois comme la RGPD, Arnaud Blanchard est convaincu que les internautes sont prêts à « participer à la construction d’une approche éthique et européenne du web ».
  •  
    "En souscrivant une part à Myco, chaque utilisateur pourra choisir de partager ses données ou non, de façon anonymisée et rémunérée. Les membres de la coopérative auront aussi accès à de nombreuses fonctionnalités comme un navigateur et une adresse mail sécurisée." => rémunéré ? Est-ce vraiment une bonne idée ?
Aurialie Jublin

Cambridge analytica: «Le scandale a montré que les politiciens sont aussi malhonnêtes que les autres» - 0 views

  • Le scandale Cambridge analytica a-t-il changé notre manière de voir la démocratie ? Le lien avec la démocratie n’est pas direct. Je ne crois pas qu’avec quelques posts finement ajustés, on a pu modifier lourdement le résultat des élections. Des gens qui cherchent à modifier le résultat des élections, c’est vieux comme Hérode, cela s’appelle des candidats. En revanche, Cambridge analytica a montré quelque chose de plus embêtant. Avec des mots crus : il y a différentes familles de margoulins qui tripatouillent les données personnelles pour faire des choses malsaines. Et je constate que les politiciens sont aussi malhonnêtes que les autres. Je trouve extrêmement embêtant qu’on retrouve dans la même classe le capitaliste qui veut faire du pognon pour vendre des produits et le politicien qui veut se faire élire à tout prix. Ce qui met en danger la démocratie, ce n’est pas tant le fait que certaines personnes font n’importe quoi avec les données personnelles, mais le fait que les politiciens trouvent normal d’avoir recours à ces méthodes.
  • Un an après, a-t-on des leviers plus efficaces pour lutter contre ces dérives ? Les leviers existent, mais on les utilise très faiblement. Le texte européen sur les données personnelles (RGPD) interdit d’utiliser les données personnelles des gens pour n’importe quoi. Les personnes doivent donner leur consentement à l’usage qu’on fait de leurs données. Pour chaque usage, il faut demander l’autorisation. A l’heure actuelle, ce n’est pas respecté, puisqu’on utilise vos données personnelles pour cibler la publicité. Je pense qu’aucun être humain sur terre n’a dit explicitement : « Oui, je souhaite que vous analysiez ma vie privée pour mieux me cibler ». C’est toujours plus ou moins implicite, plus ou moins inclus dans un contrat. Si on applique fermement le droit européen, c’est interdit. Les textes européens devraient écrire : « La publicité ciblée est interdite ». C’est écrit autrement parce qu’il y a eu un lobbying au Parlement européen pour espérer gagner quelques années, quelques exceptions, quelques passe-droits, quelques tolérances autour de certaines dérives…
  • Selon vous, Cambridge analytica n’a pas changé le cours de l’élection de Donald Trump. Pourquoi pensez-vous cela ? Donald Trump s’est fait élire avec des méthodes électorales d’une malhonnêteté fabuleuse. Au mieux Cambridge analytica a pu convaincre quelques républicains conservateurs d’aller voter alors qu’ils n’en avaient pas très envie. Je ne crois pas que Cambridge analytica a eu plus d’effet qu’un meeting électoral. Ce qui est embêtant, c’est de le faire de manière malhonnête. Le but de ces plateformes est de vous manipuler, elles gagnent leur vie de cette manière. Le client chez Facebook, c’est le publicitaire et le but de Facebook est de satisfaire ses clients. Les plateformes pourraient vous manipuler pour vous mettre dans la main des politiques. La France y travaille d’arrache pied. Quand on nous dit : « L’État va collaborer avec Facebook pour faire la chasse aux fakes news ». C’est extrêmement inquiétant. Un gouvernement décide le vrai du faux et se met d’accord avec les plus puissants manipulateurs pour vous faire admettre que le vrai gouvernemental est vrai et que le faux gouvernemental est faux. C’est de la manipulation à très grande échelle.
  • ...3 more annotations...
  • Comment décririez-vous la démocratie de demain ? Depuis une trentaine d’années, il n’y a plus de discussion politique. Tous les gouvernements, depuis 1983, sont des partisans de l’économie libérale de marché et ils expliquent qu’ils ne font pas de politique, mais de la bonne gestion. Fondamentalement, la politique, c’est arbitrer entre des intérêts divergents dans la société. Il faut résoudre le conflit entre deux catégories qui s’opposent sur un sujet. D’un côté, il y a des gens qui voudraient protéger leur vie privée et, de l’autre, il y a Facebook qui ne voudrait pas. Les deux s’affrontent et les politiques doivent trancher. Un conflit n’est pas malsain, mais tant qu’on n’a pas posé les termes d’un conflit, on ne sait pas qui cherche à obtenir quoi, et on obtient des arbitrages implicites au lieu d’arbitrages explicites.
  • Dans le futur, la démocratie va-t-elle retrouver la discussion politique ? Je pense qu’elle va la retrouver via Internet. Pas forcément via les réseaux sociaux tels qu’on les connaît aujourd’hui, mais ce n’est pas exclu. Internet comme outil de communication qui permet à tout le monde de s’exprimer tout le temps et de former des sujets politiques. Il ne s’agit pas forcément de sujets très complexes, il s’agit d’identifier le problème et d’identifier son ennemi.
  • Sur le même rond-point, vous avez des gens dont les intérêts divergent. Ils évitent de parler d’immigration, d’impôts, de libéralisme, de gauche, de droite… Mais à un moment, ils vont se remettre à en discuter. Je pense que la démocratie du futur ressemblera à ça : on va se remettre à discuter, à identifier de qui on dépend, de qui on a besoin.
  •  
    "Benjamin Bayart, cofondateur de la Quadrature du Net, revient sur le scandale Cambridge analytica et ouvre les portes à la démocratie du futur"
Aurialie Jublin

Society in the loop : vers un intelligence artificielle plus démocratique ? - Mais où va le Web - 0 views

  • Mais l’intelligence artificielle se diffuse également dans des sphères qui concernent plus directement la vie publique, et donc la société. Pour ne citer qu’eux : le classement de lycéens après leurs bacs[4], l’automatisation de procédures judiciaires[5] ou des horaires de ramassage scolaire[6], la dérégulation du flux automobile dans les villes dus à l’utilisation d’un service de GPS comme Waze[7], l’utilisation de la reconnaissance faciale dans des lieux publics[8] et privés[9], l’usage de « détecteurs de mensonges » aux frontières[10], la police prédictive[11], ou même plus simplement l’usage de systèmes reposant sur la captation de l’attention de l’utilisateur[12].  A leurs échelles, ces sujets touchent la vie sociale dans des dimensions qui pourraient légitimement demander à ce que des discussions plus démocratiques aient lieu. Ils entrent certes, plus ou moins directement dans la catégorie « intelligence artificielle » mais participent de la numérisation du monde à travers des algorithmes, et feront tous le pas vers l’IA si ce n’est déjà fait.
  • C’est là qu’intervient le passage qualitatif du « human in the loop » (HITL) au « society in the loop » (SITL). Pour le dire simplement, le SITL devient nécessaire lorsqu’un système utilisant l’intelligence artificielle a des implications importantes sur la sphère sociale. Iyad Rahwan explique : « alors que le HITL utilise le jugement d’un individu ou d’un groupe pour optimiser un système pensé trop étroitement, SITL embarque le jugement et les valeurs d’une société vue comme un tout, dans la définition la gouvernance algorithmique[13] de questions sociétales ». En résumé, le SITL est une forme de contrat social entre ceux qui doivent obéir aux règles et ceux qui écrivent les règles.
  • Coupons court au débat qui concerne les bulles de filtres : leur émergence et leurs effets dépendent du paramétrage des algorithmes de Facebook, de Google et des autres services susceptibles de créer ces bulles. Par conséquent, elles restent à leur main, notamment à travers leurs Conditions générales d’utilisation (CGU) et le secret d’affaires qui protègent ces systèmes (et les modèles d’affaires de captation du « temps de cerveau disponible » qui y sont directement liés). Pas de démocratie à cet endroit, quand bien même les impacts sur la démocratie pourraient être réels, même s’ils sont encore mal mesurés. C’est une des premières limites du modèle « Society in the loop ».
  • ...11 more annotations...
  • Dans le cas des véhicules autonomes en revanche, une vaste étude a été réalisée sur plusieurs années par le MIT Lab. Elle a concerné des millions de personne dans 233 pays (à travers le petit jeu http://moralmachine.mit.edu/) et a montré à quel point le traitement des questions éthique est variable, même lorsqu’on parle de conduite automobile ! Comme le relate Hubert Guillaud : « la question éthique diverge selon la culture, le niveau économique et la localisation géographique ; bien plus que selon des préférences individuelles (…) les Japonais ont plutôt tendance à préférer des véhicules qui épargnent les piétons alors que d’autres cultures, comme la culture chinoise, préfèrent des véhicules qui épargnent les passagers. » L’objectif d’une telle étude est d’apporter l’éclairage de la société toute entière afin que le système technique réponde au « bien commun ».
  • A l’initiative de Grégoire Japiot (@gregoire) et Matteo Mazzeri (@matemaz), le projet GEnIAL (voir le site internet) est « Une plateforme qui utilise les interfaces conversationnelles et l’intelligence artificielle afin de permettre à la population d’un territoire de mieux vivre dans sa ville à l’ère de la Smart City en offrant des moyens simples pour accéder aux services des administrations et des autres acteurs de la région. » Le projet, qui se revendique de « Society in the loop », est d’utilité publique et censé resté « la propriété des citoyens », contrairement aux services d’assistants proposés par les géants d’internet. Les données collectées ne sont pas commercialisées et la vie privée reste préservée. Grégoire, le fondateur, précise que les concertations citoyennes sont au cœur du projet. L’idée : intégrer dans le service les retours de la société (citoyens, administrations/institutions publiques, chercheurs et acteurs économiques) en vue d’élaborer des modèles d’apprentissage utilisés pour construire une « intelligence artificielle concertée ».
  • Concrètement, GEnIAL Bot, est une « solution qui vise à permettre aux utilisateurs d’interagir avec l’ensemble des informations d’un territoire via des interfaces conversationnelles de type chatbot et assistant vocal. » Au lieu de devoir utiliser des moteurs de recherche pour identifier les différents sites où se trouvent les informations recherchées ou bien de devoir téléphoner aux services concernés, les utilisateurs peuvent interroger GEnIAL Bot en s’adressant en langage naturel et se laisser guider sous forme de conversations vers l’information. Pour la partie technologique, GEnIAL « dispose d’une convention de partenariat avec le CERN qui lui permet de concevoir avec les équipes les plus pointues, une intelligence artificielle éthique et explicable, dont les modèles d’apprentissage sont pensés de manière à refléter l’identité du territoire et intégrer un processus de concertation continue avec ses habitants. »
  • A une échelle très locale, le projet GEnIAL pourrait entrer dans ce qu’il convient d’appeler la « démocratie technique ». La formule que j’emprunte ici à Callon, Barthes et Lascoumes dans l’ouvrage fondateur Agir dans un monde incertain, Essai sur la démocratie technique (Seuil, 2011) désigne notamment les dispositifs par lesquels des profanes peuvent peser sur les modes de conception et de diffusion des sciences et des techniques. A l’évocation de la démocratie technique, on pense souvent aux grandes polémiques et controverses qui ont agité des sujets technoscientifiques comme les OGM, l’enfouissement des déchets nucléaires, ou encore les traitements contre le SIDA. Ce dernier cas a montré que l’intrusion des malades parmi les experts a pu conduire à améliorer les protocoles des laboratoires pharmaceutiques, alors très éloignés de leurs vies.
  • Si ces exemples peuvent paraître éloignés des questions relatives à l’intelligence artificielle, ils permettent d’entrouvrir une autre dimension de la démocratie technique. Par-delà la pure contestation ou modification a posteriori d’une technique existante, Callon, Barthes et Lascoumes décrivent un modèle de « co-production des savoirs ». Ce modèle postule que les non-spécialistes peuvent produire des connaissances à partir de leurs intérêts propres. Ils sont les plus à même d’entrevoir les risques d’un projet et de les faire reconnaître comme légitimes lors d’une étape de conception commune. Ce faisant, ils participent pleinement à la production des sciences et des techniques. Ce modèle suscite des critiques : on pointe le fait que des profanes ne seraient pas capables de s’exprimer sur un sujet technique, et que par conséquent, l’avis des experts serait toujours supérieur, de meilleure qualité, et devrait être pris en compte en priorité.
  • De nombreux contre-exemples viennent infirmer ces thèses. L’expérience prouve que si les conditions sont réunies, des personnes éloignées d’un sujet technique ou scientifique peuvent tout à fait construire des rapports de grande qualité et reconnus comme tels par les experts eux-mêmes. Ce fut le cas lors des controverses concernant les OGM il y a de cela une vingtaine d’années. Callon, Barthes et Lascoumes racontent également comment les amateurs contribuent à améliorer la connaissance scientifique dans de nombreux domaines, comme par exemple l’astronomie.
  • pourquoi ce traitement démocratique si spécial devrait-il se limiter à l’intelligence artificielle ? Une des raisons est sans doute que l’on pressent que son déploiement va changer le monde et susciter des controverses qu’il vaut mieux anticiper. N’oublions pas cependant que de nombreuses technologies numériques (ou non) changent le monde plus insidieusement et suivant des échelles temporelles qui nous les rendent « invisibles à l’œil nu ». Légitimement, on pourrait aussi poser la question démocratique à leur endroit[20].
  • Ce que la démocratie technique questionne, c’est non seulement l’aménagement du progrès, mais aussi sa définition. C’est-à-dire la direction donnée à la civilisation. Entraîner une intelligence artificielle – même avec la méthodologie Society in the loop – c’est déjà faire le choix d’une intelligence artificielle. Ce qui ne veut pas dire que ce choix soit mauvais. Pas plus qu’il n’est naturellement bon. Disons que c’est un choix parmi d’autres. Ce point chaud qui concerne la définition du progrès est et sera de plus en plus au centre de toutes les questions liant technosciences et démocratie.
  • Parallèlement, l’Université de Montréal a bâti une « Déclaration pour un développement responsable de l’intelligence artificielle[23] ». Cette déclaration décrit dix principes phares pour guider le développement de l’IA, parmi lesquels un « principe de bien être » ou encore un « principe d’inclusion de la diversité » (
  • Toutes les controverses techniques n’ont pas vocation à passer sous les fourches caudines de la démocratie, il existe une multitude d’autres échelons pour co-construire, réguler, interdire ou favoriser des systèmes. En témoignent les nombreuses villes qui se « défendent » contre AirBnb ou Uber puis qui finissent par utiliser les données que ces sociétés récoltent, à d’autres fins (des « arrangements » a posteriori[25]). Par ailleurs, c’est aussi dans les écoles qui forment les ingénieurs, designers et entrepreneurs de demain et bien sûr dans les entreprises elles-mêmes, dont certaines décident d’être plus soucieuses des effets générés par leurs activités, que l’avenir se joue
  • Bien sûr, ces quelques pages souffrent de nombreuses limites et à de multiples niveaux. A mon sens néanmoins, le fond de la question consiste (aussi) à savoir quelle « dose » de démocratie nous sommes prêts à mettre dans nos ambitions technologiques. Et en retour, dans quelle mesure les technologies que nous produirons permettront ou non à la démocratie de continuer d’exister[26].
  •  
    "En 2017, Iyad Rahwan (@iyadrahwan), responsable du groupe des coopérations évolutives au MIT posait avec Joi Ito (@Joi) du MIT Medialab le concept de « Society in the loop » (SITL), une méthode pour impliquer différentes parties-prenantes dans la conception d'un système d'apprentissage automatique[1] (ou machine learning), à la base des intelligences artificielles (IA) qui jalonnent le quotidien. L'idée : co-construire plutôt qu'imposer les solutions au grand public, en faisant intervenir dès la phase de conception une diversité d'acteurs. J'en retrace ici un court historique, une illustration et les quelques perspectives et limites qu'il me paraît intéressant de pointer, notamment au regard des questions relatives à ce qu'on appelle la « démocratie technique »."
Aurialie Jublin

Retour sur MyData2018 : quelle(s) approche(s) collective(s) des données personnelles ? | MesInfos - 0 views

  • L’entrée en vigueur du RGPD a clairement été l’événement marquant de 2018 et beaucoup d’intervenants s’y sont référés. Le principe d’équité y est affirmé. Or il s’agit d’un principe qui recouvre une dimension collective : l’équité suppose un groupe, contrairement aux autres principes (transparence, légalité, limitation de but, rétention, intégrité et confidentialité, minimisation des données, précision). Toutefois le texte ne donne pas de définition de l’équité dans le contexte de la gestion des données personnelles a fait remarquer Jussi Leppälä, Privacy Officer (Global) chez Valmet. Finalement, les intervenants s’accordaient à dire que le RGPD est un texte axé sur les besoins individuels plutôt que collectifs. Il protège l’individu, mais ne porte pas de vision véritablement collective des données personnelles.
  • Sur cette question de l’équité, l’exemple d’openSCHUFA donné par Walter Palmetshofer (Open Knowledge Allemagne) est inspirant : une campagne de collecte de données a été faite auprès de milliers d’individus pour comprendre l’algorithme de credit-scoring (pointage de crédit) de SCHUFA, bureau de crédit privé allemand. Cela a permis à des individus de pouvoir demander, preuves à l’appui, à corriger des décisions prises par l’algorithme. De manière générale, le biais algorithmique est un enjeu sociétal important, surtout pour les groupes les plus fragiles dont les données personnelles sont plus exposées et davantage victimes de biais algorithmiques (à ce sujet, lire Internet Actu).
  • D’autres intervenants ont insisté sur la nécessité d’accompagner les entreprises vers plus de prises en compte de leur responsabilité sociale. Le modèle de gouvernance qui domine actuellement étant l’hégémonie d’acteurs économiques (GAFA, BATX) raconte Bruno Carballa Smichowski, de Chronos, le rééquilibrage des pouvoirs doit venir des Etats. Ces derniers disposent de données personnelles, mais peuvent également demander des comptes et pousser les acteurs qui utilisent les données à être plus ouverts et actifs : littératie, infrastructure, open innovation, construire la confiance et faire reculer la peur, ou encore impliquer les personnes concernées (Hetan Shah et Jeni Tennison), sont autant d’actions que les pouvoirs publics peuvent mettre en place.
  • ...9 more annotations...
  • Depuis le lancement de MyData, la nécessité de développer les enjeux collectifs des données personnelles apparaît chaque année plus forte. En parallèle, les communs numériques apparaissent de plus en plus comme un modèle alternatif désirable face aux comportements abusifs des acteurs dominants. Les communs autorisent par nature une gestion transparente et au service de la communauté, car gérés par leurs membres.
  • Si sa remarque a donné naissance au track “OurData” en 2017 et en 2018,, le terme de “commun” était pourtant quasiment absent des discussions du track OurData, essentiellement tourné vers l’acteur public et la régulation. L’exemple d’OpenSCHUFA se rattache néanmoins au courant des communs en donnant un exemple concret.
  • L’idée derrière la coopérative de données qui s’intègrerait au modèle MyData/Self Data viserait plutôt à créer un commun : une association d’individus développant des outils et services (chat, moteur de recherche,…) leur permettant de gérer leurs données de A à Z. Il existe plusieurs coopératives de données de ce type : diglife.coop, schluss, open.coop,…
  • Laura James (doteveryone) a suggéré  cette session afin d’échanger avec les participants sur la faisabilité de créer une ou des coopératives “de masse”, appartenant à leurs membres et gérées par eux. L’objectif serait d’offrir aux gens de meilleurs services que les géants de la technologie et les entreprises de type Silicon Valley. Laura James constate que si le problème avec les géants numériques est leur modèle d’entreprise (capitalisme de surveillance) et le modèle de propriété (extraction de richesse au profit de quelques-uns), la “data coop” doit permettre d’offrir une technologie en laquelle nous pouvons avoir confiance – c’est-à-dire préservant notre vie privée, accessible, fiable, équitable, basée sur les sources ouvertes existantes, avec un meilleur support et une véritable durabilité.
  • Est-ce que le peu de succès de Digital Life Collective est dû à un manque d’intérêt de la part des consommateurs pour les questions liées aux données personnelles ? Ou bien est-ce que les enjeux ne sont pas encore bien compris par les gens ? Les porteurs de coopératives présents à la session échangent sur plusieurs éléments de réponse. D’abord, il n’y a pas une absence d’intérêt pour les questions de privacy mais une perception et un traitement différent selon les personnes (par les « millenials » par exemple). Ensuite, les consommateurs veulent-ils avoir à supporter la responsabilité qui va avec la reprise du contrôle sur leurs données ? Rien n’est moins sûr : comme les services gratuits d’aujourd’hui, cela doit être simple. Mais le contrôle implique nécessairement des responsabilités… Les consommateurs ont aussi besoin de services pratiques. Il faut travailler l’expérience utilisateur. Enfin, il faut une littératie des données pour créer un véritable intérêt et dissiper la peur et les malentendus autour de ce sujet.
  • Comment avoir une véritable gouvernance partagée tout en ayant une organisation suffisamment grande ? A peine 10 personnes sont vraiment actives au sein de Digital Life Collective. Schluss recherche une manière de faire participer davantage les membres. C’est un problème récurrent pour les coopératives, et toute organisation dont la gestion s’appuie sur l’ensemble de ses membres. Toutefois, l’un des participants soulignait que même si seul 1% s’implique dans la prise de décisions, tous reçoivent les bénéfices de la coopérative ! Ca n’est pas la gestion parfaitement partagée et idéale, mais cela fonctionne quand même. Avant de renoncer au modèle participatif, quelques modèles de gouvernance pourraient être expérimentés pour faciliter les prises de décision participatives au sein de la coopérative : les jurys citoyens, sociocracy 3.0 (utilisé par certaines entreprises télécom en Finlande), …
  • Dans les sessions de la thématique “OurData”, nous avons eu le plaisir d’entendre à chaque fois (ou presque) que la propriété appliquée aux données personnelles n’a aucun sens. Bien que ce track, plus qu’aucun autre, soit prédisposé à un tel constat,depuis quelques années, la position de la communauté MyData s’est éclaircie à ce sujet et on voit de moins en moins de personnes prôner ce modèle de propriété et de revente individuelle de ses données..
  • En découle un modèle collectif basé non pas sur des titres de propriété individuels mais sur des droits d’usage. Le RGPD en crée quelques-uns mais d’autres questions restent en suspens, comme le droit à la mémoire collective, notamment pour les catégories les plus défavorisées, ou encore l’équité, qui s’oppose à une régulation par les lois du marché.
  • La plupart des intervenants postulent que c’est l’acteur public qui doit agir : en créant de nouveaux droits associés aux données personnelles, en accompagnant les acteurs privés à fournir des solutions plus éthiques et transparentes, en s’engageant pour une culture et une littératie de la donnée pour tous, en actant juridiquement que les données personnelles sont le résultat d’un processus collectif qui appartient à la société qui l’a co-généré et qu’il ne peut y avoir de propriété associée (en France la CNIL est très claire sur ce dernier point, nous avons besoin d’une voie aussi claire au niveau européen !), en promouvant leur valeur sociale, et non commerciale, et enfin qu’il fasse que le fruit de ce travail doit servir à répondre à des problématiques collectives telles que la santé, l’éducation, la culture, la protection de l’environnement, …
  •  
    "LE CONSTAT : LA GESTION ACTUELLE DES DONNÉES PERSONNELLES S'INTÉRESSE PEU AU COLLECTIF MyData s'intéresse à toutes les dimensions que recouvre le contrôle des données personnelles : si la privacy occupe souvent le devant de la scène, MyData explore également la transparence des organisations et des technologies, l'équité et la dimension collective des données personnelles."
Aurialie Jublin

Technologie : l'âge sombre | InternetActu.net - 0 views

  • Pire, la technologie s’est fait la complice de tous les défis auxquels nous sommes confrontés : à la fois d’un système économique hors de contrôle qui ne cesse d’élargir les inégalités, la polarisation politique comme le réchauffement climatique. Pour Bridle, la technologie n’est pas la solution à ces défis, elle est devenue le problème. Il nous faut la comprendre plus que jamais, dans sa complexité, ses interconnexions et ses interactions : mais cette compréhension fonctionnelle ne suffit pas, il faut en saisir le contexte, les conséquences, les limites, le langage et le métalangage.
  • Trop souvent, on nous propose de résoudre ce manque de compréhension de la technologie par un peu plus d’éducation ou son corollaire, par la formation d’un peu plus de programmeurs. Mais ces deux solutions se limitent bien souvent en une compréhension procédurale des systèmes. Et cette compréhension procédurale vise surtout à renforcer la « pensée computationnelle », c’est-à-dire la pensée des ingénieurs et des informaticiens qui n’est rien d’autre que le métalangage du solutionnisme technologique 
  • Les systèmes techniques sont devenus de plus en plus complexes. Trop critiques et interconnectés pour être compris, pensés ou conçus. Leur compréhension n’est disponible plus que pour quelques-uns et le problème est que ces quelques-uns sont les mêmes que ceux qui sont au sommet des structures de pouvoir. Pour James Bridle, il y a une relation causale entre la complexité des systèmes, leur opacité, et les violences et inégalités qu’ils propagent.
  • ...32 more annotations...
  • Le cloud (l’informatique en nuage) n’est plus une métaphore du réseau, c’est l’incarnation de ce système global et surpuissant qu’aucun d’entre nous ne peut désormais attraper. Ce nuage est pourtant une bien mauvaise métaphore. Rien de ce qu’il recèle n’y est sans poids, rien n’y est amorphe ou invisible. Le cloud cache une infrastructure physique complexe faite de lignes téléphoniques, de fibre optique, de satellite, de vastes entrepôts d’ordinateurs, qui consomment d’énormes quantités d’énergie et qui influent sur de multiples juridictions. Le cloud est l’incarnation d’une nouvelle industrie.
  • De la sécurité nationale aux secrets industriels, il y a beaucoup de raisons à obscurcir ce que recouvre ce nuage. Mais ce qui s’en évapore est assurément notre propriété (dans les nuages, tout appartient à d’autres) et notre agentivité, c’est-à-dire notre capacité à faire.
  • Le réseau donne l’impression d’être à la fois l’idéal de progrès le plus abouti et l’idéal de base de notre culture tout en paraissant avoir émergé inconsciemment, poursuivant son but d’interconnexion sans fin pour lui-même et par lui-même… « Nous présumons que l’interconnexion est inhérente et inévitable. Le réseau semble être devenu le résultat du progrès, son accomplissement ultime », à l’image de machines qui accompliraient ainsi leurs propres désirs. Internet semble avoir accompli l’idéal des Lumières, l’idéal du progrès : celui que plus de connaissance et plus d’information conduit toujours à prendre de meilleures décisions.
  • Mais n’est-ce pas plutôt le contraire auquel nous assistons ? « Ce qui était censé éclairer le monde l’a obscurci. L’abondance d’information et la pluralité d’opinion accessible à tous n’ont pas produit un consensus cohérent, mais au contraire a déchiré la réalité en narrations simplistes, en théories fumeuses et en politique d’opinion. Contrairement au Moyen Âge, où l’âge sombre était lié à une perte de connaissance antique, l’âge sombre moderne est lié à une abondance de connaissance dont nous ne savons plus démêler collectivement l’apport. »
  • L’obscurité dont parle Bridle c’est notre incapacité à voir clairement ce qui est devant nous, avec capacité et justice. Pour Bridle pourtant, ce constat ne doit pas être lu comme une condamnation de la technologie. Au contraire. Pour relever l’âge sombre qui s’annonce, il nous faut nous engager plus avant dans la technologie, avec elle, mais avec une compréhension radicalement différente de ce qu’il est possible d’en faire, en retrouver un sens que la seule recherche d’efficacité nous a fait perdre. Tout comme le changement climatique, les effets de la technologie s’étendent sur le globe et affectent tous les aspects de nos vies. Mais comme le changement climatique, ses effets sont potentiellement catastrophiques et résultent de notre incapacité à comprendre les conséquences de nos propres inventions. Nous devons changer de manière de voir et penser le monde, nous invite Bridle, un peu facilement ou naïvement.
  • « En rapprochant la simulation de l’approximation, les grands prêtres de la pensée computationnelle pensent remplacer le monde par des modèles biaisés de lui-même ; et en le faisant, les modeleurs s’assurent du contrôle du monde. » James Bridle s’inscrit dans la continuité des constats de l’historien des sciences David Noble qui, dans Le progrès sans le peuple notamment, soulignait combien la pensée des ingénieurs avait contribué à donner du pouvoir aux puissants plutôt que favoriser l’équité ou la démocratie ; comme dans celle de Richard Sclove du Loka Institute, qui dans Choix technologiques, choix de société, soulignait combien les enjeux démocratiques restaient le parent pauvre de la question technologique.
  • La pensée computationnelle s’infiltre partout : elle devient notre culture. Elle nous conditionne à la fois parce qu’elle nous est illisible et à la fois parce que nous la percevons comme neutre émotionnellement et politiquement. Les réponses automatisées nous semblent plus dignes de confiance que celles qui ne le sont pas. Dans la pensée computationnelle, nous sommes victimes du biais d’automatisation : « nous avons plus confiance dans l’information automatisée que dans notre propre expérience, même si elle est en conflit avec ce qu’on observe ». Les conducteurs de voitures comme les pilotes d’avion ont plus tendance à croire leurs instruments que leur expérience, même si celle-ci n’est pas alignée.
  • Pour Bridle, l’informatique, en ce sens, est un piratage de notre capacité cognitive, de notre capacité attentionnelle, qui renvoie toute responsabilité sur la machine. « À mesure que la vie s’accélère, les machines ne cessent de prendre en main de plus en plus de tâches cognitives, renforçant par là leur autorité – sans regarder les conséquences ». « Nous nous accommodons de mieux en mieux et de plus en plus aux confortables raccourcis cognitifs que nous proposent nos machines. L’informatique remplace la pensée consciente. Nous pensons de plus en plus comme des machines, ou plutôt nous ne pensons plus du tout ! ».
  • « Ce qui est difficile à modéliser, à calculer, à quantifier, ce qui est incertain ou ambigu, est désormais exclu du futur possible. » L’informatique projette un futur qui ressemble au passé (« Les algorithmes ne prédisent pas le futur, ils codifient le passé », disait déjà Cathy O’Neil). La pensée computationnelle est paresseuse. Elle propose finalement des réponses faciles. Elle nous fait croire qu’il y a toujours des réponses.
  • les réseaux souffrent d’une gouvernance fragmentée, sans responsabilités claires, peu cartographiés et sous-financés ; des infrastructures en silos ; des investissements privés comme publics insuffisants et plus encore un manque de compréhension de la complexité de leur fonctionnement… expliquent leur fragilité intrinsèque et la difficulté de leur maintenance. Ajoutez à cela les impacts du changement climatique sur leur maintenance et leur évolution et vous comprendrez que les réseaux ne sont pas dimensionnés pour faire face au futur. Bref, non seulement l’informatique contribue largement au réchauffement climatique, mais elle risque d’en être l’une des principales victimes.
  • Mais les grands volumes de données ne produisent pas de la connaissance automatiquement. Dans la recherche pharmacologique par exemple, les dépenses et investissements n’ont jamais été aussi forts alors que les découvertes, elles, n’ont jamais produit aussi peu de nouveaux traitements. On appelle cela la loi d’Eroom : l’exact inverse de la loi de Moore. Le nombre de résultats de recherche chute et ces résultats sont de moins en moins dignes de confiance. Si les publications scientifiques n’ont jamais été aussi volumineuses (au détriment de leur qualité), les rétractions ont augmenté et le nombre de recherches ayant un impact significatif, elles, ont diminué proportionnellement. La science connaît une crise de réplicabilité majeure.
  • Plusieurs facteurs expliquent ce revirement de la loi du progrès. La première est que les choses les plus évidentes à découvrir ont été exploitées. La régulation est également devenue plus exigeante et la société moins tolérante aux risques. Mais le problème principal relève certainement des méthodes désormais employées. Historiquement, la découverte de médicament était le fait de petites équipes de chercheurs qui se concentrait intensément sur de petits groupes de molécules. Mais depuis 20 ans, ces processus ont été largement automatisés, sous la forme de ce qu’on appelle le HTS (High-throughput screening pour criblage à haut débit) qui consiste en des recherches automatisées de réactions potentielles via de vastes bibliothèques de composants. Le HTS a priorisé le volume sur la profondeur. Ce qui a marché dans d’autres industries a colonisé la recherche pharmaceutique : automatisation, systématisation et mesures… Certains commencent à douter de l’efficacité de ces méthodes et voudraient revenir à l’empirisme humain, au hasard, au bordel, au jeu… À nouveau, « la façon dont nous pensons le monde est façonnée par les outils à notre disposition ». Nos instruments déterminent ce qui peut être fait et donc, ce qui peut être pensé. À mesure que la science est de plus en plus technologisée, tous les domaines de la pensée humaine le sont à leur tour. Les vastes quantités de données ne nous aident qu’à voir les problèmes des vastes quantités de données.
  • Les bourses et places de marchés d’antan ont été remplacées par des entrepôts, des data centers, anonymes, dans des banlieues d’affaires impersonnelles. La dérégulation et la numérisation ont transformé en profondeur les marchés financiers. La vitesse des échanges s’est accélérée avec la technologie. Les transactions à haute fréquence (HFT, High-frequency trading) reposent sur la latence et la visibilité. La latence, c’est-à-dire la rapidité d’échange où des millions peuvent s’échanger en quelques millisecondes et la visibilité (sauf pour les non-initiés), c’est-à-dire le fait que les échanges sont visibles de tous les participants, instantanément. Les échanges reposent sur des algorithmes capables de calculer des variations éclair et de masquer les mouvements de fonds. Les échanges sont plus opaques que jamais : ils s’imposent sur des forums privés, les « dark pools » (en 2015, la SEC, l’organisme américain de réglementation et de contrôle des marchés financiers, estimait que les échanges privés représentaient 1/5e du total des échanges)… Les échanges financiers ont été rendus obscurs et plus inégaux que jamais, rappelle Bridle.
  • Pour Bridle, l’une des clefs qui expliquent que les inégalités se renforcent avec la technologie est intrinsèquement liée à l’opacité des systèmes. Comme les robots des entrepôts d’Amazon et ses employés commandés par des commandes vocales émanant de robots, nous sommes en train d’arranger le monde pour rendre les machines toujours plus efficaces, quitte à ce que le monde devienne incompréhensible et inadapté aux humains. Les travailleurs deviennent le carburant des algorithmes, utiles seulement pour leurs capacités à se déplacer et à suivre des ordres. Pour Bridle, les startups et les Gafam signent le retour des barons voleurs, ces tyrans industriels du XIXe siècle. La technologie est venue couvrir d’un voile d’opacité la prédation : l’avidité s’est habillée de la logique inhumaine des machines. Amazon ou Uber cachent derrière des pixels lumineux un système d’exploitation sans faille
  • Pour la sociologue Deborah Cowen (@debcowen), nous sommes entrés dans la tyrannie de la techne explique-t-elle dans The Deadly Life of Logistics (2014) : l’efficacité est devenu primordiale sur tous les autres objectifs, sur toutes les autres valeurs
  • Autre exemple avec How-Old.net un outil de reconnaissance faciale qui tente de prédire l’âge d’une personne, et qui a été utilisée pour deviner l’âge de migrants arrivants au Royaume-Uni. Microsoft, qui a développé cette application, s’est défendu et a dénoncé cette utilisation… comme les 2 chercheurs chinois. Ceux-ci expliquaient néanmoins dans leur défense que leur système était « sans préjugé » (sic). Comme souvent, on nous explique que la technologie, et plus encore l’apprentissage automatisé, est neutre. Mais « la technologie n’émerge pas de nulle part. Elle est toujours la réification de croyances et de désirs, notamment de ses créateurs. Leurs biais sont encodés dans les machines et les bases de données ou les images que nous prenons du monde. »
  • Pour Bridle, le problème n’est pas tant que les machines puissent réécrire la réalité, mais que la réalité, le passé comme le futur, ne puissent plus être correctement racontés. DeepDream de Google illustre parfaitement cela. L’enjeu n’est pas pour nous de comprendre ce qu’est l’image, mais de nous demander ce que le réseau de neurones veut y voir ?
  • Pour Bridle, nous devrions ajouter une 4e loi aux trois lois de la robotique d’Asimov. Les machines intelligentes devraient être capables de s’expliquer aux humains. Ce devrait être une loi première, car éthique. Mais le fait que ce garde-fou ait déjà été brisé laisse peu d’espoir quant au fait que les autres règles le soient à leur tour. « Nous allons devoir affronter un monde où nous ne comprendrons plus nos propres créations et le résultat d’une telle opacité sera toujours et inévitablement violent ».
  • Pour Bridle, l’alliance entre l’humain et la machine peut encore fonctionner, comme l’a montré Garry Kasparov avec les échecs avancés, consistant à ce qu’une IA et qu’un humain jouent ensemble plutôt qu’ils ne s’affrontent. C’est dans la perspective d’associer les talents des humains et des machines, d’associer leurs différences d’une manière coopérative plutôt que compétitive que nous parviendrons à réduire l’opacité computationnelle. La perspective que l’intelligence des machines nous dépasse dans nombre de disciplines est une perspective destructrice. Nous devons trouver la voie d’une éthique de la coopération avec les machines, plutôt qu’un affrontement.
  • Bridle s’en prend également longuement à la surveillance et notamment à la surveillance d’Etat pour souligner combien elle nous est masquée et continue à l’être, malgré les révélations d’Edward Snowden. Vous pouvez lire n’importe quel e-mail dans le monde d’une personne dont vous avez l’adresse. Vous pouvez regarder le trafic de tout site web. Vous pouvez suivre les mouvements de tout ordinateur portable à travers le monde. Pour Bridle, cela nous a montré qu’il n’y a pas de restriction possible à la capacité de surveillance du réseau. L’échelle et la taille de la surveillance a excédé ce que nous pensions comme étant techniquement possible.
  • En opposition au secret, nous demandons de la transparence, mais elle n’est peut-être pas le bon levier. La NSA et Wikileaks partagent la même vision du monde avec des finalités différentes, rappelle Bridle. Les deux pensent qu’il y a des secrets au coeur du monde qui, s’ils étaient connus, pourraient rendre le monde meilleur. Wikileaks veut la transparence pour tous. La NSA veut la transparence pour elle. Les deux fonctionnent sur une même vision du monde. Wikileaks ne voulait pas devenir le miroir de la NSA, mais voulait briser la machine de surveillance. En 2006, Assange a écrit « Conspiracy as Governance » (.pdf). Pour lui, tout système autoritaire repose sur des conspirations, car leur pouvoir repose sur le secret. Les leaks minent leur pouvoir, pas par ce qui fuite, mais parce que la peur et la paranoïa dégradent la capacité du système autoritaire à conspirer. Mais les fuites de données ne suffisent pas à remettre en cause ou à abattre l’autorité. Les révélations ne font pas bouger l’opinion, sinon, nous aurions réagi bien avant les révélations de Snowden. Tant que les organisations de surveillance ne changent pas de l’intérieur, ceux qui sont en dehors de ces organisations, comme les lanceurs d’alertes, n’ont pas de capacité d’action. Ils attendent que des fonctionnaires ou que la justice confirment ce qu’ils avancent.
  • Mais la lumière du calcul nous dépossède de pouvoir, car elle nous fait crouler sous l’information et nous donne un faux sens de la sécurité. C’est là encore une conséquence de la pensée computationnelle. « Notre vision est devenue universelle, mais notre capacité d’action, elle, s’est réduite plus que jamais. » A l’image du réchauffement climatique, à nouveau, « nous savons de plus en plus de choses sur le monde, mais nous sommes de moins en moins capable d’agir sur lui ». Au final, nous nous sentons plus démunis que jamais. Plutôt que de reconsidérer nos hypothèses, nous nous enfonçons dans la paranoïa et la désintégration sociale.
  • Le monde est devenu trop complexe pour des histoires simples. En fait, « la démultiplication de l’information ne produit pas plus de clarté, mais plus de confusion ». L’un des symptômes de la paranoïa consiste à croire que quelqu’un vous surveille. Mais cette croyance est désormais devenue raisonnable, s’amuse Bridle en évoquant la surveillance d’Etat comme la surveillance des services numériques. Nous sommes entièrement sous contrôle, tant et si bien qu’on peut se demander qui est paranoïaque désormais ?
  • « Les théories conspirationnistes sont le dernier ressort des sans pouvoirs, imaginant ce que serait que d’être puissant », avance Bridle. Pour le spécialiste de la postmodernité, Frederic Jameson, les théories conspirationnistes sont « la cartographie cognitive des plus démunis dans un âge postmoderne ». C’est la figure dégradée de la logique par ceux qui ont le moins de capital culturel, une tentative désespérée de se représenter un système qu’ils ne comprennent pas. Encerclé par l’évidence de la complexité, l’individu a recours à un récit simpliste pour tenter de regagner un peu de contrôle sur la situation. À mesure que la technologie augmente et accélère le monde, celui-ci devient plus complexe. Les théories conspirationnistes deviennent alors des réponses, étranges, intriquées et violentes, pour s’en accommoder.
  • Ainsi, si vous cherchez de l’information sur les vaccins, vous tomberez invariablement sur de l’information contre les vaccins. Si vous cherchez de l’information sur la rotondité de la terre, vous tomberez inexorablement sur ceux qui pensent qu’elle est plate. Ces opinions divergentes semblent devenir la majorité tant elles sont exprimées et répétées avec force. « Ce qui se passe quand vous désirez en savoir de plus en plus sur le monde entre en collision avec un système qui va continuer à assortir ses réponses à n’importe quelle question, sans résolution ». Vous trouverez toujours quelqu’un pour rejoindre vos points de vue. Et toujours un flux pour les valider. Voici l’âge de la radicalisation algorithmique (à l’image de ce que disait Zeynep Tufekci de YouTube). Les théories conspirationnistes sont devenues la narration dominante. Elles expliquent tout. Dans la zone grise des connaissances, tout prend un sens.
  • Les failles des algorithmes sont les dernières failles du capitalisme où certains s’infiltrent non pas pour le renverser, mais pour tenter de gratter un peu d’argent que les plus gros systèmes s’accaparent. Au final, des vidéos automatisées finissent par être vues par des enfants. Leurs personnages préférés y font n’importe quoi, parfois suggèrent des scènes de meurtre ou de viols. Ces effets de réseaux causent des problèmes réels. Les algorithmes de YouTube ont besoin d’exploitation pour produire leurs revenus. Derrière leurs aspects séduisants, ils encodent les pires aspects du marché, notamment l’avidité. « La capacité à exploiter l’autre est encodée dans les systèmes que nous construisons », pointe très justement James Bridle, puisque leur efficacité repose sur leur capacité à extraire de l’argent de nos comportements.
  • À défaut d’une solution, Google annonçait en avril que l’application YouTube Kids allait devenir « non-algorithmique »… À croire, comme le pointait très justement le chercheur Olivier Ertzscheid, que l’algorithimsation n’est pas une solution sans limites.
  • Pour Bridle, les humains sont dégradés des deux côtés de l’équation : à la fois dans l’exploitation qui est faite de leur attention et à la fois dans l’exploitation de leur travail. Ces nouvelles formes de violence sont inhérentes aux systèmes numériques et à leur motivation capitaliste. Le système favorise l’abus et ceux qui le produisent sont complices, accuse-t-il. L’architecture qu’ils ont construite pour extraire le maximum de revenus des vidéos en ligne a été hackée par d’autres systèmes pour abuser d’enfants à une échelle massive. Les propriétaires de ces plateformes ont une responsabilité forte dans l’exploitation qu’ils ont mise en place. « C’est profondément un âge sombre quand les structures qu’on a construites pour étendre la sphère de communications sont utilisées contre nous d’une manière systématique et automatique. »
  • Pour Bridle, les fausses nouvelles ne sont pas le produit de l’internet. Elles sont le produit de la cupidité et de la démocratisation de la propagande où tout a chacun peut devenir un propagandiste. Elles sont un amplificateur de la division qui existe déjà dans la société, comme les sites conspirationnistes amplifient la schizophrénie.
  • Mais ce qu’il y a de commun avec le Brexit, les élections américaines ou les profondeurs de YouTube, c’est que malgré tous les soupçons, il reste impossible de savoir qui fait ça, qu’elles sont leurs motivations, leurs intentions. On peut regarder sans fin ces flux vidéos, on peut parcourir sans fin les murs de mises à jour de statuts ou de tweets… cela ne permet pas de discerner clairement ce qui est généré algorithmiquement ou ce qui est construit délibérément et soigneusement pour générer des revenus publicitaires. On ne peut pas discerner clairement la fiction paranoïaque, l’action d’États, la propagande du spam… Ces confusions servent les manipulateurs quels qu’ils soient bien sûr, mais cela les dépasse aussi. C’est la manière dont le monde est. Personne ne semble réellement décider de son évolution… « Personne ne veut d’un âge sombre, mais nous le construisons quand même et nous allons devoir y vivre. »
  • Exploiter plus de données pour construire de meilleurs systèmes est une erreur. Cette méthode ne parviendra pas à prendre en compte la complexité humaine ni à la résoudre. Le développement de l’information n’a pas conduit à une meilleure compréhension du monde, mais au développement de points de vue alternatifs et concurrents. Nous devons changer nos façons de penser comme nous y invitait Lovecraft. Nous ne survivrons pas plus à l’information brute qu’à la bombe atomique. Le nouvel âge sombre est un lieu où le futur devient radicalement incertain et où le passé devient irrévocablement contesté. Mais c’est le présent dans lequel nous devons vivre et penser. Nous ne sommes pas sans pouvoir ni capacités. Mais pour cela nous devons nous défaire des promesses illusoires de la pensée computationnelle. Penser le monde autre, c’est ce à quoi nous invite James Bridle dans le nouvel âge sombre.
  • Reste à savoir si cet âge sombre des technologies est vraiment notre avenir. L’âge sombre du Moyen Âge n’a jamais vraiment existé ailleurs que dans les lacunes des historiens. On peut douter également de cette nouvelle obscurité ou regretter le titre faussement prophétique. Reste que la complexité et l’intrication du monde que décrit James Bridle, montrent combien il nous faut, plus que jamais, nous défaire justement d’une vision simple et manichéenne de la technologie.
  •  
    "Ce New Dark Age porte un titre prophétique et apocalyptique. Un peu trop peut-être. C'est effectivement un livre très critique sur notre rapport à la technologie, très éloigné du rapport souvent curieux et amusé que Bridle portait aux technologies avec la nouvelle esthétique. En une dizaine de chapitres, Bridle explore les glitchs qui sont désormais devenus des schismes, des scissions, des ruptures… comme s'ils n'étaient plus aussi distrayants. Dans son livre, il montre combien les bugs se cristallisent en caractéristiques. Combien la complexité technique que nous avons construite s'entremêle pour produire des effets en réseau, complexes, profonds, intriqués que nous ne parvenons plus vraiment à démêler. Son constat principal consiste à dire que ces dysfonctionnements ne sont pas amenés à être corrigés. Ils sont au contraire intrinsèques à la nature même des technologies qui se déploient aujourd'hui. Contrairement à ce que nous annonçaient les pionniers et les prophètes des technologies, pour Bridle, la technologie n'annonce pas de nouvelles Lumières ou une Renaissance, mais, comme Jules Michelet parlait du Moyen Âge, un âge sombre, une ère d'obscurité pour ne pas dire d'obscurantisme. Ni les réseaux sociaux, ni l'intelligence artificielle, ni les systèmes techniques ne vont nous aider à faire monde commun. Au contraire."
Aurialie Jublin

Revue Sur-Mesure | Aujourd'hui, la vie est comme cela "Le logement comme service" - 0 views

  • Et si demain, de la même manière, le logement n’était plus commercialisé comme un objet physique, une surface bâtie de X m² à tel endroit et dont vous êtes propriétaire ou locataire, mais comme un service, c’est-à-dire comme un abonnement auprès d’un fournisseur de « logement as a service » vous offrant la possibilité, à chaque étape de votre vie, de disposer d’un logement de la taille et de la localisation qui correspondent à votre besoin du moment1 ?
  • Ce constat d’une plus grande élasticité de la taille du ménage se combine avec une plus grande élasticité des revenus et des statuts professionnels. Comme le rappelait André Yché, Président du directoire de Caisse des Dépôts Habitat (ex-SNI), « l’économie du logement en France reste encore fondée sur un modèle d’emploi caractéristique de la seconde moitié du XXe siècle : 20 % d’emplois publics, 60 % d’emplois salariés privés, 15 % de professions indépendantes, le taux de chômage étant contenu autour de 5 %. S’agissant de location comme d’accession, le modèle est linéaire : le revenu du locataire, comme celui qui accède à la propriété, est supposé croître modérément et progressivement, sans fluctuation significative ». […] Ce modèle perd du terrain. Une part croissante de la population active est en train de sortir du salariat : auto-entrepreneurs, travailleurs intermittents, polyactifs… sont autant de statuts qui se développent rapidement. La linéarité des revenus est de moins en moins assurée »5.
  • Ainsi, une offre de « logement comme un service » viserait d’abord à permettre l’évolutivité du logement, en permettant à chacun d’avoir à tout instant le logement adapté à ses besoins, notamment à la composition de son ménage et au niveau de ses revenus. Aujourd’hui, le logement évolutif a le vent en poupe : cloisons modulaires, loggia transformable ou grandes hauteurs sous plafond permettent d’adapter le logement à de nouveaux besoins. Mais cette recherche de modularité, qui joue sur le logement comme objet physique, atteint ses limites, précisément du fait de sa dimension physique.
  • ...3 more annotations...
  • De même, le métier de « producteur de logement comme un service » consisterait alors moins à produire des mètres carrés qu’à offrir à l’individu une agrégation, dans la durée, entre des fonctions qui jusqu’à présent étaient prises en charge directement par lui : recherche logement, revente ancien logement, négociation avec les banques, agent immobilier, notaire, etc.
  • Autrement dit, l’opérateur de cette forme d’immobilier serviciel ne porte plus sur des biens localisés (un appartement, un immeuble ou un plateau de bureaux), mais sur des usages. La proposition de valeur consiste à pouvoir proposer à chaque usager un espace immobilier qui correspond à ses besoins du moment… et donc à adapter l’offre proposée à chaque fois que ses besoins évoluent. Il devrait se développer en lien avec les trajectoires de vie personnelles et professionnelles de moins en moins linéaires.
  • Ce concept peut comprendre également une deuxième dimension (voir l’axe vertical sur l’illustration 3 et au dessin de l’illustration 6), qui correspond davantage à un élargissement de l’offre « logement » par la composition d’un « bouquet de services » qui met l’accent sur les services associés au logement.
  •  
    "Et si on habitait comme certains se déplacent ? Non plus avec son véhicule personnel (son logement) mais avec un mode de transport différent à chaque étape du parcours. Suite à une étude sur les opérateurs de services urbains de la ville de demain, nos auteurs proposent une vision étonnante de l'habiter. Une offre séduisante ? Un profond bouleversement de la production immobilière !"
Aurialie Jublin

CHATONS, le collectif anti-GAFAM ? - Framablog - 0 views

  • Pour faire court, CHATONS serait un peu aux services libres ce que la Fédération FDN est aux fournisseurs d’accès internet libres : un moyen de rassembler, de mutualiser, de décentraliser, de donner de la visibilité, de fédérer autour de valeurs communes, de faciliter l’essaimage, mais sans pour autant centraliser, rigidifier, contrôler ces structures.
  • Framasoft ne couvre pas l’ensemble des besoins, et ne propose aucune garantie de disponibilités dans ses Conditions Générales d’Utilisation. Il serait donc utile de répartir la charge et les services sur différentes organisations, non seulement pour éviter les silos de données, mais aussi pour s’assurer de ne laisser aucun utilisateur dans l’impasse. L’un des objectifs serait de mettre en réseau les différentes organisations volontaires, afin qu’elles puissent proposer des services complémentaires (voir redondants) aux utilisateurs.
  • Pas encore, mais il est certain qu’Internet, tel que nous le connaissons, est en train de changer. Et pas forcément dans le bon sens. Les attaques contre la neutralité du net se multiplient (malgré quelques victoires). Google et Apple sont aujourd’hui les deux plus grosses capitalisation boursières mondiales, tous secteurs confondus. La valeur de leurs actions équivaut aux PIB d’États « riches » comme l’Argentine, la Belgique ou la Suède. La trésorerie des GAFAM leur permettent de faire un lobbying à une échelle jamais connue auparavant, leur assurant à terme d’avoir des lois, des réglementations, qui joueront en leur faveur. Cette puissance financière leur permet de racheter n’importe quelle start-up de la planète, leur confiant la maîtrise des innovations. La loi de Moore permet d’envisager des collectes, agrégation et analyse de données toujours plus importantes. L’internet des objets va accélérer ce mouvement et lui donner une ampleur nouvelle en « sortant » les pratiques de surveillance des périphériques habituels. Ces pratiques de surveillance sont adossées à des lois publiées en procédure accélérée, sans recul sur leur efficacité.
  • ...1 more annotation...
  • Si nous voulons une économie qui soit aussi sociale et solidaire, il va nous falloir un internet qui soit aussi social et solidaire. Et cela passera entre autre par une diversité d’acteurs indépendants proposant des services web libres, éthiques et respectueux de vos données, décentralisés et solidaires.
  •  
    "Suite à la mise en place de la campagne Dégooglisons Internet, Framasoft souhaite impulser la création d'un Collectif d'Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires (C.H.A.T.O.N.S. ! :-P ). Ce collectif rassemblerait les organisations souhaitant proposer des services alternatifs à ceux de GAFAM (Google, Apple, Facebook, Amazon, Microsoft), respectueux de la vie privée des utilisateurs."
1 - 20 of 39 Next ›
Showing 20 items per page