Skip to main content

Home/ QN2019/ Group items tagged gafa

Rss Feed Group items tagged

Aurialie Jublin

GAFA : « Il faut prendre la Bastille numérique » | Alternatives Economiques - 0 views

  •  
    "Ils bousculent tout sur leur passage. Les GAFA (pour Google, Apple, Facebook et Amazon) ont pris le contrôle d'un monde numérique en expansion continue. Leur emprise soulève une opposition croissante de la part des citoyens comme des gouvernements, que ce soit parce que ces entreprises évitent massivement l'impôt, ou parce que l'économie de plate-forme qu'elles instaurent bouleverse les règles d'organisation de notre économie. Comment les pouvoirs publics peuvent-ils réagir ? Sébastien Soriano, à la tête de l'Autorité de régulation des communications électroniques et des postes (Arcep), s'est saisi de cette question. Pour Alternatives Economiques et en parallèle des Etats généraux du numérique qu'organise actuellement le gouvernement, celui qui dirige le « gendarme » des télécoms livre sa vision et les bases d'une régulation de ces géants du numérique."
Aurialie Jublin

Mais pourquoi les GAFA nous rendent notre temps ? - 0 views

  • En réalité, les internautes devraient plutôt s’inquiéter de ces nouvelles fonctionnalités annoncées par les GAFA. Car cela sous-entend que ces derniers ont trouvé le moyen de faire de l’argent d’autres manières qu’en vendant notre temps de cerveau disponible au mieux offrant. Cela veut dire que l’économie de l’attention, qui pré-existe largement au Web puisqu’elle est au coeur du modèle économique de nos industries culturelles et médiatiques, n’est plus nécessairement le seul modèle possible pour ces grands groupes du numérique. Ou plutôt, ce que laisse entendre Mark Zukerberg, c’est que cette économie de l’attention n’a plus une valeur quantitative, mais qualitative : « aider les gens à se connecter est plus important que de maximiser le temps passé sur Facebook ». Nul besoin de garder présent un utilisateur durant une grande plage de temps si on peut s’assurer qu’il génèrera rapidement de la valeur.
  • Ainsi, il est notable de constater que les fonctionnalités annoncées ne permettent d’évaluer que le temps que l’on passe sur notre téléphone. Cela nous renvoie à une vision très utilitariste de notre société et de son rapport aux nouvelles technologies : optimiser son temps, le dépenser utilement. Cependant, les internautes sont loin de ne dépenser que du temps. Nous dépensons de l’argent (via le e-commerce) et nous “dépensons” des données personnelles (sur les réseaux sociaux ou via les applications de nos smartphones). Or ce sont ces deux dépenses qui sont les plus rémunératrices pour les géants du numérique. Ce n’est donc pas un hasard si la nouvelle application d’Apple nous indique le temps passé sur notre téléphone et non le montant cumulé que nous dépensons sur l’App Store ou sur les différentes applications que nous utilisons.
  • En effet, ce combat détourne en partie l’attention du fond du problème, c’est-à-dire la capacité des utilisateurs à maîtriser leurs usages dans leurs diversités des services numériques.
  • ...1 more annotation...
  • C’est pourquoi il est aujourd’hui impératif de repenser la conception des services numériques, aussi bien dans ses méthodes, d’exploitation des données personnelles ou de l’attention, que dans ses objectifs, business models et impacts sur nos sociétés. De nombreux concepteurs de services numériques cherchent ainsi à remettre du sens dans leur travail et dans leurs produits, avec pour soucis de remettre l’exigence de choix et de liberté de l’utilisateur au centre de la conception.
  •  
    "Ces dernières semaines, parmis les nouveautés annoncées par les géants américains du numérique pour leurs services respectifs, figuraient un certain nombre de fonctionnalités visant à "rendre le contrôle aux utilisateurs". Apple le formule ainsi : "iOS 12 intègre de nouvelles fonctionnalités pour limiter les interruptions et gérer le temps passé devant les écrans". iOS et Android offriront donc dorénavant la possibilité de monitorer le temps passé sur son téléphone, ainsi que la possibilité - à l'instar de Facebook - de mieux contrôler les notifications que l'on souhaite recevoir."
Aurialie Jublin

Comment gouverner à l'ère du numérique ? - 0 views

  • « Voilà longtemps que les données de Facebook sont un inestimable matériau de recherche. Mais la politique de l’entreprise de Mark Zuckerberg en la matière est digne de celle d’un État. […] La nécessité d’une obligation contraignante de service public pour les données des plateformes monopolistiques s’impose de plus en plus. »
  • Or depuis quelques années, les États laissent, par négligence ou par intérêt, la voie libre aux plateformes, jusqu’à parfois se faire concurrencer sur des terrains jusque-là assumés par les pouvoirs publics. Pour ne pas voir surgir un futur géré par des puissances « quasi-État », le rôle d’une gouvernance étatique assurant la souveraineté numérique de ses citoyens est à redéfinir.
  • « Ce qu’on commence à observer, c’est que les géants du numérique proposent des services qui ressemblent de plus en plus aux services publics : des services liés au logement, à la recherche d’emploi, au transport… et qui commencent à concurrencer les États mais sans nécessairement respecter les valeurs du service public. C’est-à-dire qu’il n’y a pas de transparence sur les opérations, pas de recours citoyen possible et pas de notion d’égalité d’accès à tous  », résume Paula Forteza.
  • ...4 more annotations...
  • L’exemple du « Safety Check », système mis en place par Facebook à l’automne 2015, qui permet aux utilisateurs de faire savoir à leurs proches qu’ils sont en sécurité en cas de catastrophe, l’illustre bien. S’il fonctionnait bien à Paris, ce n’était pas le cas à Beyrouth. Certains États, qui ont tenté de dupliquer le mécanisme d’alerte, ont passablement échoué à faire utiliser leur application. Le relais est par défaut passé à Facebook qui peut selon les choix effectués (sur le choix des mécanismes déployés selon les évènements) jouer le rôle de décideur politique à échelle mondiale. Le fonctionnement du « Safety Check » a changé depuis — il est désormais activé par les utilisateurs eux-mêmes, dans un processus d’autorégulation — mais fait toujours l’objet de critiques virulentes.
  • La députée soutient qu’une délimitation claire entre le positionnement des acteurs est nécessaire : les États assument leur rôle de régulateur, l’indépendance des institutions françaises est respectée, et les géants du numérique sont des entreprises privées soumises au contrôle démocratique.
  • Dans un contexte géopolitique divisé entre géants du web américains et chinois, l’Europe représente un marché très juteux pour les GAFA. Redonner leur souveraineté numérique aux États européens, c’est également leur permettre de disposer de marges de manœuvre non négligeables dans la prise de décision économique et politique : quelles données rendre accessibles ; à qui ? quels futurs acteurs de l’innovation faire émerger ; sous quelles conditions ? Et pour voir apparaître une Europe maîtresse de son destin numérique, une transition institutionnelle seule ne suffira pas. Elle doit être accompagnée d’un mouvement de conscientisation des populations aux enjeux du numérique et d’actions citoyennes innovantes.
  • Redéfinir le rôle de l’État dans nos sociétés, c’est donc potentiellement le penser comme un État plateforme — une organisation sociale et politique qui met des ressources à disposition de la société civile (ces ressources peuvent être des données en open source provenant des secteurs publics et privés par exemple), puis qui s’appuie sur l’intervention des individus pour développer des services utiles à tous. Un exemple de réussite de tels projets participatifs est OpenStreetMap, qui a pour but de constituer une base de données géographiques du monde, en utilisant le système GPS et d’autres données en accès libre.
  •  
    "Le futur sera-t-il géré sans les États ? Alors que le chiffre d'affaire des GAFA équivaut quasiment à celui d'un État moyen et qu'on commence à reconnaître le pouvoir diplomatique de certaines de ces entreprises, le rôle de l'État est questionné. C'est autour de ce constat, et à l'occasion du festival de l'innovation et des économies numériques Futur.e.s, que se sont engagées les réflexions sur le rôle de l'Etat à l'ère du numérique. Autour de la table pour cette conférence, Paula Forteza, députée La République en Marche !, Judith Rochfeld, professeur des universités à Paris 1 Panthéon-Sorbonne, et Henri Verdier, directeur de la Direction interministérielle du numérique et du système d'information et de communication de l'État (DINSIC). RSLN y était."
Aurialie Jublin

affordance.info: La libellule et la muraille (Google en Chine) - 0 views

  • Nous sommes à un moment de l'histoire des technologies de l'information et du numérique qui est assez comparable à l'état du monde en 1949 c'est à dire au moment où l'autre superpuissance de l'époque (l'union soviétique) se dota également de la bombe nucléaire (voir notamment ici ou là). Ce que je veux dire par là c'est que désormais, la totalité des plateformes existantes "à l'Ouest" dispose d'équivalents "à l'Est". Et le rapport au nucléaire n'est pas seulement analogique ou symbolique comme je l'écrivais par ici :  "Le numérique est une technologie littéralement nucléaire. Une technologie de noyau. Au "cœur" fissible d’un éventail de possibles aussi prometteurs qu’angoissants et pour certains, incontrôlables."   L'analogie est également (géo)politique. Toutes les grandes plateformes vont devoir faire le choix politique de savoir dans quelle mesure elles acceptent de se censurer et donc de collaborer avec des régimes autoritaires pour conquérir un marché. Et à l'échelle des enjeux que représentent à la fois les audiences qu'elles touchent déjà et celles qu'elles visent à conquérir, chacun de ces choix est un peu plus qu'un simple choix économique ou même moral.   
  • La vraie nouveauté c'est que ce projet à suscité la colère d'une partie des salariés de Google, qui à l'image de la victoire - je pense temporaire - qu'ils avaient remporté pour obliger leur employeur à se retirer du projet militaire Maven, espèrent cette fois faire suffisamment de bruit pour que ce projet de moteur censuré n'aille pas à son terme.  La crise éthique de certains anciens cadres des GAFA qui agissent comme autant de "repentis" pour les technologies qu'ils ont contribué à créer n'est plus simplement externe mais elle s'étend désormais à l'interne et touche aussi bien Google que Facebook, Microsoft, Amazon (à propos d'un programme de reconnaissance faciale) ou Twitter (à propos du refus de Jack Dorsey de fermer le compte d'un leader de l'Alt-right complotiste). 
  • S'agissant du contrôle linguistique il opère pour l'instant uniquement au travers des dispositifs et des plateformes agréées par le gouvernement chinois ou opérant sous son autorité directe. C'est le cas par exemple du moteur de recherche Baïdu. Comme d'autres, la Chine n'échappe pas à la multiplication des terminaux de connexion. Là où il y a quelques années il suffisait de surveiller l'ordinateur familial pour capter l'ensemble des pratiques connectées de 5 ou 6 personnes, il faut aujourd'hui étendre et démultiplier les moyens de surveillance sur chaque Smartphone ou tablette. Après la surveillance "de masse" c'est la surveillance "de chacun" qui prime. D'où d'ailleurs, le renforcement du contrôle "social" et du micro-ciblage comportemental qui devient le plus petit dénominateur commun efficient dans le cadre d'une volonté politique de contrôle de la population comme dans le cadre d'une volonté marketing d'expansion commerciale. Les deux aspects finissant d'ailleurs par se rejoindre, ce qui n'est pas le moindre des problèmes que nous avons aujourd'hui à résoudre, car pour citer encore Zeynep Tufekci :  "Nous créons une dystopie simplement pour pousser les gens à cliquer sur des publicités". Il me semble que nous sommes aujourd'hui à la phase d'après. Celle où les gens ont cliqué sur suffisamment de publicités et ont, ce faisant, accepté suffisamment de technologies de traçage actif ou passif pour que les conditions d'existence d'une forme de pouvoir autoritaire soient réunies et surtout pour qu'elle soient en passe d'être acceptées comme naturelles ou, pire, comme légitimes. 
  • ...8 more annotations...
  • La question essentielle se déplace donc : il ne s'agit plus de savoir si nous acceptons ou si nous refusons ce traçage publicitaire (débat permis et en partie résolu par le RGPD) ; il s'agit de savoir si nous acceptons ou si nous refusons cette forme de néo-fascisme documentaire propre au totalitarisme littéral des plateformes et le cadre économico-politique qui est sa condition d'existence première. Les "repentis" de la Silicon Valley l'ont dénoncé de l'extérieur. Désormais les employés de ces firmes tentent de s'y opposer de l'intérieur. Il reste aux citoyens, c'est à dire à nous-mêmes, à terminer le boulot. Et ce ne sera pas facile. Car il nous faut retrouver l'envie de le faire. Or ...
  • Le même article - à lire dans la continuité des leçons que nous propose Zeynep Tufekci - rappelle qu'à rebours du postulat d'une inéluctable émancipation dont serait porteur le numérique et ses plateformes pour des populations sous le joug de régimes autoritaires, c'est l'inverse qui est en train de se produire : c'est le modèle chinois d'un internet censuré qui est en train de s'exporter dès aujourd'hui au Vietnam, en Tanzanie ou en Ethiopie, mais également sous un autre aspect en Australie où le réveil est déjà douloureux, et probablement demain dans l'ensemble de ces pays "émergents" et politiquement instables ou non-démocratiques, les mêmes que visent également les occidentaux GAFA pour aller y puiser leur prochain milliard d'utilisateurs. Et cette guerre là n'est pas que commerciale. Elle est avant tout culturelle. Et d'un cynisme est sans égal. Car lorsque toutes les ressources naturelles auront été épuisées, lorsque le dernier gisement du dernier minerai aura été extrait et raffiné, il restera encore à tous ces états la possibilité de vendre le visage de leurs citoyens. Ils n'ont d'ailleurs pas attendu.
  • Les intérêts des GAFA et des gouvernements disons, "autoritaires", sont donc aujourd'hui peu ou prou les mêmes. Ils cherchent à exporter un modèle d'affaire qui est le prétexte à une forme renouvelée de Soft Power qui fait du risque de dystopie et de la mise en oeuvre de son architecture de surveillance un simple dégât collatéral voire un biais nécessaire. Et leurs stratégies sont également semblables par bien des aspects : là encore elles visent une anecdotisation, une discrétisation des régimes de surveillance qui leur permettent de perpétuer et de légitimer leur modèle d'affaire. Quand aux questions d'éthique et aux scrupules, là encore ... on apprenait récemment que pour que Google cesse réellement de nous géolocaliser via notre smartphone, il ne suffisait pas simplement de lui dire de cesser de nous géolocaliser.
  • l'hystérisation récente autour du "fichage" supposé de milliers de Twittos en est un symptôme qui me semble aussi explicite que malheureux, et rappelle à quel point la question des "sans papiers" ou des furtifs échappant à l'hyper-surveillance des plateformes et des états est aujourd'hui plus que jamais politiquement centrale.
  • Souvenons-nous que le démantèlement ou la nationalisation desdites plateformes ont d'abord prêté à sourire avant de finalement être envisagées même si cela ne fut que d'un point de vue purement théorique.  Comme le rappelle encore Zeynep Tufekci :  "Pour comprendre pleinement ce qui se passe, nous avons aussi besoin d'étudier comment les dynamiques des sociétés humaines, la connectivité ubiquitaire, et le modèle d'affaire des géants du numérique se combinent pour créer des environnements dans lesquels la désinformation prospère et où même une information authentique et vérifiée peut nous paralyser et nous rendre confus plutôt que de nous informer et de nous éclairer."
  • Croire que les états n'ont pas à se mêler de la stratégie d'entreprises comme Google, Facebook ou Amazon au motif que nous ne serions, justement, pas en Chine ou dans un pays communiste est aujourd'hui le triple aveu d'un dépassement, d'une impuissance et d'une incapacité à penser ce qui se joue réellement à l'échelle politique.  Et en même temps ... imaginer que des états, que nos états actuels, gouvernés par des bouffons narcissiques de la finance ou par des clowns égocentriques ivres de leur nationalisme, imaginer que ces états puissent aujourd'hui se mêler du projet politique de ces mêmes firmes n'apparaît pas davantage comme une solution souhaitable. 
  • Le drame est que nous n'avons plus confiance ni dans les murailles ni dans les libellules. Et que cette érosion totale de la confiance à l'égard du politique et de la technique (numérique) s'ajoute à l'incapacité du premier à penser la seconde alors même que les infrastructures techniques du numérique n'ont de sens que si elles servent un projet politique. 
  • S'agissant du contrôle de la sphère sociale, on se réfèrera à la littérature pléthorique sur le "Social Credit Score" qui permet d'accorder à certains des droits refusés à d'autres en fonction de comportements sociaux mesurés et scrutés en permanence par le gouvernement (voir notamment sur Wired ou dans Wikipedia). 
  •  
    "Au coeur de l'été. Une libellule. Et une muraille. "Libellule" (en anglais "Dragonfly") c'est le nom de code du projet de Google pour retourner implanter une version censurée de son moteur de recherche en Chine d'après les révélations de The Intercept. En Chine, d'où la "muraille" du titre de ce billet. "
Aurialie Jublin

(11) Les Gafa dans la ville : un quartier de Berlin repousse Google - Libération - 0 views

  •  
    L'alliance inattendue entre les riverains anticapitalistes et de jeunes expats hacktivistes dessine le nouveau combat des années à venir contre l'irruption des géants du Web dans la ville.
Aurialie Jublin

'C'est de la surveillance': Tim Cook vient de démolir Facebook devant les gen... - 0 views

  • "Il ne faut pas édulcorer les conséquences: c'est de la surveillance." Fort de cette attaque en règle, Tim Cook a salué les efforts politiques menés en Europe avec la mise en application du RGPD (Règlement général sur la protection des données) cette année et les questions posées par le régulateur aux géants de la tech. 
  • Il a aussi affirmé que "chez Apple, nous soutenons pleinement une loi fédérale exhaustive sur la vie privée aux Etats-Unis" et dit considérer le droit à la vie privée comme un "droit humain fondamental". Tim Cook a défendu quatre principes sur lesquels il repose: 1) le droit de minimiser les données personnelles — limitant le droit des entreprises à collecter ces données; 2) le droit à la transparence — pour qu'un internaute sache ce qui est collecté sur lui et à quelles fins; 3) un droit d'accès — pour que les utilisateurs puissent accéder, modifier ou supprimer leurs données; 4) le droit à la sécurité, fondement de la confiance. 
  • En revanche, il ne s'est pas exprimé à Bruxelles sur la question de la fiscalité des acteurs du numérique, alors que le ministre français de l'économie Bruno Le Maire s'efforce de rallier ses pairs européens à un consensus sur l'épineuse question et que la Commissaire européenne à la concurrence Margrethe Vestager a sanctionné Apple pour ses acrobaties fiscales avec l'Irlande en 2016. 
  •  
    "Convié à s'exprimer lors de la Conférence internationale des commissaires à la protection des données et de la vie privée à Bruxelles, ce mercredi 24 octobre 2018, Tim Cook a fait l'apologie d'Apple en dénonçant avec vigueur les travers dont se rend coupable un autre géant de la tech de la Silicon Valley selon lui - Facebook, sans jamais le nommer. "
Aurialie Jublin

Windows 10 : plongée en eaux troubles - Framablog - 0 views

  • Les versions normales de Windows ont seulement trois niveaux différents de télémétrie. Le BSI a trouvé qu’entre la version Basic et la version Full on passe de 503 à 534 procédés de surveillance. La seule véritable réduction de télémétrie vient des versions Entreprise de Windows qui peuvent utiliser un réglage supplémentaire de « sécurité » pour leur télémétrie qui réduit le nombre de traqueurs actifs à 13.
  • Voici quelques faits intéressants issus de ce document : • Windows envoie vos données vers les serveurs Microsoft toutes les 30 minutes ; • La taille des données enregistrées équivaut à 12 à 16 Ko par heure sur un ordinateur inactif (ce qui, pour donner une idée, représente chaque jour à peu près le volume de données d’un petit roman comme Le Vieil homme et la mer d’Hemingway) ; • Il envoie des informations à sept endroits différents, y compris l’Irlande, le Wyoming et la petite ville de Boston en Virginie.
  • Logiquement l’étape suivante consiste à découvrir ce qui figure dans ces 300 Ko de données quotidiennes. J’aimerais aussi savoir à quel point l’utilisation de Windows Media Player, Edge et les autres applications intégrées influe sur l’empreinte laissée par les données, ainsi que le nombre d’éléments actifs d’enregistrement.
  • ...1 more annotation...
  • Au sein des communautés dédiées à l’administration des systèmes ou à la vie privée, la télémétrie Windows est l’objet de nombreuses discussions et il existe plusieurs guides sur les méthodes qui permettent de la désactiver complètement.
  •  
    "Vous avez sans doute remarqué que lorsque les médias grand public évoquent les entreprises dominantes du numérique on entend « les GAFA » et on a tendance à oublier le M de Microsoft. Et pourtant…On sait depuis longtemps à quel point Microsoft piste ses utilisateurs, mais des mesures précises faisaient défaut. Le bref article que Framalang vous propose évoque les données d'une analyse approfondie de tout ce que Windows 10 envoie vers ses serveurs pratiquement à l'insu de ses utilisateurs… Article original : 534 Ways that Windows 10 Tracks You - From German Cyber Intelligence Traduction Framalang : Khrys, goofy, draenog, Sphinx"
Aurialie Jublin

[GAFA] Facebook est aussi néfaste pour la démocratie que fumer l'est pour la ... - 0 views

  • "Pour inciter à manipuler l'attention, il s'agit avant tout de s'attaquer aux éléments les plus faibles de la psychologie humaine. Il ne suffit plus de savoir beaucoup de choses sur nous. L'objectif est maintenant de changer ce que nous pensons et ce que nous faisons."
  • Jim Steyer a ajouté: "À mon avis, la comparaison avec les cigarettes était impressionnante parce que tout le monde la comprend... Il faut une conversation mondiale à ce sujet et une réglementation sensée des entreprises du secteur de la technologie".
  • Le PDG de Common Sense Media a participé à l'élaboration de nouvelles lois sur la protection de la vie privée en Californie et était à Bruxelles la semaine dernière pour discuter avec les législateurs de la loi européenne sur la protection de la vie privée, du RGPD, ainsi que d'autres réglementations relatives aux technologies.
  • ...1 more annotation...
  • Roger McNamee pense que le pouvoir d'entreprises telles que Facebook, Google et Amazon devrait être limité. Dans un article du magazine Time avant la sortie de son livre le mois prochain, il a suggéré de les empêcher de faire des acquisitions et d'empêcher le partage de données entre filiales.
  •  
    "Lors de la réunion annuelle du forum économique mondial à Davos, certains experts tech ont évoqué la comparaison entre Facebook et le tabagisme faite par le patron de Salesforce, Marc Benioff.  "Les incitations à manipuler l'attention concernent uniquement les éléments les plus faibles de la psychologie humaine", a déclaré Roger McNamee, ancien mentor de Mark Zuckerberg, à Business Insider. McNamee et Jim Steyer, fondateur de Common Sense Media, estiment qu'il est temps de réglementer de manière stricte - et même de démanteler Facebook."
Aurialie Jublin

« La small tech sera le poison de la Silicon Valley » - Usbek&Rica - 0 views

  • Votre existence numérique est une extension de vous-même, de votre esprit. Et c’est quelque chose de précieux car, si j'ai des informations sur vous, je peux les utiliser pour manipuler votre comportement. Écoutez les mots que j’utilise : je regarde ce que vous faites, j’en fais la liste, j’essaie de comprendre votre psychologie et de vous manipuler pour que vous fassiez ce que je veux. C’est horrible, c’est de l’abus, non ? C’est une relation de pouvoir. Pourtant, c’est ce que font Google et Facebook, que vous utilisez quotidiennement.
  • Quand Tim Berners Lee l’a imaginé, il l’a voulu en Read-Write (lecture-écriture), c’est-à-dire que vous pouviez écrire sur le web, et pas simplement lire. Mais ce qui est arrivé, c'est le capitalisme : les États-Unis ont perçu le potentiel du Web non pas en tant que média en lecture-écriture, mais en tant que média de diffusion. Et le capital-risque est entré dans la partie. Si vous avez un système basé sur des nœuds (nodes) avec des privilèges inégaux, que vous ajoutez du capital-risque, ces nœuds grandissent et deviennent les monopoles que sont Google et Facebook.
  • La conception du web n’a jamais été décentralisée, seule sa philosophie l’était. Nous savons maintenant qu’une centralisation du pouvoir est insoutenable, que ça détruit littéralement notre habitat. La technologie joue le rôle d'amplificateur : peut-être que toutes ces inégalités existaient avant, mais nous n’avions pas la technologie pour « détruire » le monde. Enfin pas le monde, pardon, plutôt notre habitat : la bactérie va survivre quoi qu'il arrive.
  • ...6 more annotations...
  • Deux choses : nous devons d’abord réglementer les abus du capitalisme de surveillance auxquels se livrent Google et Facebook, puis nous devons financer des alternatives. Nous ne pouvons pas attendre des alternatives qu’elles poussent sur des arbres : ça n’arrivera pas.
  • Il faut se demander quels sont les aspects du problème que vous pouvez changer. J’ai retiré Google de ma vie très facilement : vous n’avez pas besoin d’utiliser Gmail, vous pouvez utiliser Fastmail, qui ne vend pas vos informations personnelles. Et les gens peuvent toujours vous envoyer un email. Framasoft est un bel exemple d’organisation qui œuvre pour la bonne cause : protéger l’être humain et sa dignité à l’ère numérique. C’est une organisation fantastique mais, comparé à Google, ils ne sont qu'une poignée de personnes. Framasoft n'est financé par personne. Le réseau social décentralisé Mastodon est un autre exemple qui va dans ce sens. Et pourtant, le système de taxe de la Commission Européenne bénéficie à des start-up qui construisent la même technologie de surveillance que Google. Mais nous ne finançons pas Mastodon, ni Framasoft, ni Indie, notre minuscule organisme à but non lucratif. Nous n’obtenons aucun fonds de qui que ce soit, si ce n’est parfois de particuliers.
  • Si nous voulons une alternative, nous devons la financer alternativement. Elle ne pourra pas être financée par le capital-risque made in Silicon Valley. Ils ont financé les Google et les Facebook, et ils vont financer le prochain Google et le prochain Facebook, car ils chassent des licornes, des entreprises valant des milliards de dollars.
  • Le Danemark, par exemple, a été le premier pays au monde à nommer un ambassadeur auprès de ses entreprises, un ambassadeur pour la Silicon Valley. C’est la chose la plus absurde qui puisse être faite. Le seul pouvoir que le gouvernement danois a sur ces entreprises, c’est la démocratie. Via son mandat, le gouvernement danois devrait protéger les personnes de Facebook. Au lieu de cela, il élève les entreprises au même niveau que lui. Alors oui, un dispositif comme celui du Grand Barouf a du potentiel.
  • La plupart du temps, lorsque les gens parlent de « décentralisation » du pouvoir, ils disent que la solution, c'est la blockchain. Mais vous avez dit que « la blockchain est un fantasme de masturbation libertaire » : qu’est-ce que vous avez voulu dire par là ? Voilà un bon guide : si vous voyez dans la Silicon Valley des investisseurs en capital-risque investir dans quelque chose, ce n’est pas pour la justice sociale, ce n’est pas pour améliorer les choses. C’est pour enrichir un petit groupe d’hommes riches. Pourquoi parle-t-on aujourd’hui à ce point de la blockchain ? À cause du Bitcoin et des crypto-monnaies, à cause de la possibilité pour certaines personnes de gagner des millions ou des milliards avec ça... Les personnes qui veulent généralement un système totalement digne de confiance sont de vrais libertaires, ils ne veulent pas de justice sociale, ils veulent être ceux qui détiennent les rouages du système.
  • Ce projet, que vous appelez Hypha ou Peer-Web, est-ce une nouvelle version du Web ? Comment cela fonctionne-t-il ? Déjà, la différence avec la blockchain, c’est que nous n’essayons pas d’avoir des milliards de copies de la même base de données, mais de donner à un milliard de personnes leurs propres bases de données, toutes séparées, toutes différentes, à notre image. Avec Hypha, nous faisons une chose simple : nous vous donnons un espace que vous possédez et contrôlez. Vous pouvez ensuite définir ce qui est public de ce qui est privé. Vous avez ce choix initial car vous partez d’un espace que vous possédez.
  •  
    "À l'heure où Facebook essaie de se dépêtrer de ses affaires de chiffrement et où Google se prend les pieds dans un bug qui a rendu publique la vie privée des utilisateurs d'Android TV, l'activiste Aral Balkan revient sur les origines de ce qu'il appelle « le capitalisme de surveillance », en amont de sa venue à Lille le 21 mars à l'occasion du Grand Barouf Numérique."
Asso Fing

« On cherche à éveiller la conscience éthique des développeurs et data scient... - 0 views

  • Comment la communauté Data For Good utilise-t-elle les algorithmes ? Qu’est-ce qui vous différencie des grandes entreprises tech ? Avec Data For Good, on veut permettre aux associations, aux projets citoyens et aux institutions d’avoir accès à la data science, qui est utilisée uniquement par les grandes entreprises comme les GAFA et les start-up pour l’instant, car c’est un service qui coûte très cher. Notre communauté bénévole soutient certains projets comme celui de l’association Frateli, qui travaille sur du mentorat. On leur a créé une plateforme de matching, avec des algorithmes, pour matcher en un clic un mentor avec un mentoré, alors qu’avant tout était fait à la main sur un tableur Excel. L’humain garde la décision finale, il peut changer les résultats donnés par l’algorithme, mais cela reste beaucoup plus rapide.
  • Notre but n’est pas de récolter des données, on ne fait pas des algorithmes qui utilisent les données des utilisateurs pour faire de la publicité. De plus, les codes sources produits par Data For Good sont tous en open source, donc si une autre association veut les utiliser, elle peut le faire gratuitement et librement. Les GAFA ouvrent certains de leurs codes sources, mais c’est avant tout pour attirer des développeurs, et ils n’ouvrent que des bribes de leurs codes. Et ils savent très bien que sans les données qu’ils possèdent, ces extraits de codes ne servent à rien.
  • Vous travaillez aussi chez AlgoTransparency, une plateforme qui cherche à décrypter les mécanismes de l’algorithme de YouTube : avez-vous réussi à savoir comment était construit cet algorithme, qui est un secret bien gardé par YouTube ? Sur YouTube, on est enfermé dans une spirale de recommandations qui ne montre pas forcément le meilleur de l’humanité... Sur AlgoTransparency, on a mis en place un robot qui est capable de mesurer quelle vidéo est recommandée, à partir de quelle vidéo. On a donc des données sur ces vidéos, mais comprendre comment fonctionne l’algorithme est très compliqué car celui-ci est très complexe, et il évolue en permanence car il est ré-entraîné tous les jours. Nous, on a décidé d’étudier nos données, en rentrant des mots clés, et de voir ce qu’il en sort.
  • ...4 more annotations...
  • L’algorithme de la plateforme, et YouTube le dit lui-même, c’est de maximiser le temps passé sur la plateforme, le « watch time ». Et quand l’algorithme voit que les gens passent plus de temps sur la plateforme quand ils regardent des vidéos complotistes par exemple, il va plus recommander ce contenu. Il fait juste le boulot pour lequel on l’a programmé.
  • Et dans un second temps, on pourrait créer pour la plateforme un statut hybride, qui serait entre l’hébergeur, qui n’a pas de responsabilité sur le contenu qu’il héberge, et le média, qui a toute la responsabilité sur ce qu’il partage. Pour l’instant, YouTube dit être un hébergeur, car il ne peut pas éditorialiser tout le contenu qui se trouve sur la plateforme. Pourtant, les algorithmes ont un rôle éditorial : quand ils recommandent un million de fois une vidéo à des êtres humains, il y a un choix fait derrière, l’algorithme a privilégié un contenu plutôt qu’un autre.
  • Par contre, là où on peut avoir peur, c’est quand ces algorithmes, notamment de machine learning (c’est-à-dire des algorithmes qui vont apprendre à partir des données qu’on leur a fourni pour prédire des choses), impactent la vie humaine : par exemple, lorsqu’on les utilise dans l’espace public pour faire de la reconnaissance faciale, ou quand les décisions concernant les peines de prison sont prises par des algorithmes. Si on ne sait pas quels sont les critères choisis pour définir les algorithmes, c’est là que ça devient dangereux. Et c’est pour cela qu’on demande l’ouverture de tous les codes sources utilisés dans les administrations (comme la loi Le Maire le recommande).
  • Est-ce que le problème de l’algorithme ne serait pas de décontextualiser les données ? Normalement, c’est aux data scientists de garder en tête le contexte des données qu’ils étudient, et de savoir qu’elles peuvent être biaisées : par exemple, connaître le quartier où habitent les utilisateurs peut être un biais sur leur niveau social. Dans le serment d’Hippocrate de Data For Good, on cherche au mieux à éveiller la conscience éthique des data scientist, en « informant les parties prenantes sur (…) l’utilisation des données », en assurant que « les individus ne soient pas discriminés par rapport à des critères illégaux ou illégitimes », en « respectant la vie privée et la dignité humaine » et en « assumant ses responsabilités en cas de difficulté ou de conflits d’intérêts ».
  •  
    "Et si les développeurs et data scientists prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ? Data For Good, une communauté de data scientists et de développeurs bénévoles au service de projets d'intérêt général, en a fait une de ses missions. Ce « serment d'Hippocrate » des data scientists sera mis en ligne le 26 juin, lors d'un « Demo Day » qui présentera les projets soutenus par Data For Good. Curieux d'en savoir plus, nous avons interrogé Frédéric Bardolle, membre de Data For Good et d'Algotransparency, une plateforme qui décrypte les mécanismes de l'algorithme de YouTube. "
manonmolins

It's Not the Platforms that Need Regulation. - NewCo Shift - John Battelle - 0 views

  •  
    Comment "reseter" le web ? Est-il seulement possible de le transformer de l'intérieur, comme certaines initiatives tentent de le faire (ex : #privacytech) ? Ou bien avons-nous besoin de transformer l'intégralité de notre modèle économique et démocratique ? Cet article (pas si jeune) se propose de réaliser une revue de veille, à partir d'un constat simple : "Ce ne sont pas les plateformes qui ont besoin d'être régulées. Elles agissent juste de la manière la plus logique étant donné les normes et régulations de l'économie capitaliste. C'est sur ces dernières que les réformes doivent porter !". Il fait écho à un débat sur les façons de réformer/rebooter/reseter le web : ==> "Oui, on peut défendre les droits des internautes dans une économie de marché." par https://www.champeau.info/blog/2018/10/09/oui-on-peut-defendre-les-droits-des-internautes-dans-une-economie-de-marche/ ==> "Rebooter le web sans changer de logiciel économique ?" https://scinfolex.com/2018/10/09/rebooter-le-web-sans-changer-de-logiciel-economique/
Aurialie Jublin

Retour sur MyData2018 : quelle(s) approche(s) collective(s) des données perso... - 0 views

  • L’entrée en vigueur du RGPD a clairement été l’événement marquant de 2018 et beaucoup d’intervenants s’y sont référés. Le principe d’équité y est affirmé. Or il s’agit d’un principe qui recouvre une dimension collective : l’équité suppose un groupe, contrairement aux autres principes (transparence, légalité, limitation de but, rétention, intégrité et confidentialité, minimisation des données, précision). Toutefois le texte ne donne pas de définition de l’équité dans le contexte de la gestion des données personnelles a fait remarquer Jussi Leppälä, Privacy Officer (Global) chez Valmet. Finalement, les intervenants s’accordaient à dire que le RGPD est un texte axé sur les besoins individuels plutôt que collectifs. Il protège l’individu, mais ne porte pas de vision véritablement collective des données personnelles.
  • Sur cette question de l’équité, l’exemple d’openSCHUFA donné par Walter Palmetshofer (Open Knowledge Allemagne) est inspirant : une campagne de collecte de données a été faite auprès de milliers d’individus pour comprendre l’algorithme de credit-scoring (pointage de crédit) de SCHUFA, bureau de crédit privé allemand. Cela a permis à des individus de pouvoir demander, preuves à l’appui, à corriger des décisions prises par l’algorithme. De manière générale, le biais algorithmique est un enjeu sociétal important, surtout pour les groupes les plus fragiles dont les données personnelles sont plus exposées et davantage victimes de biais algorithmiques (à ce sujet, lire Internet Actu).
  • D’autres intervenants ont insisté sur la nécessité d’accompagner les entreprises vers plus de prises en compte de leur responsabilité sociale. Le modèle de gouvernance qui domine actuellement étant l’hégémonie d’acteurs économiques (GAFA, BATX) raconte Bruno Carballa Smichowski, de Chronos, le rééquilibrage des pouvoirs doit venir des Etats. Ces derniers disposent de données personnelles, mais peuvent également demander des comptes et pousser les acteurs qui utilisent les données à être plus ouverts et actifs : littératie, infrastructure, open innovation, construire la confiance et faire reculer la peur, ou encore impliquer les personnes concernées (Hetan Shah et Jeni Tennison), sont autant d’actions que les pouvoirs publics peuvent mettre en place.
  • ...9 more annotations...
  • Depuis le lancement de MyData, la nécessité de développer les enjeux collectifs des données personnelles apparaît chaque année plus forte. En parallèle, les communs numériques apparaissent de plus en plus comme un modèle alternatif désirable face aux comportements abusifs des acteurs dominants. Les communs autorisent par nature une gestion transparente et au service de la communauté, car gérés par leurs membres.
  • Si sa remarque a donné naissance au track “OurData” en 2017 et en 2018,, le terme de “commun” était pourtant quasiment absent des discussions du track OurData, essentiellement tourné vers l’acteur public et la régulation. L’exemple d’OpenSCHUFA se rattache néanmoins au courant des communs en donnant un exemple concret.
  • L’idée derrière la coopérative de données qui s’intègrerait au modèle MyData/Self Data viserait plutôt à créer un commun : une association d’individus développant des outils et services (chat, moteur de recherche,…) leur permettant de gérer leurs données de A à Z. Il existe plusieurs coopératives de données de ce type : diglife.coop, schluss, open.coop,…
  • Laura James (doteveryone) a suggéré  cette session afin d’échanger avec les participants sur la faisabilité de créer une ou des coopératives “de masse”, appartenant à leurs membres et gérées par eux. L’objectif serait d’offrir aux gens de meilleurs services que les géants de la technologie et les entreprises de type Silicon Valley. Laura James constate que si le problème avec les géants numériques est leur modèle d’entreprise (capitalisme de surveillance) et le modèle de propriété (extraction de richesse au profit de quelques-uns), la “data coop” doit permettre d’offrir une technologie en laquelle nous pouvons avoir confiance – c’est-à-dire préservant notre vie privée, accessible, fiable, équitable, basée sur les sources ouvertes existantes, avec un meilleur support et une véritable durabilité.
  • Est-ce que le peu de succès de Digital Life Collective est dû à un manque d’intérêt de la part des consommateurs pour les questions liées aux données personnelles ? Ou bien est-ce que les enjeux ne sont pas encore bien compris par les gens ? Les porteurs de coopératives présents à la session échangent sur plusieurs éléments de réponse. D’abord, il n’y a pas une absence d’intérêt pour les questions de privacy mais une perception et un traitement différent selon les personnes (par les « millenials » par exemple). Ensuite, les consommateurs veulent-ils avoir à supporter la responsabilité qui va avec la reprise du contrôle sur leurs données ? Rien n’est moins sûr : comme les services gratuits d’aujourd’hui, cela doit être simple. Mais le contrôle implique nécessairement des responsabilités… Les consommateurs ont aussi besoin de services pratiques. Il faut travailler l’expérience utilisateur. Enfin, il faut une littératie des données pour créer un véritable intérêt et dissiper la peur et les malentendus autour de ce sujet.
  • Comment avoir une véritable gouvernance partagée tout en ayant une organisation suffisamment grande ? A peine 10 personnes sont vraiment actives au sein de Digital Life Collective. Schluss recherche une manière de faire participer davantage les membres. C’est un problème récurrent pour les coopératives, et toute organisation dont la gestion s’appuie sur l’ensemble de ses membres. Toutefois, l’un des participants soulignait que même si seul 1% s’implique dans la prise de décisions, tous reçoivent les bénéfices de la coopérative ! Ca n’est pas la gestion parfaitement partagée et idéale, mais cela fonctionne quand même. Avant de renoncer au modèle participatif, quelques modèles de gouvernance pourraient être expérimentés pour faciliter les prises de décision participatives au sein de la coopérative : les jurys citoyens, sociocracy 3.0 (utilisé par certaines entreprises télécom en Finlande), …
  • Dans les sessions de la thématique “OurData”, nous avons eu le plaisir d’entendre à chaque fois (ou presque) que la propriété appliquée aux données personnelles n’a aucun sens. Bien que ce track, plus qu’aucun autre, soit prédisposé à un tel constat,depuis quelques années, la position de la communauté MyData s’est éclaircie à ce sujet et on voit de moins en moins de personnes prôner ce modèle de propriété et de revente individuelle de ses données..
  • En découle un modèle collectif basé non pas sur des titres de propriété individuels mais sur des droits d’usage. Le RGPD en crée quelques-uns mais d’autres questions restent en suspens, comme le droit à la mémoire collective, notamment pour les catégories les plus défavorisées, ou encore l’équité, qui s’oppose à une régulation par les lois du marché.
  • La plupart des intervenants postulent que c’est l’acteur public qui doit agir : en créant de nouveaux droits associés aux données personnelles, en accompagnant les acteurs privés à fournir des solutions plus éthiques et transparentes, en s’engageant pour une culture et une littératie de la donnée pour tous, en actant juridiquement que les données personnelles sont le résultat d’un processus collectif qui appartient à la société qui l’a co-généré et qu’il ne peut y avoir de propriété associée (en France la CNIL est très claire sur ce dernier point, nous avons besoin d’une voie aussi claire au niveau européen !), en promouvant leur valeur sociale, et non commerciale, et enfin qu’il fasse que le fruit de ce travail doit servir à répondre à des problématiques collectives telles que la santé, l’éducation, la culture, la protection de l’environnement, …
  •  
    "LE CONSTAT : LA GESTION ACTUELLE DES DONNÉES PERSONNELLES S'INTÉRESSE PEU AU COLLECTIF MyData s'intéresse à toutes les dimensions que recouvre le contrôle des données personnelles : si la privacy occupe souvent le devant de la scène, MyData explore également la transparence des organisations et des technologies, l'équité et la dimension collective des données personnelles."
Aurialie Jublin

Acrasie : l'intime désaccord - 0 views

  • Ce phénomène que nous essayons de mettre en lumière ici, qui fait que nous prenons des décisions qui vont à l’encontre de nos valeurs, est plus fréquent qu’on ne pourrait le croire. Il est même quasi-quotidien chez certains d’entre nous. En philo éthique, c’est ce qu’on appelle l’acrasie (du grec akrasia). « Je vois le bien, je l’approuve, et je fais le mal ». C’est ce que Médée explique à Jason dans Métamorphoses d’Ovide (non, ce n’est pas une sitcom). Et ça résume bien la situation dans laquelle beaucoup d’entre nous se trouvent quotidiennement : ils ne sont pas d’accord avec le fait d’être assis sur leur canapé devant Netflix, à s’empiffrer de chips et à scroller sur Instagram, cependant, ils sont confrontés à des choix qu’ils n’arrivent (apparemment) pas à résoudre.
  • Cette caractéristique du comportement, propre à pas mal d’entre nous, c’est ce que Alain Anquetil, auteur d’un travail de recherche sur la question, appelle « l’expression molle d’une préférence pour le statu quo ».
  • L’acrasie par contre, c’est bien cette incontinence, cette faiblesse de ne pas arriver à prendre la bonne décision, alors que précisément nous savons quelle est cette « bonne » décision. Parce que je ne reçois aucune gratification instantanée dans le fait d’utiliser Qwant à la place de Google. Cependant, si je suis d’accord avec les arguments énoncés un peu plus haut, je devrais opter pour un autre moteur de recherche.
  • ...7 more annotations...
  • Vous l’aurez compris : les pays avec le plus haut score d’acceptation étaient ceux dans lesquels les gens devaient faire un effort, et une démarche, afin de se désinscrire, alors que ceux dans lesquels il fallait tout simplement s’inscrire (ce qui semble, il est vrai, le plus logique) ont eu beaucoup de mal à fédérer plus de 10 % de réponses positives. Les conclusions de l’enquête ? Que ce soit en Suède, en Autriche ou même en France, les personnes interrogées ne sont certainement pas CONTRE le don d’organe, mais encore faudrait-il qu’elle fasse l’effort de le dire et d’exprimer leur choix. Nous sommes donc là en face d’un pur cas d’acrasie (les gens ont d’ailleurs souvent un vrai avis moral et éthique sur la question du don d’organe) : peu importe la raison, quand il s’agit de passer à l’action, l’incontinence reprend le dessus.
  • Comme le souligne Attali, l’engagement citoyen de façade est parfois doublé d’un égoïsme social présent lorsqu’il s’agit de nos intérêts personnels et de nos habitudes.
  • Le philosophe Ruwen Ogien pose la question de façon très ouverte dans La Faiblesse de la Volonté : « À quelles conditions un agent rationnel peut-il choisir le pire alors que le meilleur est accessible ? ». Quel est l’effet de dissonance cognitive qui est à l’œuvre, et qui nous fait penser que ces baskets, chèrement payées, valent l’argent que nous y mettons ? Le mimétisme ? La sensibilité aux histoires et aux émotions véhiculées par les marques ? 
  • Le « pré-engagement ». C’est la façon dont vous allez vous engager socialement par rapport à vos convictions, en les exprimant à vos proches, amis ou collègues. Reprenons l’exemple de la consommation de viande : une fois que vous avez dit à tous vos collègues que vous ne mangez plus de viande parce que vous êtes choqués par le traitement fait aux animaux dans l’élevage industriel, vous pourrez bien sur en reprendre, mais vous risquez quand même de passer pour quelqu’un de pas très « fiable ».
  • Les « intentions de mise en œuvre ». Contrairement au pré-engagement, les intentions de mise en œuvre s’adressent uniquement à vous même. Il s’agit tout simplement d’outils pour vous motiver et vous organiser de façon à mettre en œuvre ce que vous avez prévu. Un exemple très parlant, et pourtant totalement banal, est celui de la to-do list.
  • Les « embûches ». La légende dit que pour finaliser Notre-Dame de Paris dans le temps imparti, Victor Hugo s’est débarrassé de ses vêtements, afin de ne plus avoir de moyen de sortir de chez lui, et de s'obliger à rester assis devant son bureau – n’ayant plus rien d’autre à faire que d’écrire. Résultat : il a rendu son ouvrage plusieurs jours avant la date limite.
  • Si l’acrasie représente cette faiblesse de volonté, l’encrasie serait donc cette force de caractère nous permettant d’agir conformément à nos valeurs, à ce que nous pensons profondément être bon, et non à ce qui nous arrange ou ce qui peut arranger nos petites affaires sur le moment présent. C’est un long chemin, mais il ne faut pas le considérer comme hors d'atteinte pour autant. Au contraire.
  •  
    "Nous avons pris l'habitude de blâmer les géants du numérique pour tous les maux de la Terre. Serait-ce de leur faute si nos données personnelles sont revendues et utilisées contre notre gré ? Est-ce à cause d'eux que nous devenons de vraies loques humaines, incapables de faire autre chose de que scroller une quantité invraisemblable de contenu par jour, et d'emmagasiner des informations dont nous n'avons (en vrai) rien à faire ? Bonne nouvelle : les individus derrière l'excellente newsletter Tech Trash vous révèlent dans cet article initialement publié sur leur site le principal responsable de vos faits et gestes (qui ne sont pas, contrairement à ce que vous pensez peut-être, téléguidés par la Silicon Valley) : VOUS. Et un mécanisme de nos cerveaux baptisé acrasie : le fait de ne pas parvenir à prendre la bonne décision, alors que précisément nous savons quelle est cette « bonne » décision. "
Aurialie Jublin

Peut-on contrer le pouvoir d'Amazon ? - 0 views

  •  
    Amazon n'est plus seulement un géant du numérique mais une infrastructure essentielle à de nombreuses entreprises qui en dépendent. Les outils juridiques traditionnels s'avèrent impuissants à endiguer ce type de pouvoir. Une bulle éco signée Catherine Petillon.
Aurialie Jublin

Brésil : le numérique fait-il du mal à la démocratie ? - 0 views

  • Dans un ouvrage publié l’année dernière : Le temps des algorithmes, deux informaticiens français - Serge Abiteboul et Gilles Dowek-  expliquaient que le rythme relativement lent auquel étaient consultées les populations dans une démocratie (une élection par an en moyenne) avait été dicté au cours des XVIIIe et XIXe par la lenteur des communications elles-mêmes - une diligence, ça ne va pas vite, organiser des élections prenaient du temps. A l’heure où une information va à la vitesse de la lumière, il semble impossible de ne pas revoir ce rythme. Dit comme ça, ça a l’air évident. 
  • Dans un livre paru il y a cinq ans (The New Digital Age), Jared Cohen et Eric Schmidt (à l’époque patron de Google) annonçaient tranquillement l’avènement d’un nouveau monde où les plateformes numériques suppléeraient les États dans bien des fonctions de la vie publique, jusque dans l’organisation de la vie démocratique. 
  • Lutter contre l’ambition des GAFA à se substituer à l’Etat, contre les États qui essaient d’interférer dans les élections d’autres pays, lutter contre l’usage des réseaux sociaux à des fins de fausses informations. Tout en promouvant de nouvelles manières de consulter les peuples, d’écrire en commun une constitution comme l’a fait l’Islande etc. Il y a du boulot… 
  • ...1 more annotation...
  • Comment se fait-il que ce soit à un moment où, pour la première fois dans l’histoire de l’Humanité, on peut communiquer aussi facilement avec le monde entier, lire, regarder et entendre ce qui se passe ailleurs en un clic, avoir accès aussi vite aux savoirs les plus anciens et les plus lointains, s’exprimer à égalité, comment se fait-il que ce soit dans ce moment-là que réapparaissent aussi violemment tous les protectionnismes les plus durs et les xénophobies les plus haineuses ?  Y a-t-il un rapport entre ces deux mouvements contraires ?  Ou Internet n’a-t-il rien à voir dans ce qui nous arrive politiquement ? 
  •  
    "L'élection de Jair Bolsonaro à la tête du Brésil pose la question qui semble se poser à chaque nouvelle élection d'un dirigeant fachistoïde à la tête d'une démocratie : quel rôle a joué Internet (et notamment WhatsApp) dans tout ça ?"
Aurialie Jublin

Censure antiterroriste : Macron se soumet aux géants du Web pour instaurer un... - 0 views

  • Pour rappel, le texte, poussé par la France et l’Allemagne, utilise le prétexte de la lutte contre le terrorisme pour soumettre l’ensemble des hébergeurs (et pas seulement les grandes plateformes) à des obligations extrêmement strictes : retrait en une heure de contenus qualifiés de terroristes par une autorité nationale (en France, ce sera l’OCLCTIC, le service de la police chargé de la cybercriminalité)  la mise en place d’un « point de contact » disponible 24h/24 et 7j/7  l’instauration de « mesures proactives » pour censurer les contenus avant même leur signalement  si ces mesures sont jugées insatisfaisantes par les États, ces derniers peuvent imposer des mesures spécifiques telles que la surveillance généralisée de tous les contenus.
  • D’un point de vue humain, technique et économique, seules les grandes plateformes qui appliquent déjà ces mesures depuis qu’elles collaborent avec les polices européennes seront capables de respecter ces obligations : Google, Facebook et Twitter en tête. Les autres acteurs n’auront d’autres choix que de cesser leur activité d’hébergement ou (moins probable, mais tout aussi grave) de sous-traiter aux géants l’exécution de leurs obligations.
  • Ce texte consacre l’abandon de pouvoirs régaliens (surveillance et censure) à une poignée d’acteurs privés hégémoniques. Pourtant, la Commission et les États membres, en 146 pages d’analyse d’impact, ne parviennent même pas à expliquer en quoi ces obligations pourraient réellement être efficaces dans la lutte contre le terrorisme.
  • ...4 more annotations...
  • Quand nous avons dit aux ministères que leur texte détruirait l’ensemble du Web décentralisé, ne laissant qu’une poignée de géants en maîtres, on nous a laissé comprendre que, oui, justement, c’était bien le but. Tranquillement, nos interlocuteurs nous ont expliqué que Google-Youtube et d’autres multinationales numériques avaient convaincu le gouvernement que la radicalisation terroriste était facilitée par les petites et moyennes plateformes, et qu’il fallait donc laisser la régulation du Web aux seuls géants prétendument capables de la gérer. Où sont les preuves de cette radicalisation plus facile en dehors de leurs plateformes ? Nulle part. Sans aucune honte, le gouvernement s’est même permis de sortir l’argument du secret défense, complètement hors sujet, pour masquer son manque de preuve et afficher son irrespect de toute idée de débat démocratique. C’est comme ça : Google l’a dit, ne discutez pas.
  • Macron se moque de détruire tout espoir d’une économie numérique européenne. Il veut simplement un texte sécuritaire qu’il pourra afficher au moment des élections européennes (ses « mid-terms » à lui), afin de draguer une partie de la population inquiète du terrorisme et qu’il s’imagine assez stupide pour tomber dans le panneau. Dans son arrogance délirante, il n’a même plus peur de renier ses électeurs pro-Europe ou pro-business, ni la population attachée aux libertés qui, pensant repousser l’extrême droite, l’aura élu.
  • Dans ce dossier, la menace terroriste est instrumentalisée pour transformer le Web en GAFAMinitel, pour acter la fusion de l’État et des géants du Net, et ainsi consacrer la surveillance généralisée et la censure automatisée de nos échanges en ligne. Tout ça pour quoi ? Pour lutter contre une auto-radicalisation fantasmée dont la preuve serait secret-défense (la bonne affaire !), et alors que les enquêtes sérieuses sur la question montrent que les terroristes ne se sont pas radicalisés sur Internet.
  • Le seul effet de ce texte sera de renforcer les multinationales du numériques et les dérives de l’économie de l’attention dont ils sont porteurs : la sur-diffusion de contenus anxiogènes, agressifs et caricaturaux capables de capter notre temps de cerveau disponible. L’urgence législative est de combattre ces dérives : de limiter l’économie de l’attention tout en favorisant le développement de modèles respectueux de nos libertés. C’est ce que nous proposons.
  •  
    "Il y a deux mois, la Commission européenne a publié sa proposition de règlement « censure antiterroriste ». Nous le dénoncions, expliquant que ce projet aura pour effet de détruire l'ensemble du Web décentralisé. Depuis, nous avons rencontré les ministères français en charge du dossier : nos craintes se sont amplifiées. La France, avec le soutien de l'Allemagne et du Parlement européen, va tout faire pour empêcher un débat démocratique sur ce texte : le gouvernement n'en parle pas dans la presse, veut forcer son adoption urgente et invoque le secret-défense pour empêcher tout débat factuel. Pourquoi tant de secret ? Probablement parce que ce texte, écrit en collaboration avec Google et Facebook, aura pour effet de soumettre l'ensemble du Web à ces derniers, à qui l'État abandonne tout son rôle de lutte contre les contenus terroristes. La collaboration annoncée lundi par Macron entre l'État et Facebook n'en est que le prémice, aussi sournois que révélateur."
Aurialie Jublin

Réguler Internet par la décentralisation - La Quadrature du Net - 0 views

  • Pour compenser cette « règle » qui rendrait la haine et le conflit rentables, le gouvernement veut renforcer les obligations imposées aux plateformes géantes qui en profitent : transparence et devoir de vigilance accrus. Pourquoi pas (cela peut être fait de façon plus ou moins pertinente, nous y reviendrons plus tard). Mais cette solution ne suffira jamais à contrer à elle seule les dérives permises par la « rentabilité du conflit ». Et il est illusoire d’imaginer, comme le fait le rapport cité ci-dessus, qu’on pourrait atténuer ce problème en mettant un juge derrière chaque diffamation ou injure prononcée sur Internet. Il y en a bien trop. Non, si on veut traiter le problème sérieusement, c’est l’ensemble de l’économie de l’attention qu’il faut remettre en question. Et cela doit passer par l’émergence d’alternatives saines qui reposent sur un autre modèle que celui des GAFAM.
  • En pratique, à La Quadrature du Net, nous avons songé à devenir un hébergeur de vidéos (en autorisant tout le monde à mettre en ligne des vidéos sur notre service de streaming Peertube). Ce serait une façon concrète de participer à la construction d’une alternative à Youtube, qui ne tirerait aucun profit des discours conflictuels ou de la surveillance de masse. Mais nous avons dû y renoncer. Nous n’avons pas du tout assez de juristes pour évaluer quelles vidéos seraient « manifestement illicites ». Nous n’avons pas les moyens de supporter des amendes en cas de plaintes. Youtube reste maître.
  • Si le gouvernement veut effectivement lutter contre la diffusion de « contenus haineux et extrêmes », il doit changer le droit pour favoriser le développement d’alternatives à l’économie de l’attention. Voici notre proposition. Premièrement, que les hébergeurs ne soient plus soumis aux mêmes obligations que les plateformes géantes, qui régulent les informations de façon active pour leurs intérêts économiques. Secondement, que les hébergeurs neutres, qui ne tirent aucun profit en mettant en avant de tel ou tel contenu, ne supportent plus la charge d’évaluer si un contenu est « manifestement illicite » et doit être censuré. Seul un juge doit pouvoir leur exiger de censurer un contenu.
  • ...2 more annotations...
  • Dans le cadre de la loi, chaque hébergeur applique ses propres règles de modération, plus ou moins stricte, et chaque personne choisit l’espace de discussion adapté à ses besoins et à ses envies. La liberté de ce choix est renforcée par le développement des standards de « réseaux sociaux décentralisés », notamment du standard ActivityPub publié en janvier 2018 par le World Wide Web Consortium (W3C, à l’origine des standards du Web) et déjà appliqué par Mastodon (alternative à Twitter) ou Peertube. Ces standards permettront à une infinité d’hébergeurs de communiquer entre eux, selon les règles de chacun. Ils permettront aussi à chaque personne de passer librement d’un hébergeur à un autre, d’un jeu de règles à un autre (ce que les plateformes géantes font tout pour empêcher aujourd’hui).
  • Si le gouvernement veut mieux réguler le Web, il doit le faire sérieusement. En se contentant d’alourdir les obligations des géants, son action restera superficielle. Pour agir en profondeur et sur le long terme, sa démarche doit aussi être constructive, favorisant le développement de modèles vertueux.
  •  
    "La directive droit d'auteur et les récents débats sur les « fausses informations » ont servi d'introduction au débat général sur la régulation du Web, tel qu'il s'annonce pour l'année à venir. Aujourd'hui, La Quadrature du Net présente ses propositions concrètes."
Aurialie Jublin

Welcome to the Age of Privacy Nihilism - The Atlantic - 0 views

  • But more importantly, the velocity of acquisition and correlation of information has increased dramatically. Web browsers and smartphones contribute to that, in volume and value.
  • The process of correlation has become more sophisticated, too.
  • The centralization of information has also increased. With billions of users globally, organizations like Facebook and Google have a lot more data to offer—and from which to benefit. Enterprise services have also decentralized, and more data has moved to the Cloud—which often just means into the hands of big tech firms like Microsoft, Google, and Amazon. Externalizing that data creates data-privacy risk. But then again, so does storing it locally, where it is susceptible to breaches like the one Equifax experienced last year.
  • ...1 more annotation...
  • The real difference between the old and the new ages of data-intelligence-driven consumer marketing, and the invasion of privacy they entail, is that lots of people are finally aware that it is taking place.
  •  
    "Google and Facebook are easy scapegoats, but companies have been collecting, selling, and reusing your personal data for decades, and now that the public has finally noticed, it's too late. The personal-data privacy war is long over, and you lost."
Cécile Christodoulou

La reconquête des données passera par les villes, par Evgeny Morozov (Les blo... - 0 views

  •  
    "faire des villes les fers de lance d'une démocratie radicale, désireuse de déployer les données mises en commun et l'intelligence artificielle dans l'intérêt des citoyens"
1 - 20 of 52 Next › Last »
Showing 20 items per page