Skip to main content

Home/ QN2019/ Group items matching "logiciel" in title, tags, annotations or url

Group items matching
in title, tags, annotations or url

Sort By: Relevance | Date Filter: All | Bookmarks | Topics Simple Middle
9More

Aucun algorithme, jamais, ne pourra défendre la démocratie - Libération - 0 views

  • Comment avons-nous pu nous retrouver au début du XXIe siècle dans une situation où Mark Zuckerberg – et quelques autres patrons de plateformes numériques – se fixent comme objectif récurrent de «protéger la démocratie», principalement à grands coups «d’algorithmes» et «d’intelligence artificielle» et affirment que cela sera une de leurs principales «missions» au sein de leur entreprise et à l’échelle du monde ?
  • En 2011, deux théoriciens de l’intelligence artificielle traitant des problèmes éthiques qu’allaient poser les algorithmes écrivaient que «les algorithmes de plus en plus complexes de prise de décision sont à la fois souhaitables et inévitables, tant qu’ils restent transparents à l’inspection, prévisibles pour ceux qu’ils gouvernent, et robustes contre toute manipulation» (Bostrom et Yudowski, «The Ethics of Artificial Intelligence»).
  • Aujourd’hui, «les algorithmes» dont nous parlons se déploient au sein d’architectures techniques toxiques englobant des millions ou des milliards d’utilisateurs. Aujourd’hui, «les algorithmes» dont nous parlons reposent sur des jeux de données propriétaires et donc totalement opaques. Aujourd’hui, «les algorithmes» dont nous parlons sont explicitement développés pour se doter d’un niveau d’autonomie (ou «d’apprentissage») qui rend leur «comportement» et leurs décisions souvent imprévisibles pour leurs créateurs eux-mêmes. Aujourd’hui, «les algorithmes» dont nous parlons interagissent en permanence avec d’autres algorithmes, d’autres jeux de données et d’autres architectures techniques toxiques ; et ils le font à des échelles toujours plus vastes et dans des environnements toujours plus contraints qui augmentent encore le niveau de risque et d’incertitude.
  • ...5 more annotations...
  • Pendant les dix dernières années, le combat principal d’activistes, de journalistes, de défenseurs des libertés numériques fut celui visant à limiter l’impact de l’empreinte algorithmique sur nos vies privées et intimes. Ce combat-là est terminé, obsolète et, pour l’essentiel, perdu. C’est un autre combat qu’il nous faut aujourd’hui mener, sur un tout autre front, avec une tout autre urgence et à une tout autre échelle. C’est le combat pour limiter l’impact de l’empreinte algorithmique décisionnelle sur notre vie publique, sur nos infrastructures sociales communes et sur notre destin collectif
  • Il est urgent et impératif que toute forme, ambition ou projet de gouvernance algorithmique, dès lors qu’il touche à des secteurs régaliens (transport, éducation, santé, justice, sécurité) soit, obligatoirement et par contrainte législative, développé sur le modèle des licences GNU GPL du logiciel libre pour garantir a minima l’auditabilité complète et pérenne des processus à l’œuvre.
  • Il est urgent et impératif que le développement d’un modèle universel de portabilité de l’ensemble de nos données (1) soit une priorité des Etats, et qu’il soit imposé à l’ensemble des acteurs du monde économique en lien avec la conservation ou le dépôt de données numériques, et ce quels qu’en soient la nature, le volume et l’usage.
  • Il est urgent et impératif que les entreprises qui captent aujourd’hui l’essentiel des données et des flux numériques (en gros les Gafam, Natu et autres Batx) soient taxées à la hauteur réelle de leur volume d’affaire et que cet impôt finance directement les actions précitées, ce processus de redistribution devant impérativement rester hors du contrôle desdites sociétés. Car le processus inverse a déjà commencé, celui dans lequel quelques entreprises omnipotentes s’arrogent le droit de défier la puissance publique et l’intérêt général dans la levée de l’impôt, comme Amazon et Starbucks en ont encore récemment fait la démonstration à Seattle.
  • L’enjeu est de savoir si nous serons capables à très court terme de construire une alternative qui, après le temps numérique de la «désintermédiation» des vingt dernières années, sera celle de formes de remédiations algorithmiques respectueuses du corps social et partant de sa partie la plus fragile, la plus pauvre, et la plus exposée. Alors peut-être, et alors seulement, les questions de gouvernance algorithmique pourront commencer d’être envisagées sereinement.
  •  
    "Nous avons perdu la bataille contre les algorithmes en ce qui concerne la vie privée. Il faut aujourd'hui se battre pour limiter leur impact sur nos vies publiques et notre destin collectif. "
7More

De l'imbrication algorithmique | InternetActu.net - 0 views

  • Pour la programmeuse et essayiste Ellen Ullman, le problème est que la programmation est de plus en plus éloignée de la compréhension humaine du fait de l’intrication des programmes, algorithmes et données. Les gens pensent souvent que les algorithmes peuvent être modifiés, mais le plus souvent, ils s’exécutent et évoluent par eux-mêmes (cf. notre dossier, réinventer la programmation). Leurs concepteurs ne les contrôlent pas vraiment et ce d’autant plus qu’ils font appellent à des bases de données, à des bibliothèques de programmes distants, à d’autres algorithmes qui évoluent également.
  • Mais désormais, les algorithmes désignent des systèmes logiciels de prise de décision complexes, avec un nombre de règles et de critères volumineux, souvent interreliés et interdépendants. Or, ils nous ont été toujours présentés comme des promesses d’objectivité, d’où le fait qu’ils se soient étendus à nombre de décisions de la vie courante : octroi de prêts, de prestations, de places… Pourtant, ces décisions ne sont pas sans biais, du fait de la manière même dont ces relations sont conçues par les ingénieurs.
  • Le problème, c’est que quand l’algorithme apprend, nous ne savons plus quels sont les règles et les paramètres qu’il utilise puisqu’il les transforme. Ces algorithmes-là ne sont plus prévisibles et peuvent se mettre à produire des résultats erratiques. Pour Smith ce sont des « algorithmes Frankenstein », des machines qui créent leurs propres règles, comme ceux qui dominent désormais les marchés financiers via les transactions à haute fréquence. Pour Neil Johnson, physicien de la complexité à l’université George Washington, Facebook peut ainsi avoir des algorithmes simples pour reconnaître un visage dans une photo… Mais que se passe-t-il quand des milliers d’algorithmes travaillent ensemble sur des milliards de profils ? « Vous ne pouvez pas prédire le comportement global appris à partir de règles microscopiques ».
  • ...3 more annotations...
  • Pour la mathématicienne Cathy O’Neil (@mathbabedotorg), dans l’environnement algorithmique complexe actuel, il est difficile de définir les responsabilités des différents segments de codes imbriqués les uns aux autres. Les Flash Crash, ces krachs financiers éclair, n’ont pas lieu que sur les marchés financiers. La tarification algorithmique d’Amazon s’emballe aussi parfois en faisant grimper le prix de livres à des hauteurs folles. Or, comprendre où se situe la responsabilité de ces emballements n’est pas si simple. « Comme dans la finance, le déni est intégré au système ».
  • Éviter les conflits de code sur des millions de lignes de code alimentés par des flux d’information constants est extrêmement difficile. Pour l’historien des sciences George Dyson, le problème est que nous construisons des systèmes qui vont au-delà de nos moyens intellectuels pour les contrôler. Or, nous pensons que si un système est déterministe (c’est-à-dire qu’il agit selon des règles fixes), alors il est prévisible et que s’il est prévisible alors il peut être contrôlé. Mais ces deux hypothèses sont fausses, estime Dyson. « La loi d’Ashby dit qu’un système de contrôle doit être aussi complexe que le système qu’il contrôle ». Mais cela se révèle difficile. Nous ne savons pas tester cette complexité de manière exhaustive.
  • Une étude sur les attaques par drones au Pakistan entre 2003 et 2013 a ainsi montré que 2 % des personnes tuées par drones étaient des cibles présentant une menace. 20 % étaient considérés comme des non-combattants… Et 75 % étaient des cibles… « non identifiés ». Pour elle, nous sommes face à une technologie d’identification très grossière. Dans ce contexte, la perspective du développement d’armes autonomes laisse plus que perplexe. Pour Lilly Irani (@gleemie) de l’université de Californie, les choix des concepteurs d’algorithmes nous sont trop souvent présentés comme objectifs quand ils cachent des enjeux politiques.
  •  
    "On se souvient de la mort d'Elaine Herzberg, première humaine tuée par une voiture autonome en mars 2018 (voir l'enquête qu'en dressait l'écrivain Thierry Crouzet). Pour le Guardian, le journaliste Andrew Smith (@wiresmith) revient sur les hésitations de l'algorithme de la voiture à reconnaître ce qu'il se passait."
16More

La directive Copyright n'est pas une défaite pour l'Internet Libre et Ouvert ... - 0 views

  • Trop souvent, nous avons concentré nos énergies sur des combats législatifs, hypnotisés par l’idée que le décompte des voix conduirait à une sorte « d’ordalie démocratique ». Cela nous a donné plusieurs fois l’illusion d’avoir remporté quelque chose, comme au moment du rejet de l’ACTA, alors que les racines du problème restaient intactes. Mais heureusement en sens inverse, si la victoire n’est jamais acquise en cas de succès législatif, il en est de même pour la défaite. Et rien ne serait plus faux que de penser que le vote de cette semaine sur la directive Copyright constitue la fin de l’histoire, sous prétexte que nous aurions encaissé là une défaite décisive !
  • Certes les articles 11 et 13 du texte, qui instaurent une obligation de filtrage automatisé des plateformes et une taxe sur les liens hypertextes au profit des éditeurs de presse, représentent des monstruosités contre lesquelles il était nécessaire de lutter. Mais il convient à présent d’apprécier exactement la portée de ces mesures, pour réadapter très rapidement notre stratégie en conséquence à partir d’une appréhension claire de la situation. Or cette « vision stratégique d’ensemble » est à mon sens précisément ce qui a manqué tout au long de cette campagne dans le camp des défenseurs des libertés numériques et il est inquiétant de constater que ces erreurs de jugement n’ont pas disparu maintenant que l’heure est venue d’analyser les conséquences du scrutin.
  • On a pu voir par exemple cette semaine l’eurodéputée du Parti Pirate Julia Reda expliquer sur son blog que ce vote constituait un « coup dur porté à l’internet libre et ouvert » (Today’s decision is a severe blow to the free and open internet). De son côté, Cory Doctorow a écrit un article sur le site de l’EFF, où il affirme que « l’Europe a perdu Internet » (Today, Europe lost the Internet). Sur Next INpact, Marc Rees déplore dans la même veine « une mise au pilori du Web tel que nous le connaissons, un affront à la liberté d’expression. » Ces appréciations font écho au mot d’ordre qui fut celui des défenseurs des libertés en campagne contre les articles 11 et 13 de la Directive : Save Your Internet (Sauvez votre Internet).
  • ...12 more annotations...
  • Or lorsqu’on lit attentivement ces articles, tels qu’amendés par le vote des eurodéputés, on se rend compte qu’ils ne visent pas pas « l’Internet » ou « le Web » tout entier, mais seulement une catégorie d’acteurs déterminés, à savoir les plateformes centralisées à but lucratif. Ce n’est donc pas « l’Internet libre et ouvert » qui va être frappé par cette directive, mais plutôt exactement ce qui représente son antithèse ! A savoir cette couche d’intermédiaires profondément toxiques qui ont dénaturé au fil du temps les principes sur lesquels Internet et le Web s’appuyaient à l’origine pour nous faire basculer dans la « plateformisation ».
  • Or le grand mensonge sur lesquels s’appuient les GAFAM – principaux responsables de cette centralisation -, c’est de chercher à faire croire qu’ils représentent à eux-seuls l’Internet tout entier, comme si rien ne pouvait plus exister en dehors de leur emprise. En ce sens quand j’entends Cory Doctorow dire que nous « avons perdu Internet » à cause de mesures ciblant les acteurs centralisés lucratifs, je ne peux que frémir. Avec tout le respect que je peux avoir pour ce grand monsieur, ses propos paraissent avoir incorporé la prétention des GAFAM à recouvrir le web et c’est particulièrement grave. Car c’est précisément cela qui constituerait la défaite finale des défenseurs des libertés : se résigner à cet état de fait et ne pas agir sur les marges dont nous disposons encore pour briser cette hégémonie.
  • Sur Next INpact, Marc Rees identifie avec raison le changement le plus profond que ce texte va amener : il remet en question la distinction classique entre hébergeurs et éditeurs, issue de la directive eCommerce de 2000. Jusqu’à présent, les hébergeurs bénéficiaient d’une responsabilité atténuée vis-à-vis des actes commis par leurs utilisateurs. Au lieu de cela, la directive Copyright introduit une nouvelle catégorie d’intermédiaires dits « actifs » qui devront assumer la responsabilité des contenus qu’ils diffusent, même s’ils ne sont pas directement à l’origine de leur mise en ligne.
  • On voit que le « rôle actif » se déduit de trois éléments : la taille de l’acteur, son but lucratif et la hiérarchisation automatisée de contenus. Ce sont donc bien des plateformes centralisées lucratives, type Facebook ou YouTube, qui devront assumer cette nouvelle responsabilité. Pour y échapper, elles devront conclure des accords de licence pour rémunérer les ayant droits et, à défaut, déployer un filtrage automatisé des contenus a priori. En pratique, elles seront certainement toujours obligées de mettre en place un filtrage, car il est quasiment impossible d’obtenir une licence capable de couvrir l’intégralité des œuvres pouvant être postées.
  • La directive a par ailleurs pris le soin de préciser que les « prestataires sans finalité commerciale, comme les encyclopédies en ligne de type Wikipedia » ainsi que les « plateformes de développement de logiciels Open Source » seraient exclus du champ d’application de l’article 13, ce qui donne des garanties contre d’éventuels dommages collatéraux.
  • Marc Rees nous explique que cette évolution est dangereuse, parce que l’équilibre fixé par la directive eCommerce constituerait le « socle fondamental du respect de la liberté d’expression » sur Internet. Mais cette vision me paraît relever d’une conception purement « formelle » de la liberté d’expression. Peut-on encore dire que ce qui se passe sur Facebook ou YouTube relève de l’exercice de la liberté d’expression, alors que ces acteurs soumettent leurs utilisateurs à l’emprise d’une gouvernance algorithmique de plus en plus insupportable, que cible précisément la notion de « rôle actif » ?
  • Il est peut-être temps de tirer réellement les conséquences de la célèbre maxime « Code Is Law » de Lawrence Lessig : le droit n’est qu’une sorte de voile dans l’environnement numérique, car c’est le soubassement technique sur lequel s’appuie les usages qui conditionne réellement l’exercice des libertés. Quoi que dise la directive eCommerce, il n’y a quasiment plus rien qui relève de l’exercice de la liberté d’expression sur les plateformes centralisées lucratives, sinon une grotesque parodie qui salit le nom même de la liberté et nous en fait peu à peu perdre jusqu’au sens ! En le lisant « en creux », l’article 13 dessine au contraire l’espace sur Internet où la liberté d’expression peut encore réellement s’exercer : le réseau des sites personnels, celui des hébergeurs ne jouant pas un rôle actif et – plus important encore – les nouveaux services s’appuyant sur une fédération de serveurs, comme Mastodon ou Peertube.
  • Ce qui va se passer à présent avec l’obligation de filtrage automatisée, c’est que les grandes plateformes centralisées lucratives, type YouTube ou Facebook, vont sans doute devenir des espaces où les utilisateurs éprouveront le poids d’une répression « à la chinoise » avec la nécessité de se soumettre à un contrôle algorithmique avant même de pouvoir poster leurs contenus. Le contraste n’en sera que plus fort avec les espaces restant en dehors du périmètre de l’article 13, que les créateurs et leur public seront d’autant plus incités à rejoindre. Doit-on réellement le déplorer ?
  • On retrouve ici le problème de « l’agnosticisme économique » dont j’ai déjà parlé sur ce blog à propos du fonctionnement même des licences libres. En refusant de discriminer selon les types d’usages économiques, les défenseurs du Libre se sont en réalité privés de la possibilité de développer une réelle doctrine économique. C’est ce même aveuglement aux questions économiques qui conduit à des aberrations de positionnement comme celles que l’on a vu au cours de cette campagne contre la directive Copyright. Comment mobiliser autour du mot d’ordre « Save Your Internet », alors que cet « Internet » que l’on a voulu faire passer pour « le notre » comprend en réalité les principaux représentants du capitalisme de surveillance ? C’est le sens même de nos luttes qui disparaît si nous ne nous donnons pas les moyens d’opérer des distinctions claires parmi les acteurs économiques.
  • En juin dernier, c’est-à-dire avant même le premier vote sur la directive, La Quadrature du Net a commencé à développer ce type d’analyses, en suggérant de ne pas s’opposer à l’introduction du critère du « rôle actif » des plateformes pour au contraire le retourner comme une arme dans la lutte contre la centralisation
  • L’enjeu n’est pas de chercher – sans doute vainement – à supprimer l’article 13, mais de réussir à délimiter clairement son périmètre pour s’assurer qu’il ne s’appliquera qu’à des acteurs centralisés lucratifs procédant à une hiérarchisation des contenus. Manœuvrer ainsi ferait peser sur les GAFAM une charge écrasante, tout en préservant un espace pour développer un réseau d’acteurs éthiques non-centralisés et inscrits dans une logique d’économie solidaire. Il n’y a qu’au sein d’une telle sphère que l’on puisse encore espérer œuvrer pour un « Internet Libre et Ouvert ».
  • Il faut aussi sortir de l’urgence immédiate imposée par cette série de votes pour se replacer dans le temps long. De toutes façons, quelle que soit l’issue des dernières négociations, il restera encore plusieurs années (3, 4, peut-être plus ?) avant que la directive ne soit transposée dans les pays de l’Union. C’est un délai appréciable qui nous laisse encore le temps de travailler au développement de cette sphère d’acteurs alternatifs.
  •  
    "Bien que la directive droit d'auteur soit le symptôme d'une soumission économique de nos industries aux géants du Web, elle crée néanmoins l'opportunité de remettre en cause ces géants, au profit de l'Internet décentralisé. C'est ce que nous rappelle Calimaq, membre de La Quadrature du Net, dans cette tribune - initialement publiée sur son blog."
4More

Les solutions de Tim Berners-Lee pour sauver le web - Le Temps - 0 views

  • Le scientifique a identifié trois problèmes principaux qui minent le web. D’abord, les appels à la haine, les trolls et les fausses informations qui se multiplient sur les réseaux. Ensuite, l’ensemble des actions de piratage, issues d’acteurs privés ou publics. Enfin, comme il l’écrit dans une tribune parue lundi soir, «une conception de système qui crée des incitations perverses dans lesquelles la valeur des utilisateurs est sacrifiée, comme des modèles de revenus basés sur la publicité qui récompensent commercialement les pièges à clics et la propagation virale de la désinformation».
  • A la tête de la Web Foundation, Tim Berners-Lee a présenté fin 2018 un «Contrat pour le web», sorte de charte des droits et devoirs des gouvernements, entreprises et particuliers. Mais pour le chercheur, qui n’appelle pas forcément à davantage de lois, ce document théorique ne suffit pas. Il faut agir sur les données. «Il y a la nécessité très forte, aujourd’hui, de séparer les applications des données, affirme-t-il. Ces programmes peuvent accéder et traiter vos photos, vos informations, vos contacts, etc., il n’y a pas de problème à cela. Mais vous devez avoir un contrôle permanent et total sur vos informations. C’est vous qui devez autoriser tel ou tel service à y accéder.»
  • Tim Berners-Lee a pour ce faire lancé sa propre entreprise, Inrupt, qui collabore avec le Massachusetts Institute of Technology (MIT). Le physicien développe actuellement le projet Solid, qui vise à stocker les données personnelles des internautes dans des serveurs cloud ou physiquement chez soi. Le particulier décide ensuite quel service (LinkedIn, Facebook, Flickr, etc.) a accès à quelles données. «Le concept est simple, mais il s’agit d’un renversement total par rapport à la logique actuelle, avance Tim Berners-Lee. Nous créons des logiciels en open source pour Solid et nous appelons tous les développeurs intéressés à nous rejoindre.» Le physicien n’avance pas de date pour le lancement de Solid, qui vise selon lui à revenir au web originel, lorsque beaucoup de personnes connectées avaient leur propre site web.
  •  
    "Trente ans après l'invention du web, son créateur Tim Berners-Lee s'inquiète des dérives du réseau. De passage mardi au CERN, à Genève, il a présenté plusieurs pistes pour réparer un système qui a changé le monde"
5More

Windows 10 : plongée en eaux troubles - Framablog - 0 views

  • Les versions normales de Windows ont seulement trois niveaux différents de télémétrie. Le BSI a trouvé qu’entre la version Basic et la version Full on passe de 503 à 534 procédés de surveillance. La seule véritable réduction de télémétrie vient des versions Entreprise de Windows qui peuvent utiliser un réglage supplémentaire de « sécurité » pour leur télémétrie qui réduit le nombre de traqueurs actifs à 13.
  • Voici quelques faits intéressants issus de ce document : • Windows envoie vos données vers les serveurs Microsoft toutes les 30 minutes ; • La taille des données enregistrées équivaut à 12 à 16 Ko par heure sur un ordinateur inactif (ce qui, pour donner une idée, représente chaque jour à peu près le volume de données d’un petit roman comme Le Vieil homme et la mer d’Hemingway) ; • Il envoie des informations à sept endroits différents, y compris l’Irlande, le Wyoming et la petite ville de Boston en Virginie.
  • Logiquement l’étape suivante consiste à découvrir ce qui figure dans ces 300 Ko de données quotidiennes. J’aimerais aussi savoir à quel point l’utilisation de Windows Media Player, Edge et les autres applications intégrées influe sur l’empreinte laissée par les données, ainsi que le nombre d’éléments actifs d’enregistrement.
  • ...1 more annotation...
  • Au sein des communautés dédiées à l’administration des systèmes ou à la vie privée, la télémétrie Windows est l’objet de nombreuses discussions et il existe plusieurs guides sur les méthodes qui permettent de la désactiver complètement.
  •  
    "Vous avez sans doute remarqué que lorsque les médias grand public évoquent les entreprises dominantes du numérique on entend « les GAFA » et on a tendance à oublier le M de Microsoft. Et pourtant…On sait depuis longtemps à quel point Microsoft piste ses utilisateurs, mais des mesures précises faisaient défaut. Le bref article que Framalang vous propose évoque les données d'une analyse approfondie de tout ce que Windows 10 envoie vers ses serveurs pratiquement à l'insu de ses utilisateurs… Article original : 534 Ways that Windows 10 Tracks You - From German Cyber Intelligence Traduction Framalang : Khrys, goofy, draenog, Sphinx"
6More

[Fake] Internet serait-il devenu complètement fake? - Digital Society Forum - 0 views

  • Sur Internet, moins de 60% du trafic serait humain, explique l’auteur. Le reste des Internautes seraient des bots, des logiciels opérant de manière autonome sur le réseau. Au point de brouiller la frontière entre Internautes humains et non-humains. En 2013, la moitié des usagers de Youtube étaient ainsi des bots se faisant passer pour des êtres humains, ce qui avait fait craindre aux employés de la multinationale l’avènement d’une ère où les systèmes de détection du trafic frauduleux jugeraient réelle l’activité des bots, et fausse celle des êtres humains.
  • Au cours des deux dernières années, Facebook aurait également publié des chiffres erronés sur le renvoi du trafic depuis Facebook vers des sites externes, la portée des publications, ou encore le nombre de “vues” des vidéos postées sur la plateforme. Ce qui interroge, là encore, sur la notion de “réel” sur Internet.
  • “Tout ce qui semblait auparavant incontestablement réel semble maintenant légèrement faux; tout ce qui semblait auparavant légèrement faux a maintenant le pouvoir et la présence du réel”, déplore l’auteur. Et de multiplier les exemples: entre les vidéos complotistes pullulant sur Youtube, les trolls russes se faisant passer pour des soutiens de Donald Trump sur Facebook et le “deepfake”, une technique de synthèse permettant de falsifier le visage ou la voix d’une personne sur une vidéo grâce à l’intelligence artificielle, l’auteur s’inquiète de l’effondrement de toute distinction claire entre le réel et l’irréel sur Internet.
  • ...2 more annotations...
  • L’exemple de Lil Miquela , une “influenceuse” suivie par plus d’un million et demi de personnes sur Instagram, est à ce titre particulièrement révélateur. Partageant régulièrement ses états d’âme, ses séances de shopping et ses sorties entre amis sur le réseau social entre deux selfies, ce mannequin américano-brésilien est en réalité un avatar, créé grâce à l’imagerie de synthèse par une start-up californienne spécialisée en intelligence artificielle et en robotique. Un faux mannequin, donc, mais une influence bien réelle: là aussi, avertit l’auteur, la frontière entre le vrai et le faux s’émousse.
  • “Ce qui a vraiment disparu d’internet, ce n’est pas la réalité, c’est la confiance : le sentiment que les personnes et les choses que l’on y rencontre sont ce qu’elles prétendent être,” conclut l’auteur. Remédier à cet état de fait nécessite selon lui une réforme du modèle économique d’Internet qui a permis au mensonge, à la déformation et à la falsification de devenir lucratifs. Sans une telle réforme, estime-t-il, Internet risque de devenir une usine à “fakes”, et les revenus publicitaires qu’ils génèrent la seule réalité.
  •  
    "Une chronique du New York Magazine alerte sur l'abondance de contenus faux sur Internet. Selon son auteur, les manipulations de données et de faits y auraient atteint un seuil critique, au point de compromettre notre capacité à distinguer le réel de l'irréel."
10More

« La small tech sera le poison de la Silicon Valley » - Usbek&Rica - 0 views

  • Votre existence numérique est une extension de vous-même, de votre esprit. Et c’est quelque chose de précieux car, si j'ai des informations sur vous, je peux les utiliser pour manipuler votre comportement. Écoutez les mots que j’utilise : je regarde ce que vous faites, j’en fais la liste, j’essaie de comprendre votre psychologie et de vous manipuler pour que vous fassiez ce que je veux. C’est horrible, c’est de l’abus, non ? C’est une relation de pouvoir. Pourtant, c’est ce que font Google et Facebook, que vous utilisez quotidiennement.
  • Quand Tim Berners Lee l’a imaginé, il l’a voulu en Read-Write (lecture-écriture), c’est-à-dire que vous pouviez écrire sur le web, et pas simplement lire. Mais ce qui est arrivé, c'est le capitalisme : les États-Unis ont perçu le potentiel du Web non pas en tant que média en lecture-écriture, mais en tant que média de diffusion. Et le capital-risque est entré dans la partie. Si vous avez un système basé sur des nœuds (nodes) avec des privilèges inégaux, que vous ajoutez du capital-risque, ces nœuds grandissent et deviennent les monopoles que sont Google et Facebook.
  • La conception du web n’a jamais été décentralisée, seule sa philosophie l’était. Nous savons maintenant qu’une centralisation du pouvoir est insoutenable, que ça détruit littéralement notre habitat. La technologie joue le rôle d'amplificateur : peut-être que toutes ces inégalités existaient avant, mais nous n’avions pas la technologie pour « détruire » le monde. Enfin pas le monde, pardon, plutôt notre habitat : la bactérie va survivre quoi qu'il arrive.
  • ...6 more annotations...
  • Deux choses : nous devons d’abord réglementer les abus du capitalisme de surveillance auxquels se livrent Google et Facebook, puis nous devons financer des alternatives. Nous ne pouvons pas attendre des alternatives qu’elles poussent sur des arbres : ça n’arrivera pas.
  • Il faut se demander quels sont les aspects du problème que vous pouvez changer. J’ai retiré Google de ma vie très facilement : vous n’avez pas besoin d’utiliser Gmail, vous pouvez utiliser Fastmail, qui ne vend pas vos informations personnelles. Et les gens peuvent toujours vous envoyer un email. Framasoft est un bel exemple d’organisation qui œuvre pour la bonne cause : protéger l’être humain et sa dignité à l’ère numérique. C’est une organisation fantastique mais, comparé à Google, ils ne sont qu'une poignée de personnes. Framasoft n'est financé par personne. Le réseau social décentralisé Mastodon est un autre exemple qui va dans ce sens. Et pourtant, le système de taxe de la Commission Européenne bénéficie à des start-up qui construisent la même technologie de surveillance que Google. Mais nous ne finançons pas Mastodon, ni Framasoft, ni Indie, notre minuscule organisme à but non lucratif. Nous n’obtenons aucun fonds de qui que ce soit, si ce n’est parfois de particuliers.
  • Si nous voulons une alternative, nous devons la financer alternativement. Elle ne pourra pas être financée par le capital-risque made in Silicon Valley. Ils ont financé les Google et les Facebook, et ils vont financer le prochain Google et le prochain Facebook, car ils chassent des licornes, des entreprises valant des milliards de dollars.
  • Le Danemark, par exemple, a été le premier pays au monde à nommer un ambassadeur auprès de ses entreprises, un ambassadeur pour la Silicon Valley. C’est la chose la plus absurde qui puisse être faite. Le seul pouvoir que le gouvernement danois a sur ces entreprises, c’est la démocratie. Via son mandat, le gouvernement danois devrait protéger les personnes de Facebook. Au lieu de cela, il élève les entreprises au même niveau que lui. Alors oui, un dispositif comme celui du Grand Barouf a du potentiel.
  • La plupart du temps, lorsque les gens parlent de « décentralisation » du pouvoir, ils disent que la solution, c'est la blockchain. Mais vous avez dit que « la blockchain est un fantasme de masturbation libertaire » : qu’est-ce que vous avez voulu dire par là ? Voilà un bon guide : si vous voyez dans la Silicon Valley des investisseurs en capital-risque investir dans quelque chose, ce n’est pas pour la justice sociale, ce n’est pas pour améliorer les choses. C’est pour enrichir un petit groupe d’hommes riches. Pourquoi parle-t-on aujourd’hui à ce point de la blockchain ? À cause du Bitcoin et des crypto-monnaies, à cause de la possibilité pour certaines personnes de gagner des millions ou des milliards avec ça... Les personnes qui veulent généralement un système totalement digne de confiance sont de vrais libertaires, ils ne veulent pas de justice sociale, ils veulent être ceux qui détiennent les rouages du système.
  • Ce projet, que vous appelez Hypha ou Peer-Web, est-ce une nouvelle version du Web ? Comment cela fonctionne-t-il ? Déjà, la différence avec la blockchain, c’est que nous n’essayons pas d’avoir des milliards de copies de la même base de données, mais de donner à un milliard de personnes leurs propres bases de données, toutes séparées, toutes différentes, à notre image. Avec Hypha, nous faisons une chose simple : nous vous donnons un espace que vous possédez et contrôlez. Vous pouvez ensuite définir ce qui est public de ce qui est privé. Vous avez ce choix initial car vous partez d’un espace que vous possédez.
  •  
    "À l'heure où Facebook essaie de se dépêtrer de ses affaires de chiffrement et où Google se prend les pieds dans un bug qui a rendu publique la vie privée des utilisateurs d'Android TV, l'activiste Aral Balkan revient sur les origines de ce qu'il appelle « le capitalisme de surveillance », en amont de sa venue à Lille le 21 mars à l'occasion du Grand Barouf Numérique."
12More

TRIBUNE. Comment la France s'est vendue aux Gafam - Le Point - 0 views

  • L'histoire du déclin du numérique français est une tragédie en trois actes. Il y eut d'abord les «  30 honteuses du numérique  », où une petite élite arrogante et dénuée de vision stratégique a démantelé notre industrie informatique et électronique grand public. Elle a débranché les travaux de recherches les plus intéressants et laissé nos meilleurs développeurs partir à l'étranger faute de pouvoir les associer à des projets ambitieux. Vient ensuite la capitulation vis-à-vis des grands acteurs américains. Ainsi, de nombreux politiques et hauts fonctionnaires français leur ont permis d'intégrer leurs technologies au cœur des prérogatives régaliennes de l'État : défense, renseignement, éducation, sécurité, mais aussi culture. Plusieurs d'entre eux quitteront leurs fonctions pour aller rejoindre ces sociétés. Le troisième acte se joue en ce moment. Alors que nos dirigeants se préparent à une vente à la découpe, il reste cependant un mince espoir d'inventer une autre manière d'utiliser le réseau plus en phase avec nos principes et nos valeurs. Mais pouvons-nous encore changer la doctrine des politiques numériques de la France  ? Quand on écoute nos hommes politiques, le déclassement de l'Europe vis-à-vis de l'Internet est présenté comme une fatalité. Un accident de l'Histoire à l'issue duquel les clés du monde de demain auraient été données aux États-Unis et à la Chine.
  • Nous aurions pu avoir un autre destin, car si les États-Unis avaient la vision et l'argent, c'est en Europe qu'ont été inventées deux des briques fondamentales de l'Internet : Linux et le Web. Mais à la différence du standard GSM, ces dernières ont eu le malheur d'être conçues par des individus talentueux hors des grandes institutions. Snobés chez nous, ces deux projets deviendront le moteur des plateformes numériques américaines et chinoises et l'instrument de leur domination mondiale.
  • Tout commence dans les années 70, avec l'abandon du réseau Cyclades de Louis Pouzin au profit du Minitel. Louis Pouzin en est le concepteur et il est l'inventeur de la segmentation des données en «  Datagramme  ». Il sera récompensé (avec Tim Berners-Lee et Vinton Cerf) par la reine d'Angleterre pour ses contributions essentielles à la création de l'Internet et il reste à ce jour un inconnu du grand public en France. Il faudra attendre 1994 pour que nos chercheurs acceptent enfin de s'intéresser à autre chose qu'à des technologies incompatibles avec l'Internet.
  • ...8 more annotations...
  • Quasiment au même moment, Alcatel décide de transférer ses usines vers la Chine. Son PDG veut appliquer la stratégie du «  fabless  », à savoir délocaliser la production tout en conservant le design en France. Ce sera une grossière erreur d'analyse. Lorsque les smartphones deviennent un succès international, la France n'a plus de capacités industrielles dans ce secteur, alors qu'elle était l'un des principaux fabricants dans le monde.
  • Alors que la Silicon Valley parie sur les talents et les start-up, la France préfère s'embourber dans des grands projets institutionnels sans avenir. Mais ces projets permettent aux politiques de faire des annonces et aux industriels déjà établis de bénéficier de la manne de l'argent public. Ainsi, le projet Quaero, qui visait à créer un «  Google Européen  », a été lancé par Jacques Chirac. Il terminera rapidement dans les oubliettes technologiques. Plus récemment, le Cloud souverain, qui se targuait d'être la réponse française à Amazon et Microsoft, sera abandonné en rase campagne puis revendu (et sans ironie aucune)… au chinois Huawei. Au final, beaucoup d'argent aura été dépensé soit pour concurrencer l'Internet lui-même soit pour contourner les start-up qui voulaient développer des solutions alternatives aux Gafam. C'est une génération entière d'entrepreneurs et de chercheurs que l'on a écartés pour redéfinir la politique industrielle du secteur. Tout récemment, le rapport sur l'intelligence artificielle de Cédric Villani n'a pas fait mention des deux meilleures solutions open sources dans le domaine : SciKit Learn et Keras qui se trouvent être… françaises.
  • L'acte deux commence avec le quinquennat Hollande. Un changement d'attitude va s'opérer vis-à-vis des grandes plateformes. La défaite est désormais entérinée en coulisses. Il ne s'agit plus d'exister au niveau mondial, mais de négocier avec les Gafam tout en faisant mine de s'indigner publiquement de leurs abus de position dominante.
  • Microsoft est devenue le partenaire de l'Éducation nationale, et Google le parrain de la Grande École du Numérique. La société de Big Data Palantir, proche des services secrets américains, a conclu un contrat avec la DGSI (et peut-être la DGSE  ?), et elle est également présente chez Airbus. Enfin, à l'échelon des collectivités territoriales, les régions vont s'appuyer sur Facebook pour «  la formation au numérique  ».Comment, dans ces conditions, se plaindre des conséquences des réseaux sociaux et de l'impact des Gafam sur notre démocratie quand nous leur avons ouvert si largement les portes de l'État  ?
  • En effet, ce gouvernement prend un risque inconsidéré en pariant notre avenir sur une hypothétique transformation numérique autour de «  l'intelligence artificielle  ». Si nous ne nous donnons pas les moyens de réguler la manière dont ses entreprises et ce type de technologies fonctionnent, nous pourrions détruire notre modèle social en tentant de copier ceux de la Chine ou des États-Unis. L'ironie du sort veut que, désormais, certains industriels et chercheurs américains s'appuient sur l'Europe et sa réglementation sur les données personnelles pour sortir d'un modèle numérique qui n'est pas «  durable  ». Aux États-Unis, le ministère de la Santé a ainsi lancé une grande étude sur l'impact des écrans et le Sénat a analysé, dans un rapport très détaillé, les manipulations des réseaux sociaux qui ont eu lieu lors de la dernière campagne présidentielle.
  • Il existe pourtant un scénario de sortie de crise. En effet, la meilleure réponse à la crise de confiance systémique vis-à-vis des Gafam est de soutenir les mouvements autour des technologies «  éthiques  ». Il s'agit d'un nouveau terrain de croissance industrielle pour l'Europe, comme le Bio l'a été pour l'agriculture. De nombreux entrepreneurs réfléchissent à d'autres façons de concevoir la technologie, s'appuyant beaucoup moins sur la donnée et créant moins d'intrusions vis-à-vis de leurs utilisateurs. C'est le mouvement autour des logiciels éthiques et du Slow Web. Ce mouvement, qui s'est réuni en septembre dernier à Copenhague, souhaite définir un meilleur équilibre entre usage numérique et monde réel pour ne pas rendre ces technologies aliénantes. Il prône notamment l'arrêt de certaines pratiques toxiques comme le profilage (micro targeting) ou la manipulation de nos émotions via des messages ciblés sur nos mobiles dont nous avons vu les conséquences désastreuses lors du référendum sur le Brexit ou l'élection américaine.
  • Nous devons désormais exiger que les choix technologiques faits par l'État (comme les décisions politiques dans ces domaines) soient lisibles et compréhensibles par l'ensemble des citoyens… Car s'il s'agit de faire de la France une colonie numérique des plateformes et qui ne profiterait qu'à une petite bourgeoisie d'Internet, alors il faudra le dire clairement  
  • Il est temps également de voir émerger une nouvelle forme de résistance citoyenne. Car l'usage de ces technologies n'est pas neutre, la substitution de l'action de l'État par des algorithmes rend caduque l'égalité de traitement entre chaque Français. Le remplacement de nos services publics par un «  État plateforme  » totalitaire (à l'instar du «  Crédit social  » qui voit chaque Chinois recevoir une note qui détermine leur capacité à se déplacer ou à obtenir un crédit) n'est pas la vision que nous souhaitons promouvoir. C'est pourtant ce qui se prépare dans certains cabinets ministériels lorsqu'il est question d'État plateforme…
  •  
    "Pour le pionnier du Web français Tariq Krim, l'histoire du déclin du numérique français est une tragédie en 3 actes. Il existe pourtant une sortie de crise."
5More

Tout ce que dit Mark Zuckerberg sur Facebook dans sa tribune est vrai* - Numerama - 0 views

  • Dans ces lignes, tout est effectivement vrai : Le « produit Facebook » n’est pas son business model (Facebook est un service pour mettre en relation les particuliers entre eux et les particuliers avec des professionnels). Facebook ne vend pas vos données à des tiers (ce serait céder son trésor de guerre qui, du coup perdrait énormément de valeur). Facebook n’a pas d’intérêt à favoriser des contenus « appât à clic » sur sa plateforme (il n’est pas apprécié par ses utilisateurs et n’a qu’une durée de vie à court terme qui n’est pas rémunératrice) Facebook n’a pas intérêt à garder les contenus de haine sur sa plateforme (il n’est pas rémunéré, car les marques qui font de la pub ne s’y associent pas). Humains et algorithmes ont une tâche encore jamais vue dans l’histoire, pour modérer une quantité de données colossale et font encore des erreurs même s’ils cherchent à faire de leur mieux.
  • Par exemple, quand il est question de vendre des données pour la publicité, il est évident que Facebook ne les vend pas : il n’a aucun intérêt, en tant qu’entreprise, à faire sortir ce précieux trésor de son enclave. Si Facebook vendait vos données à une marque, pourquoi paierait-elle Facebook la fois d’après, pour vendre ses produits ? Et pourtant, une fois cette tournure exclue, on se rappelle que Facebook vend un droit d’utilisation de ces profils publicitaires ciblés. Ce qui, pour l’utilisateur, est exactement la même chose en termes d’expérience : il va être pressé par la publicité ciblée.
  • Oui, des données collectées par Facebook ont été sorties illégalement et utilisées illégalement — c’est toute l’affaire Cambridge Analytica. Oui, tout logiciel, même sur le web, contient des bugs, des failles de sécurité ou des problèmes de fonctionnement qui peuvent entraîner une perte de données — Facebook, comme Google, n’est pas épargné. La question est donc plutôt à reposer en ces termes : de quelles données a-t-on vraiment besoin pour faire tourner un business  ? Peut-on prendre le risque de collecter autant d’information, parce que l’on peut ? Et si Mark Zuckerberg semble croire que ce profilage permet un meilleur ciblage et une plus grande satisfaction des internautes, l’esprit du privacy by design qui semble prendre de l’ampleur dans le web dit tout au contraire qu’il n’y a aucun intérêt, ni économique ni pratique, à s’embarrasser de données inutiles.
  • ...1 more annotation...
  • La tribune de Mark Zuckerberg n’est donc pas fausse, mais elle parle d’un Facebook dans un best case scenario. Alors oui, si tout se passait bien, Facebook serait utilisé pour rapprocher les gens et se rémunérerait avec de la publicité tout juste ciblée qui rendrait tout le monde plus heureux. Mais les affaires à répétition, mises en évidence depuis que la presse s’intéresse sérieusement aux acteurs du web, montrent que ce scénario idéal n’existe pas. S’il veut grandir et être une meilleure version de lui-même pour ses 25 ans, au lieu de répéter qu’il n’est pas dangereux par essence, Facebook devrait au contraire mettre les deux pieds dans le plat et affronter son pire cauchemar : qu’est-ce qu’il se passe si tout va mal ?
  •  
    "*mais c'est ce qu'il ne dit pas qui nous intéresse. Pour la nouvelle année, Facebook a lancé en Europe et aux États-Unis un plan de communication articulée autour d'une tribune de son CEO, Mark Zuckerberg. En France, c'est le quotidien Le Monde qui a eu la primeur sur la parole du fondateur du réseau social - et a réservé la tribune à ses abonnés, comme d'autres médias. Une version gratuite en anglais est disponible à cette adresse pour qui souhaiterait se confronter directement à la prose de M. Zuckerberg."
4More

Pour l'interopérabilité des géants du Web : lettre commune de 56 organisation... - 0 views

  • Nous, défenseurs d’un Internet neutre, libre et ouvert, appelons le législateur à agir pour que les grandes plateformes deviennent interopérables avec les autres services Internet. L’interopérabilité garantit à tout le monde de ne pas se trouver captif d’une plateforme : de pouvoir librement la quitter, sans perdre ses liens sociaux, et de continuer à communiquer avec ses contacts. L’interopérabilité permet à quiconque de lire depuis un service A les contenus diffusés par ses contacts sur un service B, et d’y répondre comme s’il y était. L’interopérabilité est garantie lorsqu’elle repose sur des standards ouverts.
  • Des services comme Facebook, Twitter et Youtube tiennent leur pouvoir du nombre élevé d’utilisateurs et d’utilisatrices qu’ils ont rendu captives : ce grand nombre incite d’autres personnes à rejoindre leur service, et leur captivité permet de leur imposer une surveillance constante à des fins publicitaires. Aujourd’hui, nombreux sont celles et ceux qui souhaiteraient y échapper mais sont contraints d’y rester sous peine de perdre le contact avec leurs relations. Pourtant, en dehors de ces plateformes, des services interopérables réunissent déjà des millions de personnes (Mastodon, Diaspora, PeerTube…), notamment via le protocole d’interopérabilité ActivityPub publié par le W3C en 2018. Ces réseaux décentralisés, basés sur des logiciels libres, sont co-hébergés par une multitude d’acteurs distribuant largement les coûts entre eux, ce qui contribue à l’émergence de modèles économiques bien plus respectueux des libertés que celui de la publicité ciblée.
  • Migrer vers ces services permettrait aussi d’échapper à l’environnement toxique entretenu sur Facebook, Youtube ou Twitter. Ces géants favorisent la diffusion des contenus qui maintiennent au mieux notre attention, souvent les plus anxiogènes ou caricaturaux. À l’opposé de la voie prise par les récentes lois de censure, il ne faut pas espérer que ces plateformes freinent la diffusion de propos haineux, trompeurs ou dangereux, car leur modèle économique, au contraire, renforce cette diffusion. Il est urgent de permettre à toute personne d’échapper à la surveillance et à la toxicité de ces grandes plateformes en rejoignant des services libres, décentralisés et à taille humaine sans conséquences nocives sur ses liens sociaux. La loi doit imposer cette interopérabilité.
  •  
    "La Quadrature du Net, avec 56 organisations de défense des libertés, organisations professionnelles, hébergeurs et FAI associatifs, demandent au gouvernement et au législateur d'agir pour que les grandes plateformes (Facebook, Youtube, Twitter…) deviennent interopérables avec les autres services Internet."
« First ‹ Previous 41 - 50 of 50
Showing 20 items per page