Skip to main content

Home/ QN2019/ Group items tagged web

Rss Feed Group items tagged

Aurialie Jublin

"I Was Devastated": Tim Berners-Lee, the Man Who Created the World Wide Web, Has Some R... - 2 views

  • Initially, Berners-Lee’s innovation was intended to help scientists share data across a then obscure platform called the Internet, a version of which the U.S. government had been using since the 1960s. But owing to his decision to release the source code for free—to make the Web an open and democratic platform for all—his brainchild quickly took on a life of its own.
  • He also envisioned that his invention could, in the wrong hands, become a destroyer of worlds, as Robert Oppenheimer once infamously observed of his own creation. His prophecy came to life, most recently, when revelations emerged that Russian hackers interfered with the 2016 presidential election, or when Facebook admitted it exposed data on more than 80 million users to a political research firm, Cambridge Analytica, which worked for Donald Trump’s campaign. This episode was the latest in an increasingly chilling narrative. In 2012, Facebook conducted secret psychological experiments on nearly 700,000 users. Both Google and Amazon have filed patent applications for devices designed to listen for mood shifts and emotions in the human voice.
  • This agony, however, has had a profound effect on Berners-Lee. He is now embarking on a third act—determined to fight back through both his celebrity status and, notably, his skill as a coder. In particular, Berners-Lee has, for some time, been working on a new platform, Solid, to reclaim the Web from corporations and return it to its democratic roots.
  • ...10 more annotations...
  • What made the Web powerful, and ultimately dominant, however, would also one day prove to be its greatest vulnerability: Berners-Lee gave it away for free; anyone with a computer and an Internet connection could not only access it but also build off it. Berners-Lee understood that the Web needed to be unfettered by patents, fees, royalties, or any other controls in order to thrive. This way, millions of innovators could design their own products to take advantage of it.
  • “Tim and Vint made the system so that there could be many players that didn’t have an advantage over each other.” Berners-Lee, too, remembers the quixotism of the era. “The spirit there was very decentralized. The individual was incredibly empowered. It was all based on there being no central authority that you had to go to to ask permission,” he said. “That feeling of individual control, that empowerment, is something we’ve lost.”
  • The power of the Web wasn’t taken or stolen. We, collectively, by the billions, gave it away with every signed user agreement and intimate moment shared with technology. Facebook, Google, and Amazon now monopolize almost everything that happens online, from what we buy to the news we read to who we like. Along with a handful of powerful government agencies, they are able to monitor, manipulate, and spy in once unimaginable ways.
  • The idea is simple: re-decentralize the Web. Working with a small team of developers, he spends most of his time now on Solid, a platform designed to give individuals, rather than corporations, control of their own data. “There are people working in the lab trying to imagine how the Web could be different. How society on the Web could look different. What could happen if we give people privacy and we give people control of their data,” Berners-Lee told me. “We are building a whole eco-system.”
  • For now, the Solid technology is still new and not ready for the masses. But the vision, if it works, could radically change the existing power dynamics of the Web. The system aims to give users a platform by which they can control access to the data and content they generate on the Web. This way, users can choose how that data gets used rather than, say, Facebook and Google doing with it as they please. Solid’s code and technology is open to all—anyone with access to the Internet can come into its chat room and start coding.
  • It’s still the early days for Solid, but Berners-Lee is moving fast. Those who work closely with him say he has thrown himself into the project with the same vigor and determination he employed upon the Web’s inception. Popular sentiment also appears to facilitate his time frame. In India, a group of activists successfully blocked Facebook from implementing a new service that would have effectively controlled access to the Web for huge swaths of the country’s population. In Germany, one young coder built a decentralized version of Twitter called Mastodon. In France, another group created Peertube as a decentralized alternative to YouTube.
  • Berners-Lee is not the leader of this revolution—by definition, the decentralized Web shouldn’t have one—but he is a powerful weapon in the fight. And he fully recognizes that re-decentralizing the Web is going to be a lot harder than inventing it was in the first place.
  • But laws written now don’t anticipate future technologies. Nor do lawmakers—many badgered by corporate lobbyists—always choose to protect individual rights. In December, lobbyists for telecom companies pushed the Federal Communications Commission to roll back net-neutrality rules, which protect equal access to the Internet. In January, the U.S. Senate voted to advance a bill that would allow the National Security Agency to continue its mass online-surveillance program. Google’s lobbyists are now working to modify rules on how companies can gather and store biometric data, such as fingerprints, iris scans, and facial-recognition images.
  • It’s hard to believe that anyone—even Zuckerberg—wants the 1984 version. He didn’t found Facebook to manipulate elections; Jack Dorsey and the other Twitter founders didn’t intend to give Donald Trump a digital bullhorn. And this is what makes Berners-Lee believe that this battle over our digital future can be won.
  • When asked what ordinary people can do, Berners-Lee replied, “You don’t have to have any coding skills. You just have to have a heart to decide enough is enough. Get out your Magic Marker and your signboard and your broomstick. And go out on the streets.” In other words, it’s time to rise against the machines.
  •  
    "We demonstrated that the Web had failed instead of served humanity, as it was supposed to have done, and failed in many places," he told me. The increasing centralization of the Web, he says, has "ended up producing-with no deliberate action of the people who designed the platform-a large-scale emergent phenomenon which is anti-human." "While the problems facing the web are complex and large, I think we should see them as bugs: problems with existing code and software systems that have been created by people-and can be fixed by people." Tim Berners-Lee
  •  
    "Berners-Lee has seen his creation debased by everything from fake news to mass surveillance. But he's got a plan to fix it."
Aurialie Jublin

FR - A Contract for the Web - 0 views

  • Les gouvernements s'engagent à  :S'assurer que tout le monde peut se connecter à InternetAinsi, n'importe qui, peu importe son identité ou son lieu de résidence, peut participer activement en ligne.Maintenir la disponibilité constante d'InternetAfin que personne ne soit privé de son droit à un accès complet à Internet.Respecter le droit fondamental des personnes à la vie privéeAinsi, tout le monde peut utiliser Internet librement, en toute sécurité et sans crainte.
  • Les entreprises s'engagent à :Rendre Internet abordable et accessible à tousPour que personne ne soit exclu de l’utilisation et de du futur  du Web.Respecter la vie privée et les données personnelles des consommateursAfin que les gens gardent le contrôle de leur privacité et vie en ligne.Développer des technologies qui supportent le meilleur de l'humanité et défient le pireAfin que le Web soit réellement un bien public qui donne la priorité aux gens.
  • Les citoyens s'engagent à :Être des créateurs et des collaborateurs sur le WebPour que le Web présente un contenu riche et pertinent pour tout le monde.Construire des communautés fortes qui respectent un discours civil et la dignité humainePour que tout le monde se sente en sécurité et bienvenu(e) en ligne.Se battre pour le WebPour que le Web reste ouvert et constitue une ressource publique universelle pour les utilisateurs du monde entier, aujourd'hui et à l'avenir.
  • ...1 more annotation...
  • Nous nous engageons à respecter ces principes et à impulser  un processus de délibération afin de créer un « contrat pour le Web » complet, qui définira les rôles et les responsabilités des gouvernements, des entreprises et des citoyens. Les défis auxquels le Web est confronté aujourd'hui sont redoutables et ont des impacts sur  tous les aspects de nos vies, et non seulement lorsque nous sommes en ligne. Mais si nous travaillons ensemble et que chacun de nous assume la responsabilité de ses actes, nous pouvons protéger un Web réellement au service de tous et toutes.
  •  
    " Le Web a été conçu pour rassembler les gens et rendre les connaissances librement disponibles. Tout le monde a un rôle à jouer pour que le Web soit utile à l'humanité. En adhérant aux principes suivants, les gouvernements, les entreprises et les citoyens du monde entier peuvent contribuer à protéger le Web ouvert en tant que bien public et droit fondamental pour tous. "
Aurialie Jublin

dWeb : vers un web (à nouveau) décentralisé ? | InternetActu.net - 0 views

  • Les partisans du web décentralisé, explique Corbyn, souhaitent promouvoir et développer un web qui ne dépendrait plus des grandes entreprises qui amassent nos données pour en tirer profit. Pour ses promoteurs (parmi lesquels on trouve Tim Berners-Lee, Brewster Kahle ou Ted Nelson…), l’enjeu est de revenir à un web originel, avant qu’il ne soit perverti par les grandes plateformes qui ont émergé avec le web 2.0. Redistribuer le web afin que les utilisateurs gardent le contrôle de leurs données, interagissent et échangent des messages directement avec les autres membres du réseau sans passer par des services centralisés : tel est l’enjeu du dWeb.
  • Dans une série de billets un peu techniques présentant des applications concrètes de ce nouveau web décentralisé, on découvre plusieurs solutions émergentes comme Scuttlebutt, un réseau social décentralisé qui repose sur un protocole chiffré qui permet de stocker ses messages en local afin de les partager avec d’autres utilisateurs en pair à pair ; WebTorrent, un lecteur de torrent qui fonctionne dans le navigateur ; ou encore IPFS, un protocole pour remplacer le protocole HTTP du web…
  • Si ce web décentralisé est encore balbutiant, ce mouvement a été largement renouvelé par le développement des protocoles blockchain. De nouvelles applications sont apparues, comme Stealthy (un système de messagerie instantanée décentralisée), OpenBazaar (une place de marché décentralisée), GraphiteDocs (une alternative à Google Doc), Textile (une alternative à Instagram), Matrix (une alternative à Slack), DTube (une alternative à YouTube)… On y trouve aussi bien sûr les alternatives décentralisées aux réseaux sociaux que sont Akasha et Diaspora… Et même un navigateur pour explorer le web en pair à pair : Beaker Browser basé sur le protocole dat (voire les explications).
  • ...13 more annotations...
  • Cet espace ressemble plutôt à une niche de geeks, à l’image des vidéos que l’on trouve sur DTube. La contestation de la centralisation ne suffira pas à faire décoller ce nouvel attrait pour la décentralisation, pointait-il avec pertinence.
  • Dans cet essai, intitulé « Information Civics » (qu’on pourrait traduire par la citoyenneté de l’information ou par l’éducation civique des réseaux), Frazee invite à reprendre le pouvoir sur les grands réseaux sociaux. Il rappelle combien nous sommes déconnectés de la gouvernance des grandes plateformes et que cette déconnexion est ce qui motive la réponse proposée par la décentralisation.
  • Paul Frazee rappelle néanmoins que toute décentralisation n’est pas démocratique pour autant. Il égratigne notamment la gouvernance de Bitcoin qui est plus ploutocratique qu’autre chose, donnant le pouvoir à ceux qui ont le plus de capital. Etherum a provoqué la colère de nombre de ses membres lorsque l’état du registre a été modifié pour contrer un piratage. Pour Frazee, cet exemple est également la preuve que des autorités existent en dehors du code du protocole. « Ces controverses montrent que nous pourrions avoir une vision incomplète de la gouvernance et de l’autorité ».
  • Peut-on considérer la décentralisation comme étant simplement une élimination de toute autorité ? Si c’était le cas, nous n’aurions pas à discuter d’éducation civique aux réseaux, estime-t-il. Pour lui, la décentralisation ne peut pas seulement reposer sur la maximalisation de la répartition du pouvoir, au risque de donner plus de pouvoir à certains qu’à d’autres.
  • Dans les applications centralisées comme Facebook ou Google, toute autorité est confiée au serveur. Pour Frazee, ils sont par essence des services autoritaires. Les utilisateurs n’ont aucun mécanisme à leur disposition pour contraindre ou ignorer les décisions du serveur. Aucune loi ne restreint la puissance du serveur. Dire qu’ils sont autoritaires n’est pas les dénigrer, c’est décrire leur conception politique. Cet autoritarisme est particulièrement saillant lors de controverses, comme lors de mécontentement des utilisateurs dû à des changements d’interfaces, lors de colères contre les politiques de modération, la conception d’algorithmes, le placement publicitaire ou l’utilisation des données personnelles des utilisateurs… Mais au-delà de leur indignation, les utilisateurs n’ont aucun pouvoir sur ces politiques autoritaires, qui, si elles apportent du confort, apportent aussi leur lot d’anxiété quant à la manipulation, la surveillance ou la censure. Dans ce système politique, pour l’utilisateur, se révolter consiste à changer de service, bien souvent au détriment de leurs données – perdues -, ce qui ne laisse en fait pas beaucoup de place à la révolte. En passant d’un service à un autre, « les utilisateurs ne trouvent aucune libération politique ».
  • Proposer des alternatives nécessite donc de distribuer l’autorité, à l’image des services P2P, des services d’adressage chiffrés, des blockchains… Chacune de ces méthodes n’empêche pas l’utilisation de serveurs centraux ni la formation d’autorités, mais vise à les réduire. Proposer de nouvelles applications nécessite également de nouveaux protocoles qui sont plus lents à changer et à se déployer. Mais au-delà des défis techniques et sociaux liés à la mise en application, il existe des défis politiques liés à trouver des accords sur ces nouvelles normes tout comme à trouver des processus de partage de pouvoir qui ne provoquent pas de dysfonctionnements.
  • Pour y remédier, Frazee propose de s’appuyer sur des « protocoles de réseaux constitutionnels », c’est-à-dire des protocoles qui appliquent automatiquement le code, comme dans les contrats intelligents. Le code est alors une constitution parce qu’elle fournit les règles pour le fonctionnement de l’autorité et que les utilisateurs peuvent s’assurer à tout moment que la constitution est respectée. « Le constitutionnalisme de réseaux a pour effet de transférer l’autorité de l’opérateur au code » : elle assure du processus, décrit des autorités et limites leurs possibilités d’action.
  •  Je crois en l’engagement civique. Nous disposons d’outils puissants qui encodent des valeurs et des droits. Nous devons transformer les architectures de pouvoir qui sont les nôtres. »
  • Pour améliorer la structure civique du web – le rendre plus démocratique -, il faut donc rééquilibrer les droits. Peut-on permettre que les clients (c’est-à-dire les ordinateurs de chacun) aient plus de droits que les serveurs, qu’ils aient le droit de publier, le droit d’avoir une identité, le droit de déployer du code (pour décider de comment ils souhaitent que leurs applications fonctionnent) ? Seuls les réseaux pair-à-pair déploient des noeuds avec des droits égaux, rappelle-t-il. Cette question n’est pas qu’une question technique, estime Frazee, c’est une question démocratique, une question civique. Les techniciens n’ont pas à résoudre les problèmes pour les gens, mais à laisser les gens résoudre ces problèmes comme ils veulent.
  • En février, l’entrepreneur et investisseur Chris Dixon (@cdixon) était déjà revenu sur l’importance de la décentralisation. Il rappelait que le premier internet était basé sur des protocoles décentralisés, mais qu’il avait été dépassé dans les années 2000 par des services qui avaient supplanté les capacités des protocoles ouverts, comme ceux des majors du web. Pour lui aussi, la centralisation est l’une des causes des tensions sociales qui s’expriment aujourd’hui que ce soit la désinformation, la surveillance, les brèches de données… Pour autant, souligne-t-il, les réseaux décentralisés ne résoudront pas tous les problèmes.
  • Pour Primavera De Filippi (@yaoeo) – qui a publié avec Aaron Wright, Blockchain and the law ainsi qu’un Que-sais-Je ? sur ces sujets -, le web décentralisé pose également des défis juridiques et de gouvernance : qui est responsable des problèmes quand tout est décentralisé ?
  • Comme elle le souligne en conclusion de son livre, si ces systèmes promettent d’améliorer la société, ils pourraient également restreindre plus que renforcer l’autonomie et la liberté des individus. L’hypothèse qui veut que la règle du code soit supérieure à celle du droit n’est pas sans poser problème. Comme Lawrence Lessig l’a déjà dit : « Quand le gouvernement disparaît, ce n’est pas comme si le paradis allait prendre sa place. Quand les gouvernements sont partis, d’autres intérêts prendront leur place. » Pour Primavera de Filippi et Aaron Wright, le déploiement de systèmes autonomes régulés seulement par le code nous pose de nouveaux défis de responsabilité.
  • Comme le dit Yochai Benkler : «Il n’y a pas d’espace de liberté parfaite hors de toute contrainte ». Tout ce que nous pouvons faire est de choisir entre différents types de contraintes. (…) Les applications décentralisées basées sur une blockchain pourraient bien nous libérer de la tyrannie des intermédiaires centralisés et des autorités de confiance, mais cette libération pourrait se faire au prix d’une menace beaucoup plus grande encore : celle de la chute sous le joug de la tyrannie du code. »
  •  
    "La journaliste Zoë Corbyn, pour le Guardian est revenue sur le Sommet pour un web décentralisé (vidéos), qui se tenait début août à San Francisco."
Aurialie Jublin

Internet est mort, vive le Trinet ? - Usbek&Rica - 0 views

  • Mais le développeur brésilien a, lui, daté très précisément le « début de la fin » : le Web est mort en 2014.
  • « Facebook et Google ont désormais une influence directe sur 70 % du trafic Internet » - rappelons ici qu’Internet désigne le réseau et que le Web en est sa principale application, le partage de fichiers ou la messagerie instantanée étant quelques-uns de ses autres usages - et la domination est particulièrement flagrante sur les médias, avec un basculement notable de la suprématie de Google à celle de Facebook, comme nous l’évoquions déjà récemment : avec Facebook Paper, puis Facebook Instant Articles, le réseau social de Zuckerberg s’est imposé comme source de trafic n°1 pour les médias, et une forme de dépendance s’est très rapidement installée.
  • Chaque entreprise a misé pleinement sur ce qu’elle faisait le mieux : le social pour Facebook (qui a racheté Whatsapp, Instagram...), l’intelligence artificielle pour Google, et elles ont ainsi cessé d’être concurrentes directes. Quant à Amazon, sa montée en puissance spectaculaire a été bien expliquée par Scott Galloway et se traduit par un chiffre récent : aux Etats-Unis, sa part sur le marché du e-commerce doit atteindre 43,5 % en 2017, contre 38 % l'année précédente.
  • ...7 more annotations...
  • Se pose alors la question de la mort du Web. En quoi laisser ce triumvirat aux commandes met-il le Web en péril ? D’abord parce qu’in fine, les 30 % du Web qu’ils ne maîtrisent pas devraient finir par être écrasés, assure André Staltz. La diversité du Web a permis à de multiples entreprises d’innover et de prospérer, à des communautés de grandir, à des sites indépendants d’être hébergés un peu partout, puis « à partir de 2014, nous avons commencé à perdre les bénéfices de la diversité d’Internet, en termes d’infrastructures et d’économie ».
  • Le développeur extrapole ensuite « à partir des stratégies exprimées par les cadres de Google, Facebook et Amazon », et décrit une bataille pour la neutralité du Net « que nous avons toutes les chances de perdre ».
  • « À cause de la demande du marché, les fournisseurs d’accès à Internet fourniront un accès moins cher à Google, Facebook et Amazon, et l’offre sera plus chère pour un accès complet au Web ». Comme le souligne André Staltz, c’est déjà le cas : le Portugal vient de décider de laisser faire le marché et d’offrir des forfaits Internet à la carte, chacun étant libre de n’avoir accès qu’à des applications de messagerie ou des réseaux sociaux pour moins cher.
  • Dans un tel scénario, « les petites entreprises ne seraient plus incitées économiquement à avoir leurs propres sites, et migrer vers des pages Facebook pourrait avoir plus de sens. Les petits sites de e-commerce serait rachetés par Amazon ou feraient faillite. Et parce que la plupart des internautes ne pourraient pas avoir accès à l’ensemble des sites, Google n’aurait que peu d’intérêt à continuer d’être ce pont entre les utilisateurs et les sites ».
  • Plus facile à percevoir dès aujourd’hui, plus palpable, et plus fréquemment discuté, l’autre signe de la mort du World Wide Web, c’est que Facebook, Google et Amazon grandissent toujours plus en dehors des frontières du Web. Il suffit de voir les Amazon Echo ou Google Home pulluler, écouter Google expliquer que l’avenir du search est dans la recherche vocale et dans l'intelligence artificielle, ou voir comme la plus jeune génération se contente de communiquer sur mobile, sur les applications de messagerie, sans jamais passer par un navigateur web.
  • En suivant une trajectoire qu’André Staltz appelle une « Apple-ification » - parce qu'ils construisent des écosystèmes fermés, deviennent des entreprises de hardware et soignent le marketing de leur design - les trois géants vont de plus en plus contourner le Web et créer de  « nouveaux espaces virtuels où la data est créée et partagée ». C’est la stratégie que mène Facebook depuis dix ans en misant sur la réalité virtuelle et la réalité augmentée.
  • « Vingt-cinq ans de Web nous ont habitués à des libertés fondamentales que l’on croit acquises », tranche le développeur. Nous avons oublié combien l'anonymat est précieux, tout comme l'est la possibilité de contrôler ce que nous partageons, ou celle de lancer une start-up qui ait ses propre serveurs, indépendamment de Google. « Sur le Trinet, si vous êtes bannis de Google et Facebook, vous n'aurez pas d'alternative ». Plus personne ne garantira votre droit d'accès à Internet. Les entreprises privées n'auront aucune obligation de vous fournir ce qu'un pays comme l'Estonie est allé jusqu'à ériger en droit de l'Homme.
  •  
    "Google, Facebook et Amazon se sont accaparés le Web. Cette domination était loin d'être aussi écrasante il y a encore quatre ans, et semble non seulement bien partie pour durer, mais devrait signer la mort d'un Web fondé sur la diversité et la liberté, comme le démontre le développeur brésilien André Medeiros - dit André Staltz - dans un post publié sur Medium. Nous nous dirigeons, à ses yeux, vers l'avènement d'un « Trinet » aux allures de dystopie."
Aurialie Jublin

Opinion | There May Soon Be Three Internets. America's Won't Necessarily Be the Best. -... - 0 views

  • The received wisdom was once that a unified, unbounded web promoted democracy through the free flow of information. Things don’t seem quite so simple anymore. China’s tight control of the internet within its borders continues to tamp down talk of democracy, and an increasingly sophisticated system of digital surveillance plays a major role in human rights abuses, such as the persecution of the Uighurs. We’ve also seen the dark side to connecting people to one another — as illustrated by how misinformation on social media played a significant role in the violence in Myanmar.
  • There’s a world of difference between the European Union’s General Data Protection Regulation, known commonly as G.D.P.R., and China’s technologically enforced censorship regime, often dubbed “the Great Firewall.” But all three spheres — Europe, America and China — are generating sets of rules, regulations and norms that are beginning to rub up against one another.
  • The information superhighway cracks apart more easily when so much of it depends on privately owned infrastructure. An error at Amazon Web Services created losses of service across the web in 2017; a storm disrupting a data center in Northern Virginia created similar failures in 2012. These were unintentional blackouts; the corporate custodians of the internet have it within their power to do far more. Of course, nobody wants to turn off the internet completely — that wouldn’t make anyone money. But when a single company with huge market share chooses to comply with a law — or more worryingly, a mere suggestion from the authorities — a large chunk of the internet ends up falling in line.
  • ...7 more annotations...
  • But eight years later, Google is working on a search engine for China known as Dragonfly. Its launch will be conditional on the approval of Chinese officials and will therefore comply with stringent censorship requirements. An internal memo written by one of the engineers on the project described surveillance capabilities built into the engine — namely by requiring users to log in and then tracking their browsing histories. This data will be accessible by an unnamed Chinese partner, presumably the government.
  • Google says all features are speculative and no decision has been made on whether to launch Dragonfly, but a leaked transcript of a meeting inside Google later acquired by The Intercept, a news site, contradicts that line. In the transcript, Google’s head of search, Ben Gomes, is quoted as saying that it hoped to launch within six to nine months, although the unstable American-China relationship makes it difficult to predict when or even whether the Chinese government will give the go-ahead.
  • Internet censorship and surveillance were once hallmarks of oppressive governments — with Egypt, Iran and China being prime examples. It’s since become clear that secretive digital surveillance isn’t just the domain of anti-democratic forces. The Snowden revelations in 2013 knocked the United States off its high horse, and may have pushed the technology industry into an increasingly agnostic outlook on human rights.
  • If the future of the internet is a tripartite cold war, Silicon Valley wants to be making money in all three of those worlds.
  • Yet even the best possible version of the disaggregated web has serious — though still uncertain — implications for a global future: What sorts of ideas and speech will become bounded by borders? What will an increasingly disconnected world do to the spread of innovation and to scientific progress? What will consumer protections around privacy and security look like as the internets diverge? And would the partitioning of the internet precipitate a slowing, or even a reversal, of globalization?
  • What these types of sky-is-falling articles keep getting wrong is the idea that the World Wide Web is the same as the Internet. It’s not. Web sites and the browsers that access them are an application that uses the Internet for transport.The Internet transports far more than just web traffic, but the most crucial one for companies is probably VPN: Companies connect to one another using site-to-site VPNs. Their employees can work from anywhere with remote user VPN. Disconnect the EU from the US, and you’ve removed the cheapest way for companies to connect their networks together.These regulatory worlds will get along somehow. Perhaps someone will write a web app that recognizes where a user is from, and apply appropriate policy to their session. Perhaps that web app will become wildly popular and be deployed on every website everywhere. I don’t know how it will work, but I do know the Internet will not become fragmented.
  • The internet was never meant to be a walled garden. Remember America Online began as a walled garden until the World Wide Web came along and “tore down that wall.” So, Europe can have its Europe Wide Web and China can have its China Wide Web, but we will always be the World Wide Web – truly open and free. The “one internet led by the United States” will remain the world’s “go to” information super highway just as the greenback has remained the world’s reserve currency for decades.
  •  
    "In September, Eric Schmidt, the former Google chief executive and Alphabet chairman, said that in the next 10 to 15 years, the internet would most likely be split in two - one internet led by China and one internet led by the United States. Mr. Schmidt, speaking at a private event hosted by a venture capital firm, did not seem to seriously entertain the possibility that the internet would remain global. He's correct to rule out that possibility - if anything, the flaw in Mr. Schmidt's thinking is that he too quickly dismisses the European internet that is coalescing around the European Union's ever-heightening regulation of technology platforms. All signs point to a future with three internets."
Asso Fing

Louise Drulhe cartographie le web caché | Mediapart - 0 views

  • « Lorsque nous naviguons sur Internet, nous allons de lien en lien, il y a une force qui s’exerce sur notre mouvement et qui nous fait vagabonder de page en page. Cette attraction est due à la pente du web qui nous fait glisser lentement à la façon d’une dérive numérique. Au début d’Internet, la pente était douce, elle s’apparentait à une errance numérique et facilitait la sérendipité. Aujourd’hui la pente est beaucoup plus raide et nous glissons presque systématiquement vers les mêmes services », écrit l’artiste.
  • Résultat, le web s’est creusé, comme le montre ce dessin du chapitre 4, « Un relief dirigé ». Pire encore, il s’est dédoublé. Toute une mécanique s’est installée, celle des données, et c’est alors à la représentation de ce web caché que Louise Drulhe s’est attaquée, un projet qu’elle évoquera mardi 6 novembre à la Gaîté-Lyrique, à Paris, lors de la première soirée d’un cycle de rencontres intitulé Technologies et idéologies. L’occupation idéologique des réseaux numériques, organisé en partenariat avec Mediapart et l’EHESS. 
  • « En moyenne, explique Louise Drulhe, neuf autres pages sont activées par chaque page que nous consultons, et nos données fuitent par là. Elles sont récupérées par des sites tiers bénins ou malins qui récupèrent nos données de navigation. »
  • ...5 more annotations...
  • Pour cette cartographie, Louise Drulhe s’est appuyée sur les données de fréquentation des sites, elles-mêmes issues d’Alexa, le service de mesure d’audience d’Amazon, et sur les travaux de Timothy Libert, spécialiste des questions de données personnelles et vie privée, actuellement chargé de cours à l’université Carnegie Mellon de Pittsburgh (États-Unis). Sur l’image ci-dessus (à consulter en plus grand ici), elle a représenté les sites agrégés par compagnies (YouTube inclus dans Google qui le possède, Bing dans Microsoft…). Où l’on voit que « le poids grignote et déforme l’espace, crée des gouffres ». 
  • Au centre, Google et ses dépendances, Gmail, Blogspot, YouTube... En bas à gauche, les compagnies chinoises, proches des russes. En bas au centre, Wikipédia. Tout en haut, autour de Reddit gravitent les sites d'info, New York Times, CNN, Huffington Post... © Louise Drulhe.
  • Dans l’Internet chinois, Baidu occupe, comme Google dans le reste du monde, une place centrale : il est au milieu, et très profond. Tous sont très étroits : moins qu’ailleurs, d’autres sites y conduisent. Mais ils sont proches de l’Internet russe, beaucoup de liens menant de l’un à l’autre.
  • De l’autre côté du web se trouvent les aspirateurs à données (voir ici l’image en plus grand). « La hauteur des bosses représente la portion du web qui est tracké », et Google, qui surveille 78 % des pages du web, se retrouve encore une fois très loin devant les autres.
  • Entre la surface du web, celle que l’on connaît, où l’on navigue, et ses profondeurs, où sont aspirées nos données, Louise Drulhe a fait apparaître, ou plutôt constaté, « comme un miroir, ou une contreforme ». Il y a d’abord des monopoles dans les deux espaces, dit-elle. Ces monopoles sont bien souvent les mêmes, à deux exceptions notables : le serveur de cache Akamai, invisible pour l’internaute, n’est « que » dans le web caché, et c’est le contraire pour Wikipédia, qui ne récupère aucune donnée et n’est présent que sur le web visible. Et enfin, « Google tient la même place des deux côtés ».
  •  
    "Collecte des données et centralisation du web seront au centre de la première rencontre organisée par Mediapart, la Gaîté-Lyrique et l'EHESS, mardi 6 novembre à Paris. Brève rencontre avec Louise Drulhe, designer graphique, qui matérialise au feutre cet étau de plus en plus serré."
Aurialie Jublin

[Environnement] How Improving Website Performance Can Help Save The Planet - Smashing M... - 0 views

  • Mozilla Internet Health Report 2018 states that — especially as the Internet expands into new territory — “sustainability should be a bigger priority.” But as it stands, websites are growing ever more obese, which means that the energy demand of the Internet is continuing to grow exponentially.
  • As web developers, it’s understandable to feel that this is not an issue over which we have any influence, but this isn’t true. Many efforts are afoot to improve the situation on the web. The Green Web Foundation maintains an ever-growing database of web hosts who are either wholly powered by renewable energy or are at least committed to being carbon neutral. In 2013, A List Apart published Sustainable Web Design by James Christie. For the last three years, the SustainableUX conference has seen experts in web sustainability sharing their knowledge across an array of web-based disciplines.
  • Perhaps the biggest win when it comes to making websites more sustainable is that performance, user experience and sustainability are all neatly intertwined. The key metric for measuring the sustainability of a digital product is its energy usage. This includes the work done by the server, the client and the intermediary communications networks that transmit data between the two.
  • ...1 more annotation...
  • There are, however, some good fallbacks which we can use that demonstrate energy usage. These include data transfer (i.e. how much data does the browser have to download to display your website) and resource usage of the hardware serving and receiving the website. An obvious metric here is CPU usage, but memory usage and other forms of data storage also play their part.
  •  
    "Climate change may not seem like an issue that should concern web developers, but the truth is that our work does have a carbon footprint, and it's about time we started to think about that."
Aurialie Jublin

Bienvenue dans le «World Wide Fake» - Libération - 0 views

  • Le Web existe officiellement depuis le mois de mars 1989. Il s’est construit sur différentes strates, dont la rétro-archéologie pourrait être la suivante. D’abord, le «World Wide Web». Le Web des documents : ses utilisateurs, ses ingénieurs, ses interfaces et ses intérêts économiques, tout sur la planète web tourne autour de l’axe documentaire. Il faut indexer, classer, donner accès à ce qui va très vite devenir une quasi-infinité de documents d’abord disponibles sous forme de texte, puis d’images, dans des pages et des sites.
  • Ensuite, un «World Live Web» car tout s’accélère, de la production des contenus à leur mise à disposition quasi instantanée dans les architectures de moteurs de recherche qui se font désormais fort d’indexer toute l’actualité et ce en temps réel.
  • uis, le «World Life Web». L’axe autour duquel tourne toute la planète web n’est plus celui des documents mais celui des «profils». Ce qui change tout, tant sur le plan trivial de l’ergonomie que sur celui - crucial - de l’économie.
  • ...8 more annotations...
  • Enfin, avec l’Internet des objets vient alors le règne du «World Wide Wear». Les interfaces sont désormais celles de nos vêtements, elles siègent sous la forme d’enceintes connectées au milieu même de nos maisons. Des technologies littéralement «prêtes à porter» autant qu’elles sont prêtes et toujours «à portée». Et, avec elles, l’anecdotisation des régimes de surveillance qui conduit tout droit au «World Wide Orwell».
  • Nous sommes aujourd’hui à l’étape d’après. Celle du «World Wide Fake». Un environnement, un écosystème dont l’essentiel des interactions est artificiellement fabriqué sur la base d’une spéculation qui n’a d’autre but que de s’entretenir elle-même. Issue d’une forme de capitalisme linguistique se déclinant en un capitalisme de surveillance, cette spéculation avait initialement pour but de nous maintenir le plus attentionnellement captifs possible, nous rappelant sans cesse qu’il fallait interagir, notamment par le biais de ces contremaîtres cognitifs que sont les notifications. Mais aujourd’hui le «faux» se déploie au sein des architectures techniques toxiques de plateformes prédatrices qui ont presque totalement phagocyté tout ce qui fut l’espace public du Web, et contraint nos usages à prendre place dans ces espaces privés et privatifs.
  • Aujourd’hui, «de faux internautes avec de faux cookies et de faux comptes sur des réseaux sociaux effectuent de faux mouvements de souris, activent de faux clics vers de faux sites webs [….], créant un simulacre d’Internet dans lequel la seule chose encore réelle ce sont les publicités», écrit Max Read dans un papier pour le New York Magazine.
  • Nous y sommes et dans des proportions encore plus ahurissantes : presque 52 % du trafic internet mondial en 2016 a été généré par des bots. De faux utilisateurs donc.
  • Le faux est souvent l’autre nom du «mensonge». Et on semble découvrir que tout le monde ment sur le Web. Puisque chacun est seul à disposer de ses propres chiffres au service de ses propres certitudes ou de ses propres intérêts comment pourrait-il en être autrement ? On a découvert, presque étonnés, que Facebook avait menti sur les chiffres d’audience de ses vidéos, qu’il mentait également sur les métriques liées à «l’engagement». On a découvert que Google mentait si on lui posait la question de savoir si l’Holocauste avait vraiment existé. On a compris qu’en plus de leurs architectures techniques toxiques, les grandes plateformes disposaient chacune de leur propre régime de vérité - celui de la popularité pour Google et celui de l’engagement pour Facebook - qui rendait encore plus difficile la construction d’un espace culturel commun permettant de faire société
  • Au niveau géopolitique même, de faux comptes utilisant de fausses publicités ont permis d’influencer le résultat de vraies élections. Les technologies de l’artefact, les «Deep Fakes», qui permettent à moindre coût de truquer le réel avec un effet de vraisemblance quasi indétectable, sont aujourd’hui en passe de devenir des technologies «grand public» : on peut grâce à elles remplacer le visage d’un acteur par celui d’un autre dans un film mais également modifier la vocalisation du discours tenu par un homme politique pour lui faire dire ce que l’on veut.
  • Ce faisant, c’est tout ce qui dans notre société permettait d’établir la valeur de preuve d’une image, d’un discours, d’un témoignage ou d’un fait, qui vole en éclats et qu’il nous faut réapprendre à définir et à construire. Voilà des années qu’avec d’autres, je milite pour une prise en compte et une intervention sur la dimension non pas économique mais simplement politique des grandes plateformes.
  • Hannah Arendt est morte en 1975 et n’a donc jamais connu Internet. Dans un entretien de 1974 sur la question du totalitarisme, elle écrivait ceci : «Quand tout le monde vous ment en permanence, le résultat n’est pas que vous croyez ces mensonges, mais que plus personne ne croit plus rien. Un peuple qui ne peut plus rien croire ne peut se faire une opinion. Il est privé non seulement de sa capacité d’agir mais aussi de sa capacité de penser et de juger. Et, avec un tel peuple, vous pouvez faire ce qu’il vous plaît.» C’est très exactement cela, le risque et la promesse du World Wide Fake si nous n’y faisons rien : la conjugaison d’un emballement spéculatif autour d’une industrie publicitaire de la falsification et de l’altération et l’annonce d’un effondrement de notre capacité collective à faire société dans un espace public commun. Et, avec un tel peuple, vous pouvez faire ce qu’il vous plaît
  •  
    "Aujourd'hui, plus de la moitié du trafic internet mondial est généré par des bots, c'est-à-dire des faux utilisateurs, qui manipulent les audiences et orientent les débats. Et c'est notre capacité collective à faire société qui est en jeu."
Aurialie Jublin

Censure antiterroriste : Macron se soumet aux géants du Web pour instaurer un... - 0 views

  • Pour rappel, le texte, poussé par la France et l’Allemagne, utilise le prétexte de la lutte contre le terrorisme pour soumettre l’ensemble des hébergeurs (et pas seulement les grandes plateformes) à des obligations extrêmement strictes : retrait en une heure de contenus qualifiés de terroristes par une autorité nationale (en France, ce sera l’OCLCTIC, le service de la police chargé de la cybercriminalité)  la mise en place d’un « point de contact » disponible 24h/24 et 7j/7  l’instauration de « mesures proactives » pour censurer les contenus avant même leur signalement  si ces mesures sont jugées insatisfaisantes par les États, ces derniers peuvent imposer des mesures spécifiques telles que la surveillance généralisée de tous les contenus.
  • D’un point de vue humain, technique et économique, seules les grandes plateformes qui appliquent déjà ces mesures depuis qu’elles collaborent avec les polices européennes seront capables de respecter ces obligations : Google, Facebook et Twitter en tête. Les autres acteurs n’auront d’autres choix que de cesser leur activité d’hébergement ou (moins probable, mais tout aussi grave) de sous-traiter aux géants l’exécution de leurs obligations.
  • Ce texte consacre l’abandon de pouvoirs régaliens (surveillance et censure) à une poignée d’acteurs privés hégémoniques. Pourtant, la Commission et les États membres, en 146 pages d’analyse d’impact, ne parviennent même pas à expliquer en quoi ces obligations pourraient réellement être efficaces dans la lutte contre le terrorisme.
  • ...4 more annotations...
  • Quand nous avons dit aux ministères que leur texte détruirait l’ensemble du Web décentralisé, ne laissant qu’une poignée de géants en maîtres, on nous a laissé comprendre que, oui, justement, c’était bien le but. Tranquillement, nos interlocuteurs nous ont expliqué que Google-Youtube et d’autres multinationales numériques avaient convaincu le gouvernement que la radicalisation terroriste était facilitée par les petites et moyennes plateformes, et qu’il fallait donc laisser la régulation du Web aux seuls géants prétendument capables de la gérer. Où sont les preuves de cette radicalisation plus facile en dehors de leurs plateformes ? Nulle part. Sans aucune honte, le gouvernement s’est même permis de sortir l’argument du secret défense, complètement hors sujet, pour masquer son manque de preuve et afficher son irrespect de toute idée de débat démocratique. C’est comme ça : Google l’a dit, ne discutez pas.
  • Macron se moque de détruire tout espoir d’une économie numérique européenne. Il veut simplement un texte sécuritaire qu’il pourra afficher au moment des élections européennes (ses « mid-terms » à lui), afin de draguer une partie de la population inquiète du terrorisme et qu’il s’imagine assez stupide pour tomber dans le panneau. Dans son arrogance délirante, il n’a même plus peur de renier ses électeurs pro-Europe ou pro-business, ni la population attachée aux libertés qui, pensant repousser l’extrême droite, l’aura élu.
  • Dans ce dossier, la menace terroriste est instrumentalisée pour transformer le Web en GAFAMinitel, pour acter la fusion de l’État et des géants du Net, et ainsi consacrer la surveillance généralisée et la censure automatisée de nos échanges en ligne. Tout ça pour quoi ? Pour lutter contre une auto-radicalisation fantasmée dont la preuve serait secret-défense (la bonne affaire !), et alors que les enquêtes sérieuses sur la question montrent que les terroristes ne se sont pas radicalisés sur Internet.
  • Le seul effet de ce texte sera de renforcer les multinationales du numériques et les dérives de l’économie de l’attention dont ils sont porteurs : la sur-diffusion de contenus anxiogènes, agressifs et caricaturaux capables de capter notre temps de cerveau disponible. L’urgence législative est de combattre ces dérives : de limiter l’économie de l’attention tout en favorisant le développement de modèles respectueux de nos libertés. C’est ce que nous proposons.
  •  
    "Il y a deux mois, la Commission européenne a publié sa proposition de règlement « censure antiterroriste ». Nous le dénoncions, expliquant que ce projet aura pour effet de détruire l'ensemble du Web décentralisé. Depuis, nous avons rencontré les ministères français en charge du dossier : nos craintes se sont amplifiées. La France, avec le soutien de l'Allemagne et du Parlement européen, va tout faire pour empêcher un débat démocratique sur ce texte : le gouvernement n'en parle pas dans la presse, veut forcer son adoption urgente et invoque le secret-défense pour empêcher tout débat factuel. Pourquoi tant de secret ? Probablement parce que ce texte, écrit en collaboration avec Google et Facebook, aura pour effet de soumettre l'ensemble du Web à ces derniers, à qui l'État abandonne tout son rôle de lutte contre les contenus terroristes. La collaboration annoncée lundi par Macron entre l'État et Facebook n'en est que le prémice, aussi sournois que révélateur."
Aurialie Jublin

Les solutions de Tim Berners-Lee pour sauver le web - Le Temps - 0 views

  • Le scientifique a identifié trois problèmes principaux qui minent le web. D’abord, les appels à la haine, les trolls et les fausses informations qui se multiplient sur les réseaux. Ensuite, l’ensemble des actions de piratage, issues d’acteurs privés ou publics. Enfin, comme il l’écrit dans une tribune parue lundi soir, «une conception de système qui crée des incitations perverses dans lesquelles la valeur des utilisateurs est sacrifiée, comme des modèles de revenus basés sur la publicité qui récompensent commercialement les pièges à clics et la propagation virale de la désinformation».
  • A la tête de la Web Foundation, Tim Berners-Lee a présenté fin 2018 un «Contrat pour le web», sorte de charte des droits et devoirs des gouvernements, entreprises et particuliers. Mais pour le chercheur, qui n’appelle pas forcément à davantage de lois, ce document théorique ne suffit pas. Il faut agir sur les données. «Il y a la nécessité très forte, aujourd’hui, de séparer les applications des données, affirme-t-il. Ces programmes peuvent accéder et traiter vos photos, vos informations, vos contacts, etc., il n’y a pas de problème à cela. Mais vous devez avoir un contrôle permanent et total sur vos informations. C’est vous qui devez autoriser tel ou tel service à y accéder.»
  • Tim Berners-Lee a pour ce faire lancé sa propre entreprise, Inrupt, qui collabore avec le Massachusetts Institute of Technology (MIT). Le physicien développe actuellement le projet Solid, qui vise à stocker les données personnelles des internautes dans des serveurs cloud ou physiquement chez soi. Le particulier décide ensuite quel service (LinkedIn, Facebook, Flickr, etc.) a accès à quelles données. «Le concept est simple, mais il s’agit d’un renversement total par rapport à la logique actuelle, avance Tim Berners-Lee. Nous créons des logiciels en open source pour Solid et nous appelons tous les développeurs intéressés à nous rejoindre.» Le physicien n’avance pas de date pour le lancement de Solid, qui vise selon lui à revenir au web originel, lorsque beaucoup de personnes connectées avaient leur propre site web.
  •  
    "Trente ans après l'invention du web, son créateur Tim Berners-Lee s'inquiète des dérives du réseau. De passage mardi au CERN, à Genève, il a présenté plusieurs pistes pour réparer un système qui a changé le monde"
Aurialie Jublin

[Sobriété] Pour un Web frugal ? - Framablog - 0 views

  •  
    "Sites lourds, sites lents, pages web obèses qui exigent pour être consultées dans un délai raisonnable une carte graphique performante, un processeur rapide et autant que possible une connexion par fibre optique… tel est le quotidien de l'internaute ordinaire. Nul besoin de remonter aux débuts du Web pour comparer : c'est d'une année sur l'autre que la taille moyenne des pages web s'accroît désormais de façon significative. Quant à la consommation en énergie de notre vie en ligne, elle prend des proportions qui inquiètent à juste titre : des lointains datacenters aux hochets numériques dont nous aimons nous entourer, il y a de quoi  se poser des questions sur la nocivité environnementale de nos usages collectifs et individuels. Bien sûr, les solutions économes à l'échelle de chacun sont peut-être dérisoires au regard des gigantesques gaspillages d'un système consumériste insatiable et énergivore. Cependant nous vous invitons à prendre en considération l'expérience de l'équipe barcelonaise de Low-Tech Magazine dont nous avons traduit pour vous un article. Un peu comme l'association Framasoft l'avait fait en ouverture de la campagne dégooglisons… en se dégooglisant elle-même, les personnes de Low-tech Magazine ont fait de leur mieux pour appliquer à leur propre site les principes de frugalité qu'elles défendent : ce ne sont plus seulement les logiciels mais aussi les matériels qui ont fait l'objet d'une cure d'amaigrissement au régime solaire. En espérant que ça donnera des idées à tous les bidouilleurs…"
Aurialie Jublin

Rebooter le web sans changer de logiciel économique ? - - S.I.Lex - - 0 views

  •  
    Il y a dix jours, Tim Berners-Lee a publié un billet intitulé « One Small Step for the Web » dans lequel il annonce qu'il se met en retrait de ses fonctions au W3C. Il y déclare avoir pris cette décision pour consacrer l'essentiel de son temps au projet Solid (Social Linked Data) qu'il développe depuis plusieurs années en nourrissant l'espoir de rebooter le web sur des bases plus saines. Cette annonce fait suite à une interview donnée cet été à Vanity Fair, dans laquelle Tim Bernes-Lee se disait « effondré » face au constat que « le web a desservi l'humanité au lieu de la servir »
Aurialie Jublin

L'âge du web décentralisé - The Digital New Deal Foundation - 0 views

  • Les blockchains permettent par ailleurs de lever un obstacle jusqu’ici insurmonté : pouvoir transférer sur Internet de la valeur rare en pair à pair. Cette valeur est représentée par la notion de token : un actif numérique émis et échangeable sans duplication sur une blockchain, sans nécessiter d’autorité centrale.
  • Les tokens sont au cœur de la nouvelle économie numérique qui s’ouvre. Ils permettent de faire fonctionner des applications décentralisées, et rendent possible de nouvelles stratégies, de nouveaux modèles d’affaires et un partage de la valeur mieux distribué – de là l’émergence de la « token économie », qui fera émerger de nouveaux acteurs et de nouveaux champions.
  • Internet a permis de décentraliser l’information, en permettant à chacun de publier et d’échanger instantanément toute information auprès du monde entier, sans besoin d’autorisation préalable. La blockchain et les tokens permettent de décentraliser la valeur, en offrant à chacun un nouveau pouvoir : créer et échanger de la valeur instantanément auprès de tout autre internaute, sans nécessiter ni tiers ni permission.
  • ...1 more annotation...
  • Trois orientations, déclinées en 15 propositions présentées dans le rapport, permettraient aux pouvoirs publics de renverser la situation : faire émerger des talents à l’intérieur du pays, retenir nos talents déjà formés, et attirer les talents étrangers.
  •  
    "Les technologies blockchain et les cryptoactifs ouvrent la voie d'un nouveau web : le web décentralisé. En son cœur figure une notion phare, le token, dont il est essentiel de comprendre dès à présent les principes, les usages et les implications. Ce web décentralisé et l'émergence de la « token économie » constituent une opportunité inédite pour la France et l'Europe, qui peuvent devenir leader de cette révolution, à condition d'agir sans attendre."
Aurialie Jublin

Internet Libre ou minitel 2.O conférence de Benjamin Bayart conf lors des rml... - 0 views

  • En fait la formulation qu'on retient habituellement c'est qu'on dit que sur Internet on a mis l'intelligence en périphérie du réseau. Dans Minitel on a mis l'intelligence au centre, c'est le contenu, c'est les bases de données avec des terminaux débiles autour. Internet c'est le contraire, on a mis des routeurs idiots au centre et on a mis en périphérie des ordinateurs qui réfléchissent. C'est ça le modèle d'Internet, la grande révolution qu'a été Internet, ça a été d'apporter ça. Les réseaux télé-informatiques centrés, on en fait depuis les années 50 à peu près
  • Ça j'aime bien aussi, Google, Yahoo, MSN c'est à peu près les trois moteurs de recherche qui font 95% de la recherche sur Internet et de l'indexation. À une époque, quand on cherchait le site Minitel qui permet quelque chose, on tapait 3615 et au lieu de taper le nom du site dans la case « nom du site » on allait dans la case « rechercher », on tapait des mots-clés, puis France Télécom proposait les services Minitel auxquels on pouvait se connecter. Bon ben ça ça s'appelle Google. Ils l'ont fait en couleur, ils l'ont fait en grand, ils l'ont fait avec de la pub sur le côté, mais c'est le moteur de recherche du Minitel, c'est pas ça Internet. Internet c'est pas les 8000 machines de Google qui détiennent le savoir de l'humanité. Internet c'est le contraire de ça. Donc finalement côté réseau sur la technique c'est pas du net, ce que vous utilisez couramment, c'est pas du net, c'est du Minitel.
  • Et on est venu sur un modèle qui est assez bizarre qui a beaucoup émergé ces dernières années de publicité/publication. Parce que si Monsieur France 2 veut être proprement diffusé il paye un droit de publication, c'est-à-dire qu'il paye les opérateurs réseau pour être diffusé. Si y'en a certains parmi vous qui ont suivi les débats sur la liste FRnOG il y a quelques mois, la trame sous-jacente c'était Monsieur Free qui disait à Monsieur Dailymotion « je transporterai pas ta merde si tu me donnes pas des sous ». Ça c'est le droit de publication. Curieusement y'a pas ça d'habitude sur Internet .C'est quelque chose d'assez récent. Et puis y'a la publicité, c'est-à-dire que, comme vous êtes des gens très partageurs, vous avez vos vidéos perso, aguichantes ou non, que vous mettez sur Dailymotion histoire que tout le monde en profite, curieusement les reversements publicitaires que perçoit Dailymotion, vous, vous les percevez pas. Parce qu'en fait vous leur confiez votre contenu pour qu'il y gagnent leur publicité. Ça c'est un modèle assez particulier et si vous regardez bien le mode publicité/publication on paye aux deux bouts, c'est-à-dire que celui qui a du contenu paye pour qu'il soit diffusé, et puis celui qui vient regarder le contenu il paye sous forme de publicité. On est bien revenu au modèle du téléphone. Maintenant c'est plus des communications à la minute c'est des publicités, mais le modèle est vraiment le même.
  • ...18 more annotations...
  • → Pluralité À la place du monopole local, on a une certaine pluralité, c'est-à-dire que les, on vous a parlé d'ouverture de la concurrence, de l'ouverture du marché tout ça... Moi quand on me parlait pas d'ouverture de la concurrence et d'ouverture du marché, c'est-à-dire quand je me suis abonné à FDN, c'était en 96, y'avait 5-6 opérateurs chez qui je pouvais m'abonner sur Paris et je pouvais prendre l'opérateur que je voulais. Y'avait pas de souci, y'en avait bien plusieurs.
  • → Transporteurs L'opérateur de réseau se comporte comme un transporteur, c'est-à-dire quand je commande un paquet chez un commerçant, pas forcément sur Internet, dans les années 80, chez Les 3 redoutes quand je commandais des chaussettes je payais mes chaussettes à Les 3 redoutes et Les 3 redoutes payaient le transport à La Poste, La Poste ne s'occupait que du transport. Ça c'est à peu près le modèle d'Internet. Mon FAI il transporte mes données, c'est tout, il regarde pas ce qu'il y a dedans c'est pas sa sauce. Finalement d'où ça vient, c'est-à-dire savoir si ça vient d'un contenu payant ou si ça vient d'un contenu gratuit, lui, il s'en fiche. Il transporte de manière neutre.
  • Alors quelques exemples d'opérateurs: bon forcément j'ai cité FDN, c'est le mien, j'ai cité Neuronnexion parce qu'on est à Amiens, et puis le gros national à l'époque c'était Oléane, c'est-à-dire que Oléane qui était un gros opérateur à l'époque, dans les débuts du net au milieu des années 90, Oléane était connecté à des dizaines d'autres opérateurs en France. Y'avait pas de problème pour obtenir un accord d'interconnexion, dans des conditions relativement équitables entre Neuronnexion qui était une PME avec quelques personnes sur Amiens et Oléane qui était une PME avec quelques dizaines ou quelques centaines de personnes sur la fin à Paris.
  • → Free Free même punition. C'est pas vraiment un opérateur Internet, c'est plus vraiment un opérateur Internet, c'est en train de basculer tout doucement vers un opérateurs Minitel. Y'a trois ans l'idée qui a été tenue sur FRnOG de dire à Dailymotion « je transporterai ta merde si tu me donnes des sous » elle aurait fait bondir les gens de chez Free. À l'époque où ils étaient petits ça leur aurait fait très peur parce que c'était un moyen de les empêcher de grossir. → SFR SFR, oui alors pour les gens qui savent pas SFR c'est le nom complet de Neuf-Cegetel, bah je sais pas c'est le plus gros actionnaire, moi je veux bien les appeler autrement, m'enfin voilà, l'actionnaire c'est SFR, donc eux, même chose, c'est plutôt un opérateur de téléphonie qui vend du net avec du vrai Minitel dessus.
  • Alors on n'a pas basculé du modèle à Internet qui commençait à émerger au milieu des années 90 au modèle Minitel qui est en train d'émerger aux États-Unis au début des années 2000 complètement par hasard. Il a fallu plusieurs morceaux pour en venir là. Même chose je vais me centrer plutôt sur les effets franco-français mais vous verrez le modèle s'étend assez bien.
  • → DRM : exclusivité D'abord les DRM, ça, ça vous parle on en a parlé beaucoup ici, DADVSI, Droits d'Auteur et Droits Voisins dans la Société de l'Information, pour les gens qu'oublient ce que veut dire l'acronyme. Créer des DRM c'est créer de l'exclusivité. C'est un morceau qui manquait sur Internet on pouvait pas créer de l'accès exclusif de manière simple. En mettant des DRM dedans on peut bien, c'est facile. C'est-à-dire qu'une fois qu'on aura bien mis des DRM dans tous les fichiers, l'opérateur pourra dire « je transporte, ou pas, les fichiers signés par Machin », Microsoft n'a pas envie de transporter les fichiers signés par Torvalds, simple, suffit de pas les transporter.
  • → Brevets : fermeture Les brevets ça crée de la fermeture. Je vous le disais tout à l'heure, Internet et le logiciel libre c'est très exactement la même chose, ce ne sont que deux facettes du même objet. À partir du moment où je mets des brevets je ferme le jeu. Si c'est breveté ça veut dire que quelqu'un d'autre n'a pas le droit de le refaire pour venir s'interconnecter. En fait une fois que j'ai bien breveté le mode de fonctionnement du Minitel, un méchant concurrent ne peut pas fabriquer des Minitel, ça ne sert qu'à ça les brevets, c'est même la définition du brevet.
  • → Filtrage : demi-connexions Le filtrage que nous demandent régulièrement les différents gouvernements, on pourrait croire que c'est de la censure fasciste, y'en a sans doute un ptit peu, je pense que quand les Renseignements Généraux demandent en loucedé à un opérateur de filtrer un gars ça pourrait ne pas être parce qu'il est terroriste mais juste parce qu'il fait chier, disons que ça s'est déjà vu. Mais ça a un effet de bord très amusant, une fois que les opérateurs ont mis dans leurs réseaux, c'est pas encore le cas mais ça vient, des boîtiers qui sont capables de filtrer, le boîtier qui est capable de filtrer je pense qu'il y a quelques informaticiens dans la salle, il filtre ce que l'admin sys demande de filtrer, c'est-à-dire ce que le gouvernement lui demande de filtrer parce qu'il est plutôt obéissant, pour pas aller en taule, et puis ce que son patron lui demande de filtrer. C'est-à-dire que le filtrage qu'est demandé par le gouvernement, pour des raisons probablement de sécurité publique, enfin on espère, il permet également de rétablir le modèle des demi-connexions, c'est-à-dire que je filtre les sites nazis et les filtres qui n'ont pas payé. Ça permet de bien faire rentrer ce modèle économique.
  • → Responsabilité : centré. La responsabilité, alors j'étends un ptit peu le titre, c'est les différents débats qu'on a eu depuis l'affaire Altern1 en, c'était quand l'affaire Altern 97, non 98, 99 par là, c'est la responsabilité des hébergeurs, c'est-à-dire que l'hébergeur est responsable de ce qu'il y a sur le site, et si on lui signale un contenu supposément illégal, il se doit de l'enlever avec diligence. Il pourrait l'enlever avec voiture mais diligence c'est mieux. Ça, ça veut dire que si je prends le risque de permettre à quelqu'un de poser son site web sur ma machine, s'il dit de la merde c'est moi qui vais en taule. Moi je peux pas l'assumer. France Télécom peut l'assumer parce que quand il aura un procès, France Télécom enverra son armée d'avocats, expliquera que dès qu'on lui a signalé le contenu elle l'a enlevé, je veux dire c'est vrai, c'était un dissident d'un endroit où on n'a pas le droit de dissider, qu'il aille donc dissider ailleurs, donc ça a été tout bien enlevé, et ils pourront dire, nous on est blanc bleus ils vont au procès, ils payent des avocats, ils s'en sortent. Par contre la PME de banlieue qui essayait de faire pareil, ben quand elle s'est retrouvée devant le juge, ça lui a coûté un œil de payer l'avocat, et puis comme le mec qui dissidait il disait des trucs finalement qu'en France on a le droit, ils ont estimé qu'ils allaient pas supprimer le site, et donc ça va jusqu'au procès et ça coûte cher. Donc la responsabilité des hébergeurs ça tend à faire que les petits hébergeurs ont du mal à exister parce qu'ils existent en vivant dangereusement, donc ça crée du réseau centrés, puisque les petits ont du mal à exister il restera que les gros.
  • → Régulation : interco La régulation c'est aussi quelque chose de fabuleux. Ce qu'on appelle régulation dans le monde Internet professionnel, c'est l'ARCEP, Autorité de Régulation des Communications Éléctroniques et des Postes, ex-ART, Autorité de Régulation des Télécommunications, c'est des gens qui ont été mis en place à l'époque où, suite à certaines directives européennes, on a ouvert le marché des télécom. J'ai assisté, alors, enfin si un ptit peu en tant que président de FDN, mais aussi avec d'autres casquettes, à une des réunions de l'ARCEP sur les réseaux d'initiatives publiques où y'avait le monsieur responsable du dégroupage en France, qui nous expliquait mort de rire que, y'a 10 ans quand ils ont commencé et qu'ils ont fait les premières réunions sur le dégroupage, il fallait une salle de réunion gigantesque pour asseoir les 50 opérateurs alors qu'aujourd'hui quand ils font les réunions sur le dégroupage, ils font ça dans son bureaux parce qu'ils sont 4, et il avait l'air content de lui pépère. C'est-à-dire que lui, il a été mis en poste pour ouvrir le marché, il est passé de 50 acteurs à 4 et il est content. Fabuleux! Moi je trouve fabuleux. Et donc ce petit jeu où on se retrouve avec 4 opérateurs qui vendent du Minitel-net 2.0 ben ça fait qu'ils sont suffisamment gros pour envoyer chier tous les autres, je veux dire quand on s'appelle Free et qu'on a 2 millions d'abonnés, ou quand on s'appelle France Télécom et qu'on en a 4, ou quand on s'appelle Neuf et qu'on en a je-sais-plus-combien à force de racheter leur clients je sais plus où ils en sont, 2,5 probablement, forcément, un Schtroumpf qui vient avec 20 000 comme Nérim rien à battre, parle pas aux ptits. Donc la difficulté d'interconnexion des réseaux, elle vient en bonne partie des erreurs de régulation ou des choix de régulation, parce que c'est ptet pas par erreur qui font qu'il y a plus de petits opérateurs.
  • → Gouvernance : assurance Et puis pour ceux qui étaient à la table ronde politique hier, y'a des problèmes de gouvernance. Les problèmes de gouvernances, ce sont tous ces braves gens qui se réunissent entre eux pour décider si oui ou non on va permettre aux gens d'acheter des noms de domaines sans leurs papiers, ou si on va distribuer des adresses IP aux pas gentils, ou comment on va faire en sorte que les pédo-nazis puissent pas faire ci ou ça, ou que les terroristes puissent pas poster, donc comment Google va filtrer tous les sites écrits en arabe parce que ça doit être suspect, sauf ceux bien évidemment signés par le gouvernement qui vend du pétrole. Tout ça c'est ce qu'on appelle la gouvernance Internet, c'est l'IANA, c'est l'ICANN, c'est le RIPE c'est etc. Ça en fait c'est une assurance. Une fois que c'est convenablement tenu par les quelques juristes des très gros opérateurs - vous pouvez y aller, y'a pas un technicien à poil dur, y'a quelques vieux barbus tout gris qui parlent BGP, le reste c'est tout du cravateux juriste docteur en droit, envoyé par les opérateurs pour vérifier que tout va bien. Ça c'est une assurance, c'est l'assurance du fait qu'ils resteront dans la position où ils sont.
  • Ils sont en train d’éteindre Internet D'où ça sort tout ça ? Ça sort schématiquement de l'histoire, c'est-à-dire que les gens qui ont de quoi fabriquer du réseau sont les gens qui ont fabriqué le téléphone et qui étaient en situation de monopole, ce sont les gens qui ont fabriqué la diffusion télé qui étaient en situation de monopole. Internet est né, à un moment ils se sont dit « tiens ça va se vendre » alors ils en ont vendu et puis, sans forcément être méchants, on pourrait croire à la théorie du complot mais j'y crois pas, je pense qu'ils sont pas assez malins pour s'être dit « tiens on va se liguer pour attaquer sur tous les fronts en même temps pour faire taire les pénibles »; moi je pense qu'ils l'ont pas fait exprès, mais ils sont en train d'éteindre Internet; et c'est un effet de bord naturel, c'est-à-dire qu'Internet remettait en cause leur monopole, ils ont fait chacun les petites actions dont ils avaient besoin pour essayer de maintenir leur monopole: les gros éditeurs de musique en faisant des DRM, les auteurs de logiciels tout pourris propriétaires en faisant des brevets, les marchands de contenu qui veulent pas qu'on aille acheter le contenu des autres en faisant du filtrage etc etc etc. Je pense même pas qu'ils se soient concertés pour faire tous les mêmes conneries.
  • On va manger du numérique avarié Et quand ils vous disent qu'on passe à l'heure du numérique, c'est vrai. Ils font bien du numérique, si vous regardez la télé autrefois y'avait de la neige, maintenant elle pixélise, c'est ben qu'elle est numérique ! Mais c'est pas de l'Internet, c'est du numérique. Du numérique, ça peut être le baladeur fermé propriétaire d'une grande marque japonaise en quatre lettres commençant pas S finissant par Y qui met des rootkit dans les CD ou ça peut être le fait que je fasse écouter la musique que j'aime bien à ma ptite sœur. Dans les deux cas, c'est du numérique, juste moi je trouve y'en a un il est avarié, je vous laisse deviner lequel.
  • L'apparition d'Internet a permis l'apparition du libre et l'apparition du libre a permis l'apparition d'Internet, les deux ont crû en même temps. Il va y a voir un décrochage. Le numérique va continuer à croître mais Internet a commencé sa décroissance il y a déjà quelques années. Il y a de moins en moins de gens qui s'hébergent eux-mêmes sur leur ligne ADSL. La décroissance d'Internet a commencé, la décroissance du libre c'est juste après. Même si vous arrivez à ce qu'ils ne fassent pas passer les brevets logiciels cette année et les DRM l'année prochaine, si vous arrêtez Internet, si vous les laisser arrêter Internet libre, vous allez mourir.
  • Donc je crois que ce sont les deux piliers, le premier c'est: il faut éduquer, aller expliquer aux gens ce que c'est qu'Internet, aller dire aux gens que Internet c'est pas de mettre des vidéos marrantes sur Dailymotion, Internet c'est de mettre les vidéos marrantes sur mon PC et que vous veniez les voir. C'est fondamental comme différence; ça c'est le premier pilier, éduquer les gens, c'est très long. Je veux dire on savait, 'fin moi ça fait très longtemps que je suis sur Internet, ça fait 10 ans que je suis président de FDN, ça fait longtemps que je réfléchis sur ces questions, là je sais que c'est long d'éduquer les gens. La croissance actuelle des ventes de Machin Box en Minitel 2.0 c'est pas la croissance de l'éducation au net. Le type qui publie son blog sur un ordinateur qu'il ne possède pas, il fait du Minitel alors il apprend à faire du Minitel amélioré où il peut parler, mais il n'a pas encore appris à faire du net, c'est-à-dire à mettre son blog sur une machine qu'il est le seul à pouvoir couper du réseau. C'est très différent, cette éducation-là va prendre un ptit peu de temps. Et le deuxième pilier c'est: faites votre réseau, faites vos serveurs IRC qui ne sont pas ceux des gros opérateurs, faites vos serveurs mail qui ne sont pas ceux des gros opérateurs. Faites votre réseau. Avec ces deux piliers-là, on aura quelques résistants qui sont ceux qui font le réseau, et quelques enseignants pour propager la bonne parole, ce sont les deux fondamentaux dont on a besoin. Je sais pas ce qu'on peut faire d'autre. Si, on peut essayer de se battre sur le juridique, mais on y va vraiment avec un lance-pierre contre des chars d'assaut.
  • y'a deux objections classiques au « hébergez-vous vous-mêmes », y'en a des moins classiques qui sont en général pas très intéressantes, en tout cas j'en ai pas encore entendu, y'en a deux qui sont vraiment classiques, y'a celle que tu indiques qui est intelligente, y'en a une autre qui est bête. Je vais commencer par celle qui est bête pour m'en débarrasser. Le « c'est compliqué techniquement », ça, c'est juste faux, je veux dire si le débile de base il est capable de poster une vidéo sur Dailymotion et il est capable de poster dans son blog, faire une Internet box qui contient le serveur Apache*4 qui contient son blog et les plug in type Dailymotion, il aura qu'à uploader vers sa boîte, c'est pas plus dur. Donc le « techniquement c'est compliqué » ça c'est juste faux.
  • Après y'a le problème écologique. La question écolo là-dedans c'est « si je laisse mon PC allumé tout le temps pour héberger mon pauvre site web qui a 12 visiteurs par jour, je brûle le courant plein pour rien ». Ça c'est un vrai problème. Mais dire « je vais m'héberger en salle machine avec tout le monde comme ça si on pose une bombe tout le monde se tait », c'est la mauvaise réponse. Quand les écolo disent « la consommation d'électricité fabriquée avec du charbon et du nucléaire c'est vachement dangereux » ils ont raison. Quand on apporte comme réponse « y'a qu'à se passer d'électricité », c'est pas la bonne. Un ordinateur capable d'héberger un site web c'est pas l'énorme machin avec 12 ventilos que tu utilises pour jouer au dernier jeu à la mode. Un ordinateur capable d'héberger un site web ça a une puissance de calcul similaire à celle qu'on trouve dans un palm aujourd'hui, ou dans un téléphone; c'est-à-dire que ton téléphone là, s'il était pas en Java avec de la merde dedans, il serait capable de faire des sites web comme on n'en rêvait pas en 95. Il consomme peau de balle en courant. Lui tu peux le laisser chez toi branché, et pour peu qu'en plus tu lui donnes du courant que t'as fabriqué avec des fines herbes et avec du bois, ou avec du solaire, ça va être nickel. Un ptit ordinateur qui ne mange que du solaire et qui est autonome tout seul dans sa boîte avec du solaire ça existe, les fous qui font des réseaux wifi bizarres ouverts etc, ils ont ça, des espèces de routeurs qu'ils viennent mettre sur le toit collés à la borne wifi, c'est 100% autonome si c'est sur du solaire, ça mange pas d'énergie.
  • -Hébergeur hébergé, c'est pas forcément une bonne réponse dans le sens « on se met à 3 et on loue une bécane dans une salle machine », c'est dans cet esprit-là? Dans cet esprit-là, dans la balance entre Internet et le Minitel quand tu mets ton site web chez OVH*6 tu es purement dans Minitel, quand tu mets dans le serveur des pages perso Wanadoo c'est pire, quand tu commences à le mettre sur le serveur hébergé en salle machine d'une assoss sympathique, l'Autre.net, Ouvaton des gens comme ça, Tuxfamily*7 tu rééquilibres un peu, quand tu le mets sur les machines auto-hébergées des gens comme RHIEN*8, le Réseau d'Hébergeurs Indépendants ENgagés, je vous invite à aller les voir si vous ne les connaissez pas, R-H-I-E-N, c'est super bien ce qu'ils font, ça penche presque vers de l'Internet parce que, eux, ils s'y mettent à 10-15-20-30 à héberger sur la machine du gars qui sait faire leur site web derrière leur ligne ADSL. On est quasiment sur de l'Internet, on est sur du beaucoup-net. Donc oui c'est mieux. Je veux dire si t'as à choisir entre les pages perso de ton fournisseur d'accès moisi qui retirera le contenu si ça lui plait pa,s et te faire héberger dans la même machine que ta bande de potes, c'est plutôt mieux la deuxième solution, maintenant si la machine en question elle est dans une salle machine qui t'appartient pas, où les flics ils rentrent quand ils veulent avec même pas un mandat, juste ils demandent poliment au monsieur à l'entrée, pas top.
  •  
    "Internet, logiciel libre, c'est la même chose En fait ce à quoi je veux en venir c'est que c'est la même chose: c'est-à-dire que sans logiciel libre pas d'Internet: si BIND n'avait pas été libre, si le protocole de routage IP n'avait pas été libre et ouvert Internet ne serait pas né. Donc sans logiciel libre pas d'Internet. Sans Internet pas de logiciel libre, évident. Si on supprime le mail et les échanges électroniques de code entre développeurs pour faire murir les softs, ça ne peut pas marcher. Les deux sont intimement liés: en fait ce sont deux facettes d'un même objet. Cet objet, si vous voulez on débattra tout à l'heure, je pense que c'est ce qu'on appelle la société du savoir, l'économie du savoir. Mais ce sont deux facettes du même objet on peut pas différencier, on peut pas dissocier Internet et logiciel libre, c'était ça le bout d'historique que je voulais vous raconter."
Aurialie Jublin

Peut-on créer un nouveau moteur de recherche aujourd'hui ? U&R - 0 views

  • Si elle n’est pas en mesure de construire sa propre base et son propre index rapidement et efficacement, vous aurez beau l’interroger, aucun résultat n’en sortira… Peut-elle le faire ? Techniquement oui. Cela va néanmoins lui coûter cher car il va falloir qu’elle achète des milliers de serveurs pour stocker une réplique du web. Mais c’est possible, et c’est justement ce qu’est en train de faire Qwant. Ce moteur de recherche français construit son propre index, qui contient actuellement près de 20 milliards de pages. Cette société bâtit ainsi progressivement son indépendance technologique. Cette barrière technique et financière n’est donc pas infranchissable en soi. Le problème est qu’elle est doublée d’autres barrières autrement plus élevées. Lesquelles ?
  • D’abord, toute nouvelle entreprise créant un moteur de recherche innovant commercera son travail d’indexation à partir du moment où … elle commencera à le faire. Cette lapalissade a en réalité un sens profond : si Google a commencé à indexer le web en 1998, notre jeune société innovante a accumulé un retard de 20 dans la collecte des données du web. Mais ce n’est pas tant les couches successives du web qui vont lui faire défaut. C’est surtout 20 ans d’analyse des habitudes des internautes.
  • Or Google a verrouillé la connaissance client. Comment ? En offrant toute la panoplie des parfaits services web. Voyons le cheminement de l’internaute, c’est-à-dire « vous », sur la toile. Après vous être connecté, la première chose que vous ferez sera d’ouvrir un navigateur (Google a développé le navigateur Chrome pour les ordinateurs et Android pour les téléphones, dont il détient 80% de part de marché). Puis vous allez généralement consulter vos mails (Google a développé Gmail). Vous ferez ensuite des recherches (Google search a 92% de part de marché en France). Quand vous cliquez sur un lien vous arrivez sur un site. Et même à l’intérieur du site, Google sait comment vous naviguez grâce à son outil d’analyse d’audience (Google Analytics là encore possède près de 80% de part de marché). Que vous recherchiez un endroit où aller ou une vidéo à regarder, Google Maps et Youtube règnent sans réelle concurrence. Vous êtes donc cerné par ces outils. C’est cette « capture » dans le monde Google qui est préoccupante.
  • ...7 more annotations...
  • Les jeunes moteurs Lilo ou Ecosia sont adossés à Bing, sinon ils n’existeraient tout simplement pas. Ils ventent leur orientation écologique pour séduire l’internaute. Qwant utilise Bing pour compléter les résultats issus de son propre index, lorsque c'est nécessaire, en particulier sur les images. Et ce dernier a fait du respect de la vie privée son cheval de bataille.
  • On peut reprocher à Google sa position hégémonique, sa captation continuelle d’informations sur ses utilisateurs, sa malhonnêteté fiscale et concurrentielle sanctionnée récemment par la Commission Européenne. Mais beaucoup de personnes, en réalité, ignorent ou s’accommodent de cet état de fait. Cette soumission consentie du grand public risque de faire disparaitre une partie de notre liberté numérique. Par contre, les autorités américaines et européennes peuvent-elles accepter cette « confiscation » du web et cette « captation » des internautes qui empêchent de facto l’apparition de tout nouvel acteur ? On peut imaginer que, dans un monde normal, la réponse serait négative ! Quelle solution ?
  • Une troisième idée consiste simplement à empêcher Google d’imposer son navigateur sur les ordinateurs (Chrome) et surtout sur les mobiles (Android), privant les autres moteurs de recherche de la possibilité d'investir le marché de façon équitable. Cette solution simple et réaliste est certainement la plus prometteuse. L’amende récente de la Commission Européenne va dans ce sens.
  • On pourra poursuivre en objectant que les moteurs chinois (Baidu) ou Russe (Yandex) existent bien et prouvent qu’une alternative est possible. Mais ces derniers sont le reflet d’une politique volontariste d’Etats en délicatesse avec l’hégémonie américaine. Ils ne sont en rien le produit d’une libre concurrence.
  • On pourra objecter qu’une révolution technique peut toujours poindre, avec comme ingrédient la blockchain, une autre forme d’indexation ou une autre forme de distribution du référencement. Bien sûr, mais la création de la valeur est actuellement totalement phagocytée par les GAFAM, et si une révolution voit le jour, elle risque d’être préemptée, voire étouffée dans l’œuf par les géants en position monopolistique.
  • Une autre critique peut porter sur le fait que Google n’est qu’une partie du problème, et que c’est la puissance du système composé des GAFAM, de la dynamique d’innovation américaine, de son système de financement, … qui est en cause. Mais là encore nous pourrions rétorquer qu’en s’attaquant à un premier acteur emblématique, il se créé un précédent qui pourra ensuite s’étendre aux autres rouages du système.
  • Mais en définitive, le peuple européen peut aussi s’exprimer. Nous sommes les clients et donc avons un pouvoir considérable. Pourquoi ne pas faire l’expérience d’une sortie de Chrome et d’Android ? Firefox est un excellent navigateur pour ordinateurs. Quant aux mobiles, des solutions se font jour avec notamment FairPhone et la suite Framasoft. Soyons clair : sortir complètement de Google n’est pas facile, mais les bénéfices à long terme sont à la mesure des enjeux !
  •  
    "Un moteur de recherche concurrent à Google n'a aujourd'hui presque aucune chance d'émerger, explique Jérôme Bondu, lecteur d'Usbek & Rica et directeur de la société Inter-Ligere. Or les implications sur notre liberté sont grandes, car nous sommes « capturés » dans le monde de Google, estime-t-il, proposant des pistes pour s'affranchir de cette emprise. "
Aurialie Jublin

[Écologie] Le monde du logiciel est en train de se détruire... Manifeste pour... - 0 views

  • Tout est lent, et cela ne va pas dans le bon sens. Certaines voix s’élèvent. Je vous invite notamment à lire “Le désenchantement du logiciel”. Tout est insupportablement lent, tout est ÉNORME, tout finit par devenir obsolète… La taille des sites web explose. Un site web est aussi gros que le jeu Doom. Le phénomène ne touche pas que le Web mais aussi l’IoT, le mobile… Le saviez-vous ? Il faut 13% de CPU pour faire clignoter un curseur…
  • Tout grossit : la taille des applications, les données stockées, la taille des pages web, la mémoire des téléphones… Les téléphones ont maintenant 2 Go de mémoire, échanger une photo de 10 Mo par mail est maintenant classique… À la limite, cela ne serait peut-être pas un problème si tous les logiciels étaient utilisés, efficaces et performants… Mais cela n’est pas le cas,
  • Alors tout le monde se cale sur une lenteur. Tout est uniformément lent. On se cale sur cela et tout va bien. Être performant aujourd’hui, c’est arriver à atteindre un ressenti utilisateur qui correspond à cette lenteur uniforme. On élague les choses qui pourraient être trop visibles. Une page qui met plus de 20 secondes à se charger, c’est trop lent. Par contre, 3 secondes c’est bien. 3 secondes ? Avec les multicoeurs de nos téléphones/PC et les data centers partout dans le monde, le tout relié par des supers technologies de communication (4G, fibre…),c’est un peu bizarre non ? Si on regarde la débauche de ressources pour le résultat obtenu, 3 secondes, c’est énorme. D’autant plus que les bits circulent dans nos processeurs avec des unités de temps du niveau de la nanoseconde. Donc oui, tout est uniformément lent.
  • ...29 more annotations...
  • Il est nécessaire de revenir à plus d’efficience, de « challenger » les besoins en matériel, de redéfinir ce qu’est la performance. Tant que l’on se satisfera de cette lenteur uniforme avec des solutions pour ne pas ralentir plus (comme l’ajout de matériel), nous n’avancerons pas. La dette technique, notion largement assimilée par les équipes de développement, n’est malheureusement pas adaptée à ce problème (on y reviendra). Nous sommes sur une dette de ressources matérielles et de mauvaise adéquation entre le besoin utilisateur et la solution technique. On parle ici d’efficience et non pas uniquement de performance. L’efficience est une histoire de mesure du gaspillage. L’ISO définie l’efficience avec comme domaine : Time behaviour, Resource utilization et Capacity. Pourquoi ne pas pousser plus ces concepts ?
  • Développez du code Java pour un serveur J2EE ou pour un téléphone Android, ce n’est pas pareil. Des structures spécifiques existent par exemple pour traiter des données en Android mais les structures classiques sont toujours utilisées. Les développeurs ont perdu le lien avec le hardware. C’est malheureux car c’est passionnant (et utile) de savoir comment fonctionne un processeur. Pourquoi : abstraction et spécialisation (nous verrons cela plus loin). Car en perdant ce lien, on perd une des forces du développement. Ce lien est important chez les hackers ou chez les développeurs d’informatique embarquée mais malheureusement de moins en moins présent chez les autres développeurs.
  • Les pratiques devops pourraient répondre à cette perte de lien. Là, c’est pareil, nous n’allons pas jusqu’au au bout : généralement le devops va se focaliser à bien gérer le déploiement d’une solution logicielle sur une infrastructure mixte (matérielle et un peu logicielle). Il faudrait aller plus loin en remontant par exemple les métriques de consommation, en discutant sur les contraintes d’exécution… plutôt que de “scaler” juste parce que c’est plus simple.
  • Certaines technologies ont une utilité mais sont maintenant systématiquement utilisées. C’est le cas par exemple des ORM qui sont devenus systématiques. Aucune réflexion n’est faite sur son intérêt en début des projets. Résultat : on a rajouté une surcouche qui consomme, qu’il faut maintenir et des développeurs qui n’ont plus l’habitude d’effectuer des requêtes natives. Cela ne serait pas un problème si chaque développeur connaissait très bien le fonctionnement des couches d’abstraction : comment fonctionne HIBERNATE par exemple ? On s’appuie hélas de façon aveugle sur ces frameworks.
  • Le besoin d’abstraction est lié à un autre défaut: nous attendons toujours des outils miracles. La silver bullet qui améliorera encore plus nos pratiques. Le langage idéal, le framework pour aller plus vite, l’outil de gestion miracle des dépendances… C’est la promesse à chaque fois d’un nouveau framework : gagner du temps en développement, être plus performant… Et on y croit, on fonce. On abandonne les frameworks sur lesquels nous avions investi, sur lesquels on avait passé du temps… et on passe au nouveau. C’est le cas actuellement des frameworks JS. L’histoire du développement est pavé de framework oubliés, non maintenus, abandonnés… Nous sommes les champions pour réinventer ce qui existe déjà. Si on le gardait suffisamment longtemps, on aurait le temps de maîtriser un framework, de l’optimiser, de le comprendre. Mais ce n’est pas le cas. Et que l’on ne me dise pas que si on n’avait pas continuellement réinventé la roue, on aurait encore des roues en pierre… Innover serait d’améliorer les frameworks existants .
  • Sur les langages, c’est la même rengaine. Attention, je ne préconise pas de rester sur l’assembleur et sur le C… C’est le cas par exemple dans le monde Android, pendant plus de 10 ans les développeurs ont pu travailler sur des outils et des frameworks Java. Et comme cela, par magie, le nouveau Langage de la communauté est Kotlin. On imagine l’impact sur les applications existantes (si elles doivent changer), il faut recréer des outils, retrouver des bonnes pratiques… Pour quel gain?
  • Sincèrement, on ne voit aucun ralentissement sur les cycles de renouvellement des technologies. C’est toujours un rythme frénétique. Nous trouverons bien le Graal un jour. Le problème est ensuite l’empilement de ses technologies. Comme aucune ne meurt vraiment et que l’on en maintient toujours des parties, on développe d’autres couches pour s’adapter et continuer à maintenir ces bouts de code ou ces librairies. Le problèmen’est pas le code legacy,, c’est la glue que l’on développe autour qui pêche.
  • Au final, on passe du temps à résoudre des problèmes techniques internes, on recherche des outils pour résoudre les problèmes que l’on ajoute, on passe son temps à s’adapter à ses nouveaux outils, on ajoute des surcouches (voir chapitre précédent…) … et on n’a pas améliorer la qualité intrinsèque du logiciel ou les besoins auxquels on doit répondre.
  • Au final, le rythme frénétique des changements ne nous permet pas de nous stabiliser sur une technologie. J’avoue qu’en tant que vieux développeur que je suis, j’ai été découragé par le changement Java vers Kotlin pour Android. C’est peut-être pour certains de véritables challenges, mais quand je repense au temps que j’ai passé sur l’apprentissage, sur la mise en place d’outils
  • Ensuite, comme aucune solution ne meurt vraiment, que de nouvelles arrivent… on se retrouve avec des projets avec des multitudes de technologies à gérer avec les compétences associées aussi… On s’étonne ensuite que le marché du recrutement de développeur soit bouché. Pas étonnant.. Il y a énormément de développeurs mais il est difficile de trouver un développeur React avec 5 ans d’expérience qui connaîsse le Go. Le marché est fractionné, comme les technologies. C’est peut-être bon pour les développeurs car cela crée de la rareté et cela fait monter les prix, mais pas pour le projet !
  • Cependant, cet apprentissage continu des technologies pose le problème d’apprentissage de domaines transverses : accessibilité, agilité, performance… En effet, qu’est-ce qui nous prouve que les outils et les langages que nous allons choisir ne vont pas changer dans 4 ans ? Rust, Go… dans 2 ans ? Rien ne tend à donner une tendance.
  • On ne se remet pas en question car on veut s’amuser. Le fun est important, car si l’on s’ennuie dans son boulot, on va déprimer. Par contre, on ne peut pas, sous prétexte de vouloir du fun tout le temps, changer nos outils continuellement. Il y a un déséquilibre entre l’expérience du développeur et l’expérience de l’utilisateur. On veut du fun, mais qu’est-ce que cela va réellement apporter à l’utilisateur ? Un produit plus « joyeux » ? Non, nous ne sommes pas des acteurs.
  • On ne se pose pas de question sur l’éthique de notre domaine, sur sa durabilité… Cela vient peut-être du fait que notre domaine n’a pas réellement de code éthique (comme par exemple les médecins ou les avocats). Mais sommes-nous en tant que développeurs réellement libres si l’on ne peut pas avoir une autocritique ? Nous sommes peut être asservis à une cause portée par d’autres personnes ? Le problème n’est pas simple mais nous avons dans tous les cas une responsabilité. Sans code éthique, c’est le plus fort et le plus malhonnête qui est le plus fort. Le buzz et les pratiques pour manipuler les utilisateurs sont de plus en plus répandus. Sans Dark Pattern ton produit ne sera rien. Les plus gros (GAFA…) n’en sont pas arrivés là pour rien.
  • Est-ce que la solution est politique ? Il faut légiférer pour mieux gouverner le monde du logiciel. On le voit avec les dernières réponses législatives aux problèmes concrets : RGPD, notification des cookies… la source du problème n’est pas résolue. Peut-être parce que les politiques ne comprennent que très mal le monde du logiciel.
  • Car si cette structuration n’est pas faite, les développeurs vont perdre la main sur ce qu’ils font. Or le manque d’éthique de la profession est critiqué à l’extérieur. Rachel Coldicutt (@rachelcoldicutt) directrice de DotEveryOne, un think tank britannique qui promeut une technologie plus responsable, encourage à former des diplômés non-informaticiens qui traiteraient de ces problèmes (Voir plus précisément dans l’article d’Internet Actu). Pour poursuivre sur ce dernier article, cela serait dans la droite ligne de l’informatique, domaine issu du monde militaire où les ingénieurs et développeurs seraient formés à suivre des décisions et des commandements.
  • Le monde du logiciel s’intègre dans un système organisationnel classique. Grands groupes, sous-traitances via des ESN, web agencies… Tous suivent les mêmes techniques de gestion des projets informatiques. Et tout le monde va « dans le mur ». Aucune analyse sérieuse n’est faite sur le coût global d’un logiciel (TCO), sur son impact sur la société, sur son bénéfice, sa qualité… C’est la rapidité de release(Time to Market), la surcharge featurale (fonctionnelle), la productivité immédiate, qui comptent. Premièrement car les gens externes à ce monde ne connaissent que trop peu la technicité du logiciel et son monde. Il est virtuel donc simple (sic). Mais ce n’est pas le cas. Les écoles de commerce et autres usines de managers n’ont pas de cours de développement. Comment peuvent-ils bien diriger et piloter des projets ?
  • On continue a vouloir chiffrer des projets informatiques comme de simples projets alors que des mouvements comme le no estimate propose des approches innovantes. Les projets continuent d’échouer : le chaos report rapporte que simplement 30% des projets réussissent bien. Et face à cette mauvaise gouvernance, les équipes techniques continuent de se battre sur les technologies. Dommages collatéraux : la qualité, l’éthique, l’environnement… et au final l’utilisateur. Cela ne serait pas si critique si le logiciel n’avait pas un impact aussi fort sur le monde. Software eats the world… et oui, on le « bouffe »…
  • Si ces décisions absurdes arrivent, ce n’est pas uniquement la faute du développeur mais bien de l’organisation. Et qui dit organisation dit management (sous-différente forme). Si l’on revient au livre de Morel, il parle de piège cognitif dans lesquels les managers et les techniciens tombent souvent. C’est le cas de la navette Challenger qui a été quand même lancée malgré la connaissance du problème d’un joint défectueux. Les managers ont sous-évalué les risques et les ingénieurs ne les ont pas prouvés. Chacun a reproché à l’autre de ne pas fournir assez de preuves scientifiques. C’est souvent ce qui se passe dans les entreprises : des warnings sont levés par certains développeurs mais le management ne les prend pas assez au sérieux.
  • En même temps, on revient aux causes précédentes (silver bullet, on s’amuse…), il est nécessaire d’avoir une vraie ingénierie et une vraie analyse des technologies. Sans cela, les équipes techniques seront toujours non-écoutées par le management. Des outils et benchmark existent mais ils sont encore trop peu connus. Par exemple, Technologie Radar qui classe les technologies en terme d’adoption.
  • Ce phénomène de décision absurde est renforcé par le tissu complexe du développement logiciel : Les sociétés historiquement hors du numérique sous-traitent à des entreprises du numérique, les ESN sous-traitent aux freelances… Le partage de responsabilité technique / management est encore plus complexe et les décisions absurdes plus nombreuses.
  • Mais cela ne s’arrête pas là. On peut aussi voir l’usage de l’open-source comme une sorte de sous-traitance. Idem pour l’usage de framework. On est juste consommateur passif, on se déleste de plein de problématiques (qui ont un impact sur les ressources, la qualité…).
  • C’est d’autant plus facile que le domaine est passionnant et que la pratique des sides-projects, du temps passé sur les projets open-source hors des horaires de bureau est chose commune… La recherche de “fun” et le temps passé bénéficient alors plus aux organisations qu’aux développeurs. Difficile dans ce cas de chiffrer le coût réel d’un projet. Et pourtant, cela ne serait pas un problème si on arrivait à des logiciels « au top ».
  • Le développeur n’est ici plus un artisan du code, mais plutôt un pion dans un système critiquable du point de vue humain. Cela n’est pas visible, tout va bien et on s’amuse. En apparence seulement, car certains domaines du développement logiciel vont plus loin et rendent beaucoup plus visible cette exploitation : Le domaine du jeux-vidéo où les heures explosent.
  • Et donc, toutes ces maladresses (logiciel trop lourd, sans qualité…) se retrouvent chez les utilisateurs. Comme on doit releaser au plus vite les logiciels, que l’on ne tente pas de résoudre les inefficiences internes, et que l’on ne met pas plus de ressource pour faire de la qualité, on arrive à des logiciels médiocres. Mais on a tellement d’outils de monitoring et de suivi des utilisateurs pour détecter ce qui se passe directement chez eux qu’au final, on pense que ce n’est pas grave. Cela serait une bonne idée si les outils étaient bien utilisés. Or la multitude d’informations récoltées (en plus des bugs remontés par les utilisateurs) n’est que faiblement utilisée. Trop d’information, difficulté de cibler la vraie source du problème… on s’y perd et au final, c’est l’utilisateur qui trinque. Tous les logiciels sont maintenant en bêta-test. A quoi bon faire de la sur-qualité, autant attendre que l’utilisateur le demande. Et on revient ainsi au premier chapitre : un logiciel uniformément lent … et médiocre.
  • Heureusement, on est sauvé par la non-sensibilisation des utilisateurs au monde du logiciel. C’est un monde effectivement virtuel et magique qu’ils ont l’habitude d’utiliser. On leur a mis en main les outils mais sans notice explicative. Comment évaluer la qualité d’un logiciel, les risques sur l’environnement, les problèmes de sécurité… si l’on n’a pas des notions d’informatique, même rudimentaires ?
  • L’informatique du 21ème siècle est ce que l’agroalimentaire était pour les consommateurs au 20ème siècle. Pour des raisons de productivité, on a poussé des solutions médiocres avec un calcul court-termiste : mise sur le marché de plus en plus rapide, profit en hausse constante… agriculture intensive, malbouffe, pesticides… avec des impacts importants sur la santé, sur l’environnement… Les consommateurs savent maintenant (de plus en plus) les conséquences désastreuses de ces dérives, l’industrie agroalimentaire doit donc se réinventer, techniquement, commercialement et éthiquement. Pour le logiciel, quand les utilisateurs comprendront les tenants et les aboutissants des choix techniques, l’industrie du logiciel devra gérer les mêmes problèmes. En effet, le retour au bon sens et aux bonnes pratiques n’est pas une chose simple pour l’agroalimentaire. Dans l’IT, on commence à le voir avec ses conséquence sur la vie privée des utilisateurs (mais nous n’en sommes qu’aux balbutiements).
  • On va dans la mauvaise direction. L’industrie de l’informatique a déjà effectué dans les années 70 des erreurs avec des impacts non-négligeables. L’exclusion des femmes de l’informatique en fait partie. Non seulement cela a été fatal pour certaines industries mais on peut se poser la question de comment on peut maintenant adresser des réponses à seulement 50% de la population informatique, avec une représentativité très faible. Le chemin est maintenant difficile à retrouver.
  • Mais l’impact du monde IT ne s’arrête pas là. La source et le modèle d’une grosse partie de l’informatique sont issus de la Silicon valley. Si l’on écarte les gagnants de la Silicon Valley, les populations locales subissent la montée des prix, le déclassement, la pauvreté…
  • Dans sa lancée vers le progrès technique, le monde du logiciel crée aussi sa dette environnementale…
  •  
    "Le monde du logiciel va mal et si l'on n'agit pas, on risque de le regretter. Environnement, qualité, exclusion… Software Eats The World (Le logiciel mange le monde…) ? Oui un peu trop. "
Aurialie Jublin

Comunes collective - 0 views

  • Ourproject.org is a web-based collaborative free content repository. It acts as a central location for offering web space and tools for projects of any topic, focusing on free knowledge. It aims to extend the ideas and methodology of free software to social areas and free culture in general. Thus, it provides multiple web services (hosting, mailing lists, wiki, ftp, forums…) to social/cultural/artistic projects as long as they share their contents with Creative Commons licenses (or other free/libre licenses). Active since 2002, nowadays it hosts 1,733 projects and its services receive around 1,000,000 monthly visits.
  • Kune is a platform for encouraging collaboration, content sharing & free culture. It aims to improve/modernize/replicate the labor of what ourproject.org does, but in an easier manner and expanding on its features for community-building. It allows for the creation of online spaces of collaborative work, where organizations and individuals can build projects online, coordinate common agendas, set up virtual meetings and join people/orgs with similar interests. It sums up the characteristics of online social networks with collaborative software, aimed at groups and boosting the sharing of contents among orgs/peers.
  • Move Commons (MC) is a simple web tool for initiatives, collectives and NGOs to declare and visualize the core principles they are committed to. The idea behind MC follows the same mechanics of Creative Commons tagging cultural works, providing a user-friendly, bottom-up, labeling system for each initiative with 4 meaningful icons and some keywords. It aims to boost the visibility and diffusion of such initiatives, building a network among related initiatives/collectives across the world and allowing mutual discovery.
  • ...1 more annotation...
  •   Other projects   Alerta! is a community-driven alert system Plantaré is a community currency for seed exchange The World of Alternatives is a proof-of-concept initiative that aims to classify and document collectively alternatives of our “Another World is Possible” in Wikipedia Karma is a proof-of-concept gadget for a decentralized reputation rating system Massmob is a proof-of-concept gadget for calling and organizing meetings and smart mobs Troco is a proof-of-concept gadget of a peer-to-peer currency Brick (temporal nickname) is a forthcoming initiative for guiding student assignments towards the solution of real problems and the sharing of their results for reusing/replicating/adapting the solutions Ideas (temporal nickname) is a forthcoming initiative for brainstorming ideas of possible social projects related to the Commons
  •  
    "Comunes is a non-profit collective dedicated to facilitating the use of free/libre web tools and resources to collectives and activists alike, with the hopes of encouraging the Commons."
Aurialie Jublin

La directive Copyright n'est pas une défaite pour l'Internet Libre et Ouvert ... - 0 views

  • Trop souvent, nous avons concentré nos énergies sur des combats législatifs, hypnotisés par l’idée que le décompte des voix conduirait à une sorte « d’ordalie démocratique ». Cela nous a donné plusieurs fois l’illusion d’avoir remporté quelque chose, comme au moment du rejet de l’ACTA, alors que les racines du problème restaient intactes. Mais heureusement en sens inverse, si la victoire n’est jamais acquise en cas de succès législatif, il en est de même pour la défaite. Et rien ne serait plus faux que de penser que le vote de cette semaine sur la directive Copyright constitue la fin de l’histoire, sous prétexte que nous aurions encaissé là une défaite décisive !
  • Certes les articles 11 et 13 du texte, qui instaurent une obligation de filtrage automatisé des plateformes et une taxe sur les liens hypertextes au profit des éditeurs de presse, représentent des monstruosités contre lesquelles il était nécessaire de lutter. Mais il convient à présent d’apprécier exactement la portée de ces mesures, pour réadapter très rapidement notre stratégie en conséquence à partir d’une appréhension claire de la situation. Or cette « vision stratégique d’ensemble » est à mon sens précisément ce qui a manqué tout au long de cette campagne dans le camp des défenseurs des libertés numériques et il est inquiétant de constater que ces erreurs de jugement n’ont pas disparu maintenant que l’heure est venue d’analyser les conséquences du scrutin.
  • On a pu voir par exemple cette semaine l’eurodéputée du Parti Pirate Julia Reda expliquer sur son blog que ce vote constituait un « coup dur porté à l’internet libre et ouvert » (Today’s decision is a severe blow to the free and open internet). De son côté, Cory Doctorow a écrit un article sur le site de l’EFF, où il affirme que « l’Europe a perdu Internet » (Today, Europe lost the Internet). Sur Next INpact, Marc Rees déplore dans la même veine « une mise au pilori du Web tel que nous le connaissons, un affront à la liberté d’expression. » Ces appréciations font écho au mot d’ordre qui fut celui des défenseurs des libertés en campagne contre les articles 11 et 13 de la Directive : Save Your Internet (Sauvez votre Internet).
  • ...12 more annotations...
  • Or lorsqu’on lit attentivement ces articles, tels qu’amendés par le vote des eurodéputés, on se rend compte qu’ils ne visent pas pas « l’Internet » ou « le Web » tout entier, mais seulement une catégorie d’acteurs déterminés, à savoir les plateformes centralisées à but lucratif. Ce n’est donc pas « l’Internet libre et ouvert » qui va être frappé par cette directive, mais plutôt exactement ce qui représente son antithèse ! A savoir cette couche d’intermédiaires profondément toxiques qui ont dénaturé au fil du temps les principes sur lesquels Internet et le Web s’appuyaient à l’origine pour nous faire basculer dans la « plateformisation ».
  • Or le grand mensonge sur lesquels s’appuient les GAFAM – principaux responsables de cette centralisation -, c’est de chercher à faire croire qu’ils représentent à eux-seuls l’Internet tout entier, comme si rien ne pouvait plus exister en dehors de leur emprise. En ce sens quand j’entends Cory Doctorow dire que nous « avons perdu Internet » à cause de mesures ciblant les acteurs centralisés lucratifs, je ne peux que frémir. Avec tout le respect que je peux avoir pour ce grand monsieur, ses propos paraissent avoir incorporé la prétention des GAFAM à recouvrir le web et c’est particulièrement grave. Car c’est précisément cela qui constituerait la défaite finale des défenseurs des libertés : se résigner à cet état de fait et ne pas agir sur les marges dont nous disposons encore pour briser cette hégémonie.
  • Sur Next INpact, Marc Rees identifie avec raison le changement le plus profond que ce texte va amener : il remet en question la distinction classique entre hébergeurs et éditeurs, issue de la directive eCommerce de 2000. Jusqu’à présent, les hébergeurs bénéficiaient d’une responsabilité atténuée vis-à-vis des actes commis par leurs utilisateurs. Au lieu de cela, la directive Copyright introduit une nouvelle catégorie d’intermédiaires dits « actifs » qui devront assumer la responsabilité des contenus qu’ils diffusent, même s’ils ne sont pas directement à l’origine de leur mise en ligne.
  • On voit que le « rôle actif » se déduit de trois éléments : la taille de l’acteur, son but lucratif et la hiérarchisation automatisée de contenus. Ce sont donc bien des plateformes centralisées lucratives, type Facebook ou YouTube, qui devront assumer cette nouvelle responsabilité. Pour y échapper, elles devront conclure des accords de licence pour rémunérer les ayant droits et, à défaut, déployer un filtrage automatisé des contenus a priori. En pratique, elles seront certainement toujours obligées de mettre en place un filtrage, car il est quasiment impossible d’obtenir une licence capable de couvrir l’intégralité des œuvres pouvant être postées.
  • La directive a par ailleurs pris le soin de préciser que les « prestataires sans finalité commerciale, comme les encyclopédies en ligne de type Wikipedia » ainsi que les « plateformes de développement de logiciels Open Source » seraient exclus du champ d’application de l’article 13, ce qui donne des garanties contre d’éventuels dommages collatéraux.
  • Marc Rees nous explique que cette évolution est dangereuse, parce que l’équilibre fixé par la directive eCommerce constituerait le « socle fondamental du respect de la liberté d’expression » sur Internet. Mais cette vision me paraît relever d’une conception purement « formelle » de la liberté d’expression. Peut-on encore dire que ce qui se passe sur Facebook ou YouTube relève de l’exercice de la liberté d’expression, alors que ces acteurs soumettent leurs utilisateurs à l’emprise d’une gouvernance algorithmique de plus en plus insupportable, que cible précisément la notion de « rôle actif » ?
  • Il est peut-être temps de tirer réellement les conséquences de la célèbre maxime « Code Is Law » de Lawrence Lessig : le droit n’est qu’une sorte de voile dans l’environnement numérique, car c’est le soubassement technique sur lequel s’appuie les usages qui conditionne réellement l’exercice des libertés. Quoi que dise la directive eCommerce, il n’y a quasiment plus rien qui relève de l’exercice de la liberté d’expression sur les plateformes centralisées lucratives, sinon une grotesque parodie qui salit le nom même de la liberté et nous en fait peu à peu perdre jusqu’au sens ! En le lisant « en creux », l’article 13 dessine au contraire l’espace sur Internet où la liberté d’expression peut encore réellement s’exercer : le réseau des sites personnels, celui des hébergeurs ne jouant pas un rôle actif et – plus important encore – les nouveaux services s’appuyant sur une fédération de serveurs, comme Mastodon ou Peertube.
  • Ce qui va se passer à présent avec l’obligation de filtrage automatisée, c’est que les grandes plateformes centralisées lucratives, type YouTube ou Facebook, vont sans doute devenir des espaces où les utilisateurs éprouveront le poids d’une répression « à la chinoise » avec la nécessité de se soumettre à un contrôle algorithmique avant même de pouvoir poster leurs contenus. Le contraste n’en sera que plus fort avec les espaces restant en dehors du périmètre de l’article 13, que les créateurs et leur public seront d’autant plus incités à rejoindre. Doit-on réellement le déplorer ?
  • On retrouve ici le problème de « l’agnosticisme économique » dont j’ai déjà parlé sur ce blog à propos du fonctionnement même des licences libres. En refusant de discriminer selon les types d’usages économiques, les défenseurs du Libre se sont en réalité privés de la possibilité de développer une réelle doctrine économique. C’est ce même aveuglement aux questions économiques qui conduit à des aberrations de positionnement comme celles que l’on a vu au cours de cette campagne contre la directive Copyright. Comment mobiliser autour du mot d’ordre « Save Your Internet », alors que cet « Internet » que l’on a voulu faire passer pour « le notre » comprend en réalité les principaux représentants du capitalisme de surveillance ? C’est le sens même de nos luttes qui disparaît si nous ne nous donnons pas les moyens d’opérer des distinctions claires parmi les acteurs économiques.
  • En juin dernier, c’est-à-dire avant même le premier vote sur la directive, La Quadrature du Net a commencé à développer ce type d’analyses, en suggérant de ne pas s’opposer à l’introduction du critère du « rôle actif » des plateformes pour au contraire le retourner comme une arme dans la lutte contre la centralisation
  • L’enjeu n’est pas de chercher – sans doute vainement – à supprimer l’article 13, mais de réussir à délimiter clairement son périmètre pour s’assurer qu’il ne s’appliquera qu’à des acteurs centralisés lucratifs procédant à une hiérarchisation des contenus. Manœuvrer ainsi ferait peser sur les GAFAM une charge écrasante, tout en préservant un espace pour développer un réseau d’acteurs éthiques non-centralisés et inscrits dans une logique d’économie solidaire. Il n’y a qu’au sein d’une telle sphère que l’on puisse encore espérer œuvrer pour un « Internet Libre et Ouvert ».
  • Il faut aussi sortir de l’urgence immédiate imposée par cette série de votes pour se replacer dans le temps long. De toutes façons, quelle que soit l’issue des dernières négociations, il restera encore plusieurs années (3, 4, peut-être plus ?) avant que la directive ne soit transposée dans les pays de l’Union. C’est un délai appréciable qui nous laisse encore le temps de travailler au développement de cette sphère d’acteurs alternatifs.
  •  
    "Bien que la directive droit d'auteur soit le symptôme d'une soumission économique de nos industries aux géants du Web, elle crée néanmoins l'opportunité de remettre en cause ces géants, au profit de l'Internet décentralisé. C'est ce que nous rappelle Calimaq, membre de La Quadrature du Net, dans cette tribune - initialement publiée sur son blog."
Aurialie Jublin

Règlement terroriste - La Quadrature du Net - 0 views

  • Délégation de la censure aux géants du Web D’un point de vue technique, économique et humain, seule une poignée d’acteurs – les géants du Web – pourront respecter des obligations aussi strictes. Les autres acteurs (commerciaux ou non) n’auront d’autre choix que de cesser leurs activités ou de se soumettre aux outils de modération (filtrage automatique et listes de blocage) développés par Facebook et Google depuis 2015 avec le soutien de la Commission européenne. Ces multinationales deviendront donc les juges de ce qui peut être dit sur Internet. La structure riche, variée et décentralisée du Web est vouée à disparaître.
  • Une loi inutile Ce règlement « anti-terroriste » ne permettra même pas d’atteindre son objectif affiché : empêcher que DAESH ou Al Qaeda diffusent leur propagande auprès des personnes déjà séduites par leurs discours. Il semble absurde de devoir encore le répéter : sur Internet, n’importe quelle loi de blocage peut être contournée par les personnes qui souhaitent accéder aux informations censurées. Les seuls effets de cette loi seront ses dommages collatéraux : le grand public n’aura certes plus à subir les contenus terroristes, mais il n’aura plus connaissance non plus des informations censurées abusivement.
  •  
    "En septembre 2018, sous l'influence de la France et de l'Allemagne, la Commission européenne a proposé un règlement « relatif à la prévention de la diffusion en ligne de contenus à caractère terroriste ». Ce nouveau règlement imposera à tout acteur du Web (hébergeurs de blog ou de vidéos, sites de presse, petits forums ou grands réseaux sociaux) de : Bloquer en une heure n'importe quel contenu signalé comme « terroriste » par la police (sans l'autorisation préalable d'un juge), et donc se tenir à sa disposition 24h/24 et 7j/7. Devancer les demandes de la police en détectant lui-même les contenus illicites à l'aide d'outils de filtrage automatisé. Si un site ne respecte pas ces règles, il risque une amende jusqu'à 4 % de son chiffre d'affaires."
Aurialie Jublin

Réguler Internet par la décentralisation - La Quadrature du Net - 0 views

  • Pour compenser cette « règle » qui rendrait la haine et le conflit rentables, le gouvernement veut renforcer les obligations imposées aux plateformes géantes qui en profitent : transparence et devoir de vigilance accrus. Pourquoi pas (cela peut être fait de façon plus ou moins pertinente, nous y reviendrons plus tard). Mais cette solution ne suffira jamais à contrer à elle seule les dérives permises par la « rentabilité du conflit ». Et il est illusoire d’imaginer, comme le fait le rapport cité ci-dessus, qu’on pourrait atténuer ce problème en mettant un juge derrière chaque diffamation ou injure prononcée sur Internet. Il y en a bien trop. Non, si on veut traiter le problème sérieusement, c’est l’ensemble de l’économie de l’attention qu’il faut remettre en question. Et cela doit passer par l’émergence d’alternatives saines qui reposent sur un autre modèle que celui des GAFAM.
  • En pratique, à La Quadrature du Net, nous avons songé à devenir un hébergeur de vidéos (en autorisant tout le monde à mettre en ligne des vidéos sur notre service de streaming Peertube). Ce serait une façon concrète de participer à la construction d’une alternative à Youtube, qui ne tirerait aucun profit des discours conflictuels ou de la surveillance de masse. Mais nous avons dû y renoncer. Nous n’avons pas du tout assez de juristes pour évaluer quelles vidéos seraient « manifestement illicites ». Nous n’avons pas les moyens de supporter des amendes en cas de plaintes. Youtube reste maître.
  • Si le gouvernement veut effectivement lutter contre la diffusion de « contenus haineux et extrêmes », il doit changer le droit pour favoriser le développement d’alternatives à l’économie de l’attention. Voici notre proposition. Premièrement, que les hébergeurs ne soient plus soumis aux mêmes obligations que les plateformes géantes, qui régulent les informations de façon active pour leurs intérêts économiques. Secondement, que les hébergeurs neutres, qui ne tirent aucun profit en mettant en avant de tel ou tel contenu, ne supportent plus la charge d’évaluer si un contenu est « manifestement illicite » et doit être censuré. Seul un juge doit pouvoir leur exiger de censurer un contenu.
  • ...2 more annotations...
  • Dans le cadre de la loi, chaque hébergeur applique ses propres règles de modération, plus ou moins stricte, et chaque personne choisit l’espace de discussion adapté à ses besoins et à ses envies. La liberté de ce choix est renforcée par le développement des standards de « réseaux sociaux décentralisés », notamment du standard ActivityPub publié en janvier 2018 par le World Wide Web Consortium (W3C, à l’origine des standards du Web) et déjà appliqué par Mastodon (alternative à Twitter) ou Peertube. Ces standards permettront à une infinité d’hébergeurs de communiquer entre eux, selon les règles de chacun. Ils permettront aussi à chaque personne de passer librement d’un hébergeur à un autre, d’un jeu de règles à un autre (ce que les plateformes géantes font tout pour empêcher aujourd’hui).
  • Si le gouvernement veut mieux réguler le Web, il doit le faire sérieusement. En se contentant d’alourdir les obligations des géants, son action restera superficielle. Pour agir en profondeur et sur le long terme, sa démarche doit aussi être constructive, favorisant le développement de modèles vertueux.
  •  
    "La directive droit d'auteur et les récents débats sur les « fausses informations » ont servi d'introduction au débat général sur la régulation du Web, tel qu'il s'annonce pour l'année à venir. Aujourd'hui, La Quadrature du Net présente ses propositions concrètes."
1 - 20 of 93 Next › Last »
Showing 20 items per page