Skip to main content

Home/ QN2019/ Group items tagged police

Rss Feed Group items tagged

Aurialie Jublin

Les données de Google sont devenues une mine d'or pour la police américaine -... - 0 views

  • Le recours à cette technique d’investigation, utilisée pour la première fois en 2016, a « fortement augmenté » ces six derniers mois, assurent les employés de Google interrogés par le New York Times. Un salarié parle d’un record de 180 requêtes comptabilisées en une seule semaine. Google refuse de commenter ces chiffres. Que lui demande exactement la police ? Un mandat pour avoir accès à une gigantesque base de données qui contient la position géographique précise de plusieurs centaines de millions d’appareils dans le monde depuis près de dix ans. Google, l'appelle, en interne, « Sensorvault ».
  • La police indique une zone géographique et une période de temps, Google lui fournit la liste de tous les appareils présents au moment et au lieu indiqués. Une fois que la police a enquêté et réduit son champ de recherches à quelques appareils, Google révèle les noms et adresses mail de leurs propriétaires. Et ce au risque d’arrêter des innocents, s’inquiète le New York Times. 
  • Ces recherches posent par ailleurs une question constitutionnelle, car le quatrième amendement stipule qu’un mandat doit avoir une portée limitée et établir des motifs probables et suffisants. Or, le mandat demandé à Google peut parfois concerner des zones et des plages horaires étendues, ou même s’éloigner de la demande initiale jusqu’à « offrir un portrait précis des habitudes d’un individu ». Enfin, Google ne dispose pas des données de tous les appareils - les données de géolocalisation peuvent être désactivées - sa vue est donc biaisée, et incomplète.
  • ...2 more annotations...
  • Les révélations du New York Times sur Sensorvault rappellent les nombreuses questions éthiques et légales posées par les requêtes de la police ou de la justice, toujours plus nombreuses, faites aux entreprises de la tech. On se souvient d’Amazon qui, en 2016, s’était refusée à donner à la justice américaine les enregistrements de l’enceinte connectée d’un homme accusé d’avoir tué un de ses amis. L’homme avait finalement clamé son innocence et autorisé Amazon à fournir les données réclamées, et les charges contre lui avaient été abandonnées.
  • Les entreprises de la tech ne sont pas les seules à intéresser la police. Les bases de données des plateformes proposant des tests ADN dits « récréatifs » suscitent également la convoitise du FBI. Pendant l’été 2018, les quatre entreprises dominant le secteur avaient toutes promis qu’elle ne laisseraient pas la police entrer dans leurs bases de données sans mandat, mais quelques semaines plus tard, « Family Tree DNA autorisait déjà le FBI à télécharger l’ADN récupéré sur des cadavres et des tâches de sang et à naviguer dans la base de données comme n’importe quel client, en regardant les noms et les relations entre les utilisateurs. »
  •  
    "La police américaine adresse de plus en plus de requêtes à Google pour géolocaliser des suspects en accédant à une base de données qui contient les positions géographiques de centaines de millions de téléphones dans le monde, a révélé le New York Times. La méthode est critiquée. "
Aurialie Jublin

De l'utilité des fake news et autres rumeurs - 0 views

  • Or aujourd’hui que constate-t-on ? Que la presse est de moins en moins lue. Qu’il y a une défiance vis-à-vis du discours journalistique. Que le mode de circulation de l’information dans les réseaux sociaux relève de l’oral plus que de l’écrit (dans les réseaux, c’est moins une vaste correspondance à laquelle on assiste, qu’une vaste conversation).  Et que ces mêmes réseaux sociaux sont une invitation pour tous à commenter, avec une diffusion plus large néanmoins. On est donc dans une situation qui est à la fois nouvelle, et pas tant que ça. 
  • Cette prolifération de rumeurs sous la Restauration était aussi, d’une certaine manière, un bon signe. C’était, dans une période pleine d’incertitudes, le signe d’une politisation, d’une envie de parler de la chose publique, le signe paradoxal d’une poussée démocratique (c’est d’ailleurs pour ça que le pouvoir s’en inquiétait autant). Encore une fois il y a des échos avec ce qu’on vit aujourd’hui.
  • Rassurez-vous, je ne vais pas dire que les fake news, c’est super, je ne vais pas me livrer non plus à un éloge de la surveillance d’Etat. En revanche, le pouvoir de l’époque avait peut-être compris une chose qu’on a un peu oubliée : il y a à apprendre des fausses nouvelles. Parfois mieux que les faits eux-mêmes, les fake news disent les angoisses, les espoirs et les obsessions. Ce à quoi on croit – ou fait semblant de croire – est aussi intéressant que ce qu’on sait. Donc, les fake news ont une utilité, c’est là où je voulais en venir. 
  •  
    "L'historien François Ploux y raconte la prolifération des bruits et des rumeurs pendant cette période qui s'étale entre 1815 et 1830. Au point que la préfecture de police de Paris avait créé un vaste réseau d'informateurs qui passaient leur temps dans les lieux de discussions - les salons, les cafés, la Halle, les Tuileries etc. - et envoyaient chaque jour au préfet des rapports très détaillés. Tout était consigné, de la rumeur la plus absurde à la médisance en passant par le commentaire politique. Ce qui intéressait la police n'était pas de savoir qui disait quoi, mais d'essayer de saisir l'état de l'opinion. Le pouvoir de l'époque avait compris que l'opinion se fabrique partout (dans la rue et dans les dîners en ville), qu'il se fabrique avec de tout - du vrai, du faux, de l'analyse et du fantasme -, que tout est important et mérite d'être observé. "
Aurialie Jublin

Règlement terroriste - La Quadrature du Net - 0 views

  • Délégation de la censure aux géants du Web D’un point de vue technique, économique et humain, seule une poignée d’acteurs – les géants du Web – pourront respecter des obligations aussi strictes. Les autres acteurs (commerciaux ou non) n’auront d’autre choix que de cesser leurs activités ou de se soumettre aux outils de modération (filtrage automatique et listes de blocage) développés par Facebook et Google depuis 2015 avec le soutien de la Commission européenne. Ces multinationales deviendront donc les juges de ce qui peut être dit sur Internet. La structure riche, variée et décentralisée du Web est vouée à disparaître.
  • Une loi inutile Ce règlement « anti-terroriste » ne permettra même pas d’atteindre son objectif affiché : empêcher que DAESH ou Al Qaeda diffusent leur propagande auprès des personnes déjà séduites par leurs discours. Il semble absurde de devoir encore le répéter : sur Internet, n’importe quelle loi de blocage peut être contournée par les personnes qui souhaitent accéder aux informations censurées. Les seuls effets de cette loi seront ses dommages collatéraux : le grand public n’aura certes plus à subir les contenus terroristes, mais il n’aura plus connaissance non plus des informations censurées abusivement.
  •  
    "En septembre 2018, sous l'influence de la France et de l'Allemagne, la Commission européenne a proposé un règlement « relatif à la prévention de la diffusion en ligne de contenus à caractère terroriste ». Ce nouveau règlement imposera à tout acteur du Web (hébergeurs de blog ou de vidéos, sites de presse, petits forums ou grands réseaux sociaux) de : Bloquer en une heure n'importe quel contenu signalé comme « terroriste » par la police (sans l'autorisation préalable d'un juge), et donc se tenir à sa disposition 24h/24 et 7j/7. Devancer les demandes de la police en détectant lui-même les contenus illicites à l'aide d'outils de filtrage automatisé. Si un site ne respecte pas ces règles, il risque une amende jusqu'à 4 % de son chiffre d'affaires."
Aurialie Jublin

Censure antiterroriste : Macron se soumet aux géants du Web pour instaurer un... - 0 views

  • Pour rappel, le texte, poussé par la France et l’Allemagne, utilise le prétexte de la lutte contre le terrorisme pour soumettre l’ensemble des hébergeurs (et pas seulement les grandes plateformes) à des obligations extrêmement strictes : retrait en une heure de contenus qualifiés de terroristes par une autorité nationale (en France, ce sera l’OCLCTIC, le service de la police chargé de la cybercriminalité)  la mise en place d’un « point de contact » disponible 24h/24 et 7j/7  l’instauration de « mesures proactives » pour censurer les contenus avant même leur signalement  si ces mesures sont jugées insatisfaisantes par les États, ces derniers peuvent imposer des mesures spécifiques telles que la surveillance généralisée de tous les contenus.
  • D’un point de vue humain, technique et économique, seules les grandes plateformes qui appliquent déjà ces mesures depuis qu’elles collaborent avec les polices européennes seront capables de respecter ces obligations : Google, Facebook et Twitter en tête. Les autres acteurs n’auront d’autres choix que de cesser leur activité d’hébergement ou (moins probable, mais tout aussi grave) de sous-traiter aux géants l’exécution de leurs obligations.
  • Ce texte consacre l’abandon de pouvoirs régaliens (surveillance et censure) à une poignée d’acteurs privés hégémoniques. Pourtant, la Commission et les États membres, en 146 pages d’analyse d’impact, ne parviennent même pas à expliquer en quoi ces obligations pourraient réellement être efficaces dans la lutte contre le terrorisme.
  • ...4 more annotations...
  • Quand nous avons dit aux ministères que leur texte détruirait l’ensemble du Web décentralisé, ne laissant qu’une poignée de géants en maîtres, on nous a laissé comprendre que, oui, justement, c’était bien le but. Tranquillement, nos interlocuteurs nous ont expliqué que Google-Youtube et d’autres multinationales numériques avaient convaincu le gouvernement que la radicalisation terroriste était facilitée par les petites et moyennes plateformes, et qu’il fallait donc laisser la régulation du Web aux seuls géants prétendument capables de la gérer. Où sont les preuves de cette radicalisation plus facile en dehors de leurs plateformes ? Nulle part. Sans aucune honte, le gouvernement s’est même permis de sortir l’argument du secret défense, complètement hors sujet, pour masquer son manque de preuve et afficher son irrespect de toute idée de débat démocratique. C’est comme ça : Google l’a dit, ne discutez pas.
  • Macron se moque de détruire tout espoir d’une économie numérique européenne. Il veut simplement un texte sécuritaire qu’il pourra afficher au moment des élections européennes (ses « mid-terms » à lui), afin de draguer une partie de la population inquiète du terrorisme et qu’il s’imagine assez stupide pour tomber dans le panneau. Dans son arrogance délirante, il n’a même plus peur de renier ses électeurs pro-Europe ou pro-business, ni la population attachée aux libertés qui, pensant repousser l’extrême droite, l’aura élu.
  • Dans ce dossier, la menace terroriste est instrumentalisée pour transformer le Web en GAFAMinitel, pour acter la fusion de l’État et des géants du Net, et ainsi consacrer la surveillance généralisée et la censure automatisée de nos échanges en ligne. Tout ça pour quoi ? Pour lutter contre une auto-radicalisation fantasmée dont la preuve serait secret-défense (la bonne affaire !), et alors que les enquêtes sérieuses sur la question montrent que les terroristes ne se sont pas radicalisés sur Internet.
  • Le seul effet de ce texte sera de renforcer les multinationales du numériques et les dérives de l’économie de l’attention dont ils sont porteurs : la sur-diffusion de contenus anxiogènes, agressifs et caricaturaux capables de capter notre temps de cerveau disponible. L’urgence législative est de combattre ces dérives : de limiter l’économie de l’attention tout en favorisant le développement de modèles respectueux de nos libertés. C’est ce que nous proposons.
  •  
    "Il y a deux mois, la Commission européenne a publié sa proposition de règlement « censure antiterroriste ». Nous le dénoncions, expliquant que ce projet aura pour effet de détruire l'ensemble du Web décentralisé. Depuis, nous avons rencontré les ministères français en charge du dossier : nos craintes se sont amplifiées. La France, avec le soutien de l'Allemagne et du Parlement européen, va tout faire pour empêcher un débat démocratique sur ce texte : le gouvernement n'en parle pas dans la presse, veut forcer son adoption urgente et invoque le secret-défense pour empêcher tout débat factuel. Pourquoi tant de secret ? Probablement parce que ce texte, écrit en collaboration avec Google et Facebook, aura pour effet de soumettre l'ensemble du Web à ces derniers, à qui l'État abandonne tout son rôle de lutte contre les contenus terroristes. La collaboration annoncée lundi par Macron entre l'État et Facebook n'en est que le prémice, aussi sournois que révélateur."
Aurialie Jublin

Les musulmans chinois, en première ligne de la surveillance - 1 views

  • La population musulmane de la région est soumise à de nombreuses technologies de contrôle afin de mesurer le degré de croyance et de pratique religieuse des individus, notamment par le biais du big data et de la reconnaissance faciale.
  • Le quotidien de la minorité religieuse est ainsi fait de caméras statiques et de drones-colombes intelligents, ou d’agents officiels et secrets susceptibles de fouiller tout individu plusieurs fois par jours. Des fouilles corporelles ou numériquse,  soit directement par le biais du smartphone ou via les traces numériques semées sur le très surveillé réseau social WeChat.
  • En cette période de hajj, le pélerinage à La Mecque que tous les musulmans en capacité de le faire se doivent d'effectuer une fois dans sa vie, cette surveillance étouffante se poursuit pour les ressortissants chinois. Accompagnés durant tout le pèlerinage par un guide de l’Association Islamique Chinoise, dirigée par l’Etat, les pélerins sont également porteurs de « cartes intelligentes » nouées autour de leur cou et enregistrant leurs données de géolocalisation ainsi que leurs conversations.
  • ...1 more annotation...
  • Maya Wang a signé, fin février, un rapport sur le « police cloud », un programme de police prédictive fondé sur l'analyse de données volumineuses, et déployé au Xinjiang. Il signale les personnes qui pourraient être des menaces, et celles ci peuvent être envoyées dans les « centres d'éducation politique ». « Pour la première fois, écrivait elle, nous sommes en mesure de démontrer que le recours au big data par les services de renseignements du gouvernement chinois non seulement viole de manière flagrante le droit à la vie privée, mais permet également aux autorités de détenir arbitrairement des personnes.»  
  •  
    "Le nationalisme religieux est dans la ligne de mire du Parti Communiste chinois. Le gouvernement cible particulièrement les minorités musulmanes du Xinjiang concentrées dans une région située à l'opposé des capitales économiques et politiques chinoises. Comme le souligne un article de The Atlantic, la région fait donc office de zone de test à grande échelle pour les technologies de contrôle dernière génération et les programmes de propagande au sein de camps de rééducation."
Aurialie Jublin

An Apology for the Internet - From the People Who Built It - 1 views

  • There have always been outsiders who criticized the tech industry — even if their concerns have been drowned out by the oohs and aahs of consumers, investors, and journalists. But today, the most dire warnings are coming from the heart of Silicon Valley itself. The man who oversaw the creation of the original iPhone believes the device he helped build is too addictive. The inventor of the World Wide Web fears his creation is being “weaponized.” Even Sean Parker, Facebook’s first president, has blasted social media as a dangerous form of psychological manipulation. “God only knows what it’s doing to our children’s brains,” he lamented recently.
  • To keep the internet free — while becoming richer, faster, than anyone in history — the technological elite needed something to attract billions of users to the ads they were selling. And that something, it turns out, was outrage. As Jaron Lanier, a pioneer in virtual reality, points out, anger is the emotion most effective at driving “engagement” — which also makes it, in a market for attention, the most profitable one. By creating a self-perpetuating loop of shock and recrimination, social media further polarized what had already seemed, during the Obama years, an impossibly and irredeemably polarized country.
  • The Architects (In order of appearance.) Jaron Lanier, virtual-reality pioneer. Founded first company to sell VR goggles; worked at Atari and Microsoft. Antonio García Martínez, ad-tech entrepreneur. Helped create Facebook’s ad machine. Ellen Pao, former CEO of Reddit. Filed major gender-discrimination lawsuit against VC firm Kleiner Perkins. Can Duruk, programmer and tech writer. Served as project lead at Uber. Kate Losse, Facebook employee No. 51. Served as Mark Zuckerberg’s speechwriter. Tristan Harris, product designer. Wrote internal Google presentation about addictive and unethical design. Rich “Lowtax” Kyanka, entrepreneur who founded influential message board Something Awful. Ethan Zuckerman, MIT media scholar. Invented the pop-up ad. Dan McComas, former product chief at Reddit. Founded community-based platform Imzy. Sandy Parakilas, product manager at Uber. Ran privacy compliance for Facebook apps. Guillaume Chaslot, AI researcher. Helped develop YouTube’s algorithmic recommendation system. Roger McNamee, VC investor. Introduced Mark Zuckerberg to Sheryl Sandberg. Richard Stallman, MIT programmer. Created legendary software GNU and Emacs.
  • ...45 more annotations...
  • How It Went Wrong, in 15 Steps Step 1 Start With Hippie Good Intentions …
  • I think two things are at the root of the present crisis. One was the idealistic view of the internet — the idea that this is the great place to share information and connect with like-minded people. The second part was the people who started these companies were very homogeneous. You had one set of experiences, one set of views, that drove all of the platforms on the internet. So the combination of this belief that the internet was a bright, positive place and the very similar people who all shared that view ended up creating platforms that were designed and oriented around free speech.
  • Step 2 … Then mix in capitalism on steroids. To transform the world, you first need to take it over. The planetary scale and power envisioned by Silicon Valley’s early hippies turned out to be as well suited for making money as they were for saving the world.
  • Step 3 The arrival of Wall Streeters didn’t help … Just as Facebook became the first overnight social-media success, the stock market crashed, sending money-minded investors westward toward the tech industry. Before long, a handful of companies had created a virtual monopoly on digital life.
  • Ethan Zuckerman: Over the last decade, the social-media platforms have been working to make the web almost irrelevant. Facebook would, in many ways, prefer that we didn’t have the internet. They’d prefer that we had Facebook.
  • Step 4 … And we paid a high price for keeping it free. To avoid charging for the internet — while becoming fabulously rich at the same time — Silicon Valley turned to digital advertising. But to sell ads that target individual users, you need to grow a big audience — and use advancing technology to gather reams of personal data that will enable you to reach them efficiently.
  • Harris: If you’re YouTube, you want people to register as many accounts as possible, uploading as many videos as possible, driving as many views to those videos as possible, so you can generate lots of activity that you can sell to advertisers. So whether or not the users are real human beings or Russian bots, whether or not the videos are real or conspiracy theories or disturbing content aimed at kids, you don’t really care. You’re just trying to drive engagement to the stuff and maximize all that activity. So everything stems from this engagement-based business model that incentivizes the most mindless things that harm the fabric of society.
  • Step 5 Everything was designed to be really, really addictive. The social-media giants became “attention merchants,” bent on hooking users no mater the consequences. “Engagement” was the euphemism for the metric, but in practice it evolved into an unprecedented machine for behavior modification.
  • Harris: That blue Facebook icon on your home screen is really good at creating unconscious habits that people have a hard time extinguishing. People don’t see the way that their minds are being manipulated by addiction. Facebook has become the largest civilization-scale mind-control machine that the world has ever seen.
  • Step 6 At first, it worked — almost too well. None of the companies hid their plans or lied about how their money was made. But as users became deeply enmeshed in the increasingly addictive web of surveillance, the leading digital platforms became wildly popular.
  • Pao: There’s this idea that, “Yes, they can use this information to manipulate other people, but I’m not gonna fall for that, so I’m protected from being manipulated.” Slowly, over time, you become addicted to the interactions, so it’s hard to opt out. And they just keep taking more and more of your time and pushing more and more fake news. It becomes easy just to go about your life and assume that things are being taken care of.
  • McNamee: If you go back to the early days of propaganda theory, Edward Bernays had a hypothesis that to implant an idea and make it universally acceptable, you needed to have the same message appearing in every medium all the time for a really long period of time. The notion was it could only be done by a government. Then Facebook came along, and it had this ability to personalize for every single user. Instead of being a broadcast model, it was now 2.2 billion individualized channels. It was the most effective product ever created to revolve around human emotions.
  • Step 7 No one from Silicon Valley was held accountable … No one in the government — or, for that matter, in the tech industry’s user base — seemed interested in bringing such a wealthy, dynamic sector to heel.
  • Step 8 … Even as social networks became dangerous and toxic. With companies scaling at unprecedented rates, user security took a backseat to growth and engagement. Resources went to selling ads, not protecting users from abuse.
  • Lanier: Every time there’s some movement like Black Lives Matter or #MeToo, you have this initial period where people feel like they’re on this magic-carpet ride. Social media is letting them reach people and organize faster than ever before. They’re thinking, Wow, Facebook and Twitter are these wonderful tools of democracy. But it turns out that the same data that creates a positive, constructive process like the Arab Spring can be used to irritate other groups. So every time you have a Black Lives Matter, social media responds by empowering neo-Nazis and racists in a way that hasn’t been seen in generations. The original good intention winds up empowering its opposite.
  • Chaslot: As an engineer at Google, I would see something weird and propose a solution to management. But just noticing the problem was hurting the business model. So they would say, “Okay, but is it really a problem?” They trust the structure. For instance, I saw this conspiracy theory that was spreading. It’s really large — I think the algorithm may have gone crazy. But I was told, “Don’t worry — we have the best people working on it. It should be fine.” Then they conclude that people are just stupid. They don’t want to believe that the problem might be due to the algorithm.
  • Parakilas: One time a developer who had access to Facebook’s data was accused of creating profiles of people without their consent, including children. But when we heard about it, we had no way of proving whether it had actually happened, because we had no visibility into the data once it left Facebook’s servers. So Facebook had policies against things like this, but it gave us no ability to see what developers were actually doing.
  • McComas: Ultimately the problem Reddit has is the same as Twitter: By focusing on growth and growth only, and ignoring the problems, they amassed a large set of cultural norms on their platforms that stem from harassment or abuse or bad behavior. They have worked themselves into a position where they’re completely defensive and they can just never catch up on the problem. I don’t see any way it’s going to improve. The best they can do is figure out how to hide the bad behavior from the average user.
  • Step 9 … And even as they invaded our privacy. The more features Facebook and other platforms added, the more data users willingly, if unwittingly, released to them and the data brokers who power digital advertising.
  • Richard Stallman: What is data privacy? That means that if a company collects data about you, it should somehow protect that data. But I don’t think that’s the issue. The problem is that these companies are collecting data about you, period. We shouldn’t let them do that. The data that is collected will be abused. That’s not an absolute certainty, but it’s a practical extreme likelihood, which is enough to make collection a problem.
  • Losse: I’m not surprised at what’s going on now with Cambridge Analytica and the scandal over the election. For long time, the accepted idea at Facebook was: Giving developers as much data as possible to make these products is good. But to think that, you also have to not think about the data implications for users. That’s just not your priority.
  • Step 10 Then came 2016. The election of Donald Trump and the triumph of Brexit, two campaigns powered in large part by social media, demonstrated to tech insiders that connecting the world — at least via an advertising-surveillance scheme — doesn’t necessarily lead to that hippie utopia.
  • Chaslot: I realized personally that things were going wrong in 2011, when I was working at Google. I was working on this YouTube recommendation algorithm, and I realized that the algorithm was always giving you the same type of content. For instance, if I give you a video of a cat and you watch it, the algorithm thinks, Oh, he must really like cats. That creates these feeder bubbles where people just see one type of information. But when I notified my managers at Google and proposed a solution that would give a user more control so he could get out of the feeder bubble, they realized that this type of algorithm would not be very beneficial for watch time. They didn’t want to push that, because the entire business model is based on watch time.
  • Step 11 Employees are starting to revolt. Tech-industry executives aren’t likely to bite the hand that feeds them. But maybe their employees — the ones who signed up for the mission as much as the money — can rise up and make a change.
  • Harris: There’s a massive demoralizing wave that is hitting Silicon Valley. It’s getting very hard for companies to attract and retain the best engineers and talent when they realize that the automated system they’ve built is causing havoc everywhere around the world. So if Facebook loses a big chunk of its workforce because people don’t want to be part of that perverse system anymore, that is a very powerful and very immediate lever to force them to change.
  • Duruk: I was at Uber when all the madness was happening there, and it did affect recruiting and hiring. I don’t think these companies are going to go down because they can’t attract the right talent. But there’s going to be a measurable impact. It has become less of a moral positive now — you go to Facebook to write some code and then you go home. They’re becoming just another company.
  • Step 12 To fix it, we’ll need a new business model … If the problem is in the way the Valley makes money, it’s going to have to make money a different way. Maybe by trying something radical and new — like charging users for goods and services.
  • Parakilas: They’re going to have to change their business model quite dramatically. They say they want to make time well spent the focus of their product, but they have no incentive to do that, nor have they created a metric by which they would measure that. But if Facebook charged a subscription instead of relying on advertising, then people would use it less and Facebook would still make money. It would be equally profitable and more beneficial to society. In fact, if you charged users a few dollars a month, you would equal the revenue Facebook gets from advertising. It’s not inconceivable that a large percentage of their user base would be willing to pay a few dollars a month.
  • Step 13 … And some tough regulation. Mark Zuckerberg testifying before Congress on April 10. Photo: Jim Watson/AFP/Getty Images While we’re at it, where has the government been in all this? 
  • Stallman: We need a law. Fuck them — there’s no reason we should let them exist if the price is knowing everything about us. Let them disappear. They’re not important — our human rights are important. No company is so important that its existence justifies setting up a police state. And a police state is what we’re heading toward.
  • Duruk: The biggest existential problem for them would be regulation. Because it’s clear that nothing else will stop these companies from using their size and their technology to just keep growing. Without regulation, we’ll basically just be complaining constantly, and not much will change.
  • McNamee: Three things. First, there needs to be a law against bots and trolls impersonating other people. I’m not saying no bots. I’m just saying bots have to be really clearly marked. Second, there have to be strict age limits to protect children. And third, there has to be genuine liability for platforms when their algorithms fail. If Google can’t block the obviously phony story that the kids in Parkland were actors, they need to be held accountable.
  • Stallman: We need a law that requires every system to be designed in a way that achieves its basic goal with the least possible collection of data. Let’s say you want to ride in a car and pay for the ride. That doesn’t fundamentally require knowing who you are. So services which do that must be required by law to give you the option of paying cash, or using some other anonymous-payment system, without being identified. They should also have ways you can call for a ride without identifying yourself, without having to use a cell phone. Companies that won’t go along with this — well, they’re welcome to go out of business. Good riddance.
  • Step 14 Maybe nothing will change. The scariest possibility is that nothing can be done — that the behemoths of the new internet are too rich, too powerful, and too addictive for anyone to fix.
  • García: Look, I mean, advertising sucks, sure. But as the ad tech guys say, “We’re the people who pay for the internet.” It’s hard to imagine a different business model other than advertising for any consumer internet app that depends on network effects.
  • Step 15 … Unless, at the very least, some new people are in charge. If Silicon Valley’s problems are a result of bad decision-making, it might be time to look for better decision-makers. One place to start would be outside the homogeneous group currently in power.
  • Pao: I’ve urged Facebook to bring in people who are not part of a homogeneous majority to their executive team, to every product team, to every strategy discussion. The people who are there now clearly don’t understand the impact of their platforms and the nature of the problem. You need people who are living the problem to clarify the extent of it and help solve it.
  • Things That Ruined the Internet
  • Cookies (1994) The original surveillance tool of the internet. Developed by programmer Lou Montulli to eliminate the need for repeated log-ins, cookies also enabled third parties like Google to track users across the web. The risk of abuse was low, Montulli thought, because only a “large, publicly visible company” would have the capacity to make use of such data. The result: digital ads that follow you wherever you go online.
  • The Farmville vulnerability (2007)   When Facebook opened up its social network to third-party developers, enabling them to build apps that users could share with their friends, it inadvertently opened the door a bit too wide. By tapping into user accounts, developers could download a wealth of personal data — which is exactly what a political-consulting firm called Cambridge Analytica did to 87 million Americans.
  • Algorithmic sorting (2006) It’s how the internet serves up what it thinks you want — automated calculations based on dozens of hidden metrics. Facebook’s News Feed uses it every time you hit refresh, and so does YouTube. It’s highly addictive — and it keeps users walled off in their own personalized loops. “When social media is designed primarily for engagement,” tweets Guillaume Chaslot, the engineer who designed YouTube’s algorithm, “it is not surprising that it hurts democracy and free speech.”
  • The “like” button (2009) Initially known as the “awesome” button, the icon was designed to unleash a wave of positivity online. But its addictive properties became so troubling that one of its creators, Leah Pearlman, has since renounced it. “Do you know that episode of Black Mirror where everyone is obsessed with likes?” she told Vice last year. “I suddenly felt terrified of becoming those people — as well as thinking I’d created that environment for everyone else.”
  • Pull-to-refresh (2009) Developed by software developer Loren Brichter for an iPhone app, the simple gesture — scrolling downward at the top of a feed to fetch more data — has become an endless, involuntary tic. “Pull-to-refresh is addictive,” Brichter told The Guardian last year. “I regret the downsides.”
  • Pop-up ads (1996) While working at an early blogging platform, Ethan Zuckerman came up with the now-ubiquitous tool for separating ads from content that advertisers might find objectionable. “I really did not mean to break the internet,” he told the podcast Reply All. “I really did not mean to bring this horrible thing into people’s lives. I really am extremely sorry about this.”
  • The Silicon Valley dream was born of the counterculture. A generation of computer programmers and designers flocked to the Bay Area’s tech scene in the 1970s and ’80s, embracing new technology as a tool to transform the world for good.
  •  
    Internet en 15 étapes, de sa construction à aujourd'hui, regards et regrets de ceux qui l'ont construit... [...] "Things That Ruined the Internet" les cookies 1994 / la faille Farmville 2007 / le tri algorithmique 2006 / le "like" 2009 / le "pull to refresh" 2009 / les "pop-up ads" 1996 [...]
Aurialie Jublin

Mouchards et drones à Saint-Etienne : le maire veut étouffer le débat - La Qu... - 0 views

  • Ces documents mettent en lumière les similitudes que nous commençons à percevoir entre ces différents projets : surveillance accrue et déshumanisation de l’espace public, transformation de la ville en un terrain d’expérimentation pour des sociétés privées (ici Verney-Carron, une société spécialisée dans l’armement), subventionnement public de ces nouvelles technologies sécuritaires (ici par l’intermédiaire surprenant de l’ANRU – « Agence nationale pour la rénovation urbaine »), caractère secret et volontairement opaque de leur mise en place…
  • Elle consisterait en la pose de « capteurs sonores » (le terme de micro est soigneusement évité tout au long des documents) dont l’ « intelligence » permettra de générer une alerte dès lors qu’ils détecteront certains types d’ « anormalités sonores » (la liste est impressionnante : coups de feu, cris, perceuse, meuleuse, klaxons, coups de sifflet, bombes aérosols, crépitements… – au point où on se demande quels bruits ne déclencheront pas d’événement). L’alerte sera remontée jusqu’à une plateforme centralisée à la disposition de la police qui pourra utiliser le système de vidéosurveillance et vérifier, par exemple, si le déplacement d’une patrouille est nécessaire ou non.
  • Les données collectées serviraient par ailleurs à alimenter la plateforme déjà mise en œuvre par Suez dans le cadre du projet « Digital Saint-Étienne » ; cela afin « d’expérimenter les conditions d’enregistrement et de mise en forme des évènements collectés en vue de la visualisation sur carte de ceux-ci pour constituer un outil d’aide à la décision concernant la tranquillité urbaine ».
  • ...6 more annotations...
  • La création d’une application de dénonciation citoyenne type « Reporty » permettant aux habitants la « signalisation de problème » avait également été envisagée. Ces deux dernières idées, drones et application, ont néanmoins finies par être abandonnées (pour l’instant ?) au vu des nombreuses contraintes techniques et juridiques qui se posaient (les documents parlent d’une législation trop stricte avec nécessité d’un certificat de pilote, d’autorisation de la Préfecture et d’aléas météorologiques…)
  • « Si les freins techniques doivent justement être résolus par l’innovation, il nous revient à nous, élus, de faire lever les freins administratifs et juridiques ». Un projet qui semble être soutenu par de nombreuses villes qui, s’appuyant notamment sur les propositions d’un rapport parlementaire, exigent des dérogations de survol au Ministère de l’Intérieur et réfléchissent, à l’image du maire de Saint-Étienne, à « la création d’un interlocuteur unique de lobbying sur cette question, de format associatif, [qui] pourrait représenter un levier intéressant s’agissait des échanges avec le gouvernement ». Une nouvelle association des maires de Safe Cities ?
  • Raison pour laquelle on assiste, au long des réunions, à la recherche d’un nom de projet rassembleur et tranquillisant : on ne parle pas de sécurité mais de « tranquillité urbaine », on ne parle pas de micros et de drones mais de « S.O.F.T. : Saint-Etienne Observatoire des Fréquences du Territoire ». Raison pour laquelle il est aussi explicitement déclaré que « il n’y aura pas de communication avec le grand public. Globalement, dans un premier temps l’objectif est l’expérimentation, puis dans un second temps, une communication adaptée sera mise en place ». Raison pour laquelle le premier communiqué de presse en novembre 2018 reste très flou, mentionnant une « expérimentation visant à tester des solutions numériques pour améliorer la qualité de vie des citoyens ». Il a d’ailleurs pour sous-titre « Vers un territoire bienveillant ». La novlangue n’a plus de limite.
  • Le sujet est évoqué rapidement tout au long du projet, plus comme un de ces « freins administratifs et juridiques » que pour tenter d’évaluer lucidement la légalité du projet. Après quelques notes et demandes faites à la CNIL, il est décidé de ne pas enregistrer les bruits captés et de se limiter à « la détection d’évènements sonores » : « seules les données d’évènement comprenant le numéro du capteur, la date et l’heure de l’évènement et l’identifiant de l’évènement seront transmises ». Ce qui justifierait que CNIL ait ensuite été écartée du projet.
  • C’est là qu’est tout le problème : une fois ces micros installés, par une société privée d’armement, qui contrôlera l’usage qui en sera fait ? Qui préviendra les habitants si l’on passe en « Phase 2 » et qu’on met un route un système d’enregistrement des conversations dans la ville ? Ou qu’on ne les utilisera pas un jour pour détecter des cibles par leur signature vocale ? Ce ne serait pas la première fois que ce type d’outils de détection sonore connaîtrait des dérives liberticides.
  • Pour résumer : – On assiste à l’alliance entre élus locaux et industriels de la sécurité et de l’armement qui dépense l’argent public en s’abritant de tout débat public ; – Pour mettre nos villes et nos vies sous surveillance — vieux fantasme du contrôle social par la technologie ; – L’innovation et l’ « attractivité urbaine » servent à masquer la sur-policiarisation et la discrimination, avec le concourt de l’Agence de la rénovation urbaine ; – Tandis que des autorités, comme la CNIL, laissent faire.
  •  
    "La Quadrature du Net publie et analyse les documents obtenus auprès de la mairie de Saint-Etienne sur son projet de « Safe City ». Micros couplés à la vidéosurveillance, drones automatisés, application de dénonciation citoyenne… Ils révèlent la ville sous-surveillance telle que fantasmée par son maire, Gaël Perdriau."
Aurialie Jublin

De la tyrannie des métriques | InternetActu.net - 0 views

  • Pour Muller, nous sommes obsédés par les chiffres. Nous avons une pression irrépressible à mesurer la performance, à en publier les chiffres, et à récompenser les performances depuis ceux-ci, quand bien même l’évidence nous montre que cela ne fonctionne pas si bien. Pour Muller, notre problème n’est pas tant la mesure que ses excès. Trop souvent nous préférons substituer des chiffres, des mesures, à un jugement personnel. Trop souvent le jugement est compris comme personnel, subjectif, orienté par celui qui le produit, alors que les chiffres, en retour, eux, sont supposés fournir une information sûre et objective.
  • Trop souvent, les métriques sont contre-productives, notamment quand elles peinent à mesurer ce qui ne l’est pas, à quantifier ce qui ne peut l’être.
  • Muller montre par de nombreux exemples comment nous nous ingénions à contourner les mesures, à l’image des hôpitaux britanniques qui avaient décidé de pénaliser les services dont les temps d’attente aux urgences étaient supérieurs à 4 heures. La plupart des hôpitaux avaient résolu le problème en faisant attendre les ambulances et leurs patients en dehors de l’hôpital !
  • ...10 more annotations...
  • Pour Muller, l’obsession des métriques repose sur : la croyance qu’il est possible et désirable de remplacer le jugement acquis par l’expérience personnelle et le talent, avec des indicateurs numériques de performance comparative basés sur des données standardisées ; la croyance que rendre ces mesures publiques (c’est-à-dire transparentes) assure que les institutions effectuent leurs buts (c’est-à-dire leur responsabilité) ; la croyance que la meilleure façon de motiver les gens dans les organisations est de les attacher à des récompenses ou des pénalités depuis ces mesures de performance (que les récompenses soient monétaires ou réputationnelles)
  • Il souligne que trop souvent, on mesure le plus ce qui est le plus facile à mesurer, le plus simple. Mais c’est rarement le plus important. En mesurant le plus simple, on en oublie la complexité : ainsi quand on mesure les objectifs d’un employé, on oublie souvent que son travail est plus complexe que cela. On mesure plus facilement les sommes dépensées ou les ressources qu’on injecte dans un projet que les résultats des efforts accomplis. Les organisations mesurent plus ce qu’elles dépensent que ce qu’elles produisent.
  • Bien souvent, la mesure, sous prétexte de standardisation, dégrade l’information, notamment pour rendre les choses comparables au détriment des ambiguïtés et de l’incertitude.
  • Quant aux manières de se jouer des métriques, elles sont là aussi nombreuses : simplifier les objectifs permet souvent de les atteindre au détriment des cas difficiles ; améliorer les chiffres se fait souvent en abaissant les standards… sans parler de la triche, on ne peut plus courante.
  • C’est vraiment avec Frederick Taylor, cet ingénieur américain qui va inventer le management scientifique au début du 20e siècle, que la mesure va s’imposer. Le but même du taylorisme était de remplacer le savoir implicite des ouvriers avec des méthodes de production de masse, développées, planifiées, surveillées et contrôlées par les managers. Le Taylorisme va s’imposer en promouvant l’efficacité par la standardisation et la mesure, d’abord dans l’industrie avant de coloniser avec le siècle, tous les autres secteurs productifs.
  • Les métriques se sont imposées dans les secteurs où la confiance était faible. Les décisions humaines sont devenues trop dangereuses à mesure qu’elles impliquaient une trop grande complexité de facteurs : d’où la prolifération des métriques, des process, des règles… La demande d’un flux constant de rapports, de données, de chiffres… a finalement diminué l’autonomie de ceux qui étaient les plus bas dans les organisations.
  • Dans son livre, Muller évoque nombre de secteurs où les chiffres n’ont pas produit ce qu’on attendait d’eux. Dans le domaine scolaire, en médecine, dans le domaine militaire, dans la police et bien sûr dans les affaires… les chiffres sont souvent mal utilisés et ne parviennent pas à mesurer l’important. Bien souvent, les chiffres déplacent les objectifs, favorisent le court-termisme, découragent la prise de risque, l’innovation, la coopération… coûtent du temps
  • voire sont dommageable pour la productivité elle-même (« Une question qui devrait être posée est de savoir dans quelle mesure la culture des métriques a elle-même contribué à la stagnation économique ? »)…
  • Pour lui, il faut d’abord se poser la question de ce que l’on cherche à mesurer en se souvenant que plus un objet mesuré est influencé par la procédure de mesure, moins il est fiable. Et que ce constat empire quand la mesure repose sur l’activité humaine, plus capable de réagir au fait d’être mesurée, et pire encore quand des systèmes de récompenses ou de punition sont introduits…
  • L’information est-elle utile ? Le fait que quelque chose soit mesurable ne signifie pas qu’il faille le faire (au contraire, bien souvent la facilité à mesurer est inversement proportionnelle à sa signification !). « Posez-vous la question de ce que vous voulez vraiment savoir ! », conseille l’historien.
  •  
    "On n'a pas attendu le numérique pour produire des métriques, mais celui-ci a incontestablement simplifié et amplifié leur production. Quitte à produire un peu n'importe quelles mesures puisque celles-ci semblent désormais accessibles et ajustables en quelques clics. On connaît la rengaine : « ce qui ne peut être mesuré ne peut être géré » (même si la formule de Peter Drucker est en fait plus pertinente que ce que nous en avons retenu). Est-ce pour autant qu'on ne gère que ce que l'on sait chiffrer ?"
Aurialie Jublin

Moscou passe à la reconnaissance faciale - 0 views

  • « Il nous est rapidement apparu impossible pour un officier de police seul de traiter une telle quantité de données », a expliqué à Bloomberg Artem Ermolaev, chef du département des technologies de l’information de Moscou. « Nous avions besoin d’une intelligence artificielle pour nous aider à trouver ce que nous recherchions. » C’est maintenant chose faite. Le système développé par la start-up russe Ntechlab permet de croiser les visages filmés par les caméras avec ceux des bases de donnée du ministère de l’Intérieur russe.
  •  
    "Déjà dotée d'un vaste réseau de vidéosurveillance, la ville de Moscou va l'enrichir d'une intelligence artificielle permettant la reconnaissance faciale. Encore loin des ambitions prédictives des crimes de la Chine, mais une mauvaise nouvelle tout de même pour les opposants politiques de Vladimir Poutine."
Aurialie Jublin

The Landlord Wants Facial Recognition in Its Rent-Stabilized Buildings. Why? - The New ... - 0 views

  • The fact that the Atlantic complex already has 24-hour security in its lobbies as well as a clearly functioning camera system has only caused tenants to further question the necessity of facial recognition technology. The initiative is particularly dubious given the population of the buildings. Last year, a study out of M.I.T. and Stanford looked at the accuracy rates of some of the major facial-analysis programs on the market. It found that although the error rates for determining the gender of light-skinned men never surpassed 1 percent, the same programs failed to identify darker-skinned women up to one-third of the time.
  • The fear that marginalized groups will fall under increased surveillance as these technologies progress in the absence of laws to regulate them hardly seems like dystopian hysteria.
  • In November, the City of Detroit announced that it was introducing the use of real-time police cameras at two public-housing towers. The existing program is known as Project Greenlight, and it was designed to deter criminal behavior. But tower residents worried that relatives would be less likely to visit, given the constant stream of data collected by law enforcement.
  •  
    "Last fall, tenants at the Atlantic Plaza Towers, a rent-stabilized apartment complex in Brooklyn, received an alarming letter in the mail. Their landlord was planning to do away with the key-fob system that allowed them entry into their buildings on the theory that lost fobs could wind up in the wrong hands and were now also relatively easy to duplicate. Instead, property managers planned to install facial recognition technology as a means of access. It would feature "an encrypted reference file" that is "only usable in conjunction with the proprietary algorithm software of the system," the letter explained, in a predictably failed effort to mitigate concerns about privacy. As it happened, not every tenant was aware of these particular Orwellian developments. New mailboxes in the buildings required new keys, and to obtain a new key you had to submit to being photographed; some residents had refused to do this and so were not getting their mail."
Aurialie Jublin

Facebook while black: Users call it getting 'Zucked,' say talking about racism is censo... - 0 views

  • Black activists say hate speech policies and content moderation systems formulated by a company built by and dominated by white men fail the very people Facebook claims it's trying to protect. Not only are the voices of marginalized groups disproportionately stifled, Facebook rarely takes action on repeated reports of racial slurs, violent threats and harassment campaigns targeting black users, they say.
  • For Wysinger, an activist whose podcast The C-Dubb Show frequently explores anti-black racism, the troubling episode recalled the nation's dark history of lynching, when charges of sexual violence against a white woman were used to justify mob murders of black men. "White men are so fragile," she fired off, sharing William's post with her friends, "and the mere presence of a black person challenges every single thing in them." It took just 15 minutes for Facebook to delete her post for violating its community standards for hate speech. And she was warned if she posted it again, she'd be banned for 72 hours.
  • So to avoid being flagged, they use digital slang such as "wypipo," emojis or hashtags to elude Facebook's computer algorithms and content moderators. They operate under aliases and maintain back-up accounts to avoid losing content and access to their community. And they've developed a buddy system to alert friends and followers when a fellow black activist has been sent to Facebook jail, sharing the news of the suspension and the posts that put them there.
  • ...4 more annotations...
  • They call it getting "Zucked" and black activists say these bans have serious repercussions, not just cutting people off from their friends and family for hours, days or weeks at a time, but often from the Facebook pages they operate for their small businesses and nonprofits.
  • A couple of weeks ago, Black Lives Matter organizer Tanya Faison had one of her posts removed as hate speech. "Dear white people," she wrote in the post, "it is not my job to educate you or to donate my emotional labor to make sure you are informed. If you take advantage of that time and labor, you will definitely get the elbow when I see you." After being alerted by USA TODAY, Facebook apologized to Faison and reversed its decision.
  • "Black people are punished on Facebook for speaking directly to the racism we have experienced," says Seattle black anti-racism consultant and conceptual artist Natasha Marin.
  • There are just too many sensitive decisions for Facebook to make them all on its own, Zuckerberg said last month. A string of violent attacks, including a mass shooting at two mosques in New Zealand, recently forced Facebook to reckon with the scourge of white nationalist content on its platform. "Lawmakers often tell me we have too much power over speech," Zuckerberg wrote, "and frankly I agree."  In late 2017 and early 2018, Facebook explored whether certain groups should be afforded more protection than others. For now, the company has decided to maintain its policy of protecting all racial and ethnic groups equally, even if they do not face oppression or marginalization, says Neil Potts, public policy director at Facebook. Applying more "nuanced" rules to the daily tidal wave of content rushing through Facebook and its other apps would be very challenging, he says.
  •  
    "STORY HIGHLIGHTS Black activists say hate speech policies and content moderation stifle marginalized groups. Mark Zuckerberg says lawmakers tell him Facebook has too much power over speech. "Frankly I agree." Civil rights groups say Facebook has not cut down on hate speech against African Americans. "
Aurialie Jublin

L'Internet mondial visé par une vague d'attaques informatiques inédite - 0 views

  • Des pirates informatiques ont attaqué l'annuaire central de l'internet, l'Icann, ce qui leur a donné potentiellement accès à toutes sortes de données, a confirmé ce lundi matin le secrétaire d'État français chargé du numérique, Mounir Mahjoubi. Fondée en 1998, l'Icann coordonne à l'échelle internationale les identifiants uniques qui permettent aux ordinateurs du monde entier de s'identifier entre eux. C'est cette organisation à but non lucratif qui a donné l'alerte le 22 février dernier.
  • « Ce que les pirates ont réussi à faire est quelque chose de très rare : ils ont piraté l'annuaire et chaque fois que vous mettez l'adresse (d'un site internet), au lieu d'aller sur la vraie machine, ils nous amenaient sur une autre machine qui leur appartient. Vous avez l'impression d'être sur le site (...) sauf qu'en fait vous êtes sur la machine de ceux qui vous attaquent (...) Ils peuvent récupérer vos données, ils peuvent les utiliser pour se reconnecter, pour prendre de l'argent. »
  • Selon des experts extérieurs à l'ICANN interrogés par l'AFP, les pirates ciblent aussi bien des gouvernements que des services de renseignements ou de police, des compagnies aériennes ou l'industrie pétrolière et ce, au Moyen-Orient ou en Europe. L'un d'entre eux estime, en outre, que ces attaques ont pour origine l'Iran. Ils « s'attaquent à l'infrastructure internet elle-même », a indiqué vendredi à l'AFP David Conrad un des responsables de l'ICANN, qui évoque une campagne « inédite à très grande échelle », qui s'est extraordinairement intensifiée très récemment.
  •  
    "L'internet mondial est actuellement visé par une vague d'attaques informatiques d'une ampleur inédite, qui consistent à modifier les adresses des sites internet pour les pirater. L'information a été confirmée ce lundi 25 février par le secrétaire d'État français chargé du numérique, Mounir Mahjoubi."
Aurialie Jublin

Society in the loop : vers un intelligence artificielle plus démocratique ? -... - 0 views

  • Mais l’intelligence artificielle se diffuse également dans des sphères qui concernent plus directement la vie publique, et donc la société. Pour ne citer qu’eux : le classement de lycéens après leurs bacs[4], l’automatisation de procédures judiciaires[5] ou des horaires de ramassage scolaire[6], la dérégulation du flux automobile dans les villes dus à l’utilisation d’un service de GPS comme Waze[7], l’utilisation de la reconnaissance faciale dans des lieux publics[8] et privés[9], l’usage de « détecteurs de mensonges » aux frontières[10], la police prédictive[11], ou même plus simplement l’usage de systèmes reposant sur la captation de l’attention de l’utilisateur[12].  A leurs échelles, ces sujets touchent la vie sociale dans des dimensions qui pourraient légitimement demander à ce que des discussions plus démocratiques aient lieu. Ils entrent certes, plus ou moins directement dans la catégorie « intelligence artificielle » mais participent de la numérisation du monde à travers des algorithmes, et feront tous le pas vers l’IA si ce n’est déjà fait.
  • C’est là qu’intervient le passage qualitatif du « human in the loop » (HITL) au « society in the loop » (SITL). Pour le dire simplement, le SITL devient nécessaire lorsqu’un système utilisant l’intelligence artificielle a des implications importantes sur la sphère sociale. Iyad Rahwan explique : « alors que le HITL utilise le jugement d’un individu ou d’un groupe pour optimiser un système pensé trop étroitement, SITL embarque le jugement et les valeurs d’une société vue comme un tout, dans la définition la gouvernance algorithmique[13] de questions sociétales ». En résumé, le SITL est une forme de contrat social entre ceux qui doivent obéir aux règles et ceux qui écrivent les règles.
  • Coupons court au débat qui concerne les bulles de filtres : leur émergence et leurs effets dépendent du paramétrage des algorithmes de Facebook, de Google et des autres services susceptibles de créer ces bulles. Par conséquent, elles restent à leur main, notamment à travers leurs Conditions générales d’utilisation (CGU) et le secret d’affaires qui protègent ces systèmes (et les modèles d’affaires de captation du « temps de cerveau disponible » qui y sont directement liés). Pas de démocratie à cet endroit, quand bien même les impacts sur la démocratie pourraient être réels, même s’ils sont encore mal mesurés. C’est une des premières limites du modèle « Society in the loop ».
  • ...11 more annotations...
  • Dans le cas des véhicules autonomes en revanche, une vaste étude a été réalisée sur plusieurs années par le MIT Lab. Elle a concerné des millions de personne dans 233 pays (à travers le petit jeu http://moralmachine.mit.edu/) et a montré à quel point le traitement des questions éthique est variable, même lorsqu’on parle de conduite automobile ! Comme le relate Hubert Guillaud : « la question éthique diverge selon la culture, le niveau économique et la localisation géographique ; bien plus que selon des préférences individuelles (…) les Japonais ont plutôt tendance à préférer des véhicules qui épargnent les piétons alors que d’autres cultures, comme la culture chinoise, préfèrent des véhicules qui épargnent les passagers. » L’objectif d’une telle étude est d’apporter l’éclairage de la société toute entière afin que le système technique réponde au « bien commun ».
  • A l’initiative de Grégoire Japiot (@gregoire) et Matteo Mazzeri (@matemaz), le projet GEnIAL (voir le site internet) est « Une plateforme qui utilise les interfaces conversationnelles et l’intelligence artificielle afin de permettre à la population d’un territoire de mieux vivre dans sa ville à l’ère de la Smart City en offrant des moyens simples pour accéder aux services des administrations et des autres acteurs de la région. » Le projet, qui se revendique de « Society in the loop », est d’utilité publique et censé resté « la propriété des citoyens », contrairement aux services d’assistants proposés par les géants d’internet. Les données collectées ne sont pas commercialisées et la vie privée reste préservée. Grégoire, le fondateur, précise que les concertations citoyennes sont au cœur du projet. L’idée : intégrer dans le service les retours de la société (citoyens, administrations/institutions publiques, chercheurs et acteurs économiques) en vue d’élaborer des modèles d’apprentissage utilisés pour construire une « intelligence artificielle concertée ».
  • Concrètement, GEnIAL Bot, est une « solution qui vise à permettre aux utilisateurs d’interagir avec l’ensemble des informations d’un territoire via des interfaces conversationnelles de type chatbot et assistant vocal. » Au lieu de devoir utiliser des moteurs de recherche pour identifier les différents sites où se trouvent les informations recherchées ou bien de devoir téléphoner aux services concernés, les utilisateurs peuvent interroger GEnIAL Bot en s’adressant en langage naturel et se laisser guider sous forme de conversations vers l’information. Pour la partie technologique, GEnIAL « dispose d’une convention de partenariat avec le CERN qui lui permet de concevoir avec les équipes les plus pointues, une intelligence artificielle éthique et explicable, dont les modèles d’apprentissage sont pensés de manière à refléter l’identité du territoire et intégrer un processus de concertation continue avec ses habitants. »
  • A une échelle très locale, le projet GEnIAL pourrait entrer dans ce qu’il convient d’appeler la « démocratie technique ». La formule que j’emprunte ici à Callon, Barthes et Lascoumes dans l’ouvrage fondateur Agir dans un monde incertain, Essai sur la démocratie technique (Seuil, 2011) désigne notamment les dispositifs par lesquels des profanes peuvent peser sur les modes de conception et de diffusion des sciences et des techniques. A l’évocation de la démocratie technique, on pense souvent aux grandes polémiques et controverses qui ont agité des sujets technoscientifiques comme les OGM, l’enfouissement des déchets nucléaires, ou encore les traitements contre le SIDA. Ce dernier cas a montré que l’intrusion des malades parmi les experts a pu conduire à améliorer les protocoles des laboratoires pharmaceutiques, alors très éloignés de leurs vies.
  • Si ces exemples peuvent paraître éloignés des questions relatives à l’intelligence artificielle, ils permettent d’entrouvrir une autre dimension de la démocratie technique. Par-delà la pure contestation ou modification a posteriori d’une technique existante, Callon, Barthes et Lascoumes décrivent un modèle de « co-production des savoirs ». Ce modèle postule que les non-spécialistes peuvent produire des connaissances à partir de leurs intérêts propres. Ils sont les plus à même d’entrevoir les risques d’un projet et de les faire reconnaître comme légitimes lors d’une étape de conception commune. Ce faisant, ils participent pleinement à la production des sciences et des techniques. Ce modèle suscite des critiques : on pointe le fait que des profanes ne seraient pas capables de s’exprimer sur un sujet technique, et que par conséquent, l’avis des experts serait toujours supérieur, de meilleure qualité, et devrait être pris en compte en priorité.
  • De nombreux contre-exemples viennent infirmer ces thèses. L’expérience prouve que si les conditions sont réunies, des personnes éloignées d’un sujet technique ou scientifique peuvent tout à fait construire des rapports de grande qualité et reconnus comme tels par les experts eux-mêmes. Ce fut le cas lors des controverses concernant les OGM il y a de cela une vingtaine d’années. Callon, Barthes et Lascoumes racontent également comment les amateurs contribuent à améliorer la connaissance scientifique dans de nombreux domaines, comme par exemple l’astronomie.
  • pourquoi ce traitement démocratique si spécial devrait-il se limiter à l’intelligence artificielle ? Une des raisons est sans doute que l’on pressent que son déploiement va changer le monde et susciter des controverses qu’il vaut mieux anticiper. N’oublions pas cependant que de nombreuses technologies numériques (ou non) changent le monde plus insidieusement et suivant des échelles temporelles qui nous les rendent « invisibles à l’œil nu ». Légitimement, on pourrait aussi poser la question démocratique à leur endroit[20].
  • Ce que la démocratie technique questionne, c’est non seulement l’aménagement du progrès, mais aussi sa définition. C’est-à-dire la direction donnée à la civilisation. Entraîner une intelligence artificielle – même avec la méthodologie Society in the loop – c’est déjà faire le choix d’une intelligence artificielle. Ce qui ne veut pas dire que ce choix soit mauvais. Pas plus qu’il n’est naturellement bon. Disons que c’est un choix parmi d’autres. Ce point chaud qui concerne la définition du progrès est et sera de plus en plus au centre de toutes les questions liant technosciences et démocratie.
  • Parallèlement, l’Université de Montréal a bâti une « Déclaration pour un développement responsable de l’intelligence artificielle[23] ». Cette déclaration décrit dix principes phares pour guider le développement de l’IA, parmi lesquels un « principe de bien être » ou encore un « principe d’inclusion de la diversité » (
  • Toutes les controverses techniques n’ont pas vocation à passer sous les fourches caudines de la démocratie, il existe une multitude d’autres échelons pour co-construire, réguler, interdire ou favoriser des systèmes. En témoignent les nombreuses villes qui se « défendent » contre AirBnb ou Uber puis qui finissent par utiliser les données que ces sociétés récoltent, à d’autres fins (des « arrangements » a posteriori[25]). Par ailleurs, c’est aussi dans les écoles qui forment les ingénieurs, designers et entrepreneurs de demain et bien sûr dans les entreprises elles-mêmes, dont certaines décident d’être plus soucieuses des effets générés par leurs activités, que l’avenir se joue
  • Bien sûr, ces quelques pages souffrent de nombreuses limites et à de multiples niveaux. A mon sens néanmoins, le fond de la question consiste (aussi) à savoir quelle « dose » de démocratie nous sommes prêts à mettre dans nos ambitions technologiques. Et en retour, dans quelle mesure les technologies que nous produirons permettront ou non à la démocratie de continuer d’exister[26].
  •  
    "En 2017, Iyad Rahwan (@iyadrahwan), responsable du groupe des coopérations évolutives au MIT posait avec Joi Ito (@Joi) du MIT Medialab le concept de « Society in the loop » (SITL), une méthode pour impliquer différentes parties-prenantes dans la conception d'un système d'apprentissage automatique[1] (ou machine learning), à la base des intelligences artificielles (IA) qui jalonnent le quotidien. L'idée : co-construire plutôt qu'imposer les solutions au grand public, en faisant intervenir dès la phase de conception une diversité d'acteurs. J'en retrace ici un court historique, une illustration et les quelques perspectives et limites qu'il me paraît intéressant de pointer, notamment au regard des questions relatives à ce qu'on appelle la « démocratie technique »."
Aurialie Jublin

[Données] La boîte noire - 0 views

  •  
    "De nombreuses informations concernant le travail des forces de sécurité sont encore trop souvent inaccessibles, imprécises, ou rarement mises à jour. Une meilleure transparence permettrait pourtant une meilleure compréhension de leur travail. Ce site présente une liste des données et, en fonction des services, détaille leur disponibilité, l'échelle géographique couverte et la fréquence de mise à jour. Pour suggérer des donnes à ouvrir, donner des précisions ou signaler des erreurs, ou pour tout autre question : index@lepanierasalade.fr Une initiative du Panier à salade, réalisée par Paul Joannon. Le code source de ce site est disponible ici."
Aurialie Jublin

Christchurch : les pyromanes appelés à éteindre l'incendie - La Quadrature du... - 0 views

  • Facebook fait mine de prendre conscience du problème de viralité lié à la plateforme en promettant aussi de « renforcer ses intelligences artificielles », encore une fois… Comme si, précisément, la « solution magique » de ses filtres automatisés ne venait pas d’être définitivement décrédibilisée, il y a deux mois, par une poignée d’internautes complices du tueur de Christchurch parvenant à les contourner pendant des jours, manifestement sans grand soucis. D’après Facebook, la première journée, 300 000 copies seraient passé au travers de ses filtres automatisés, n’étant traitées que pas son armée de modérateurs sous-payées et exposés aux pires conditions de travail.
  • Surtout, Facebook sait très bien que sa plateforme ne peut pas être corrigée, à moins de renoncer à son modèle économique, tout comme Google ou Twitter, véritable cœur du problème. La raison d’être de ces plateformes est de réunir le plus de personnes possibles en un seul endroit, pour les surveiller et leur proposer la publicité qui les influencera le plus.
  • Il est techniquement et humainement impossible de modérer d’aussi grosses plateformes pour éviter qu’elles ne deviennent des outils de harcèlement, de haine et de mort. Pire, pour maintenir tous nos cerveaux disponibles, leurs « intelligences artificielles » (qui ne se montrent efficaces qu’ici) entretiennent autant que possible la culture du buzz et, par là, le conflit, la caricature, la peur – tout ce qu’il faut pour éviter l’entraide et la cohésion. C’est le prix à payer pour capter plusieurs milliards de cerveaux en même temps, et ils ne renonceront jamais à nous le faire payer (c’est pourquoi nous luttons pour le développement d’un Web décentralisé et à taille humaine).
  • ...3 more annotations...
  • Et, bien sûr, leur emprise s’exerce en marchant sur nos libertés fondamentales, exploitant nos données personnelles et violant le RGPD pour mieux nous contrôler (voir nos plaintes devant la CNIL et la première sanction de celle-ci en réponse contre Google).
  • Il y a 2 mois, le Parlement européen a adopté en première lecture le règlement terroriste, dont l’objectif principal est de généraliser les filtres automatisés de Google et Facebook à l’ensemble du Web – oui, ces mêmes filtres qui viennent de démontrer toute leur inefficacité. Pour imposer ces filtres à tout le monde, le gouvernement français, qui est à l’initiative de ce texte avec l’Allemagne, n’a pas peur de détruire le Web européen composé d’une multitude de petits acteurs et, ainsi, de laisser les GAFAM en maîtres. En vrai, ces géants s’étant montrés particulièrement coopératifs dans l’ambition de Macron de « civiliser » Internet, ils apparaissent comme des alliés de choix qu’il vaudrait mieux laisser régner (voir notre premier bilan sur le règlement terroriste).
  • En ce moment, c’est la proposition de loi LREM « contre la haine en ligne » qui reprend cette entente Macron-GAFAM : les géants s’engagent à faire le travail de la police et de la justice sur Internet et, en échange, le gouvernement les présente en « solutions », légitime leur toute puissance, les laisse tranquille et les invite à tous ses événements sur « comment la technologie sauvera le monde ». Comme on l’a vu dans notre dernier article, cette alliance risque aussi de conduire à la censure de critiques anti-Macron ou de mouvements sociaux un peu trop dérangeants…
  •  
    "Facebook, qui participait au lancement de la campagne aux côtés de Google, a aussitôt répondu : il empêchera désormais ses utilisateurs les plus suspects de diffuser des vidéos en direct - outil qu'avait utilisé le tueur de Christchurch. Cette réponse de Facebook est bien à la hauteur des attentes du gouvernement Macron, qui recevait précisément Mark Zuckerberg la semaine dernière : de la poudre aux yeux pour que surtout rien ne change, au mépris de la gravité des événements. "
Aurialie Jublin

Mise en commun de l'action publique  : faut il hacker le droit ?  - La 27e Ré... - 0 views

  • Souvent conçues et testées dans une démarche expérimentale, ces initiatives offrent des réponses efficientes et nouvelles aux enjeux qu’elles traitent. Mais sous leur apparente simplicité, elles posent de nombreux challenges juridiques en matière de mise en œuvre pour l’acteur public. Quid de la responsabilité de l’acteur public en matière de risque sanitaire et de salubrité des aliments d’un frigo partagé, qui s’adresse de facto à des usagers en dehors du seul spectre des membres de l’association qui l’ont conçu ? Quid du statut des contributeurs de Sauvlife, qui s’apparentent presque à des pompiers, mais qui ont également la liberté de ne pas intervenir ? Dans le cas du lycée, comment rendre possible un usage multiple d’un équipement public réservé à des mineurs ?
  • Quand certains pans de l’action publique sont gérés et utilisés de manière mutualisée, cela bouscule fondamentalement les piliers de l’acteur public : sa responsabilité face aux risques, ses contributeurs et la manière de les valoriser, la perméabilité avec le secteur marchand et même la légitimité à lever l’impôt pour financer des services devenus communs.
  • Sans surprise, faute de cadre juridique clair et sécurisant, rares sont les initiatives de ce type qui passent le cap de l’expérimentation. Et quand cela advient, cela tient souvent à des qualités individuelles : un élu prêt à prendre le risque, des équipes d’agents et des citoyens à l’implication exceptionnelles.
  • ...6 more annotations...
  • Elle peut s’inspirer des règlements d’administration partagée, développés par le laboratoire Labsus en Italie et actifs dans plus de 200 villes – dont Bologne, Gènes, Florence, Turin. S’appuyant sur un principe de subsidiarité horizontale stipulant que que “l’État, les Régions, les villes métropolitaines, les provinces et les communes favorisent l’initiative autonome des citoyens, seuls et associés, pour le développement d’activité d’intérêt général, sur la base du principe de subsidiarité”, ces règlements permettent aux villes de contracter des Pactes de collaboration avec les citoyens de la ville. Ces pactes actent une collaboration étroite entre citoyens et agents publics pour co-administrer des biens communs : espaces verts, entretien du patrimoine, solidarités… 
  • En rapprochant certaines notions italiennes avec des principes de droit français – comme par exemple le principe de subsidiarité horizontale italien avec la théorie de la collaboration occasionnelle au service public - il semble envisageable de procéder à une transposition effective d’un tel règlement. 
  • Quand ces frigos sont en libre accès et placés sur la voie publique, la responsabilité du maire est engagée au titre de ses pouvoirs de police, de la salubrité publique et de la conservation du domaine public, ce qui le conduit à faire des opérations de contrôle. En explorant les arrêtés et les potentialités offertes par le modèle des régies publiques, les étudiants ont posé les contours d’un partenariat public-commun soutenable du point de vue de l’acteur public et qui favorise le développement de cette solution.
  • Enfin, le terrain nous enseigne qu’il nous faut dépasser les cadres du seul droit public pour trouver des solutions durables. Face à l’enjeu de responsabilité civile de l’occupation d’un bâtiment public vacant par un tiers-lieu, comment renverser le problème, et confronter l’acteur public sur sa responsabilité de non-occupation ou de non usage d’espaces réinvestis ? Parfois les réponses peuvent se situer du côté des droits fondamentaux et du droit constitutionnel. 
  • Parfois les réponses se situent même en dehors du droit : du côté des mécanismes de financement et de démocratie participative, ou encore de l’innovation managériale. La mise en place de budgets participatifs, ou la collaboration occasionnelle au service public obligent par exemple à repenser la place de l’agent : quel est son mandat dans une logique de coproduction de service ? 
  • A cette occasion, les  juristes territoriaux avaient notamment proposé aux étudiants de la clinique juridique territoriale grenobloise de sécuriser la mise en oeuvre des frigos partagés – ces initiatives de lutte contre le gaspillage alimentaire par la mise à disposition gratuite d’aliments frais dans des frigos postés sur la voie publique.
  •  
    "A l'heure où la gestion en commun apparaît comme une piste sérieuse pour améliorer le fonctionnement de nos villes, les expériences territoriales à l'oeuvre appellent une nouvelle pratique du droit pour s'inscrire durablement dans nos politiques publiques. Elles nous invitent nous, agents publics, juristes, acteurs d'innovation publique, chercheurs, à puiser dans le droit d'usage, exhumer des principes constitutionnels et développer notre ingéniosité juridique et nos meilleures pratiques de détournement pour inventer de nouveaux modèles et travailler la souplesse de nos administrations.  Et si pour dépasser le cap de l'expérimentation, il devenait nécessaire d'inventer une nouvelle grammaire réglementaire ?"
1 - 16 of 16
Showing 20 items per page