Skip to main content

Home/ QN2019/ Group items matching "plateforme" in title, tags, annotations or url

Group items matching
in title, tags, annotations or url

Sort By: Relevance | Date Filter: All | Bookmarks | Topics Simple Middle
9More

Shaping the Future of Platform Work - NewCo Shift - 0 views

  • The future of platform work depends on our collective capacity to secure a new bundle for self-employed workers. If we succeed, platform work will indeed rise and become more of a norm in the labour market. If we fail, its promises will never be fulfilled, and we will pay the price in the form of less work and less economic development.
  • Some tech companies have been trying to offer more of a bundle (insurance and other benefits) to the workers using their platforms. But they have been prevented from going too far in that direction by the risk of having these workers reclassified as employees.
  • In a way, these workers are to traditional work what the proponents of free love are to traditional marriage. They value empowerment over stability. They want the new bundle to bring more, not less, freedom. And so this is the challenge we need to tackle: fostering the rise of platforms while empowering the workers using them.
  • ...5 more annotations...
  • Higher wages and social benefits became tools to heat up competition in the labour market.
  • Firms can try and attract the best workers by offering better social benefits, as Uber is trying to do with the insurer Axa. But they can also cut these benefits to lower their production cost and offer customers lower prices, which leads to what Michael E. Porter describes as damaging “wars of attrition”.
  • If social benefits were mandatory within their industry, it meant that firms needn’t compete by cutting those benefits from their workers, hurting engagement and productivity in the process.
  • The reason this trend has been reversed is that there is less and less competition in the labour market. In the US as in the UK, most workers have no choice but to be employed by a few dominant firms. What’s more, with the threat of automation, these firms have more bargaining power over workers, leaving them less interested in offering more benefits or leveling the social playing field. Competition doesn’t translate into more social benefits today.
  • This is why governments must step in and regulate platform work — not by curbing it down, but by supporting its rise while better covering workers.
  •  
    "Governments must step in to regulate platforms - or workers will lose it all"
5More

Microsoft Bug Testers Unionized. Then They Were Dismissed - Bloomberg - 0 views

  • In California, Uber, Lyft, TaskRabbit, and a half-dozen other companies are lobbying to defang a court ruling that could make it difficult to avoid reclassifying such workers as employees. And in Washington, the Republican-dominated National Labor Relations Board has made moves to undo an Obama-era precedent that could make big employers legally liable for contract workers even if they have only indirect control over them.The GOP takeover in Washington is one reason the Temporary Workers of America, a union of bug testers for Microsoft Corp., gave up on what had been, for people in the software world, an almost unheard of unionization victory, says the group’s founder, Philippe Boucher.
  • Boucher and his ex-colleagues are among a growing population of tech workers, including many Uber drivers, Amazon.com warehouse loaders, and Google software engineers, who lack the rights and perks of those companies’ full-fledged employees.
  • Google parent Alphabet Inc. now has fewer direct employees than it does contract workers, some of whom write code and test self-driving cars.
  • ...2 more annotations...
  • “Companies are deciding they don’t want to make long-term commitments to people, and they’re using a variety of devices to shift that work out,” says David Weil, dean of Brandeis University’s social policy and management school who oversaw federal wage-and-hour enforcement during the Obama presidency.
  • To help demonstrate that Microsoft was a joint employer, the union provided documents such as an email appearing to show a Lionbridge manager sharing performance metrics with Microsoft counterparts and a list of Microsoft managers who worked in the same office and oversaw Lionbridge employees’ work—at least one of whom listed his management of contractors on his LinkedIn résumé.
1More

A qui profite le clic ? Le partage de la valeur sur internet ? - 0 views

  •  
    Slides
8More

J'ai testé pour vous : 8 jours de data detox challenge - 0 views

  • « Pour adopter un lifestyle data équilibré, il est crucial de diversifier les services que vous utilisez ». Comme tout régime qui se respecte, le Data Détox Challenge rappelle l’importance diversifier les familles d’aliments. Cinq moteurs de recherche et navigateurs par jour ? Ca va être dur.
  • Mais comment m’alléger en data sans perdre mes courbes d’audience sur chaque plateforme ? Les défauts du Par défaut. Je commence par changer mon profil publicitaire sur Facebook : non, on ne pourra plus me cibler selon mon genre. J’enfile dans la foulée ma panoplie d’agent de propreté des temps modernes, et j’efface les tags sur mes photos et celles de mes amis. Désormais nous circulerons incognito, ou presque.
  • Dans une détox, chaque jour est un challenge : aujourd’hui la chasse au trackers est ouverte. Comme de vilains sucres, ils se nichent partout de manière invisible. Chasser les pixels espions de Facebook et Twitter (cachés dans les boutons Like et Share de très nombreuses pages) n’est pas si simple. Puisqu’il est impossible de les faire disparaître, c’est à nous de nous éclipser. J’active le mode privé par défaut dans mon navigateur, je bloque les trackers et je vérifie la sécurité de mes connexions avec l’aide de mes nouveaux compléments de navigateur préférés : Privacy Badger, Panopticlick et HTTPS Everywhere. Mon nouveau menu favori ? Pomme + Maj + N (pour la navigation privée).
  • ...4 more annotations...
  • Le challenge invite à télécharger l’application Architecture of radio, qui cartographie les ondes électromagnétiques émises par les antennes relais de téléphonie mobile, les routeurs Wi-Fi, les satellites et les rend visibles, le tout en temps réel. Ici pas de login pour l’utiliser, mais la CB comme passage obligé. La vidéo démo m’a convaincue et je m'acquitte des 2,49 € pour assouvir ma curiosité. Cette fois au moins, je ne paierai pas avec mes data.
  • Je me plie au calcul de mon Indice de Masse Informationnelle. L’équation est facile : pour connaître son exposition à la collecte de données, il suffit de compter ses applications.
  • Tout à coup je me demande quelle utilisation fait Data Selfie de mes données. C’est le métier qui rentre ! Je vérifie : le code est accessible de manière transparente sur GitHub, et les créateurs précisent bien que les données ne sont pas stockés ni utilisées ailleurs que dans Data Selfie.
  • l'extension gratuite open source Adnauseam qui noie l'activité de l'utilisateur en cliquant sur des pubs aléatoires en arrière plan.
  •  
    "Scandale Cambridge Analytica, Règlement Général sur la Protection des Données (RGPD)... La mode est à la diète des datas. Chacun y va de son petit écrémage électronique, de sa politique anti-cookie et tout le monde ne jure plus que par son indice de masse d'info personnelle. Sortez de la boulimie et relevez comme Millie Servant, en charge de la communication numérique pour Cap Digital & Futur.e.s Festival, le seul défi slim qui vaille : le Data Detox Challenge. Un parcours « détox » proposé sur 8 jours par la fondation Mozilla et le Tactical Technology Collective. "
9More

Aucun algorithme, jamais, ne pourra défendre la démocratie - Libération - 0 views

  • Comment avons-nous pu nous retrouver au début du XXIe siècle dans une situation où Mark Zuckerberg – et quelques autres patrons de plateformes numériques – se fixent comme objectif récurrent de «protéger la démocratie», principalement à grands coups «d’algorithmes» et «d’intelligence artificielle» et affirment que cela sera une de leurs principales «missions» au sein de leur entreprise et à l’échelle du monde ?
  • En 2011, deux théoriciens de l’intelligence artificielle traitant des problèmes éthiques qu’allaient poser les algorithmes écrivaient que «les algorithmes de plus en plus complexes de prise de décision sont à la fois souhaitables et inévitables, tant qu’ils restent transparents à l’inspection, prévisibles pour ceux qu’ils gouvernent, et robustes contre toute manipulation» (Bostrom et Yudowski, «The Ethics of Artificial Intelligence»).
  • Aujourd’hui, «les algorithmes» dont nous parlons se déploient au sein d’architectures techniques toxiques englobant des millions ou des milliards d’utilisateurs. Aujourd’hui, «les algorithmes» dont nous parlons reposent sur des jeux de données propriétaires et donc totalement opaques. Aujourd’hui, «les algorithmes» dont nous parlons sont explicitement développés pour se doter d’un niveau d’autonomie (ou «d’apprentissage») qui rend leur «comportement» et leurs décisions souvent imprévisibles pour leurs créateurs eux-mêmes. Aujourd’hui, «les algorithmes» dont nous parlons interagissent en permanence avec d’autres algorithmes, d’autres jeux de données et d’autres architectures techniques toxiques ; et ils le font à des échelles toujours plus vastes et dans des environnements toujours plus contraints qui augmentent encore le niveau de risque et d’incertitude.
  • ...5 more annotations...
  • Pendant les dix dernières années, le combat principal d’activistes, de journalistes, de défenseurs des libertés numériques fut celui visant à limiter l’impact de l’empreinte algorithmique sur nos vies privées et intimes. Ce combat-là est terminé, obsolète et, pour l’essentiel, perdu. C’est un autre combat qu’il nous faut aujourd’hui mener, sur un tout autre front, avec une tout autre urgence et à une tout autre échelle. C’est le combat pour limiter l’impact de l’empreinte algorithmique décisionnelle sur notre vie publique, sur nos infrastructures sociales communes et sur notre destin collectif
  • Il est urgent et impératif que toute forme, ambition ou projet de gouvernance algorithmique, dès lors qu’il touche à des secteurs régaliens (transport, éducation, santé, justice, sécurité) soit, obligatoirement et par contrainte législative, développé sur le modèle des licences GNU GPL du logiciel libre pour garantir a minima l’auditabilité complète et pérenne des processus à l’œuvre.
  • Il est urgent et impératif que le développement d’un modèle universel de portabilité de l’ensemble de nos données (1) soit une priorité des Etats, et qu’il soit imposé à l’ensemble des acteurs du monde économique en lien avec la conservation ou le dépôt de données numériques, et ce quels qu’en soient la nature, le volume et l’usage.
  • Il est urgent et impératif que les entreprises qui captent aujourd’hui l’essentiel des données et des flux numériques (en gros les Gafam, Natu et autres Batx) soient taxées à la hauteur réelle de leur volume d’affaire et que cet impôt finance directement les actions précitées, ce processus de redistribution devant impérativement rester hors du contrôle desdites sociétés. Car le processus inverse a déjà commencé, celui dans lequel quelques entreprises omnipotentes s’arrogent le droit de défier la puissance publique et l’intérêt général dans la levée de l’impôt, comme Amazon et Starbucks en ont encore récemment fait la démonstration à Seattle.
  • L’enjeu est de savoir si nous serons capables à très court terme de construire une alternative qui, après le temps numérique de la «désintermédiation» des vingt dernières années, sera celle de formes de remédiations algorithmiques respectueuses du corps social et partant de sa partie la plus fragile, la plus pauvre, et la plus exposée. Alors peut-être, et alors seulement, les questions de gouvernance algorithmique pourront commencer d’être envisagées sereinement.
  •  
    "Nous avons perdu la bataille contre les algorithmes en ce qui concerne la vie privée. Il faut aujourd'hui se battre pour limiter leur impact sur nos vies publiques et notre destin collectif. "
36More

Technologie : l'âge sombre | InternetActu.net - 0 views

  • Pire, la technologie s’est fait la complice de tous les défis auxquels nous sommes confrontés : à la fois d’un système économique hors de contrôle qui ne cesse d’élargir les inégalités, la polarisation politique comme le réchauffement climatique. Pour Bridle, la technologie n’est pas la solution à ces défis, elle est devenue le problème. Il nous faut la comprendre plus que jamais, dans sa complexité, ses interconnexions et ses interactions : mais cette compréhension fonctionnelle ne suffit pas, il faut en saisir le contexte, les conséquences, les limites, le langage et le métalangage.
  • Trop souvent, on nous propose de résoudre ce manque de compréhension de la technologie par un peu plus d’éducation ou son corollaire, par la formation d’un peu plus de programmeurs. Mais ces deux solutions se limitent bien souvent en une compréhension procédurale des systèmes. Et cette compréhension procédurale vise surtout à renforcer la « pensée computationnelle », c’est-à-dire la pensée des ingénieurs et des informaticiens qui n’est rien d’autre que le métalangage du solutionnisme technologique 
  • Les systèmes techniques sont devenus de plus en plus complexes. Trop critiques et interconnectés pour être compris, pensés ou conçus. Leur compréhension n’est disponible plus que pour quelques-uns et le problème est que ces quelques-uns sont les mêmes que ceux qui sont au sommet des structures de pouvoir. Pour James Bridle, il y a une relation causale entre la complexité des systèmes, leur opacité, et les violences et inégalités qu’ils propagent.
  • ...32 more annotations...
  • Le cloud (l’informatique en nuage) n’est plus une métaphore du réseau, c’est l’incarnation de ce système global et surpuissant qu’aucun d’entre nous ne peut désormais attraper. Ce nuage est pourtant une bien mauvaise métaphore. Rien de ce qu’il recèle n’y est sans poids, rien n’y est amorphe ou invisible. Le cloud cache une infrastructure physique complexe faite de lignes téléphoniques, de fibre optique, de satellite, de vastes entrepôts d’ordinateurs, qui consomment d’énormes quantités d’énergie et qui influent sur de multiples juridictions. Le cloud est l’incarnation d’une nouvelle industrie.
  • De la sécurité nationale aux secrets industriels, il y a beaucoup de raisons à obscurcir ce que recouvre ce nuage. Mais ce qui s’en évapore est assurément notre propriété (dans les nuages, tout appartient à d’autres) et notre agentivité, c’est-à-dire notre capacité à faire.
  • Le réseau donne l’impression d’être à la fois l’idéal de progrès le plus abouti et l’idéal de base de notre culture tout en paraissant avoir émergé inconsciemment, poursuivant son but d’interconnexion sans fin pour lui-même et par lui-même… « Nous présumons que l’interconnexion est inhérente et inévitable. Le réseau semble être devenu le résultat du progrès, son accomplissement ultime », à l’image de machines qui accompliraient ainsi leurs propres désirs. Internet semble avoir accompli l’idéal des Lumières, l’idéal du progrès : celui que plus de connaissance et plus d’information conduit toujours à prendre de meilleures décisions.
  • Mais n’est-ce pas plutôt le contraire auquel nous assistons ? « Ce qui était censé éclairer le monde l’a obscurci. L’abondance d’information et la pluralité d’opinion accessible à tous n’ont pas produit un consensus cohérent, mais au contraire a déchiré la réalité en narrations simplistes, en théories fumeuses et en politique d’opinion. Contrairement au Moyen Âge, où l’âge sombre était lié à une perte de connaissance antique, l’âge sombre moderne est lié à une abondance de connaissance dont nous ne savons plus démêler collectivement l’apport. »
  • L’obscurité dont parle Bridle c’est notre incapacité à voir clairement ce qui est devant nous, avec capacité et justice. Pour Bridle pourtant, ce constat ne doit pas être lu comme une condamnation de la technologie. Au contraire. Pour relever l’âge sombre qui s’annonce, il nous faut nous engager plus avant dans la technologie, avec elle, mais avec une compréhension radicalement différente de ce qu’il est possible d’en faire, en retrouver un sens que la seule recherche d’efficacité nous a fait perdre. Tout comme le changement climatique, les effets de la technologie s’étendent sur le globe et affectent tous les aspects de nos vies. Mais comme le changement climatique, ses effets sont potentiellement catastrophiques et résultent de notre incapacité à comprendre les conséquences de nos propres inventions. Nous devons changer de manière de voir et penser le monde, nous invite Bridle, un peu facilement ou naïvement.
  • « En rapprochant la simulation de l’approximation, les grands prêtres de la pensée computationnelle pensent remplacer le monde par des modèles biaisés de lui-même ; et en le faisant, les modeleurs s’assurent du contrôle du monde. » James Bridle s’inscrit dans la continuité des constats de l’historien des sciences David Noble qui, dans Le progrès sans le peuple notamment, soulignait combien la pensée des ingénieurs avait contribué à donner du pouvoir aux puissants plutôt que favoriser l’équité ou la démocratie ; comme dans celle de Richard Sclove du Loka Institute, qui dans Choix technologiques, choix de société, soulignait combien les enjeux démocratiques restaient le parent pauvre de la question technologique.
  • La pensée computationnelle s’infiltre partout : elle devient notre culture. Elle nous conditionne à la fois parce qu’elle nous est illisible et à la fois parce que nous la percevons comme neutre émotionnellement et politiquement. Les réponses automatisées nous semblent plus dignes de confiance que celles qui ne le sont pas. Dans la pensée computationnelle, nous sommes victimes du biais d’automatisation : « nous avons plus confiance dans l’information automatisée que dans notre propre expérience, même si elle est en conflit avec ce qu’on observe ». Les conducteurs de voitures comme les pilotes d’avion ont plus tendance à croire leurs instruments que leur expérience, même si celle-ci n’est pas alignée.
  • Pour Bridle, l’informatique, en ce sens, est un piratage de notre capacité cognitive, de notre capacité attentionnelle, qui renvoie toute responsabilité sur la machine. « À mesure que la vie s’accélère, les machines ne cessent de prendre en main de plus en plus de tâches cognitives, renforçant par là leur autorité – sans regarder les conséquences ». « Nous nous accommodons de mieux en mieux et de plus en plus aux confortables raccourcis cognitifs que nous proposent nos machines. L’informatique remplace la pensée consciente. Nous pensons de plus en plus comme des machines, ou plutôt nous ne pensons plus du tout ! ».
  • « Ce qui est difficile à modéliser, à calculer, à quantifier, ce qui est incertain ou ambigu, est désormais exclu du futur possible. » L’informatique projette un futur qui ressemble au passé (« Les algorithmes ne prédisent pas le futur, ils codifient le passé », disait déjà Cathy O’Neil). La pensée computationnelle est paresseuse. Elle propose finalement des réponses faciles. Elle nous fait croire qu’il y a toujours des réponses.
  • les réseaux souffrent d’une gouvernance fragmentée, sans responsabilités claires, peu cartographiés et sous-financés ; des infrastructures en silos ; des investissements privés comme publics insuffisants et plus encore un manque de compréhension de la complexité de leur fonctionnement… expliquent leur fragilité intrinsèque et la difficulté de leur maintenance. Ajoutez à cela les impacts du changement climatique sur leur maintenance et leur évolution et vous comprendrez que les réseaux ne sont pas dimensionnés pour faire face au futur. Bref, non seulement l’informatique contribue largement au réchauffement climatique, mais elle risque d’en être l’une des principales victimes.
  • Mais les grands volumes de données ne produisent pas de la connaissance automatiquement. Dans la recherche pharmacologique par exemple, les dépenses et investissements n’ont jamais été aussi forts alors que les découvertes, elles, n’ont jamais produit aussi peu de nouveaux traitements. On appelle cela la loi d’Eroom : l’exact inverse de la loi de Moore. Le nombre de résultats de recherche chute et ces résultats sont de moins en moins dignes de confiance. Si les publications scientifiques n’ont jamais été aussi volumineuses (au détriment de leur qualité), les rétractions ont augmenté et le nombre de recherches ayant un impact significatif, elles, ont diminué proportionnellement. La science connaît une crise de réplicabilité majeure.
  • Plusieurs facteurs expliquent ce revirement de la loi du progrès. La première est que les choses les plus évidentes à découvrir ont été exploitées. La régulation est également devenue plus exigeante et la société moins tolérante aux risques. Mais le problème principal relève certainement des méthodes désormais employées. Historiquement, la découverte de médicament était le fait de petites équipes de chercheurs qui se concentrait intensément sur de petits groupes de molécules. Mais depuis 20 ans, ces processus ont été largement automatisés, sous la forme de ce qu’on appelle le HTS (High-throughput screening pour criblage à haut débit) qui consiste en des recherches automatisées de réactions potentielles via de vastes bibliothèques de composants. Le HTS a priorisé le volume sur la profondeur. Ce qui a marché dans d’autres industries a colonisé la recherche pharmaceutique : automatisation, systématisation et mesures… Certains commencent à douter de l’efficacité de ces méthodes et voudraient revenir à l’empirisme humain, au hasard, au bordel, au jeu… À nouveau, « la façon dont nous pensons le monde est façonnée par les outils à notre disposition ». Nos instruments déterminent ce qui peut être fait et donc, ce qui peut être pensé. À mesure que la science est de plus en plus technologisée, tous les domaines de la pensée humaine le sont à leur tour. Les vastes quantités de données ne nous aident qu’à voir les problèmes des vastes quantités de données.
  • Les bourses et places de marchés d’antan ont été remplacées par des entrepôts, des data centers, anonymes, dans des banlieues d’affaires impersonnelles. La dérégulation et la numérisation ont transformé en profondeur les marchés financiers. La vitesse des échanges s’est accélérée avec la technologie. Les transactions à haute fréquence (HFT, High-frequency trading) reposent sur la latence et la visibilité. La latence, c’est-à-dire la rapidité d’échange où des millions peuvent s’échanger en quelques millisecondes et la visibilité (sauf pour les non-initiés), c’est-à-dire le fait que les échanges sont visibles de tous les participants, instantanément. Les échanges reposent sur des algorithmes capables de calculer des variations éclair et de masquer les mouvements de fonds. Les échanges sont plus opaques que jamais : ils s’imposent sur des forums privés, les « dark pools » (en 2015, la SEC, l’organisme américain de réglementation et de contrôle des marchés financiers, estimait que les échanges privés représentaient 1/5e du total des échanges)… Les échanges financiers ont été rendus obscurs et plus inégaux que jamais, rappelle Bridle.
  • Pour Bridle, l’une des clefs qui expliquent que les inégalités se renforcent avec la technologie est intrinsèquement liée à l’opacité des systèmes. Comme les robots des entrepôts d’Amazon et ses employés commandés par des commandes vocales émanant de robots, nous sommes en train d’arranger le monde pour rendre les machines toujours plus efficaces, quitte à ce que le monde devienne incompréhensible et inadapté aux humains. Les travailleurs deviennent le carburant des algorithmes, utiles seulement pour leurs capacités à se déplacer et à suivre des ordres. Pour Bridle, les startups et les Gafam signent le retour des barons voleurs, ces tyrans industriels du XIXe siècle. La technologie est venue couvrir d’un voile d’opacité la prédation : l’avidité s’est habillée de la logique inhumaine des machines. Amazon ou Uber cachent derrière des pixels lumineux un système d’exploitation sans faille
  • Pour la sociologue Deborah Cowen (@debcowen), nous sommes entrés dans la tyrannie de la techne explique-t-elle dans The Deadly Life of Logistics (2014) : l’efficacité est devenu primordiale sur tous les autres objectifs, sur toutes les autres valeurs
  • Autre exemple avec How-Old.net un outil de reconnaissance faciale qui tente de prédire l’âge d’une personne, et qui a été utilisée pour deviner l’âge de migrants arrivants au Royaume-Uni. Microsoft, qui a développé cette application, s’est défendu et a dénoncé cette utilisation… comme les 2 chercheurs chinois. Ceux-ci expliquaient néanmoins dans leur défense que leur système était « sans préjugé » (sic). Comme souvent, on nous explique que la technologie, et plus encore l’apprentissage automatisé, est neutre. Mais « la technologie n’émerge pas de nulle part. Elle est toujours la réification de croyances et de désirs, notamment de ses créateurs. Leurs biais sont encodés dans les machines et les bases de données ou les images que nous prenons du monde. »
  • Pour Bridle, le problème n’est pas tant que les machines puissent réécrire la réalité, mais que la réalité, le passé comme le futur, ne puissent plus être correctement racontés. DeepDream de Google illustre parfaitement cela. L’enjeu n’est pas pour nous de comprendre ce qu’est l’image, mais de nous demander ce que le réseau de neurones veut y voir ?
  • Pour Bridle, nous devrions ajouter une 4e loi aux trois lois de la robotique d’Asimov. Les machines intelligentes devraient être capables de s’expliquer aux humains. Ce devrait être une loi première, car éthique. Mais le fait que ce garde-fou ait déjà été brisé laisse peu d’espoir quant au fait que les autres règles le soient à leur tour. « Nous allons devoir affronter un monde où nous ne comprendrons plus nos propres créations et le résultat d’une telle opacité sera toujours et inévitablement violent ».
  • Pour Bridle, l’alliance entre l’humain et la machine peut encore fonctionner, comme l’a montré Garry Kasparov avec les échecs avancés, consistant à ce qu’une IA et qu’un humain jouent ensemble plutôt qu’ils ne s’affrontent. C’est dans la perspective d’associer les talents des humains et des machines, d’associer leurs différences d’une manière coopérative plutôt que compétitive que nous parviendrons à réduire l’opacité computationnelle. La perspective que l’intelligence des machines nous dépasse dans nombre de disciplines est une perspective destructrice. Nous devons trouver la voie d’une éthique de la coopération avec les machines, plutôt qu’un affrontement.
  • Bridle s’en prend également longuement à la surveillance et notamment à la surveillance d’Etat pour souligner combien elle nous est masquée et continue à l’être, malgré les révélations d’Edward Snowden. Vous pouvez lire n’importe quel e-mail dans le monde d’une personne dont vous avez l’adresse. Vous pouvez regarder le trafic de tout site web. Vous pouvez suivre les mouvements de tout ordinateur portable à travers le monde. Pour Bridle, cela nous a montré qu’il n’y a pas de restriction possible à la capacité de surveillance du réseau. L’échelle et la taille de la surveillance a excédé ce que nous pensions comme étant techniquement possible.
  • En opposition au secret, nous demandons de la transparence, mais elle n’est peut-être pas le bon levier. La NSA et Wikileaks partagent la même vision du monde avec des finalités différentes, rappelle Bridle. Les deux pensent qu’il y a des secrets au coeur du monde qui, s’ils étaient connus, pourraient rendre le monde meilleur. Wikileaks veut la transparence pour tous. La NSA veut la transparence pour elle. Les deux fonctionnent sur une même vision du monde. Wikileaks ne voulait pas devenir le miroir de la NSA, mais voulait briser la machine de surveillance. En 2006, Assange a écrit « Conspiracy as Governance » (.pdf). Pour lui, tout système autoritaire repose sur des conspirations, car leur pouvoir repose sur le secret. Les leaks minent leur pouvoir, pas par ce qui fuite, mais parce que la peur et la paranoïa dégradent la capacité du système autoritaire à conspirer. Mais les fuites de données ne suffisent pas à remettre en cause ou à abattre l’autorité. Les révélations ne font pas bouger l’opinion, sinon, nous aurions réagi bien avant les révélations de Snowden. Tant que les organisations de surveillance ne changent pas de l’intérieur, ceux qui sont en dehors de ces organisations, comme les lanceurs d’alertes, n’ont pas de capacité d’action. Ils attendent que des fonctionnaires ou que la justice confirment ce qu’ils avancent.
  • Mais la lumière du calcul nous dépossède de pouvoir, car elle nous fait crouler sous l’information et nous donne un faux sens de la sécurité. C’est là encore une conséquence de la pensée computationnelle. « Notre vision est devenue universelle, mais notre capacité d’action, elle, s’est réduite plus que jamais. » A l’image du réchauffement climatique, à nouveau, « nous savons de plus en plus de choses sur le monde, mais nous sommes de moins en moins capable d’agir sur lui ». Au final, nous nous sentons plus démunis que jamais. Plutôt que de reconsidérer nos hypothèses, nous nous enfonçons dans la paranoïa et la désintégration sociale.
  • Le monde est devenu trop complexe pour des histoires simples. En fait, « la démultiplication de l’information ne produit pas plus de clarté, mais plus de confusion ». L’un des symptômes de la paranoïa consiste à croire que quelqu’un vous surveille. Mais cette croyance est désormais devenue raisonnable, s’amuse Bridle en évoquant la surveillance d’Etat comme la surveillance des services numériques. Nous sommes entièrement sous contrôle, tant et si bien qu’on peut se demander qui est paranoïaque désormais ?
  • « Les théories conspirationnistes sont le dernier ressort des sans pouvoirs, imaginant ce que serait que d’être puissant », avance Bridle. Pour le spécialiste de la postmodernité, Frederic Jameson, les théories conspirationnistes sont « la cartographie cognitive des plus démunis dans un âge postmoderne ». C’est la figure dégradée de la logique par ceux qui ont le moins de capital culturel, une tentative désespérée de se représenter un système qu’ils ne comprennent pas. Encerclé par l’évidence de la complexité, l’individu a recours à un récit simpliste pour tenter de regagner un peu de contrôle sur la situation. À mesure que la technologie augmente et accélère le monde, celui-ci devient plus complexe. Les théories conspirationnistes deviennent alors des réponses, étranges, intriquées et violentes, pour s’en accommoder.
  • Ainsi, si vous cherchez de l’information sur les vaccins, vous tomberez invariablement sur de l’information contre les vaccins. Si vous cherchez de l’information sur la rotondité de la terre, vous tomberez inexorablement sur ceux qui pensent qu’elle est plate. Ces opinions divergentes semblent devenir la majorité tant elles sont exprimées et répétées avec force. « Ce qui se passe quand vous désirez en savoir de plus en plus sur le monde entre en collision avec un système qui va continuer à assortir ses réponses à n’importe quelle question, sans résolution ». Vous trouverez toujours quelqu’un pour rejoindre vos points de vue. Et toujours un flux pour les valider. Voici l’âge de la radicalisation algorithmique (à l’image de ce que disait Zeynep Tufekci de YouTube). Les théories conspirationnistes sont devenues la narration dominante. Elles expliquent tout. Dans la zone grise des connaissances, tout prend un sens.
  • Les failles des algorithmes sont les dernières failles du capitalisme où certains s’infiltrent non pas pour le renverser, mais pour tenter de gratter un peu d’argent que les plus gros systèmes s’accaparent. Au final, des vidéos automatisées finissent par être vues par des enfants. Leurs personnages préférés y font n’importe quoi, parfois suggèrent des scènes de meurtre ou de viols. Ces effets de réseaux causent des problèmes réels. Les algorithmes de YouTube ont besoin d’exploitation pour produire leurs revenus. Derrière leurs aspects séduisants, ils encodent les pires aspects du marché, notamment l’avidité. « La capacité à exploiter l’autre est encodée dans les systèmes que nous construisons », pointe très justement James Bridle, puisque leur efficacité repose sur leur capacité à extraire de l’argent de nos comportements.
  • À défaut d’une solution, Google annonçait en avril que l’application YouTube Kids allait devenir « non-algorithmique »… À croire, comme le pointait très justement le chercheur Olivier Ertzscheid, que l’algorithimsation n’est pas une solution sans limites.
  • Pour Bridle, les humains sont dégradés des deux côtés de l’équation : à la fois dans l’exploitation qui est faite de leur attention et à la fois dans l’exploitation de leur travail. Ces nouvelles formes de violence sont inhérentes aux systèmes numériques et à leur motivation capitaliste. Le système favorise l’abus et ceux qui le produisent sont complices, accuse-t-il. L’architecture qu’ils ont construite pour extraire le maximum de revenus des vidéos en ligne a été hackée par d’autres systèmes pour abuser d’enfants à une échelle massive. Les propriétaires de ces plateformes ont une responsabilité forte dans l’exploitation qu’ils ont mise en place. « C’est profondément un âge sombre quand les structures qu’on a construites pour étendre la sphère de communications sont utilisées contre nous d’une manière systématique et automatique. »
  • Pour Bridle, les fausses nouvelles ne sont pas le produit de l’internet. Elles sont le produit de la cupidité et de la démocratisation de la propagande où tout a chacun peut devenir un propagandiste. Elles sont un amplificateur de la division qui existe déjà dans la société, comme les sites conspirationnistes amplifient la schizophrénie.
  • Mais ce qu’il y a de commun avec le Brexit, les élections américaines ou les profondeurs de YouTube, c’est que malgré tous les soupçons, il reste impossible de savoir qui fait ça, qu’elles sont leurs motivations, leurs intentions. On peut regarder sans fin ces flux vidéos, on peut parcourir sans fin les murs de mises à jour de statuts ou de tweets… cela ne permet pas de discerner clairement ce qui est généré algorithmiquement ou ce qui est construit délibérément et soigneusement pour générer des revenus publicitaires. On ne peut pas discerner clairement la fiction paranoïaque, l’action d’États, la propagande du spam… Ces confusions servent les manipulateurs quels qu’ils soient bien sûr, mais cela les dépasse aussi. C’est la manière dont le monde est. Personne ne semble réellement décider de son évolution… « Personne ne veut d’un âge sombre, mais nous le construisons quand même et nous allons devoir y vivre. »
  • Exploiter plus de données pour construire de meilleurs systèmes est une erreur. Cette méthode ne parviendra pas à prendre en compte la complexité humaine ni à la résoudre. Le développement de l’information n’a pas conduit à une meilleure compréhension du monde, mais au développement de points de vue alternatifs et concurrents. Nous devons changer nos façons de penser comme nous y invitait Lovecraft. Nous ne survivrons pas plus à l’information brute qu’à la bombe atomique. Le nouvel âge sombre est un lieu où le futur devient radicalement incertain et où le passé devient irrévocablement contesté. Mais c’est le présent dans lequel nous devons vivre et penser. Nous ne sommes pas sans pouvoir ni capacités. Mais pour cela nous devons nous défaire des promesses illusoires de la pensée computationnelle. Penser le monde autre, c’est ce à quoi nous invite James Bridle dans le nouvel âge sombre.
  • Reste à savoir si cet âge sombre des technologies est vraiment notre avenir. L’âge sombre du Moyen Âge n’a jamais vraiment existé ailleurs que dans les lacunes des historiens. On peut douter également de cette nouvelle obscurité ou regretter le titre faussement prophétique. Reste que la complexité et l’intrication du monde que décrit James Bridle, montrent combien il nous faut, plus que jamais, nous défaire justement d’une vision simple et manichéenne de la technologie.
  •  
    "Ce New Dark Age porte un titre prophétique et apocalyptique. Un peu trop peut-être. C'est effectivement un livre très critique sur notre rapport à la technologie, très éloigné du rapport souvent curieux et amusé que Bridle portait aux technologies avec la nouvelle esthétique. En une dizaine de chapitres, Bridle explore les glitchs qui sont désormais devenus des schismes, des scissions, des ruptures… comme s'ils n'étaient plus aussi distrayants. Dans son livre, il montre combien les bugs se cristallisent en caractéristiques. Combien la complexité technique que nous avons construite s'entremêle pour produire des effets en réseau, complexes, profonds, intriqués que nous ne parvenons plus vraiment à démêler. Son constat principal consiste à dire que ces dysfonctionnements ne sont pas amenés à être corrigés. Ils sont au contraire intrinsèques à la nature même des technologies qui se déploient aujourd'hui. Contrairement à ce que nous annonçaient les pionniers et les prophètes des technologies, pour Bridle, la technologie n'annonce pas de nouvelles Lumières ou une Renaissance, mais, comme Jules Michelet parlait du Moyen Âge, un âge sombre, une ère d'obscurité pour ne pas dire d'obscurantisme. Ni les réseaux sociaux, ni l'intelligence artificielle, ni les systèmes techniques ne vont nous aider à faire monde commun. Au contraire."
15More

Le Libre peut-il faire le poids ? - Framablog - 0 views

  • l’économie des géants du numérique est, pour certains, basée sur une attitude extrêmement agressive : il faut être le moins cher possible, perdre de l’argent à en crever et lever des fonds à tire-larigot pour abattre ses concurrents avec comme logique un pari sur la quantité d’argent disponible à perdre par participants. Celui qui ne peut plus se permettre de vider les poches de ses actionnaires a perdu. Tout simplement. Si ces entreprises imaginent, un jour, remonter leurs prix pour envisager d’être à l’équilibre ou rentable, l’argument du « ce n’est pas possible puisque ça rouvrira une possibilité de concurrence » sortira du chapeau de ces génies pour l’interdire. Du capitalisme qui marche sur la tête.
  • La deuxième grande technique des géants du numérique est basée sur la revente de statistiques collectées auprès de leurs utilisateurs. Ces données privées que vous fournissez à Google, Facebook Inc,, Twitter & co permettent à ces sociétés de disposer d’une masse d’informations telle que des entreprises sont prêtes à dégainer leurs portefeuilles pour en dégager des tendances.
  • Une troisième technique consiste à reprendre les données collectées auprès des utilisateurs pour afficher de la pub ciblée, donc plus efficace, donc plus cher. C’est une technique connue, alors je ne développe pas.
  • ...11 more annotations...
  • Une autre technique est plus sournoise. Pas pour nous autres, vieux loubards, mais pour les jeunes : le placement produit. Même si certain Youtubeurs en font des blagues pas drôles (Norman…), ce truc est d’un vicieux.
  • Ces influenceurs sont friands de plateformes taillées pour leur offrir de la visibilité et clairement organisées pour attirer l’œil des Directeurs de Communication des marques. Mastodon, Pixelfed, diaspora* et les autres ne permettent pas de spammer leurs utilisateurs, n’attirent donc pas les marques, qui sont la cible des influenceurs, ces derniers n’y dégageant, in fine, aucun besoin d’y être présents.
  • On peut attendre que les Uber se cassent la figure calmement, on peut attendre que le droit décide enfin de protéger les données des utilisateurs, on peut aussi attendre le jour où les consommateurs comprendront qu’ils sont les seuls responsables de l’inintérêt de ce qu’ils regardent à la télé, au cinéma, en photos ou encore que les mastodontes du numérique soient démantelés. Bref, on peut attendre. La question est : qu’aurons-nous à proposer quand tout ceci finira par se produire ?
  • Après la FinTech, la LegalTech, etc, faites place à la LowTech ou SmallTech. Je ne connaissais pas ces expressions avant de tomber sur cet article dans le Framablog et celui de Ubsek & Rica d’Aral. On y apprend que c’est un mouvement qui s’oppose frontalement aux géants, ce qui est fantastique. C’est une vision du monde qui me va très bien, en tant que militant du Libre depuis plus de 10 ans maintenant. On peut visiblement le rapprocher de l’initiative CHATONS. Cependant, j’ai du mal à saisir les moyens qui pourraient être mis en œuvre pour sa réussite.
  • Les mentalités actuelles sont cloisonnées : le Libre, même s’il s’impose dans quelques domaines, reste mal compris. Rien que l’idée d’utiliser un programme au code source ouvert donne des sueurs froides à bon nombre de DSI. Comment peut-on se protéger des méchants si tout le monde peut analyser le code et en sortir la faille de sécurité qui va bien ? Comment se démarquer des concurrents si tout le monde se sert du même logiciel ? Regardez le dernier changelog : il est plein de failles béantes : ce n’est pas sérieux !
  • Parlons aussi de son mode de fonctionnement : qui se souvient d’OpenSSL utilisé par tout le monde et abandonné pendant des années au bénévolat de quelques courageux qui n’ont pas pu empêcher l’arrivée de failles volontaires ? Certains projets sont fantastiques, vraiment, mais les gens ont du mal à réaliser qu’ils sont, certes, très utilisés mais peu soutenus. Vous connaissez beaucoup d’entreprises pour lesquelles vous avez bossé qui refilent une petite partie de leurs bénéfices aux projets libres qui les font vivre ?
  • On peut faire un vrai parallèle entre la situation de la Presse en ligne et les services numériques. Trouver des gens pour payer l’accès à un Nextcloud, un Matomo ou que sais-je est une gageure. La seule différence qui me vient à l’esprit est que des services en ligne arrivent à s’en sortir en coinçant leurs utilisateurs dans des silos : vous avez un Windows ? Vous vous servirez des trucs de Microsoft. Vous avez un compte Gmail, vous vous servirez des trucs de Google. Les premiers Go sont gratuits, les autres seront payants. Là où les journaux généralistes ne peuvent coincer leurs lecteurs, les géants du numérique le peuvent sans trop de souci.
  • Perso, je l’ai déjà dit, j’adhère volontiers à cette vision du monde horizontale et solidaire. Malgré tout, mon envie de travailler, d’avoir un salaire, une couverture sociale, une activité rentable, et peut-être un jour une retraite, me poussent à grimacer. Si les bribes d’idéologie LowTech orientent les gens vers des associations, comment fait-on pour sortir de terre une entreprise éthique, rentable et solidaire ?
  • L’idée, connue, serait de s’attaquer au marché des entreprises et des collectivités pour laisser celui des particuliers aux associations sérieuses. Mais là encore, on remet un pied dans le combat pour les logiciels libres contre les logiciels propriétaires dans une arène encerclée par des DSI pas toujours à jour. Sans parler de la compétitivité, ce mot adoré par notre Président, et de l’état des finances de ces entités. Faire le poids face à la concurrence actuelle, même avec les mots « éthique, solidaire et responsable » gravés sur le front, n’est pas évident du tout.
  • Cette conférence vue au FOSDEM, The Cloud Is Just Another Sun, résonne terriblement en moi. L’intervenant y explique que les outils libres que nous utilisons dans le cloud sont incontrôlables. Qui vous certifie que vous tapez bien dans un MariaDB ou un ES quand vous n’avez accès qu’a une boite noire qui ne fait que répondre à vos requêtes ? Rien.
  • Pour finir, ne mettons pas complètement de côté l’existence réelle d’un marché : Nextcloud en est la preuve, tout comme Dolibarr et la campagne de financement réussie d’OpenDSI. Tout n’est peut-être pas vraiment perdu. C’est juste très compliqué.
  •  
    "Dans un article assez lucide de son blog que nous reproduisons ici, Dada remue un peu le fer dans la plaie. Faiblesse économique du Libre, faiblesse encore des communautés actives dans le développement et la maintenance des logiciels et systèmes, manque de visibilité hors du champ de perception de beaucoup de DSI. En face, les forces redoutables de l'argent investi à perte pour tuer la concurrence, les forces tout aussi redoutables des entreprises-léviathans qui phagocytent lentement mais sûrement les fleurons du Libre et de l'open source… Lucide donc, mais aussi tout à fait convaincu depuis longtemps de l'intérêt des valeurs du Libre, Dada appelle de ses vœux l'émergence d'entreprises éthiques qui permettraient d'y travailler sans honte et d'y gagner sa vie décemment. Elles sont bien trop rares semble-t-il. D'où ses interrogations, qu'il nous a paru pertinent de vous faire partager. Que cette question cruciale soit l'occasion d'un libre débat : faites-nous part de vos réactions, observations, témoignages dans les commentaires qui comme toujours sont ouverts et modérés. Et pourquoi pas dans les colonnes de ce blog si vous désirez plus longuement exposer vos réflexions."
5More

Mark Zuckerberg : "Quatre idées pour réguler Internet" - JDD - 0 views

  • Une idée pourrait être de confier à des organismes tiers le soin de définir des standards sur la diffusion des contenus violents et haineux, et d'évaluer les entreprises sur la base de ces standards. La régulation pourrait établir une base de référence de ce qui est interdit, et exiger des entreprises qu'elles mettent en place des moyens pour réduire au maximum les contenus violents et haineux.
  • Mais décider de ce qui relève de la publicité politique n’est pas toujours évident. Nos systèmes seraient plus performants si la régulation établissait des standards communs pour vérifier l’identité des acteurs politiques.
  • 3. Troisièmement, pour être efficace, la protection de la vie privée et des données personnelles nécessite un cadre harmonisé à l'échelle mondiale. Partout dans le monde, les gens réclament une réglementation complète en matière de protection de la vie privée en accord avec le RGPD (Règlement Européen de Protection des Données), et je suis d'accord. Je pense qu'il serait bon pour Internet que davantage de pays adoptent une réglementation telle que le RGPD comme cadre commun.
  • ...1 more annotation...
  • 4. Enfin, la réglementation devrait garantir le principe de la portabilité des données. Si vous partagez des données avec un service, vous devriez pouvoir les transférer facilement et de manière sécurisée vers un autre service. Cela donne aux gens le choix et permet aux développeurs d'innover et d'être plus compétitifs.
  •  
    "TRIBUNE - Mark Zuckerberg, le PDG de Facebook, publie dans Le Journal du Dimanche, une longue tribune dans laquelle il dévoile quatre idées pour réguler Internet. Il indique notamment que les gouvernements doivent jouer un rôle plus important dans cette régulation. "
1More

« On travaille quand on peut, et quand on veut ». La vague de l'ubérisation d... - 0 views

  •  
    Depuis trois ans, des start-up proposent de mettre en relation des entreprises et des étudiants pour des petits boulots. Mais pour être serveur ou vendeur le temps d'une journée, ils doivent se déclarer comme autoentrepreneur.
6More

Les données de Google sont devenues une mine d'or pour la police américaine -... - 0 views

  • Le recours à cette technique d’investigation, utilisée pour la première fois en 2016, a « fortement augmenté » ces six derniers mois, assurent les employés de Google interrogés par le New York Times. Un salarié parle d’un record de 180 requêtes comptabilisées en une seule semaine. Google refuse de commenter ces chiffres. Que lui demande exactement la police ? Un mandat pour avoir accès à une gigantesque base de données qui contient la position géographique précise de plusieurs centaines de millions d’appareils dans le monde depuis près de dix ans. Google, l'appelle, en interne, « Sensorvault ».
  • La police indique une zone géographique et une période de temps, Google lui fournit la liste de tous les appareils présents au moment et au lieu indiqués. Une fois que la police a enquêté et réduit son champ de recherches à quelques appareils, Google révèle les noms et adresses mail de leurs propriétaires. Et ce au risque d’arrêter des innocents, s’inquiète le New York Times. 
  • Ces recherches posent par ailleurs une question constitutionnelle, car le quatrième amendement stipule qu’un mandat doit avoir une portée limitée et établir des motifs probables et suffisants. Or, le mandat demandé à Google peut parfois concerner des zones et des plages horaires étendues, ou même s’éloigner de la demande initiale jusqu’à « offrir un portrait précis des habitudes d’un individu ». Enfin, Google ne dispose pas des données de tous les appareils - les données de géolocalisation peuvent être désactivées - sa vue est donc biaisée, et incomplète.
  • ...2 more annotations...
  • Les révélations du New York Times sur Sensorvault rappellent les nombreuses questions éthiques et légales posées par les requêtes de la police ou de la justice, toujours plus nombreuses, faites aux entreprises de la tech. On se souvient d’Amazon qui, en 2016, s’était refusée à donner à la justice américaine les enregistrements de l’enceinte connectée d’un homme accusé d’avoir tué un de ses amis. L’homme avait finalement clamé son innocence et autorisé Amazon à fournir les données réclamées, et les charges contre lui avaient été abandonnées.
  • Les entreprises de la tech ne sont pas les seules à intéresser la police. Les bases de données des plateformes proposant des tests ADN dits « récréatifs » suscitent également la convoitise du FBI. Pendant l’été 2018, les quatre entreprises dominant le secteur avaient toutes promis qu’elle ne laisseraient pas la police entrer dans leurs bases de données sans mandat, mais quelques semaines plus tard, « Family Tree DNA autorisait déjà le FBI à télécharger l’ADN récupéré sur des cadavres et des tâches de sang et à naviguer dans la base de données comme n’importe quel client, en regardant les noms et les relations entre les utilisateurs. »
  •  
    "La police américaine adresse de plus en plus de requêtes à Google pour géolocaliser des suspects en accédant à une base de données qui contient les positions géographiques de centaines de millions de téléphones dans le monde, a révélé le New York Times. La méthode est critiquée. "
6More

Il est temps de reconnaître l'intégrité numérique des individus - Le Temps - 0 views

  • Aujourd’hui, les individus ont une existence numérique qui ne dépend pas de leur propre volonté. En effet, quelqu’un qui ne s’inscrit pas sur un réseau social a toutes les chances d’être connu de ce réseau social du simple fait que son entourage interagit avec cette plateforme. La compilation et l’analyse des données personnelles sont déjà suffisamment sophistiquées pour réaliser le profil précis d’un individu sans qu’il ait lui-même fourni des données personnelles à l’entreprise concernée. Il suffit par exemple pour cela, lorsqu’on s’inscrit sur un tel site, de donner accès à son répertoire.
  • De même, on commence à voir l’émergence d’une génération d’individus qui ont une existence numérique antérieure à leur naissance. Des parents qui partagent leur échographie sur un réseau social, cela existe. Il suffit aussi d’annoncer la naissance de cet enfant pour qu’il existe déjà numériquement. Bref, que nous le voulions ou non, une partie de notre existence est désormais numérique. C’est pourquoi les données qui nous concernent ne sont pas de simples propriétés, elles font partie de notre individualité, elles nous définissent, disent beaucoup de choses de nous. «Nous» sommes nos données personnelles et ces données personnelles, c’est «nous».
  • Si les êtres humains ont une existence numérique, il y a lieu de considérer que leur intégrité s’étend aussi à cette dimension. Puisqu’il y a une intégrité physique, qui correspond à notre corps, une intégrité psychique qui correspond à notre monde mental, il doit y avoir une intégrité numérique, laquelle se réfère logiquement à la dimension numérique de notre existence.
  • ...2 more annotations...
  • De ce fait, nos données personnelles font partie intégrante de notre intégrité numérique, ce qui revient à dire qu’exploiter nos données porte atteinte à notre intégrité.
  • Aujourd’hui, les Etats et les entreprises invoquent toujours d’excellentes raisons pour porter atteinte à l’intégrité numérique des individus en exploitant leurs données personnelles. Mais bien souvent, le traitement de ces données sert à influencer, de façon opaque, nos comportements, ou à mener des politiques sécuritaires de surveillance massive. La révolution numérique doit profiter à l’humanité, et non pas faciliter son exploitation pour favoriser des intérêts particuliers, dont seule une caste privilégiée en tirera la quasi-totalité des profits.
  •  
    "Reconnaître et protéger notre intégrité numérique constituent un premier pas nécessaire pour que l'humain ne soit pas l'objet de la technologie, écrit le journaliste Grégoire Barbey "
3More

Une Charte mondiale contre l'uberisation du travail - Pôle emploi - Emploi Pa... - 0 views

  • L’élaboration d’un système de gouvernance internationale qui établisse un socle de droits et protections et impose aux plateformes (et à leurs clients) de les respecter devient donc un enjeu essentiel pour l’OIT qui estime qu’aucune régulation ne pourra se faire en dehors d’instances internationales.
  • Elle propose, entre autres, un droit universel à l’apprentissage tout au long de la vie, une protection sociale universelle de la naissance à la vieillesse, une garantie universelle permettant à tous les travailleurs, quels que soient leur régime contractuel ou leur statut professionnel, de jouir des droits fondamentaux des travailleurs et d’un « salaire assurant des conditions d’existence convenables », etc. Le programme est non seulement très ambitieux mais il est entièrement axé autour de l’idée que l’action majeure est celle de la gestion de la technologie et de sa mise au service d’un travail décent et durable. Et cela passe par une approche dans laquelle l’intelligence artificielle reste sous contrôle humain et implique que « les décisions finales touchant le travail soient prises par des êtres humains ».
  •  
    "Pour son centenaire, l'OIT (Organisation Internationale du Travail) veut faire adopter un programme d'actions mondial pour réguler les évolutions du travail et garantir des droits à tous les travailleurs. Les actions proposées sont extrêmement ambitieuses et seront discutées en juin."
8More

(Un retour sur) Peertube. - Mr. Funk E. Dude - 0 views

  • One of the ways that it distinguishes itself from YouTube and Vimeo however, is in its peer to peer sharing structure. If just one person is watching your video, then it’s pulling it straight from the server. If two or more are watching your video, then it shares bits of the video between them, creating less activity on the server. The idea is that, like all other decentralized social networks, you can run your own instance of the software and the server load is significantly reduced.
  • As with most decentralized social networks each instance of PeerTube has it’s own rules, guidelines, and restrictions. The biggest difference between the instances probably boils down to daily upload file limitations. It’s important when choosing an instance to see what their restrictions are as it may effect your experience.
  • My first problem is with finding anything interesting to watch. Because PeerTube is worldwide you’ll notice right away that a LOT of the videos on the front page are mostly in different languages. French, Spanish, Russian, English, and others. This isn’t necessarily a bad thing in and of itself, but it does slow down the amount of time it takes to find a good video to watch. An option to sort by language would be a big step.
  • ...4 more annotations...
  • My next problem is with theft. There are a LOT of stolen YouTube videos. I’d say more then 3/4 of the videos on most of the PeerTube instances I’ve visited are taken from YouTube. I get how some people might have a grudge against Google and therefor YouTube and think that copying the videos and placing them on PeerTube might hurt YouTube, but in reality it hurts the creators that made them in the first place.
  • So if 3/4 of PeerTube Videos are just stolen YouTube videos, why not just go to YouTube? It’s the same problem any video sharing platform has. Content. If there’s not enough people creating content to watch, no one is going to use the service. YouTube is a HUGE source of content that no new service can really compete directly against. Turning PeerTube into a YouTube dumping ground is just admitting defeat. Until PeerTube finds a way to attract content creators, it’s going to struggle.
  • My last problem is with porn. Now, I’m no prude. I’ve got no issues with porn. It’s great, when in the right context. The problem is when it’s someone slinging their dick like a propeller right next to a video on how to adjust the settings on your hard drive. Fortunately most people put their porn behind content warning which blur the thumbnail and make you click on a warning to see the video, but not everyone does. Most instances will ban people for not using content warnings, but if someone is running their own instance, then the moderators for other instances have to ban the offenders instance from the Federation. It can be a slow process.
  • Until PeerTube fixes these four issues it’s going wallow in obscurity. It’s a good idea, being able to share videos across different social media platforms. Lessening server stress by using P2P. Decentralization. Federation. Content warning. All useful to the users, but it’s the content and how it’s managed by both the users and each instances moderators that will determine if, on a whole, PeerTube can survive and thrive like Mastodon, Pixelfed, or Friendica.
  •  
    "I know I've said a lot of great things about federated social networks and for the most part they are. Nothing is perfect however. With that said, let me introduce, and explain the problem I see, with PeerTube."
15More

Society in the loop : vers un intelligence artificielle plus démocratique ? -... - 0 views

  • Mais l’intelligence artificielle se diffuse également dans des sphères qui concernent plus directement la vie publique, et donc la société. Pour ne citer qu’eux : le classement de lycéens après leurs bacs[4], l’automatisation de procédures judiciaires[5] ou des horaires de ramassage scolaire[6], la dérégulation du flux automobile dans les villes dus à l’utilisation d’un service de GPS comme Waze[7], l’utilisation de la reconnaissance faciale dans des lieux publics[8] et privés[9], l’usage de « détecteurs de mensonges » aux frontières[10], la police prédictive[11], ou même plus simplement l’usage de systèmes reposant sur la captation de l’attention de l’utilisateur[12].  A leurs échelles, ces sujets touchent la vie sociale dans des dimensions qui pourraient légitimement demander à ce que des discussions plus démocratiques aient lieu. Ils entrent certes, plus ou moins directement dans la catégorie « intelligence artificielle » mais participent de la numérisation du monde à travers des algorithmes, et feront tous le pas vers l’IA si ce n’est déjà fait.
  • C’est là qu’intervient le passage qualitatif du « human in the loop » (HITL) au « society in the loop » (SITL). Pour le dire simplement, le SITL devient nécessaire lorsqu’un système utilisant l’intelligence artificielle a des implications importantes sur la sphère sociale. Iyad Rahwan explique : « alors que le HITL utilise le jugement d’un individu ou d’un groupe pour optimiser un système pensé trop étroitement, SITL embarque le jugement et les valeurs d’une société vue comme un tout, dans la définition la gouvernance algorithmique[13] de questions sociétales ». En résumé, le SITL est une forme de contrat social entre ceux qui doivent obéir aux règles et ceux qui écrivent les règles.
  • Coupons court au débat qui concerne les bulles de filtres : leur émergence et leurs effets dépendent du paramétrage des algorithmes de Facebook, de Google et des autres services susceptibles de créer ces bulles. Par conséquent, elles restent à leur main, notamment à travers leurs Conditions générales d’utilisation (CGU) et le secret d’affaires qui protègent ces systèmes (et les modèles d’affaires de captation du « temps de cerveau disponible » qui y sont directement liés). Pas de démocratie à cet endroit, quand bien même les impacts sur la démocratie pourraient être réels, même s’ils sont encore mal mesurés. C’est une des premières limites du modèle « Society in the loop ».
  • ...11 more annotations...
  • Dans le cas des véhicules autonomes en revanche, une vaste étude a été réalisée sur plusieurs années par le MIT Lab. Elle a concerné des millions de personne dans 233 pays (à travers le petit jeu http://moralmachine.mit.edu/) et a montré à quel point le traitement des questions éthique est variable, même lorsqu’on parle de conduite automobile ! Comme le relate Hubert Guillaud : « la question éthique diverge selon la culture, le niveau économique et la localisation géographique ; bien plus que selon des préférences individuelles (…) les Japonais ont plutôt tendance à préférer des véhicules qui épargnent les piétons alors que d’autres cultures, comme la culture chinoise, préfèrent des véhicules qui épargnent les passagers. » L’objectif d’une telle étude est d’apporter l’éclairage de la société toute entière afin que le système technique réponde au « bien commun ».
  • A l’initiative de Grégoire Japiot (@gregoire) et Matteo Mazzeri (@matemaz), le projet GEnIAL (voir le site internet) est « Une plateforme qui utilise les interfaces conversationnelles et l’intelligence artificielle afin de permettre à la population d’un territoire de mieux vivre dans sa ville à l’ère de la Smart City en offrant des moyens simples pour accéder aux services des administrations et des autres acteurs de la région. » Le projet, qui se revendique de « Society in the loop », est d’utilité publique et censé resté « la propriété des citoyens », contrairement aux services d’assistants proposés par les géants d’internet. Les données collectées ne sont pas commercialisées et la vie privée reste préservée. Grégoire, le fondateur, précise que les concertations citoyennes sont au cœur du projet. L’idée : intégrer dans le service les retours de la société (citoyens, administrations/institutions publiques, chercheurs et acteurs économiques) en vue d’élaborer des modèles d’apprentissage utilisés pour construire une « intelligence artificielle concertée ».
  • Concrètement, GEnIAL Bot, est une « solution qui vise à permettre aux utilisateurs d’interagir avec l’ensemble des informations d’un territoire via des interfaces conversationnelles de type chatbot et assistant vocal. » Au lieu de devoir utiliser des moteurs de recherche pour identifier les différents sites où se trouvent les informations recherchées ou bien de devoir téléphoner aux services concernés, les utilisateurs peuvent interroger GEnIAL Bot en s’adressant en langage naturel et se laisser guider sous forme de conversations vers l’information. Pour la partie technologique, GEnIAL « dispose d’une convention de partenariat avec le CERN qui lui permet de concevoir avec les équipes les plus pointues, une intelligence artificielle éthique et explicable, dont les modèles d’apprentissage sont pensés de manière à refléter l’identité du territoire et intégrer un processus de concertation continue avec ses habitants. »
  • A une échelle très locale, le projet GEnIAL pourrait entrer dans ce qu’il convient d’appeler la « démocratie technique ». La formule que j’emprunte ici à Callon, Barthes et Lascoumes dans l’ouvrage fondateur Agir dans un monde incertain, Essai sur la démocratie technique (Seuil, 2011) désigne notamment les dispositifs par lesquels des profanes peuvent peser sur les modes de conception et de diffusion des sciences et des techniques. A l’évocation de la démocratie technique, on pense souvent aux grandes polémiques et controverses qui ont agité des sujets technoscientifiques comme les OGM, l’enfouissement des déchets nucléaires, ou encore les traitements contre le SIDA. Ce dernier cas a montré que l’intrusion des malades parmi les experts a pu conduire à améliorer les protocoles des laboratoires pharmaceutiques, alors très éloignés de leurs vies.
  • Si ces exemples peuvent paraître éloignés des questions relatives à l’intelligence artificielle, ils permettent d’entrouvrir une autre dimension de la démocratie technique. Par-delà la pure contestation ou modification a posteriori d’une technique existante, Callon, Barthes et Lascoumes décrivent un modèle de « co-production des savoirs ». Ce modèle postule que les non-spécialistes peuvent produire des connaissances à partir de leurs intérêts propres. Ils sont les plus à même d’entrevoir les risques d’un projet et de les faire reconnaître comme légitimes lors d’une étape de conception commune. Ce faisant, ils participent pleinement à la production des sciences et des techniques. Ce modèle suscite des critiques : on pointe le fait que des profanes ne seraient pas capables de s’exprimer sur un sujet technique, et que par conséquent, l’avis des experts serait toujours supérieur, de meilleure qualité, et devrait être pris en compte en priorité.
  • De nombreux contre-exemples viennent infirmer ces thèses. L’expérience prouve que si les conditions sont réunies, des personnes éloignées d’un sujet technique ou scientifique peuvent tout à fait construire des rapports de grande qualité et reconnus comme tels par les experts eux-mêmes. Ce fut le cas lors des controverses concernant les OGM il y a de cela une vingtaine d’années. Callon, Barthes et Lascoumes racontent également comment les amateurs contribuent à améliorer la connaissance scientifique dans de nombreux domaines, comme par exemple l’astronomie.
  • pourquoi ce traitement démocratique si spécial devrait-il se limiter à l’intelligence artificielle ? Une des raisons est sans doute que l’on pressent que son déploiement va changer le monde et susciter des controverses qu’il vaut mieux anticiper. N’oublions pas cependant que de nombreuses technologies numériques (ou non) changent le monde plus insidieusement et suivant des échelles temporelles qui nous les rendent « invisibles à l’œil nu ». Légitimement, on pourrait aussi poser la question démocratique à leur endroit[20].
  • Ce que la démocratie technique questionne, c’est non seulement l’aménagement du progrès, mais aussi sa définition. C’est-à-dire la direction donnée à la civilisation. Entraîner une intelligence artificielle – même avec la méthodologie Society in the loop – c’est déjà faire le choix d’une intelligence artificielle. Ce qui ne veut pas dire que ce choix soit mauvais. Pas plus qu’il n’est naturellement bon. Disons que c’est un choix parmi d’autres. Ce point chaud qui concerne la définition du progrès est et sera de plus en plus au centre de toutes les questions liant technosciences et démocratie.
  • Parallèlement, l’Université de Montréal a bâti une « Déclaration pour un développement responsable de l’intelligence artificielle[23] ». Cette déclaration décrit dix principes phares pour guider le développement de l’IA, parmi lesquels un « principe de bien être » ou encore un « principe d’inclusion de la diversité » (
  • Toutes les controverses techniques n’ont pas vocation à passer sous les fourches caudines de la démocratie, il existe une multitude d’autres échelons pour co-construire, réguler, interdire ou favoriser des systèmes. En témoignent les nombreuses villes qui se « défendent » contre AirBnb ou Uber puis qui finissent par utiliser les données que ces sociétés récoltent, à d’autres fins (des « arrangements » a posteriori[25]). Par ailleurs, c’est aussi dans les écoles qui forment les ingénieurs, designers et entrepreneurs de demain et bien sûr dans les entreprises elles-mêmes, dont certaines décident d’être plus soucieuses des effets générés par leurs activités, que l’avenir se joue
  • Bien sûr, ces quelques pages souffrent de nombreuses limites et à de multiples niveaux. A mon sens néanmoins, le fond de la question consiste (aussi) à savoir quelle « dose » de démocratie nous sommes prêts à mettre dans nos ambitions technologiques. Et en retour, dans quelle mesure les technologies que nous produirons permettront ou non à la démocratie de continuer d’exister[26].
  •  
    "En 2017, Iyad Rahwan (@iyadrahwan), responsable du groupe des coopérations évolutives au MIT posait avec Joi Ito (@Joi) du MIT Medialab le concept de « Society in the loop » (SITL), une méthode pour impliquer différentes parties-prenantes dans la conception d'un système d'apprentissage automatique[1] (ou machine learning), à la base des intelligences artificielles (IA) qui jalonnent le quotidien. L'idée : co-construire plutôt qu'imposer les solutions au grand public, en faisant intervenir dès la phase de conception une diversité d'acteurs. J'en retrace ici un court historique, une illustration et les quelques perspectives et limites qu'il me paraît intéressant de pointer, notamment au regard des questions relatives à ce qu'on appelle la « démocratie technique »."
6More

[Fake] Internet serait-il devenu complètement fake? - Digital Society Forum - 0 views

  • Sur Internet, moins de 60% du trafic serait humain, explique l’auteur. Le reste des Internautes seraient des bots, des logiciels opérant de manière autonome sur le réseau. Au point de brouiller la frontière entre Internautes humains et non-humains. En 2013, la moitié des usagers de Youtube étaient ainsi des bots se faisant passer pour des êtres humains, ce qui avait fait craindre aux employés de la multinationale l’avènement d’une ère où les systèmes de détection du trafic frauduleux jugeraient réelle l’activité des bots, et fausse celle des êtres humains.
  • Au cours des deux dernières années, Facebook aurait également publié des chiffres erronés sur le renvoi du trafic depuis Facebook vers des sites externes, la portée des publications, ou encore le nombre de “vues” des vidéos postées sur la plateforme. Ce qui interroge, là encore, sur la notion de “réel” sur Internet.
  • “Tout ce qui semblait auparavant incontestablement réel semble maintenant légèrement faux; tout ce qui semblait auparavant légèrement faux a maintenant le pouvoir et la présence du réel”, déplore l’auteur. Et de multiplier les exemples: entre les vidéos complotistes pullulant sur Youtube, les trolls russes se faisant passer pour des soutiens de Donald Trump sur Facebook et le “deepfake”, une technique de synthèse permettant de falsifier le visage ou la voix d’une personne sur une vidéo grâce à l’intelligence artificielle, l’auteur s’inquiète de l’effondrement de toute distinction claire entre le réel et l’irréel sur Internet.
  • ...2 more annotations...
  • L’exemple de Lil Miquela , une “influenceuse” suivie par plus d’un million et demi de personnes sur Instagram, est à ce titre particulièrement révélateur. Partageant régulièrement ses états d’âme, ses séances de shopping et ses sorties entre amis sur le réseau social entre deux selfies, ce mannequin américano-brésilien est en réalité un avatar, créé grâce à l’imagerie de synthèse par une start-up californienne spécialisée en intelligence artificielle et en robotique. Un faux mannequin, donc, mais une influence bien réelle: là aussi, avertit l’auteur, la frontière entre le vrai et le faux s’émousse.
  • “Ce qui a vraiment disparu d’internet, ce n’est pas la réalité, c’est la confiance : le sentiment que les personnes et les choses que l’on y rencontre sont ce qu’elles prétendent être,” conclut l’auteur. Remédier à cet état de fait nécessite selon lui une réforme du modèle économique d’Internet qui a permis au mensonge, à la déformation et à la falsification de devenir lucratifs. Sans une telle réforme, estime-t-il, Internet risque de devenir une usine à “fakes”, et les revenus publicitaires qu’ils génèrent la seule réalité.
  •  
    "Une chronique du New York Magazine alerte sur l'abondance de contenus faux sur Internet. Selon son auteur, les manipulations de données et de faits y auraient atteint un seuil critique, au point de compromettre notre capacité à distinguer le réel de l'irréel."
2More

Nouvelles formes d'emploi et retraite : quels enjeux ? quelles réponses adapt... - 0 views

  • Dans cette perspective, il est essentiel de réfléchir aux moyens de tenir compte des transformations actuelles en matière de parcours professionnels. ainsi, quels sont les mécanismes de solidarité à mettre en œuvre pour prendre en compte les trajectoires d’emploi à temps partiel, avec des revenus du travail limités et/ou variables ? Quel équilibre trouver entre l’équité, liée aux cotisations payées par chacun, et la solidarité vis-à-vis des actifs qui ont travaillé mais perçu des revenus durablement faibles ? Dans quelle mesure le système de retraite peut-il aujourd’hui et demain favoriser ou freiner les mobilités tout au long de la carrière ? en quoi les « nouveaux indépendants » se distinguent-ils des autres travailleurs et des indépendants des générations précédentes ? Quel est l’effort de contribution adapté à ces formes d’emploi ?
  •  
    "Le 16 octobre 2018, France Stratégie et le réseau Sharers & Workers (co-animé par l'ires et astrees) ont organisé une matinée d'ateliers visant à discuter et préciser les enjeux des nouvelles formes d'emploi pour le système de retraite, ainsi qu'à susciter un échange sur les réponses à leur apporter."
1More

L'ubérisation : peu de profits réels, sauf pour les plus riches - Digital Soc... - 0 views

  •  
    "Depuis sa création en 2009, Uber a lancé une entreprise et un modèle : l'ubérisation. Pour le magazine américain The Atlantic, le journaliste tech Alexis Madrigal a cherché à savoir ce qu'étaient devenues les milliers de start-up qui ont cherché à imiter Uber . Sur 105 entreprises, presque la moitié avait disparu environ 5 ans après leur création. Pour Madrigal, le marché, loin de remplir les promesses d'émancipation par le travail et de révolution, a surtout permis aux plus riches d'avoir l'équivalent des domestiques d'antan, tout en augmentant la précarité et la surveillance pour les autres. "
4More

Travailleurs de plates-formes : un nouveau « régime juridique » à l'étude - 0 views

  • « A la suite du jugement de la Cour d'appel de Paris, il y a nécessité que le législateur s'empare rapidement du sujet et définisse un nouveau régime juridique précisant les liens entre les travailleurs et les plates-formes », explique-t-on dans l'entourage de la ministre du Travail, Muriel Pénicaud. Ses services souhaitent aller vite pour intégrer ce nouveau régime dans la future loi LOM. Le report de son examen pour cause de grand débat national tombe bien.
  • Conséquence : si une plate-forme adopte une charte, elle ne pourra pas faire son marché dans les sujets énumérés par la loi. Elle devra tous les traiter, y compris « les règles garantissant le caractère non-exclusif de la relation entre les travailleurs et la plate-forme et la liberté pour les travailleurs d'avoir recours à la plate-forme » ou encore « les modalités visant à permettre aux travailleurs d'obtenir un prix décent pour leur prestation de service ».
  • En outre, le Conseil d'Etat alerte sur l'obligation de respecter le préambule de la Constitution de 1946, qui impose de faire bénéficier d'une participation aux bénéfices de l'entreprise « tous ceux qui sont intégrés de façon étroite et permanente à la communauté de travail qu'elle constitue, même s'ils ne sont pas salariés ».
  •  
    "A la suite de l'arrêt de la cour d'appel de Paris rendu vendredi dernier contre Uber, le ministre du Travail va engager des discussions avec les plates-formes mais aussi les parlementaires et les organisations syndicales. Objectif : intégrer le nouveau « régime juridique » dans la future loi LOM"
8More

Contre la haine en ligne, des internautes s'organisent | Slate.fr - 0 views

  • Aux côtés de 173 personnes inconnues, il répond méthodiquement à la haine à l'œuvre dans les commentaires d'articles. Avec ses camarades, il se coordonne dans un groupe Facebook, secret et fermé, dont le nom reprend ironiquement un sigle policier. Il réunit femmes et hommes de 20 à 55 ans, «beaucoup de travailleurs sociaux», suppose Simon, même s'il n’en connaît personnellement que très peu. Depuis 2016, le groupe veille sur les posts Facebook des journaux normands pour faire en sorte que les commentaires les plus «likés», et donc ceux qui remontent tout en haut de la section, ne soient pas systématiquement les plus haineux.
  • Une trentaine de membres sont réellement actifs et actives, dont une dizaine qui réalise une veille sur les sujets connus pour être des «attrape-haine»: immigration, sexisme, protection sociale, etc. Dans un Google Doc, des argumentaires, chiffres-clés et articles sont prêts à être copiés-collés pour gagner un peu de temps au moment de rédiger son commentaire.
  • Face aux discours de haine en ligne, une majorité de personnes reste silencieuse, par manque de temps ou tout simplement manque d’arguments. Pour pallier cela, le think tank Renaissance numérique a créé «Seriously» en 2015, une méthode pour accompagner les internautes afin d'apprendre à répondre à la haine et à dépassionner les débats. Créé à l'origine dans le but d’aider des associations comme SOS homophobie ou SOS Racisme sur les réseaux sociaux, le site a aujourd’hui une portée plus vaste.
  • ...4 more annotations...
  • Xavier estime que la responsabilité de répondre à la haine est collective. «Les journalistes ne sont ni assez nombreux, ni assez payés pour le faire sous tous leurs articles, souligne-t-il, il ne faut pas laisser la désinformation se répandre. On a trop longtemps considéré les commentaires comme un bruit de fond.» Pourtant, nous connaissons aujourd’hui le pouvoir de ces derniers sur le lectorat. En 2015, une équipe de recherche a prouvé que la perception d’un article était modifiée par les commentaires correspondant sur Facebook. Les scientifiques ont fait lire le même article à des volontaires, avec une variation de mentions «j’aime» et de commentaires. Plus le nombre de commentaires négatifs était important, plus l’article était perçu comme peu convaincant –le nombre de «likes» était cependant loin d’avoir le même effet.
  • «On peut arriver à se comprendre, ce sont juste des personnes en colère, constate-t-il. On a laissé faire les choses en considérant cela comme un bruit de fond. “Don’t feed the troll”, pour moi c’est complètement faux, il faut intervenir!». En effet, trois scientifiques ont analysé les commentaires sous 100.000 posts et découvert que si le premier commentaire visible est positif, les internautes ont tendance à être positifs dans leur réaction et inversement quand le premier commentaire est négatif.
  • Au mois de janvier, SOS Racisme a créé un groupe Facebook fermé appelé «#TEAMRIPOSTE!» qui a pour but de réunir des personnes qui veulent militer de chez elles et aider à commenter les publications sur les réseaux sociaux. Sur la page du groupe, on peut lire: «La légalité ne s’arrête pas aux portes d’internet, il est aussi important de rappeler qu’un grand nombre de mesures peuvent être prises pour supprimer ces messages racistes ou faire condamner leurs auteurs». Pharos, une plateforme en ligne mise en place par le gouvernement, permet de signaler des contenus ou des comportements illicites.
  • Selon Jennyfer Chrétien du think tank Renaissance numérique, l’un des plus gros combats à mener est éducatif. Pour cela, le groupe de réflexion prépare des programmes de sensibilisation, surtout auprès du jeune public. «Nous ne pouvons pas nous contenter de sanctionner les propos illicites», affirme la directrice. Il est impératif de travailler sur le «réflexe de fermeture de l'onglet» qui doit être converti en «réflexe citoyen».
  •  
    "Prendre le temps de répondre aux commentaires qui pourrissent le web pour tenter de le pacifier."
5More

Modération, tri des données: l'ONU s'inquiète des conditions de travail des «... - 0 views

  • La majeure partie des tâches proposées consiste à compléter des questionnaires, souvent à des fins de recherche scientifique. La collecte de données arrive en second: il peut s'agir par exemple de trouver les adresses mails de tous les podologues d'une ville, moyennant 10 centimes par adresse mail trouvée. Une part non négligeable repose sur la transcription d'images ou d'extraits sonores. C'est grâce à ce type de travaux que les géants du Web entraînent leurs intelligences artificielles. Enfin, la modération de contenus est extrêmement fréquente. Pour l'ONU, toutes ces tâches «ne correspondent pas au niveau d'éducation des travailleurs», qui sont 37% à être titulaire d'un diplôme universitaire.
  • Pire, certains de ces travaux sont extrêmement difficiles sur le plan psychologique: beaucoup de modérateurs souffrent ainsi de syndromes de stress post-traumatiques à force d'être exposés aux contenus les plus sombres du Web (images de torture, de pédopornographie, de massacres...).
  • Pour couronner le tout, les rythmes de travail sont particulièrement soutenus: 43% des sondés travaillent la nuit, 68% travaillent entre 20h et 22h, souvent car ils exercent en parallèle une autre activité professionnelle, les revenus du digital labor ne permettant pas d'en faire une activité à temps plein. Les salaires sont, à l'échelle mondiale, ramenés à la moyenne de 3,31 dollars de l'heure en fourchette basse, 4,43 dollars en fourchette haute (soit entre 2,81 et 3,76 euros). L'enquête démontre qu'une proportion substantielle de travailleurs gagne moins que le salaire minimum de leur lieu de résidence. L'ONU ajoute qu'une part non négligeable de «para-travail» n'est pas payée: pour chaque heure travaillée, au moins 20 minutes sont consacrées à des tâches comme la connexion sur les plateformes, les démarches administratives, chercher de nouvelles tâches, comprendre les énoncés des instructions... À noter également, 90% des répondants affirment avoir déjà été non payés pour des tâches accomplies.
  • ...1 more annotation...
  • Malgré les conditions de travail difficiles, 88% des sondés aimeraient se voir proposer plus de microtâches en ligne afin d'accroître leurs revenus. L'ONU observe que le secteur du digital labor est voué à continuer de se développer étant donné les besoins croissants en main d'œuvre de l'économie numérique. Pour cette raison, l'enquête appelle à une régulation plus ferme des conditions de travail. La majeure partie des travailleurs n'est ainsi couverte par aucune assurance maladie ou civile, ne cotise pas pour la retraite et le revenu gagné échappe souvent au radar des autorités fiscales.
  •  
    "Ces petites mains invisibles sont indispensables pour nettoyer les bases de données, entraîner les intelligences artificielles ou encore assurer la modération des contenus sur le Web. Pour la première fois, une étude de grande ampleur de l'ONU se penche sur ce travail qu'on appelle le «digital labor», et dresse un constat alarmant."
« First ‹ Previous 61 - 80 of 85 Next ›
Showing 20 items per page