Skip to main content

Home/ QN2019/ Group items tagged temps

Rss Feed Group items tagged

Aurialie Jublin

affordance.info: World Wide (under)Wear : l'homme de Vitruve numérique - 0 views

  •  
    "Evolution qui pourrait être la suivante : l'économie de l'attention se transformera en "économie de l'occupation" avec comme point pivot de l'une à l'autre une économie de la distraction. La distraction qui, algorithmiquement régulée et organisée, est seule capable de focaliser notre attention et de la transformer en occupation. Là où l'attention dans la thèse de Herbert Simon était définie - en gros hein ... - comme la somme du temps de visionnage, du temps d'audition et du temps d'usage, l'économie de l'occupation pourrait être définie par la somme du temps de captation passive, du temps de mesure passive et du temps d'interaction directe avec des équipements et des dipositifs à portée ou en relation directe avec 3 de nos 5 sens (vue, toucher, voix). Plus précisément l'économie de l'occupation pourrait se résumer ainsi : + Temps de captation passive (principalement de nos données) + Temps de mesure passive (principalement de nos comportements) + Temps d'usage passif (de dispositifs et/ou d'objets disséminés à même notre corps et/ou dans notre environnement cinesthésique direct, c'est à dire à portée de 3 de nos 5 sens) = Temps d'occupation Comme on le voit sur la métaphore visuelle de l'Homme de Vitruve ci-après, si l'économie de l'attention s'exerçait sur la partie "haute" de nos facultés, l'économie de l'occupation est davantage centrée sur la partie basse de notre "mobilité", sur nos fonctions motrices plus que sur nos fonctions cérébrales. Et là où l'économie de l'attention mobilisait avant tout de l'information et des espaces de discours (partie haute toujours), l'économie de l'occupation mobilise principalement des données et des capteurs (partie basse)."
Aurialie Jublin

Mais pourquoi les GAFA nous rendent notre temps ? - 0 views

  • En réalité, les internautes devraient plutôt s’inquiéter de ces nouvelles fonctionnalités annoncées par les GAFA. Car cela sous-entend que ces derniers ont trouvé le moyen de faire de l’argent d’autres manières qu’en vendant notre temps de cerveau disponible au mieux offrant. Cela veut dire que l’économie de l’attention, qui pré-existe largement au Web puisqu’elle est au coeur du modèle économique de nos industries culturelles et médiatiques, n’est plus nécessairement le seul modèle possible pour ces grands groupes du numérique. Ou plutôt, ce que laisse entendre Mark Zukerberg, c’est que cette économie de l’attention n’a plus une valeur quantitative, mais qualitative : « aider les gens à se connecter est plus important que de maximiser le temps passé sur Facebook ». Nul besoin de garder présent un utilisateur durant une grande plage de temps si on peut s’assurer qu’il génèrera rapidement de la valeur.
  • Ainsi, il est notable de constater que les fonctionnalités annoncées ne permettent d’évaluer que le temps que l’on passe sur notre téléphone. Cela nous renvoie à une vision très utilitariste de notre société et de son rapport aux nouvelles technologies : optimiser son temps, le dépenser utilement. Cependant, les internautes sont loin de ne dépenser que du temps. Nous dépensons de l’argent (via le e-commerce) et nous “dépensons” des données personnelles (sur les réseaux sociaux ou via les applications de nos smartphones). Or ce sont ces deux dépenses qui sont les plus rémunératrices pour les géants du numérique. Ce n’est donc pas un hasard si la nouvelle application d’Apple nous indique le temps passé sur notre téléphone et non le montant cumulé que nous dépensons sur l’App Store ou sur les différentes applications que nous utilisons.
  • En effet, ce combat détourne en partie l’attention du fond du problème, c’est-à-dire la capacité des utilisateurs à maîtriser leurs usages dans leurs diversités des services numériques.
  • ...1 more annotation...
  • C’est pourquoi il est aujourd’hui impératif de repenser la conception des services numériques, aussi bien dans ses méthodes, d’exploitation des données personnelles ou de l’attention, que dans ses objectifs, business models et impacts sur nos sociétés. De nombreux concepteurs de services numériques cherchent ainsi à remettre du sens dans leur travail et dans leurs produits, avec pour soucis de remettre l’exigence de choix et de liberté de l’utilisateur au centre de la conception.
  •  
    "Ces dernières semaines, parmis les nouveautés annoncées par les géants américains du numérique pour leurs services respectifs, figuraient un certain nombre de fonctionnalités visant à "rendre le contrôle aux utilisateurs". Apple le formule ainsi : "iOS 12 intègre de nouvelles fonctionnalités pour limiter les interruptions et gérer le temps passé devant les écrans". iOS et Android offriront donc dorénavant la possibilité de monitorer le temps passé sur son téléphone, ainsi que la possibilité - à l'instar de Facebook - de mieux contrôler les notifications que l'on souhaite recevoir."
Aurialie Jublin

[Écologie] Le monde du logiciel est en train de se détruire... Manifeste pour... - 0 views

  • Tout est lent, et cela ne va pas dans le bon sens. Certaines voix s’élèvent. Je vous invite notamment à lire “Le désenchantement du logiciel”. Tout est insupportablement lent, tout est ÉNORME, tout finit par devenir obsolète… La taille des sites web explose. Un site web est aussi gros que le jeu Doom. Le phénomène ne touche pas que le Web mais aussi l’IoT, le mobile… Le saviez-vous ? Il faut 13% de CPU pour faire clignoter un curseur…
  • Tout grossit : la taille des applications, les données stockées, la taille des pages web, la mémoire des téléphones… Les téléphones ont maintenant 2 Go de mémoire, échanger une photo de 10 Mo par mail est maintenant classique… À la limite, cela ne serait peut-être pas un problème si tous les logiciels étaient utilisés, efficaces et performants… Mais cela n’est pas le cas,
  • Alors tout le monde se cale sur une lenteur. Tout est uniformément lent. On se cale sur cela et tout va bien. Être performant aujourd’hui, c’est arriver à atteindre un ressenti utilisateur qui correspond à cette lenteur uniforme. On élague les choses qui pourraient être trop visibles. Une page qui met plus de 20 secondes à se charger, c’est trop lent. Par contre, 3 secondes c’est bien. 3 secondes ? Avec les multicoeurs de nos téléphones/PC et les data centers partout dans le monde, le tout relié par des supers technologies de communication (4G, fibre…),c’est un peu bizarre non ? Si on regarde la débauche de ressources pour le résultat obtenu, 3 secondes, c’est énorme. D’autant plus que les bits circulent dans nos processeurs avec des unités de temps du niveau de la nanoseconde. Donc oui, tout est uniformément lent.
  • ...29 more annotations...
  • Il est nécessaire de revenir à plus d’efficience, de « challenger » les besoins en matériel, de redéfinir ce qu’est la performance. Tant que l’on se satisfera de cette lenteur uniforme avec des solutions pour ne pas ralentir plus (comme l’ajout de matériel), nous n’avancerons pas. La dette technique, notion largement assimilée par les équipes de développement, n’est malheureusement pas adaptée à ce problème (on y reviendra). Nous sommes sur une dette de ressources matérielles et de mauvaise adéquation entre le besoin utilisateur et la solution technique. On parle ici d’efficience et non pas uniquement de performance. L’efficience est une histoire de mesure du gaspillage. L’ISO définie l’efficience avec comme domaine : Time behaviour, Resource utilization et Capacity. Pourquoi ne pas pousser plus ces concepts ?
  • Développez du code Java pour un serveur J2EE ou pour un téléphone Android, ce n’est pas pareil. Des structures spécifiques existent par exemple pour traiter des données en Android mais les structures classiques sont toujours utilisées. Les développeurs ont perdu le lien avec le hardware. C’est malheureux car c’est passionnant (et utile) de savoir comment fonctionne un processeur. Pourquoi : abstraction et spécialisation (nous verrons cela plus loin). Car en perdant ce lien, on perd une des forces du développement. Ce lien est important chez les hackers ou chez les développeurs d’informatique embarquée mais malheureusement de moins en moins présent chez les autres développeurs.
  • Les pratiques devops pourraient répondre à cette perte de lien. Là, c’est pareil, nous n’allons pas jusqu’au au bout : généralement le devops va se focaliser à bien gérer le déploiement d’une solution logicielle sur une infrastructure mixte (matérielle et un peu logicielle). Il faudrait aller plus loin en remontant par exemple les métriques de consommation, en discutant sur les contraintes d’exécution… plutôt que de “scaler” juste parce que c’est plus simple.
  • Certaines technologies ont une utilité mais sont maintenant systématiquement utilisées. C’est le cas par exemple des ORM qui sont devenus systématiques. Aucune réflexion n’est faite sur son intérêt en début des projets. Résultat : on a rajouté une surcouche qui consomme, qu’il faut maintenir et des développeurs qui n’ont plus l’habitude d’effectuer des requêtes natives. Cela ne serait pas un problème si chaque développeur connaissait très bien le fonctionnement des couches d’abstraction : comment fonctionne HIBERNATE par exemple ? On s’appuie hélas de façon aveugle sur ces frameworks.
  • Le besoin d’abstraction est lié à un autre défaut: nous attendons toujours des outils miracles. La silver bullet qui améliorera encore plus nos pratiques. Le langage idéal, le framework pour aller plus vite, l’outil de gestion miracle des dépendances… C’est la promesse à chaque fois d’un nouveau framework : gagner du temps en développement, être plus performant… Et on y croit, on fonce. On abandonne les frameworks sur lesquels nous avions investi, sur lesquels on avait passé du temps… et on passe au nouveau. C’est le cas actuellement des frameworks JS. L’histoire du développement est pavé de framework oubliés, non maintenus, abandonnés… Nous sommes les champions pour réinventer ce qui existe déjà. Si on le gardait suffisamment longtemps, on aurait le temps de maîtriser un framework, de l’optimiser, de le comprendre. Mais ce n’est pas le cas. Et que l’on ne me dise pas que si on n’avait pas continuellement réinventé la roue, on aurait encore des roues en pierre… Innover serait d’améliorer les frameworks existants .
  • Sur les langages, c’est la même rengaine. Attention, je ne préconise pas de rester sur l’assembleur et sur le C… C’est le cas par exemple dans le monde Android, pendant plus de 10 ans les développeurs ont pu travailler sur des outils et des frameworks Java. Et comme cela, par magie, le nouveau Langage de la communauté est Kotlin. On imagine l’impact sur les applications existantes (si elles doivent changer), il faut recréer des outils, retrouver des bonnes pratiques… Pour quel gain?
  • Sincèrement, on ne voit aucun ralentissement sur les cycles de renouvellement des technologies. C’est toujours un rythme frénétique. Nous trouverons bien le Graal un jour. Le problème est ensuite l’empilement de ses technologies. Comme aucune ne meurt vraiment et que l’on en maintient toujours des parties, on développe d’autres couches pour s’adapter et continuer à maintenir ces bouts de code ou ces librairies. Le problèmen’est pas le code legacy,, c’est la glue que l’on développe autour qui pêche.
  • Au final, on passe du temps à résoudre des problèmes techniques internes, on recherche des outils pour résoudre les problèmes que l’on ajoute, on passe son temps à s’adapter à ses nouveaux outils, on ajoute des surcouches (voir chapitre précédent…) … et on n’a pas améliorer la qualité intrinsèque du logiciel ou les besoins auxquels on doit répondre.
  • Au final, le rythme frénétique des changements ne nous permet pas de nous stabiliser sur une technologie. J’avoue qu’en tant que vieux développeur que je suis, j’ai été découragé par le changement Java vers Kotlin pour Android. C’est peut-être pour certains de véritables challenges, mais quand je repense au temps que j’ai passé sur l’apprentissage, sur la mise en place d’outils
  • Ensuite, comme aucune solution ne meurt vraiment, que de nouvelles arrivent… on se retrouve avec des projets avec des multitudes de technologies à gérer avec les compétences associées aussi… On s’étonne ensuite que le marché du recrutement de développeur soit bouché. Pas étonnant.. Il y a énormément de développeurs mais il est difficile de trouver un développeur React avec 5 ans d’expérience qui connaîsse le Go. Le marché est fractionné, comme les technologies. C’est peut-être bon pour les développeurs car cela crée de la rareté et cela fait monter les prix, mais pas pour le projet !
  • Cependant, cet apprentissage continu des technologies pose le problème d’apprentissage de domaines transverses : accessibilité, agilité, performance… En effet, qu’est-ce qui nous prouve que les outils et les langages que nous allons choisir ne vont pas changer dans 4 ans ? Rust, Go… dans 2 ans ? Rien ne tend à donner une tendance.
  • On ne se remet pas en question car on veut s’amuser. Le fun est important, car si l’on s’ennuie dans son boulot, on va déprimer. Par contre, on ne peut pas, sous prétexte de vouloir du fun tout le temps, changer nos outils continuellement. Il y a un déséquilibre entre l’expérience du développeur et l’expérience de l’utilisateur. On veut du fun, mais qu’est-ce que cela va réellement apporter à l’utilisateur ? Un produit plus « joyeux » ? Non, nous ne sommes pas des acteurs.
  • On ne se pose pas de question sur l’éthique de notre domaine, sur sa durabilité… Cela vient peut-être du fait que notre domaine n’a pas réellement de code éthique (comme par exemple les médecins ou les avocats). Mais sommes-nous en tant que développeurs réellement libres si l’on ne peut pas avoir une autocritique ? Nous sommes peut être asservis à une cause portée par d’autres personnes ? Le problème n’est pas simple mais nous avons dans tous les cas une responsabilité. Sans code éthique, c’est le plus fort et le plus malhonnête qui est le plus fort. Le buzz et les pratiques pour manipuler les utilisateurs sont de plus en plus répandus. Sans Dark Pattern ton produit ne sera rien. Les plus gros (GAFA…) n’en sont pas arrivés là pour rien.
  • Est-ce que la solution est politique ? Il faut légiférer pour mieux gouverner le monde du logiciel. On le voit avec les dernières réponses législatives aux problèmes concrets : RGPD, notification des cookies… la source du problème n’est pas résolue. Peut-être parce que les politiques ne comprennent que très mal le monde du logiciel.
  • Car si cette structuration n’est pas faite, les développeurs vont perdre la main sur ce qu’ils font. Or le manque d’éthique de la profession est critiqué à l’extérieur. Rachel Coldicutt (@rachelcoldicutt) directrice de DotEveryOne, un think tank britannique qui promeut une technologie plus responsable, encourage à former des diplômés non-informaticiens qui traiteraient de ces problèmes (Voir plus précisément dans l’article d’Internet Actu). Pour poursuivre sur ce dernier article, cela serait dans la droite ligne de l’informatique, domaine issu du monde militaire où les ingénieurs et développeurs seraient formés à suivre des décisions et des commandements.
  • Le monde du logiciel s’intègre dans un système organisationnel classique. Grands groupes, sous-traitances via des ESN, web agencies… Tous suivent les mêmes techniques de gestion des projets informatiques. Et tout le monde va « dans le mur ». Aucune analyse sérieuse n’est faite sur le coût global d’un logiciel (TCO), sur son impact sur la société, sur son bénéfice, sa qualité… C’est la rapidité de release(Time to Market), la surcharge featurale (fonctionnelle), la productivité immédiate, qui comptent. Premièrement car les gens externes à ce monde ne connaissent que trop peu la technicité du logiciel et son monde. Il est virtuel donc simple (sic). Mais ce n’est pas le cas. Les écoles de commerce et autres usines de managers n’ont pas de cours de développement. Comment peuvent-ils bien diriger et piloter des projets ?
  • On continue a vouloir chiffrer des projets informatiques comme de simples projets alors que des mouvements comme le no estimate propose des approches innovantes. Les projets continuent d’échouer : le chaos report rapporte que simplement 30% des projets réussissent bien. Et face à cette mauvaise gouvernance, les équipes techniques continuent de se battre sur les technologies. Dommages collatéraux : la qualité, l’éthique, l’environnement… et au final l’utilisateur. Cela ne serait pas si critique si le logiciel n’avait pas un impact aussi fort sur le monde. Software eats the world… et oui, on le « bouffe »…
  • Si ces décisions absurdes arrivent, ce n’est pas uniquement la faute du développeur mais bien de l’organisation. Et qui dit organisation dit management (sous-différente forme). Si l’on revient au livre de Morel, il parle de piège cognitif dans lesquels les managers et les techniciens tombent souvent. C’est le cas de la navette Challenger qui a été quand même lancée malgré la connaissance du problème d’un joint défectueux. Les managers ont sous-évalué les risques et les ingénieurs ne les ont pas prouvés. Chacun a reproché à l’autre de ne pas fournir assez de preuves scientifiques. C’est souvent ce qui se passe dans les entreprises : des warnings sont levés par certains développeurs mais le management ne les prend pas assez au sérieux.
  • En même temps, on revient aux causes précédentes (silver bullet, on s’amuse…), il est nécessaire d’avoir une vraie ingénierie et une vraie analyse des technologies. Sans cela, les équipes techniques seront toujours non-écoutées par le management. Des outils et benchmark existent mais ils sont encore trop peu connus. Par exemple, Technologie Radar qui classe les technologies en terme d’adoption.
  • Ce phénomène de décision absurde est renforcé par le tissu complexe du développement logiciel : Les sociétés historiquement hors du numérique sous-traitent à des entreprises du numérique, les ESN sous-traitent aux freelances… Le partage de responsabilité technique / management est encore plus complexe et les décisions absurdes plus nombreuses.
  • Mais cela ne s’arrête pas là. On peut aussi voir l’usage de l’open-source comme une sorte de sous-traitance. Idem pour l’usage de framework. On est juste consommateur passif, on se déleste de plein de problématiques (qui ont un impact sur les ressources, la qualité…).
  • C’est d’autant plus facile que le domaine est passionnant et que la pratique des sides-projects, du temps passé sur les projets open-source hors des horaires de bureau est chose commune… La recherche de “fun” et le temps passé bénéficient alors plus aux organisations qu’aux développeurs. Difficile dans ce cas de chiffrer le coût réel d’un projet. Et pourtant, cela ne serait pas un problème si on arrivait à des logiciels « au top ».
  • Le développeur n’est ici plus un artisan du code, mais plutôt un pion dans un système critiquable du point de vue humain. Cela n’est pas visible, tout va bien et on s’amuse. En apparence seulement, car certains domaines du développement logiciel vont plus loin et rendent beaucoup plus visible cette exploitation : Le domaine du jeux-vidéo où les heures explosent.
  • Et donc, toutes ces maladresses (logiciel trop lourd, sans qualité…) se retrouvent chez les utilisateurs. Comme on doit releaser au plus vite les logiciels, que l’on ne tente pas de résoudre les inefficiences internes, et que l’on ne met pas plus de ressource pour faire de la qualité, on arrive à des logiciels médiocres. Mais on a tellement d’outils de monitoring et de suivi des utilisateurs pour détecter ce qui se passe directement chez eux qu’au final, on pense que ce n’est pas grave. Cela serait une bonne idée si les outils étaient bien utilisés. Or la multitude d’informations récoltées (en plus des bugs remontés par les utilisateurs) n’est que faiblement utilisée. Trop d’information, difficulté de cibler la vraie source du problème… on s’y perd et au final, c’est l’utilisateur qui trinque. Tous les logiciels sont maintenant en bêta-test. A quoi bon faire de la sur-qualité, autant attendre que l’utilisateur le demande. Et on revient ainsi au premier chapitre : un logiciel uniformément lent … et médiocre.
  • Heureusement, on est sauvé par la non-sensibilisation des utilisateurs au monde du logiciel. C’est un monde effectivement virtuel et magique qu’ils ont l’habitude d’utiliser. On leur a mis en main les outils mais sans notice explicative. Comment évaluer la qualité d’un logiciel, les risques sur l’environnement, les problèmes de sécurité… si l’on n’a pas des notions d’informatique, même rudimentaires ?
  • L’informatique du 21ème siècle est ce que l’agroalimentaire était pour les consommateurs au 20ème siècle. Pour des raisons de productivité, on a poussé des solutions médiocres avec un calcul court-termiste : mise sur le marché de plus en plus rapide, profit en hausse constante… agriculture intensive, malbouffe, pesticides… avec des impacts importants sur la santé, sur l’environnement… Les consommateurs savent maintenant (de plus en plus) les conséquences désastreuses de ces dérives, l’industrie agroalimentaire doit donc se réinventer, techniquement, commercialement et éthiquement. Pour le logiciel, quand les utilisateurs comprendront les tenants et les aboutissants des choix techniques, l’industrie du logiciel devra gérer les mêmes problèmes. En effet, le retour au bon sens et aux bonnes pratiques n’est pas une chose simple pour l’agroalimentaire. Dans l’IT, on commence à le voir avec ses conséquence sur la vie privée des utilisateurs (mais nous n’en sommes qu’aux balbutiements).
  • On va dans la mauvaise direction. L’industrie de l’informatique a déjà effectué dans les années 70 des erreurs avec des impacts non-négligeables. L’exclusion des femmes de l’informatique en fait partie. Non seulement cela a été fatal pour certaines industries mais on peut se poser la question de comment on peut maintenant adresser des réponses à seulement 50% de la population informatique, avec une représentativité très faible. Le chemin est maintenant difficile à retrouver.
  • Mais l’impact du monde IT ne s’arrête pas là. La source et le modèle d’une grosse partie de l’informatique sont issus de la Silicon valley. Si l’on écarte les gagnants de la Silicon Valley, les populations locales subissent la montée des prix, le déclassement, la pauvreté…
  • Dans sa lancée vers le progrès technique, le monde du logiciel crée aussi sa dette environnementale…
  •  
    "Le monde du logiciel va mal et si l'on n'agit pas, on risque de le regretter. Environnement, qualité, exclusion… Software Eats The World (Le logiciel mange le monde…) ? Oui un peu trop. "
Aurialie Jublin

Les logiciels libres meurent lentement sans contributions - Framablog - 0 views

  • Et bien sûr, ce comportement de consommation passive a des impacts négatifs sur l’écosystème des logiciels libres. Vraiment. Habituellement, après quelques années, le développeur principal abandonne le projet. À ce moment-là, vous pouvez généralement lire ce genre de commentaires furieux sur son blog ou dans les rapports de bug « Espèce de branleur t’as plus mis à jour ton logiciel depuis des années, feignant va, des gens sérieux l’utilisent, réponds ou je laisse des milliers de commentaires insultants 
  • De nombreux professionnels de l’informatique qui utilisent les logiciels libres affichent un comportement de pure consommation dans leur relation avec les logiciels libres. Par exemple ils essaient souvent d’utiliser un logiciel dans un environnement très spécifique (version spécifique d’une distribution GNU/Linux, version spécifique d’un logiciel). Ils ne réussissent pas à l’utiliser dans cet environnement ? Ce logiciel est évidemment de la merde, il devrait fonctionner avec les paramètres par défaut, sinon il n’est pas convivial. La documentation est disponible ? Qui lit le doc ? J’ai besoin de réponses maintenant, je n’ai pas le temps de lire la documentation ! Et qui a écrit cette merde d’ailleurs ?
  • Ça fait 5 ans que ce logiciel alimente toute l’informatique, ce qui aide l’entreprise à gagner beaucoup d’argent ? Tout à fait. Le développeur principal demande de l’argent / de la reconnaissance par le biais des réseaux sociaux ? Sale clodo ! Il a besoin d’argent ? Moi aussi ! Cette personne a-t-elle un Patreon ? On s’en fout ! Ce type me doit d’utiliser son logiciel, il me casse les pieds, il adore coder gratuitement de toute façon ce pigeon.
  • ...5 more annotations...
  • Afin de ne pas ressembler aux tristes personnages décrits plus haut, merci d’aider les projets que vous utilisez. Si votre entreprise gagne de l’argent grâce aux FOSS et que vous êtes chef d’entreprise, financer ou bloquer du temps pour que vos développeurs donnent un coup de main pour au moins un projet que vous utilisez quotidiennement semble un objectif raisonnable et démontre une certaine compréhension de l’écosystème FOSS.
  • 99,9 % des projets FOSS sont des projets maintenus par une seule personne. Cette petite bibliothèque JavaScript que le frontend du site web de votre entreprise utilise ou ce petit script de sauvegarde de base de données dont tout le monde se fout mais qui vous a déjà sauvé la vie 2 fois.
  • Si l’argent n’entre pas en jeu dans votre utilisation des FOSS et si vous fournissez un service gratuit à d’autres personnes, faites savoir aussi largement que possible que vous utilisez des FOSS et n’hésitez pas à remercier certains projets de temps en temps. Le simple fait de dire aux personnes par le biais de Mastodon ou Twitter que vous utilisez leurs logiciels peut leur remonter sacrément le moral. Mettez en vedette leurs projets sur Gitlab ou Github pour leur faire savoir (ainsi qu’aux autres) que ce projet est utile.
  • Ne soyez plus un consommateur passif de logiciels libres et open source. Le niveau moyen nécessaire pour contribuer à un projet et les attentes des créateurs de logiciels libres et open source augmentent de jour en jour dans un monde où la complexité et les interactions s’accroissent rapidement. Il n’y a souvent qu’une toute petite équipe (d’une seule à 5 personnes) qui est au cœur du développement fondamental des FOSS.
  • Les consommateurs passifs n’envoient jamais un rapport de bogue. C’est une perte de temps, qui réclame des efforts.
  •  
    "Dans une récente conférence où il présentait Contributopia, le projet pluriannuel de Framasoft, sous son angle politique, Pierre-Yves Gosset s'attachait à déboulonner quelques mensonges avec lesquels se rassurent les libristes. Le nombre présumé des contributeurs et contributrices, en particulier, était ramené à sa juste proportion (entre 0 et 10 personnes pour des projets comme VLC, Gimp, Inkscape, Etherpad, Thunerbird, ... et 50 à 100 commits). Bien sûr, tout le monde ne peut pas envoyer des commits de code, mais l'exemple est symptomatique : le Logiciel Libre c'est surtout des consommateurs et consommatrices. C'est ce que souligne également Carl Chenet, plume invitée ci-dessous. Il pointe en particulier le risque sérieux d'étiolement voire de disparition pure et simple des équipes parfois minuscules qui maintiennent des FOSS (Free and Open Source Software, appellation œcuménique qui joint Les logiciels libres et open source). Il en appelle à une contribution minimale qui consisterait au moins à faire connaître les projets et encourager les créateurs à continuer. Chez Framasoft, nous sommes tout à fait en phase avec cet appel, voyez par exemple cet article sur le Contribution Camp qui propose quelques pistes pour « avancer ensemble vers la contribution ». "
Aurialie Jublin

« La technologie offre aux quartiers la possibilité de devenir des espaces pr... - 0 views

  • La plupart du temps, nous n’avons pas besoin des multinationales. C’est d’ailleurs la raison pour laquelle la maire de Barcelone, Ada Colau, a pris une décision historique en interdisant les franchises dans sa ville. Changer de paradigme est un grand projet, mais changer des éléments à une échelle locale, c’est tout à fait faisable et ça commence à se faire dans de plus en plus de villes. Par exemple, moi qui suis investie dans le mouvement des fermes verticales, je constate que l'agriculture urbaine essaime : aujourd’hui, à New York, on peut même obtenir un permis pour élever une poule chez soi.
  • La technologie offre aux quartiers la possibilité de devenir des espaces productifs. Prenons le cas des quartiers défavorisés, par exemple. Très souvent, le voisin y est perçu comme un « ennemi » simplement parce qu’il est accessible : un gouvernement est hors d’atteinte, tandis qu'un voisin est un excellent souffre-douleur. Il est donc essentiel de favoriser le lien social dans ces quartiers.
  • si ces personnes doivent faire face à un problème urgent de garde d'enfant, ils n'ont souvent pas le temps de passer un coup de fil dans la journée pour trouver une solution, et s'ils s'absentent, ils risquent d'être licenciés. The Emergency Nanny permet à un groupe de personnes de confiance habitant un même quartier (coiffeur, épicier, voisin, etc.) de se rendre disponible tel jour à telle heure pour garder les enfants de la personne qui les solliciterait d'un clic via l'appli.
  • ...2 more annotations...
  • Oui, les citoyens sont des acteurs clés pour orienter les usages de la technologie. Mais aux États-Unis, les maires procèdent à l’envers. Ils font appel à des entreprises informatiques et leur achètent des solutions préconçues pour des problèmes qui n’ont pas été clairement exposés en amont. La plupart du temps, ces technologies sont inutiles. Or, c’est l’inverse qui devrait se passer : les maires devraient réunir leurs équipes et établir quels sont les besoins, en bonne intelligence avec les citoyens. Il est regrettable que les classes dirigeantes refusent à ce point de comprendre la technologie et ses potentialités. Elles ont établi que c’était l’apanage des experts et s’en sont détournées
  • Les différents habitants d'un quartier ont des connaissances spécifiques de leur zone d’habitation que n'ont ni les élus locaux, ni les experts en urbanisme. On doit utiliser cette connaissance. Chacun devrait pouvoir accéder à une plateforme pour signaler une fuite d'eau, un nid-de-poule ou autre chose. Ça mobilise les habitants dans un effort commun, ça crée du tissu social et, à terme, cela peut aussi réduire la souffrance dans les quartiers défavorisés.
  •  
    "À l'occasion du Fab City Summit, qui s'est tenu à Paris du 11 au 22 juillet, nous avons rencontré Saskia Sassen. Connue pour ses travaux autour du concept de « ville mondiale » (« global city » en VO) - qui désigne les mégapoles devenues le coeur battant de la mondialisation tant elles concentrent tous les pouvoirs - la sociologue néerlando-américaine, qui enseigne notamment à l'Université Columbia de New York, a pris le temps d'échanger sur les leviers à actionner aujourd'hui pour mieux associer les citoyens à la gouvernance urbaine et recréer du lien social en ville."
Aurialie Jublin

« Le cyberminimalisme libère du temps, réhabilite les rencontres, préserve la... - 0 views

  • D'autres principes s'adressent à tous, comme posséder le moins d’objets connectés possible. Cesser de noter autrui, aussi, permettrait d'éviter de basculer vers le système de « crédit social » chinois. Même si cela semble ludique ou que l'on pense bien faire en notant son prochain sur Uber ou Airbnb, ce sont les prémisses d'une société à la chinoise. Si on n'y prend pas garde, on y va tout droit.
  • J’ai cherché un mot permettant de refléter la façon dont j’avais envie de vivre, entre la mise à distance des objets connectés et le désir de vivre dans mon époque. Je me suis intéressée à l'équipément et aux usages, en listant 7 principes. Certains concernent la jeunesse, comme « ne pas fournir de téléphone portable avant 15 ans ».
  • Le minimalisme matériel concerne aussi les logiciels, donc il faut alléger son téléphone. On peut « libérer » son portable et son ordinateur en optant pour des logiciels libres qui respectent davantage la vie privée. Mais le libre peut prendre du temps et nous river de nouveau aux écrans, c’est toute son ambiguïté.
  • ...6 more annotations...
  • Il y a plusieurs enjeux avec le « life log », c’est-à-dire le fait de mettre sa vie en ligne en permanence. Il y a la perte de temps, d’abord. C’est une activité qui peut prendre le pas sur la vie réelle. Certains ont des vies sur instagram devenues plus intenses que leur vie réelle. D’autres saluent Instagram tous les soirs, « bonne nuit Insta », mais à qui s’adresse-t-on ?
  • Je suis optimiste de nature donc j’ai tendance à estimer que les quelques résistances à l’oeuvre sont des bons signes. On peut parler des éleveurs de « Faut pas pucer » dans le Tarn, qui refusent d’accrocher une boucle électronique à leurs animaux. Les animaux sont parfaitement identifiés par ailleurs, ils ont reçu toute la prophylaxie nécessaire, mais ils n’entrent pas dans la nouvelle norme… Ces éleveurs sont en difficulté et ils ont besoin de soutien. 
  • Je pense à deux autres résistances. Des élus locaux de New York viennent de fermer la porte à Amazon qui voulait y installer son siège social. Craignant une hausse des prix et une gentrification du quartier pressenti pour le projet, ils refusent aussi par principe d’accorder une aide fiscale à Jeff Bezos, l’homme le plus riche du monde. C’est une résistance politique très intéressante. Je pense aussi à la Cour de Cassation qui, en novembre 2018, a requalifié en contrat de travail la relation contractuelle d'un livreur à vélo et de la plateforme de livraison de repas Take Eat Easy. Elle a estimé qu’il y avait un lien de subordination entre le livreur et la plateforme, et non une relation de type travail indépendant. On voit donc des juges qui ne se laissent pas faire, des élus locaux résistant à l'ogre Amazon, et des éleveurs qui tentent d'élever leurs chèvres avec du bon sens. 
  • Il n’y a aucun débat démocratique sur la société cybernétique. Il n’y a donc de la place que pour des résistances locales ou individuelles. Mon espérance est que cela devienne un sujet politique, qu’on nous pose des questions scientifiques, à propos de la société numérique, et que chacun puisse se positionner. Veut-on vraiment des voitures autonomes ? Une médecine « connectée » et « à distance » ? Veut on vraiment tomber sur des répondeurs plutôt que sur des gens ? Bien sûr, il y a d’autres priorités, je ne prétends pas que ce soit toujours le sujet numéro 1. Mais à travers ce thème de l'artificialisation du monde, il y a la question de l’écologie, de la démocratie, de la jeunesse. Il faut faire émerger le débat. 
  • Je trouverais intéressant de faire émerger un nouveau droit fondamental qui donnerait le droit, par exemple, d’accéder aux services publics sans passer par un écran, en allant trouver un humain à un guichet. C’est important pour toutes les personnes qui sont allergiques aux écrans, qui souffrent énormément de passer par Internet, pour les personnes âgées, pour les personnes qui n’ont pas les moyens. Il faut retrouver l’humain dans ce rapport à l’administration. Les enfants et les jeunes doivent de leur côté conserver le droit de vivre de façon non connectée. Cela suppose de renoncer au projet fou de numérisation progressive de l’école. 
  • C’est une démarche qui d’abord libère du temps. Renoncer au « life log » (la captation et la publication de sa vie) permet de laisser moins de données derrière soi, et donne de la liberté mentale en se sentant moins dépendant de l'approbation d'autrui. Le cyberminimalisme apporte aussi du bien-être puisque l’idée est de réhabiliter les rencontres réelles, de privilégier les coups de fil plutôt que les courts messages, les sorties sans téléphone, s’autoriser quelques soirées sans écran et enrichir l'amitié. Enfin il y a préservation de la biosphère par l'achat systématique de numérique d'occasion afin de remettre en circulation les objets déjà produits, et soulager ainsi la Terre d'une activité extractive très polluante. 
  •  
    "Le tout-numérique n'est pas une fatalité et la résistance, déjà à l'oeuvre, doit grossir ses rangs. Tel est le message au coeur de Cyberminimalisme, à la fois essai critique et manuel pratique, paru le 7 février au Seuil dans la collection Anthropocène. Entretien avec son auteure, Karine Mauvilly."
Aurialie Jublin

Internet Libre ou minitel 2.O conférence de Benjamin Bayart conf lors des rml... - 0 views

  • En fait la formulation qu'on retient habituellement c'est qu'on dit que sur Internet on a mis l'intelligence en périphérie du réseau. Dans Minitel on a mis l'intelligence au centre, c'est le contenu, c'est les bases de données avec des terminaux débiles autour. Internet c'est le contraire, on a mis des routeurs idiots au centre et on a mis en périphérie des ordinateurs qui réfléchissent. C'est ça le modèle d'Internet, la grande révolution qu'a été Internet, ça a été d'apporter ça. Les réseaux télé-informatiques centrés, on en fait depuis les années 50 à peu près
  • Ça j'aime bien aussi, Google, Yahoo, MSN c'est à peu près les trois moteurs de recherche qui font 95% de la recherche sur Internet et de l'indexation. À une époque, quand on cherchait le site Minitel qui permet quelque chose, on tapait 3615 et au lieu de taper le nom du site dans la case « nom du site » on allait dans la case « rechercher », on tapait des mots-clés, puis France Télécom proposait les services Minitel auxquels on pouvait se connecter. Bon ben ça ça s'appelle Google. Ils l'ont fait en couleur, ils l'ont fait en grand, ils l'ont fait avec de la pub sur le côté, mais c'est le moteur de recherche du Minitel, c'est pas ça Internet. Internet c'est pas les 8000 machines de Google qui détiennent le savoir de l'humanité. Internet c'est le contraire de ça. Donc finalement côté réseau sur la technique c'est pas du net, ce que vous utilisez couramment, c'est pas du net, c'est du Minitel.
  • Et on est venu sur un modèle qui est assez bizarre qui a beaucoup émergé ces dernières années de publicité/publication. Parce que si Monsieur France 2 veut être proprement diffusé il paye un droit de publication, c'est-à-dire qu'il paye les opérateurs réseau pour être diffusé. Si y'en a certains parmi vous qui ont suivi les débats sur la liste FRnOG il y a quelques mois, la trame sous-jacente c'était Monsieur Free qui disait à Monsieur Dailymotion « je transporterai pas ta merde si tu me donnes pas des sous ». Ça c'est le droit de publication. Curieusement y'a pas ça d'habitude sur Internet .C'est quelque chose d'assez récent. Et puis y'a la publicité, c'est-à-dire que, comme vous êtes des gens très partageurs, vous avez vos vidéos perso, aguichantes ou non, que vous mettez sur Dailymotion histoire que tout le monde en profite, curieusement les reversements publicitaires que perçoit Dailymotion, vous, vous les percevez pas. Parce qu'en fait vous leur confiez votre contenu pour qu'il y gagnent leur publicité. Ça c'est un modèle assez particulier et si vous regardez bien le mode publicité/publication on paye aux deux bouts, c'est-à-dire que celui qui a du contenu paye pour qu'il soit diffusé, et puis celui qui vient regarder le contenu il paye sous forme de publicité. On est bien revenu au modèle du téléphone. Maintenant c'est plus des communications à la minute c'est des publicités, mais le modèle est vraiment le même.
  • ...18 more annotations...
  • → Pluralité À la place du monopole local, on a une certaine pluralité, c'est-à-dire que les, on vous a parlé d'ouverture de la concurrence, de l'ouverture du marché tout ça... Moi quand on me parlait pas d'ouverture de la concurrence et d'ouverture du marché, c'est-à-dire quand je me suis abonné à FDN, c'était en 96, y'avait 5-6 opérateurs chez qui je pouvais m'abonner sur Paris et je pouvais prendre l'opérateur que je voulais. Y'avait pas de souci, y'en avait bien plusieurs.
  • → Transporteurs L'opérateur de réseau se comporte comme un transporteur, c'est-à-dire quand je commande un paquet chez un commerçant, pas forcément sur Internet, dans les années 80, chez Les 3 redoutes quand je commandais des chaussettes je payais mes chaussettes à Les 3 redoutes et Les 3 redoutes payaient le transport à La Poste, La Poste ne s'occupait que du transport. Ça c'est à peu près le modèle d'Internet. Mon FAI il transporte mes données, c'est tout, il regarde pas ce qu'il y a dedans c'est pas sa sauce. Finalement d'où ça vient, c'est-à-dire savoir si ça vient d'un contenu payant ou si ça vient d'un contenu gratuit, lui, il s'en fiche. Il transporte de manière neutre.
  • Alors quelques exemples d'opérateurs: bon forcément j'ai cité FDN, c'est le mien, j'ai cité Neuronnexion parce qu'on est à Amiens, et puis le gros national à l'époque c'était Oléane, c'est-à-dire que Oléane qui était un gros opérateur à l'époque, dans les débuts du net au milieu des années 90, Oléane était connecté à des dizaines d'autres opérateurs en France. Y'avait pas de problème pour obtenir un accord d'interconnexion, dans des conditions relativement équitables entre Neuronnexion qui était une PME avec quelques personnes sur Amiens et Oléane qui était une PME avec quelques dizaines ou quelques centaines de personnes sur la fin à Paris.
  • → Free Free même punition. C'est pas vraiment un opérateur Internet, c'est plus vraiment un opérateur Internet, c'est en train de basculer tout doucement vers un opérateurs Minitel. Y'a trois ans l'idée qui a été tenue sur FRnOG de dire à Dailymotion « je transporterai ta merde si tu me donnes des sous » elle aurait fait bondir les gens de chez Free. À l'époque où ils étaient petits ça leur aurait fait très peur parce que c'était un moyen de les empêcher de grossir. → SFR SFR, oui alors pour les gens qui savent pas SFR c'est le nom complet de Neuf-Cegetel, bah je sais pas c'est le plus gros actionnaire, moi je veux bien les appeler autrement, m'enfin voilà, l'actionnaire c'est SFR, donc eux, même chose, c'est plutôt un opérateur de téléphonie qui vend du net avec du vrai Minitel dessus.
  • Alors on n'a pas basculé du modèle à Internet qui commençait à émerger au milieu des années 90 au modèle Minitel qui est en train d'émerger aux États-Unis au début des années 2000 complètement par hasard. Il a fallu plusieurs morceaux pour en venir là. Même chose je vais me centrer plutôt sur les effets franco-français mais vous verrez le modèle s'étend assez bien.
  • → DRM : exclusivité D'abord les DRM, ça, ça vous parle on en a parlé beaucoup ici, DADVSI, Droits d'Auteur et Droits Voisins dans la Société de l'Information, pour les gens qu'oublient ce que veut dire l'acronyme. Créer des DRM c'est créer de l'exclusivité. C'est un morceau qui manquait sur Internet on pouvait pas créer de l'accès exclusif de manière simple. En mettant des DRM dedans on peut bien, c'est facile. C'est-à-dire qu'une fois qu'on aura bien mis des DRM dans tous les fichiers, l'opérateur pourra dire « je transporte, ou pas, les fichiers signés par Machin », Microsoft n'a pas envie de transporter les fichiers signés par Torvalds, simple, suffit de pas les transporter.
  • → Brevets : fermeture Les brevets ça crée de la fermeture. Je vous le disais tout à l'heure, Internet et le logiciel libre c'est très exactement la même chose, ce ne sont que deux facettes du même objet. À partir du moment où je mets des brevets je ferme le jeu. Si c'est breveté ça veut dire que quelqu'un d'autre n'a pas le droit de le refaire pour venir s'interconnecter. En fait une fois que j'ai bien breveté le mode de fonctionnement du Minitel, un méchant concurrent ne peut pas fabriquer des Minitel, ça ne sert qu'à ça les brevets, c'est même la définition du brevet.
  • → Filtrage : demi-connexions Le filtrage que nous demandent régulièrement les différents gouvernements, on pourrait croire que c'est de la censure fasciste, y'en a sans doute un ptit peu, je pense que quand les Renseignements Généraux demandent en loucedé à un opérateur de filtrer un gars ça pourrait ne pas être parce qu'il est terroriste mais juste parce qu'il fait chier, disons que ça s'est déjà vu. Mais ça a un effet de bord très amusant, une fois que les opérateurs ont mis dans leurs réseaux, c'est pas encore le cas mais ça vient, des boîtiers qui sont capables de filtrer, le boîtier qui est capable de filtrer je pense qu'il y a quelques informaticiens dans la salle, il filtre ce que l'admin sys demande de filtrer, c'est-à-dire ce que le gouvernement lui demande de filtrer parce qu'il est plutôt obéissant, pour pas aller en taule, et puis ce que son patron lui demande de filtrer. C'est-à-dire que le filtrage qu'est demandé par le gouvernement, pour des raisons probablement de sécurité publique, enfin on espère, il permet également de rétablir le modèle des demi-connexions, c'est-à-dire que je filtre les sites nazis et les filtres qui n'ont pas payé. Ça permet de bien faire rentrer ce modèle économique.
  • → Responsabilité : centré. La responsabilité, alors j'étends un ptit peu le titre, c'est les différents débats qu'on a eu depuis l'affaire Altern1 en, c'était quand l'affaire Altern 97, non 98, 99 par là, c'est la responsabilité des hébergeurs, c'est-à-dire que l'hébergeur est responsable de ce qu'il y a sur le site, et si on lui signale un contenu supposément illégal, il se doit de l'enlever avec diligence. Il pourrait l'enlever avec voiture mais diligence c'est mieux. Ça, ça veut dire que si je prends le risque de permettre à quelqu'un de poser son site web sur ma machine, s'il dit de la merde c'est moi qui vais en taule. Moi je peux pas l'assumer. France Télécom peut l'assumer parce que quand il aura un procès, France Télécom enverra son armée d'avocats, expliquera que dès qu'on lui a signalé le contenu elle l'a enlevé, je veux dire c'est vrai, c'était un dissident d'un endroit où on n'a pas le droit de dissider, qu'il aille donc dissider ailleurs, donc ça a été tout bien enlevé, et ils pourront dire, nous on est blanc bleus ils vont au procès, ils payent des avocats, ils s'en sortent. Par contre la PME de banlieue qui essayait de faire pareil, ben quand elle s'est retrouvée devant le juge, ça lui a coûté un œil de payer l'avocat, et puis comme le mec qui dissidait il disait des trucs finalement qu'en France on a le droit, ils ont estimé qu'ils allaient pas supprimer le site, et donc ça va jusqu'au procès et ça coûte cher. Donc la responsabilité des hébergeurs ça tend à faire que les petits hébergeurs ont du mal à exister parce qu'ils existent en vivant dangereusement, donc ça crée du réseau centrés, puisque les petits ont du mal à exister il restera que les gros.
  • → Régulation : interco La régulation c'est aussi quelque chose de fabuleux. Ce qu'on appelle régulation dans le monde Internet professionnel, c'est l'ARCEP, Autorité de Régulation des Communications Éléctroniques et des Postes, ex-ART, Autorité de Régulation des Télécommunications, c'est des gens qui ont été mis en place à l'époque où, suite à certaines directives européennes, on a ouvert le marché des télécom. J'ai assisté, alors, enfin si un ptit peu en tant que président de FDN, mais aussi avec d'autres casquettes, à une des réunions de l'ARCEP sur les réseaux d'initiatives publiques où y'avait le monsieur responsable du dégroupage en France, qui nous expliquait mort de rire que, y'a 10 ans quand ils ont commencé et qu'ils ont fait les premières réunions sur le dégroupage, il fallait une salle de réunion gigantesque pour asseoir les 50 opérateurs alors qu'aujourd'hui quand ils font les réunions sur le dégroupage, ils font ça dans son bureaux parce qu'ils sont 4, et il avait l'air content de lui pépère. C'est-à-dire que lui, il a été mis en poste pour ouvrir le marché, il est passé de 50 acteurs à 4 et il est content. Fabuleux! Moi je trouve fabuleux. Et donc ce petit jeu où on se retrouve avec 4 opérateurs qui vendent du Minitel-net 2.0 ben ça fait qu'ils sont suffisamment gros pour envoyer chier tous les autres, je veux dire quand on s'appelle Free et qu'on a 2 millions d'abonnés, ou quand on s'appelle France Télécom et qu'on en a 4, ou quand on s'appelle Neuf et qu'on en a je-sais-plus-combien à force de racheter leur clients je sais plus où ils en sont, 2,5 probablement, forcément, un Schtroumpf qui vient avec 20 000 comme Nérim rien à battre, parle pas aux ptits. Donc la difficulté d'interconnexion des réseaux, elle vient en bonne partie des erreurs de régulation ou des choix de régulation, parce que c'est ptet pas par erreur qui font qu'il y a plus de petits opérateurs.
  • → Gouvernance : assurance Et puis pour ceux qui étaient à la table ronde politique hier, y'a des problèmes de gouvernance. Les problèmes de gouvernances, ce sont tous ces braves gens qui se réunissent entre eux pour décider si oui ou non on va permettre aux gens d'acheter des noms de domaines sans leurs papiers, ou si on va distribuer des adresses IP aux pas gentils, ou comment on va faire en sorte que les pédo-nazis puissent pas faire ci ou ça, ou que les terroristes puissent pas poster, donc comment Google va filtrer tous les sites écrits en arabe parce que ça doit être suspect, sauf ceux bien évidemment signés par le gouvernement qui vend du pétrole. Tout ça c'est ce qu'on appelle la gouvernance Internet, c'est l'IANA, c'est l'ICANN, c'est le RIPE c'est etc. Ça en fait c'est une assurance. Une fois que c'est convenablement tenu par les quelques juristes des très gros opérateurs - vous pouvez y aller, y'a pas un technicien à poil dur, y'a quelques vieux barbus tout gris qui parlent BGP, le reste c'est tout du cravateux juriste docteur en droit, envoyé par les opérateurs pour vérifier que tout va bien. Ça c'est une assurance, c'est l'assurance du fait qu'ils resteront dans la position où ils sont.
  • Ils sont en train d’éteindre Internet D'où ça sort tout ça ? Ça sort schématiquement de l'histoire, c'est-à-dire que les gens qui ont de quoi fabriquer du réseau sont les gens qui ont fabriqué le téléphone et qui étaient en situation de monopole, ce sont les gens qui ont fabriqué la diffusion télé qui étaient en situation de monopole. Internet est né, à un moment ils se sont dit « tiens ça va se vendre » alors ils en ont vendu et puis, sans forcément être méchants, on pourrait croire à la théorie du complot mais j'y crois pas, je pense qu'ils sont pas assez malins pour s'être dit « tiens on va se liguer pour attaquer sur tous les fronts en même temps pour faire taire les pénibles »; moi je pense qu'ils l'ont pas fait exprès, mais ils sont en train d'éteindre Internet; et c'est un effet de bord naturel, c'est-à-dire qu'Internet remettait en cause leur monopole, ils ont fait chacun les petites actions dont ils avaient besoin pour essayer de maintenir leur monopole: les gros éditeurs de musique en faisant des DRM, les auteurs de logiciels tout pourris propriétaires en faisant des brevets, les marchands de contenu qui veulent pas qu'on aille acheter le contenu des autres en faisant du filtrage etc etc etc. Je pense même pas qu'ils se soient concertés pour faire tous les mêmes conneries.
  • On va manger du numérique avarié Et quand ils vous disent qu'on passe à l'heure du numérique, c'est vrai. Ils font bien du numérique, si vous regardez la télé autrefois y'avait de la neige, maintenant elle pixélise, c'est ben qu'elle est numérique ! Mais c'est pas de l'Internet, c'est du numérique. Du numérique, ça peut être le baladeur fermé propriétaire d'une grande marque japonaise en quatre lettres commençant pas S finissant par Y qui met des rootkit dans les CD ou ça peut être le fait que je fasse écouter la musique que j'aime bien à ma ptite sœur. Dans les deux cas, c'est du numérique, juste moi je trouve y'en a un il est avarié, je vous laisse deviner lequel.
  • L'apparition d'Internet a permis l'apparition du libre et l'apparition du libre a permis l'apparition d'Internet, les deux ont crû en même temps. Il va y a voir un décrochage. Le numérique va continuer à croître mais Internet a commencé sa décroissance il y a déjà quelques années. Il y a de moins en moins de gens qui s'hébergent eux-mêmes sur leur ligne ADSL. La décroissance d'Internet a commencé, la décroissance du libre c'est juste après. Même si vous arrivez à ce qu'ils ne fassent pas passer les brevets logiciels cette année et les DRM l'année prochaine, si vous arrêtez Internet, si vous les laisser arrêter Internet libre, vous allez mourir.
  • Donc je crois que ce sont les deux piliers, le premier c'est: il faut éduquer, aller expliquer aux gens ce que c'est qu'Internet, aller dire aux gens que Internet c'est pas de mettre des vidéos marrantes sur Dailymotion, Internet c'est de mettre les vidéos marrantes sur mon PC et que vous veniez les voir. C'est fondamental comme différence; ça c'est le premier pilier, éduquer les gens, c'est très long. Je veux dire on savait, 'fin moi ça fait très longtemps que je suis sur Internet, ça fait 10 ans que je suis président de FDN, ça fait longtemps que je réfléchis sur ces questions, là je sais que c'est long d'éduquer les gens. La croissance actuelle des ventes de Machin Box en Minitel 2.0 c'est pas la croissance de l'éducation au net. Le type qui publie son blog sur un ordinateur qu'il ne possède pas, il fait du Minitel alors il apprend à faire du Minitel amélioré où il peut parler, mais il n'a pas encore appris à faire du net, c'est-à-dire à mettre son blog sur une machine qu'il est le seul à pouvoir couper du réseau. C'est très différent, cette éducation-là va prendre un ptit peu de temps. Et le deuxième pilier c'est: faites votre réseau, faites vos serveurs IRC qui ne sont pas ceux des gros opérateurs, faites vos serveurs mail qui ne sont pas ceux des gros opérateurs. Faites votre réseau. Avec ces deux piliers-là, on aura quelques résistants qui sont ceux qui font le réseau, et quelques enseignants pour propager la bonne parole, ce sont les deux fondamentaux dont on a besoin. Je sais pas ce qu'on peut faire d'autre. Si, on peut essayer de se battre sur le juridique, mais on y va vraiment avec un lance-pierre contre des chars d'assaut.
  • y'a deux objections classiques au « hébergez-vous vous-mêmes », y'en a des moins classiques qui sont en général pas très intéressantes, en tout cas j'en ai pas encore entendu, y'en a deux qui sont vraiment classiques, y'a celle que tu indiques qui est intelligente, y'en a une autre qui est bête. Je vais commencer par celle qui est bête pour m'en débarrasser. Le « c'est compliqué techniquement », ça, c'est juste faux, je veux dire si le débile de base il est capable de poster une vidéo sur Dailymotion et il est capable de poster dans son blog, faire une Internet box qui contient le serveur Apache*4 qui contient son blog et les plug in type Dailymotion, il aura qu'à uploader vers sa boîte, c'est pas plus dur. Donc le « techniquement c'est compliqué » ça c'est juste faux.
  • Après y'a le problème écologique. La question écolo là-dedans c'est « si je laisse mon PC allumé tout le temps pour héberger mon pauvre site web qui a 12 visiteurs par jour, je brûle le courant plein pour rien ». Ça c'est un vrai problème. Mais dire « je vais m'héberger en salle machine avec tout le monde comme ça si on pose une bombe tout le monde se tait », c'est la mauvaise réponse. Quand les écolo disent « la consommation d'électricité fabriquée avec du charbon et du nucléaire c'est vachement dangereux » ils ont raison. Quand on apporte comme réponse « y'a qu'à se passer d'électricité », c'est pas la bonne. Un ordinateur capable d'héberger un site web c'est pas l'énorme machin avec 12 ventilos que tu utilises pour jouer au dernier jeu à la mode. Un ordinateur capable d'héberger un site web ça a une puissance de calcul similaire à celle qu'on trouve dans un palm aujourd'hui, ou dans un téléphone; c'est-à-dire que ton téléphone là, s'il était pas en Java avec de la merde dedans, il serait capable de faire des sites web comme on n'en rêvait pas en 95. Il consomme peau de balle en courant. Lui tu peux le laisser chez toi branché, et pour peu qu'en plus tu lui donnes du courant que t'as fabriqué avec des fines herbes et avec du bois, ou avec du solaire, ça va être nickel. Un ptit ordinateur qui ne mange que du solaire et qui est autonome tout seul dans sa boîte avec du solaire ça existe, les fous qui font des réseaux wifi bizarres ouverts etc, ils ont ça, des espèces de routeurs qu'ils viennent mettre sur le toit collés à la borne wifi, c'est 100% autonome si c'est sur du solaire, ça mange pas d'énergie.
  • -Hébergeur hébergé, c'est pas forcément une bonne réponse dans le sens « on se met à 3 et on loue une bécane dans une salle machine », c'est dans cet esprit-là? Dans cet esprit-là, dans la balance entre Internet et le Minitel quand tu mets ton site web chez OVH*6 tu es purement dans Minitel, quand tu mets dans le serveur des pages perso Wanadoo c'est pire, quand tu commences à le mettre sur le serveur hébergé en salle machine d'une assoss sympathique, l'Autre.net, Ouvaton des gens comme ça, Tuxfamily*7 tu rééquilibres un peu, quand tu le mets sur les machines auto-hébergées des gens comme RHIEN*8, le Réseau d'Hébergeurs Indépendants ENgagés, je vous invite à aller les voir si vous ne les connaissez pas, R-H-I-E-N, c'est super bien ce qu'ils font, ça penche presque vers de l'Internet parce que, eux, ils s'y mettent à 10-15-20-30 à héberger sur la machine du gars qui sait faire leur site web derrière leur ligne ADSL. On est quasiment sur de l'Internet, on est sur du beaucoup-net. Donc oui c'est mieux. Je veux dire si t'as à choisir entre les pages perso de ton fournisseur d'accès moisi qui retirera le contenu si ça lui plait pa,s et te faire héberger dans la même machine que ta bande de potes, c'est plutôt mieux la deuxième solution, maintenant si la machine en question elle est dans une salle machine qui t'appartient pas, où les flics ils rentrent quand ils veulent avec même pas un mandat, juste ils demandent poliment au monsieur à l'entrée, pas top.
  •  
    "Internet, logiciel libre, c'est la même chose En fait ce à quoi je veux en venir c'est que c'est la même chose: c'est-à-dire que sans logiciel libre pas d'Internet: si BIND n'avait pas été libre, si le protocole de routage IP n'avait pas été libre et ouvert Internet ne serait pas né. Donc sans logiciel libre pas d'Internet. Sans Internet pas de logiciel libre, évident. Si on supprime le mail et les échanges électroniques de code entre développeurs pour faire murir les softs, ça ne peut pas marcher. Les deux sont intimement liés: en fait ce sont deux facettes d'un même objet. Cet objet, si vous voulez on débattra tout à l'heure, je pense que c'est ce qu'on appelle la société du savoir, l'économie du savoir. Mais ce sont deux facettes du même objet on peut pas différencier, on peut pas dissocier Internet et logiciel libre, c'était ça le bout d'historique que je voulais vous raconter."
Aurialie Jublin

La directive Copyright n'est pas une défaite pour l'Internet Libre et Ouvert ... - 0 views

  • Trop souvent, nous avons concentré nos énergies sur des combats législatifs, hypnotisés par l’idée que le décompte des voix conduirait à une sorte « d’ordalie démocratique ». Cela nous a donné plusieurs fois l’illusion d’avoir remporté quelque chose, comme au moment du rejet de l’ACTA, alors que les racines du problème restaient intactes. Mais heureusement en sens inverse, si la victoire n’est jamais acquise en cas de succès législatif, il en est de même pour la défaite. Et rien ne serait plus faux que de penser que le vote de cette semaine sur la directive Copyright constitue la fin de l’histoire, sous prétexte que nous aurions encaissé là une défaite décisive !
  • Certes les articles 11 et 13 du texte, qui instaurent une obligation de filtrage automatisé des plateformes et une taxe sur les liens hypertextes au profit des éditeurs de presse, représentent des monstruosités contre lesquelles il était nécessaire de lutter. Mais il convient à présent d’apprécier exactement la portée de ces mesures, pour réadapter très rapidement notre stratégie en conséquence à partir d’une appréhension claire de la situation. Or cette « vision stratégique d’ensemble » est à mon sens précisément ce qui a manqué tout au long de cette campagne dans le camp des défenseurs des libertés numériques et il est inquiétant de constater que ces erreurs de jugement n’ont pas disparu maintenant que l’heure est venue d’analyser les conséquences du scrutin.
  • On a pu voir par exemple cette semaine l’eurodéputée du Parti Pirate Julia Reda expliquer sur son blog que ce vote constituait un « coup dur porté à l’internet libre et ouvert » (Today’s decision is a severe blow to the free and open internet). De son côté, Cory Doctorow a écrit un article sur le site de l’EFF, où il affirme que « l’Europe a perdu Internet » (Today, Europe lost the Internet). Sur Next INpact, Marc Rees déplore dans la même veine « une mise au pilori du Web tel que nous le connaissons, un affront à la liberté d’expression. » Ces appréciations font écho au mot d’ordre qui fut celui des défenseurs des libertés en campagne contre les articles 11 et 13 de la Directive : Save Your Internet (Sauvez votre Internet).
  • ...12 more annotations...
  • Or lorsqu’on lit attentivement ces articles, tels qu’amendés par le vote des eurodéputés, on se rend compte qu’ils ne visent pas pas « l’Internet » ou « le Web » tout entier, mais seulement une catégorie d’acteurs déterminés, à savoir les plateformes centralisées à but lucratif. Ce n’est donc pas « l’Internet libre et ouvert » qui va être frappé par cette directive, mais plutôt exactement ce qui représente son antithèse ! A savoir cette couche d’intermédiaires profondément toxiques qui ont dénaturé au fil du temps les principes sur lesquels Internet et le Web s’appuyaient à l’origine pour nous faire basculer dans la « plateformisation ».
  • Or le grand mensonge sur lesquels s’appuient les GAFAM – principaux responsables de cette centralisation -, c’est de chercher à faire croire qu’ils représentent à eux-seuls l’Internet tout entier, comme si rien ne pouvait plus exister en dehors de leur emprise. En ce sens quand j’entends Cory Doctorow dire que nous « avons perdu Internet » à cause de mesures ciblant les acteurs centralisés lucratifs, je ne peux que frémir. Avec tout le respect que je peux avoir pour ce grand monsieur, ses propos paraissent avoir incorporé la prétention des GAFAM à recouvrir le web et c’est particulièrement grave. Car c’est précisément cela qui constituerait la défaite finale des défenseurs des libertés : se résigner à cet état de fait et ne pas agir sur les marges dont nous disposons encore pour briser cette hégémonie.
  • Sur Next INpact, Marc Rees identifie avec raison le changement le plus profond que ce texte va amener : il remet en question la distinction classique entre hébergeurs et éditeurs, issue de la directive eCommerce de 2000. Jusqu’à présent, les hébergeurs bénéficiaient d’une responsabilité atténuée vis-à-vis des actes commis par leurs utilisateurs. Au lieu de cela, la directive Copyright introduit une nouvelle catégorie d’intermédiaires dits « actifs » qui devront assumer la responsabilité des contenus qu’ils diffusent, même s’ils ne sont pas directement à l’origine de leur mise en ligne.
  • On voit que le « rôle actif » se déduit de trois éléments : la taille de l’acteur, son but lucratif et la hiérarchisation automatisée de contenus. Ce sont donc bien des plateformes centralisées lucratives, type Facebook ou YouTube, qui devront assumer cette nouvelle responsabilité. Pour y échapper, elles devront conclure des accords de licence pour rémunérer les ayant droits et, à défaut, déployer un filtrage automatisé des contenus a priori. En pratique, elles seront certainement toujours obligées de mettre en place un filtrage, car il est quasiment impossible d’obtenir une licence capable de couvrir l’intégralité des œuvres pouvant être postées.
  • La directive a par ailleurs pris le soin de préciser que les « prestataires sans finalité commerciale, comme les encyclopédies en ligne de type Wikipedia » ainsi que les « plateformes de développement de logiciels Open Source » seraient exclus du champ d’application de l’article 13, ce qui donne des garanties contre d’éventuels dommages collatéraux.
  • Marc Rees nous explique que cette évolution est dangereuse, parce que l’équilibre fixé par la directive eCommerce constituerait le « socle fondamental du respect de la liberté d’expression » sur Internet. Mais cette vision me paraît relever d’une conception purement « formelle » de la liberté d’expression. Peut-on encore dire que ce qui se passe sur Facebook ou YouTube relève de l’exercice de la liberté d’expression, alors que ces acteurs soumettent leurs utilisateurs à l’emprise d’une gouvernance algorithmique de plus en plus insupportable, que cible précisément la notion de « rôle actif » ?
  • Il est peut-être temps de tirer réellement les conséquences de la célèbre maxime « Code Is Law » de Lawrence Lessig : le droit n’est qu’une sorte de voile dans l’environnement numérique, car c’est le soubassement technique sur lequel s’appuie les usages qui conditionne réellement l’exercice des libertés. Quoi que dise la directive eCommerce, il n’y a quasiment plus rien qui relève de l’exercice de la liberté d’expression sur les plateformes centralisées lucratives, sinon une grotesque parodie qui salit le nom même de la liberté et nous en fait peu à peu perdre jusqu’au sens ! En le lisant « en creux », l’article 13 dessine au contraire l’espace sur Internet où la liberté d’expression peut encore réellement s’exercer : le réseau des sites personnels, celui des hébergeurs ne jouant pas un rôle actif et – plus important encore – les nouveaux services s’appuyant sur une fédération de serveurs, comme Mastodon ou Peertube.
  • Ce qui va se passer à présent avec l’obligation de filtrage automatisée, c’est que les grandes plateformes centralisées lucratives, type YouTube ou Facebook, vont sans doute devenir des espaces où les utilisateurs éprouveront le poids d’une répression « à la chinoise » avec la nécessité de se soumettre à un contrôle algorithmique avant même de pouvoir poster leurs contenus. Le contraste n’en sera que plus fort avec les espaces restant en dehors du périmètre de l’article 13, que les créateurs et leur public seront d’autant plus incités à rejoindre. Doit-on réellement le déplorer ?
  • On retrouve ici le problème de « l’agnosticisme économique » dont j’ai déjà parlé sur ce blog à propos du fonctionnement même des licences libres. En refusant de discriminer selon les types d’usages économiques, les défenseurs du Libre se sont en réalité privés de la possibilité de développer une réelle doctrine économique. C’est ce même aveuglement aux questions économiques qui conduit à des aberrations de positionnement comme celles que l’on a vu au cours de cette campagne contre la directive Copyright. Comment mobiliser autour du mot d’ordre « Save Your Internet », alors que cet « Internet » que l’on a voulu faire passer pour « le notre » comprend en réalité les principaux représentants du capitalisme de surveillance ? C’est le sens même de nos luttes qui disparaît si nous ne nous donnons pas les moyens d’opérer des distinctions claires parmi les acteurs économiques.
  • En juin dernier, c’est-à-dire avant même le premier vote sur la directive, La Quadrature du Net a commencé à développer ce type d’analyses, en suggérant de ne pas s’opposer à l’introduction du critère du « rôle actif » des plateformes pour au contraire le retourner comme une arme dans la lutte contre la centralisation
  • L’enjeu n’est pas de chercher – sans doute vainement – à supprimer l’article 13, mais de réussir à délimiter clairement son périmètre pour s’assurer qu’il ne s’appliquera qu’à des acteurs centralisés lucratifs procédant à une hiérarchisation des contenus. Manœuvrer ainsi ferait peser sur les GAFAM une charge écrasante, tout en préservant un espace pour développer un réseau d’acteurs éthiques non-centralisés et inscrits dans une logique d’économie solidaire. Il n’y a qu’au sein d’une telle sphère que l’on puisse encore espérer œuvrer pour un « Internet Libre et Ouvert ».
  • Il faut aussi sortir de l’urgence immédiate imposée par cette série de votes pour se replacer dans le temps long. De toutes façons, quelle que soit l’issue des dernières négociations, il restera encore plusieurs années (3, 4, peut-être plus ?) avant que la directive ne soit transposée dans les pays de l’Union. C’est un délai appréciable qui nous laisse encore le temps de travailler au développement de cette sphère d’acteurs alternatifs.
  •  
    "Bien que la directive droit d'auteur soit le symptôme d'une soumission économique de nos industries aux géants du Web, elle crée néanmoins l'opportunité de remettre en cause ces géants, au profit de l'Internet décentralisé. C'est ce que nous rappelle Calimaq, membre de La Quadrature du Net, dans cette tribune - initialement publiée sur son blog."
Aurialie Jublin

Contre la haine en ligne, des internautes s'organisent | Slate.fr - 0 views

  • Aux côtés de 173 personnes inconnues, il répond méthodiquement à la haine à l'œuvre dans les commentaires d'articles. Avec ses camarades, il se coordonne dans un groupe Facebook, secret et fermé, dont le nom reprend ironiquement un sigle policier. Il réunit femmes et hommes de 20 à 55 ans, «beaucoup de travailleurs sociaux», suppose Simon, même s'il n’en connaît personnellement que très peu. Depuis 2016, le groupe veille sur les posts Facebook des journaux normands pour faire en sorte que les commentaires les plus «likés», et donc ceux qui remontent tout en haut de la section, ne soient pas systématiquement les plus haineux.
  • Une trentaine de membres sont réellement actifs et actives, dont une dizaine qui réalise une veille sur les sujets connus pour être des «attrape-haine»: immigration, sexisme, protection sociale, etc. Dans un Google Doc, des argumentaires, chiffres-clés et articles sont prêts à être copiés-collés pour gagner un peu de temps au moment de rédiger son commentaire.
  • Face aux discours de haine en ligne, une majorité de personnes reste silencieuse, par manque de temps ou tout simplement manque d’arguments. Pour pallier cela, le think tank Renaissance numérique a créé «Seriously» en 2015, une méthode pour accompagner les internautes afin d'apprendre à répondre à la haine et à dépassionner les débats. Créé à l'origine dans le but d’aider des associations comme SOS homophobie ou SOS Racisme sur les réseaux sociaux, le site a aujourd’hui une portée plus vaste.
  • ...4 more annotations...
  • Xavier estime que la responsabilité de répondre à la haine est collective. «Les journalistes ne sont ni assez nombreux, ni assez payés pour le faire sous tous leurs articles, souligne-t-il, il ne faut pas laisser la désinformation se répandre. On a trop longtemps considéré les commentaires comme un bruit de fond.» Pourtant, nous connaissons aujourd’hui le pouvoir de ces derniers sur le lectorat. En 2015, une équipe de recherche a prouvé que la perception d’un article était modifiée par les commentaires correspondant sur Facebook. Les scientifiques ont fait lire le même article à des volontaires, avec une variation de mentions «j’aime» et de commentaires. Plus le nombre de commentaires négatifs était important, plus l’article était perçu comme peu convaincant –le nombre de «likes» était cependant loin d’avoir le même effet.
  • «On peut arriver à se comprendre, ce sont juste des personnes en colère, constate-t-il. On a laissé faire les choses en considérant cela comme un bruit de fond. “Don’t feed the troll”, pour moi c’est complètement faux, il faut intervenir!». En effet, trois scientifiques ont analysé les commentaires sous 100.000 posts et découvert que si le premier commentaire visible est positif, les internautes ont tendance à être positifs dans leur réaction et inversement quand le premier commentaire est négatif.
  • Au mois de janvier, SOS Racisme a créé un groupe Facebook fermé appelé «#TEAMRIPOSTE!» qui a pour but de réunir des personnes qui veulent militer de chez elles et aider à commenter les publications sur les réseaux sociaux. Sur la page du groupe, on peut lire: «La légalité ne s’arrête pas aux portes d’internet, il est aussi important de rappeler qu’un grand nombre de mesures peuvent être prises pour supprimer ces messages racistes ou faire condamner leurs auteurs». Pharos, une plateforme en ligne mise en place par le gouvernement, permet de signaler des contenus ou des comportements illicites.
  • Selon Jennyfer Chrétien du think tank Renaissance numérique, l’un des plus gros combats à mener est éducatif. Pour cela, le groupe de réflexion prépare des programmes de sensibilisation, surtout auprès du jeune public. «Nous ne pouvons pas nous contenter de sanctionner les propos illicites», affirme la directrice. Il est impératif de travailler sur le «réflexe de fermeture de l'onglet» qui doit être converti en «réflexe citoyen».
  •  
    "Prendre le temps de répondre aux commentaires qui pourrissent le web pour tenter de le pacifier."
Aurialie Jublin

Dans le combat final des gilets jaunes, Jupiter va affronter des modérateurs ... - 0 views

  • Dans ce nouveau genre de mobilisation, où la participation en ligne est toute aussi importante que les blocages sur les ronds-points, les chefs par défaut sont les admins des pages Facebook. Eric Drouet et Priscillia Ludosky sont maintenant tous les deux admins du groupe La France en colère !!!, qui comprend 250 000 personnes. Dans le groupe des huit, une troisième tête se dégage : le charismatique Maxime Nicolle aka Fly Rider, qui avait été invité chez Cyril Hanouna. Il gère Fly Rider infos blocages, un groupe de 62 000 personnes qui suivent ses Facebook live quotidiens.
  • S’il fallait tracer les limites d’un ancien et d’un nouveau monde, Emmanuel Macron et Philippe Martinez apparaissent comparés à Eric Drouet et Maxime Nicolle comme la relique d’une époque révolue. Ces deux leaders des gilets jaunes renouvellent totalement la manière de gérer un mouvement social.
  • On se demanderait presque pourquoi BFM TV ne les diffuse pas en direct à l’antenne. Ces lives n’ont pas moins de pertinence dans le conflit qu’un discours d’Emmanuel Macron ou Edouard Philippe. Alors que, parmi les gilets jaunes, plus personne ne croit au discours des médias traditionnels, ces Facebook live, et plus largement toutes les vidéos qui circulent sur le réseau, apparaissent comme le seul média fiable.
  • ...6 more annotations...
  • On peut évidemment douter de cette explication un peu simpliste, mais force est de constater que Maxime Nicolle joue là le rôle d’un corps intermédiaire – typiquement d’un leader syndical – en canalisant la colère populaire, en répondant aux inquiétudes des éléments les plus extrêmes de sa base. Dans les groupes de gilets jaunes, il y a une vraie différence entre le ton posé de ces Facebook lives, fascinants moments de débat public, et la violence parfois affligeante des commentaires.
  • «Il faut pouvoir informer les gens, expliquait Nicolle dans un Facebook live. Il y a des gens comme moi et d’autres qui font des vidéos parce qu’ils ont des facilités d’élocution, que d’autres n’ont pas. Si nous, on ne le fait pas, personne ne le fera à notre place.» C’est une démocratie de l’audience : le succès de leurs groupes et de leurs Facebook lives leur donne une mission d’information et de représentation par rapport aux autres gilets jaunes.
  • Pour les gilets jaunes, une réunion avec le gouvernement ne peut qu’être diffusée en direct, sinon ils manqueraient à leur obligation de transparence et pourraient trahir, dans l’opacité des négociations politiques, les revendications de la base. La République en marche, le mouvement participatif le moins participatif de tous les temps, incapable de toute transparence, ferait bien de s’en inspirer.
  • Le mouvement a été sans conteste aidé par le nouvel algorithme Facebook qui survalorise les contenus de groupes au détriment des contenus postés par des pages (et donc par les médias). Après quelques likes sur un groupe, on se retrouve submergé du contenu de ce groupe dans son fil d’actualités. Le nouvel algo a précipité les gilets jaunes dans une «bulle de filtre» où ils ne voient presque plus que du contenu jaune.
  • «Connecter ensemble les amis et la famille a été quelque chose très positif, déclarait Zuckerberg en 2017. Mais je pense qu’il y a ce sentiment général que nous avons une responsabilité pour faire plus que cela et pour aider les communautés et aider les gens à être exposé à de nouvelles perspectives et rencontrer de nouvelles personnes – pas seulement donner la parole aux gens, mais aussi aider à construire un terreau commun pour que les gens avancent ensemble.» Qui mieux que les groupes de gilets jaunes ont appliqué la doctrine de Zuckerberg ?
  • Les admins de groupe Facebook, dont les prérogatives ne cessent d’être augmentées par Zuckerberg, sont les nouveaux corps intermédiaires, prospérant sur les ruines des syndicats, des associations ou des partis politiques. Ayant méticuleusement fait disparaître ces courroies de transmission entre lui et le peuple, Emmanuel Macron se retrouve maintenant en frontal face à des admins de page Facebook.
  •  
    "Plusieurs des porte-parole du mouvement sont les administrateurs de groupes Facebook très influents. Ils conçoivent leur action dans une transparence totale et sont soumis en temps réel à la supervision et la critique de leurs congénères. "
Aurialie Jublin

Brésil : le numérique fait-il du mal à la démocratie ? - 0 views

  • Dans un ouvrage publié l’année dernière : Le temps des algorithmes, deux informaticiens français - Serge Abiteboul et Gilles Dowek-  expliquaient que le rythme relativement lent auquel étaient consultées les populations dans une démocratie (une élection par an en moyenne) avait été dicté au cours des XVIIIe et XIXe par la lenteur des communications elles-mêmes - une diligence, ça ne va pas vite, organiser des élections prenaient du temps. A l’heure où une information va à la vitesse de la lumière, il semble impossible de ne pas revoir ce rythme. Dit comme ça, ça a l’air évident. 
  • Dans un livre paru il y a cinq ans (The New Digital Age), Jared Cohen et Eric Schmidt (à l’époque patron de Google) annonçaient tranquillement l’avènement d’un nouveau monde où les plateformes numériques suppléeraient les États dans bien des fonctions de la vie publique, jusque dans l’organisation de la vie démocratique. 
  • Lutter contre l’ambition des GAFA à se substituer à l’Etat, contre les États qui essaient d’interférer dans les élections d’autres pays, lutter contre l’usage des réseaux sociaux à des fins de fausses informations. Tout en promouvant de nouvelles manières de consulter les peuples, d’écrire en commun une constitution comme l’a fait l’Islande etc. Il y a du boulot… 
  • ...1 more annotation...
  • Comment se fait-il que ce soit à un moment où, pour la première fois dans l’histoire de l’Humanité, on peut communiquer aussi facilement avec le monde entier, lire, regarder et entendre ce qui se passe ailleurs en un clic, avoir accès aussi vite aux savoirs les plus anciens et les plus lointains, s’exprimer à égalité, comment se fait-il que ce soit dans ce moment-là que réapparaissent aussi violemment tous les protectionnismes les plus durs et les xénophobies les plus haineuses ?  Y a-t-il un rapport entre ces deux mouvements contraires ?  Ou Internet n’a-t-il rien à voir dans ce qui nous arrive politiquement ? 
  •  
    "L'élection de Jair Bolsonaro à la tête du Brésil pose la question qui semble se poser à chaque nouvelle élection d'un dirigeant fachistoïde à la tête d'une démocratie : quel rôle a joué Internet (et notamment WhatsApp) dans tout ça ?"
Aurialie Jublin

L'internet des familles modestes : les usages sont-ils les mêmes du haut au b... - 0 views

  • Le plus étonnant finalement, c’est de constater que pour des gens qui se sont équipés sur le tard, combien ces usages sont devenus aisés et rituels. Je m’attendais à trouver plus de difficultés, plus d’angoisses… Mais cela n’a pas été le cas. Les familles modestes se sont emparées d’internet à toute vitesse. Ils font certes des usages plutôt utilitaristes de ces outils polymorphes. Ils ont peu de pratiques créatives. Participent peu. Mais n’en ont pas particulièrement besoin. L’outil s’est glissé dans leurs pratiques quotidiennes, d’une manière très pragmatique. Les gens ont de bonnes raisons de faire ce qu’ils font de la manière dont ils le font.
  • Oui, internet est une seconde école. Et ce constat n’est pas sans vertus pour des populations qui bien souvent ne sont pas allées à l’école ou qui n’ont pas le bac. Internet leur propose des manières d’apprendre qui leur correspondent mieux, sans hiérarchie ni sanction. On pourrait croire par exemple qu’en matière d’information ils ne recherchent pas des choses importantes, mais si. Ils cherchent à comprendre les termes qu’emploient le professeur de leurs enfants ou le médecin qu’ils consultent. Quelque chose s’est ouvert. L’enjeu n’est pas pour eux de devenir experts à la place des experts, mais de parvenir à mieux argumenter ou à poser des questions. D’être mieux armés.
  • La dématérialisation de l’administration est inhumaine et brutale. Les familles modestes utilisent peu le mail. Leurs adresses servent principalement aux achats et aux relations avec les administrations. Mais les courriers de l’administration se perdent dans le spam qu’ils reçoivent des sites d’achat. Pour eux, le mail est un instrument de torture et ce d’autant plus qu’il est l’outil de l’injonction administrative.
  • ...10 more annotations...
  • Pour les familles modestes, le mail n’est pas un outil de conversation agréable. Il est asynchrone et écrit. Envoyer et attendre une réponse ne correspond pas aux valeurs du face à face dans l’échange, qui reste très fort dans les milieux populaires. Il demeure de l’ordre du courrier, ce qui en fait un dispositif formellement distant.
  • Les usagers ne sont pas contre la dématérialisation pourtant. Le public que j’ai rencontré utilise quotidiennement les applications bancaires par exemple, matins et soirs. Ils n’ont pas de mal à gérer leurs factures en ligne. Mais les relations avec les institutions sociales, en ligne, sont particulièrement difficiles.
  • Les familles disposent bien souvent d’une seule adresse mail partagée. C’est un moyen de tenir un principe de transparence familial… (et de surveillance : une femme ne peut pas recevoir de courrier personnel). Ce principe de transparence se retrouve également dans les comptes Facebook, dans les SMS,… La famille intervient sur les comptes de ses membres, on regarde les téléphones mobiles des uns et des autres. On surveille ce qu’il se dit. Les familles modestes ne voient pas de raison à avoir des outils individuels.
  • Effectivement, l’internet n’est jamais vu comme un moyen de contribution. J’ai demandé ainsi à une femme qui souhaitait se remarier et qui me confiait avoir beaucoup consulté de forums pour se décider à franchir le pas de la famille recomposée… si elle posait des questions sur ces forums. Elle m’a clairement répondu non, comme si c’était impensable. Ce qui l’intéressait c’était la réponse aux questions qu’elle aurait pu poser.
  • Ces partages se font avec des gens qu’on connaît. On ne cherche pas à étendre sa sociabilité.
  • Les gens que j’ai vus ne sortent pas de leur monde, sauf en ce qui concerne les connaissances, mais pas en matière de culture ni de sociabilité. Ils utilisent internet pour apprendre des choses qu’ils ne connaissent pas ou perfectionner des pratiques, comme le tricot, la cuisine, le jardinage… Mais ce n’est pas une ouverture sur des nouveaux goûts culturels. Il n’y en a pas du tout dans mon public. Les liens partagés servent aussi beaucoup à rappeler le passé, à le célébrer ensemble une nostalgie. Leur fonction consiste plus à évoquer une culture commune et à renforcer le consensus qu’à une ouverture culturelle. Mais ces résultats auraient certainement été très différents si j’avais regardé les pratiques de leurs enfants.
  • « Sur le Bon Coin, chacun garde sa fierté ». Y vendre ou y acheter des produits, même très peu chers – et beaucoup des produits qu’on y échange le sont pour quelques euros -, c’est un moyen de conserver sa fierté, d’affirmer qu’on n’est pas des assistés. Il faut entendre l’omniprésence de la peur du déclassement dans ces populations, limites financièrement.
  • En tout cas, il n’y a plus ce qu’observait Olivier Schwartz, à savoir que les femmes trouvaient leur épanouissement dans la tenue du foyer. Il faut dire que contrairement aux enquêtes qu’il a réalisées dans les familles de mineurs, ces femmes travaillent. C’est sans doute la transformation du marché du travail qui fait bouger les lignes à la maison.
  • Pour autant, ce n’est pas la guerre non plus. On trouve plus d’endroits où on échange des maximes célébrant le couple que le contraire. C’est moins vrai pour les hommes célibataires. Dans les milieux populaires, les hommes sans qualification (comme les femmes trop qualifiées) ont du mal à entrer en couples. D’où l’expression d’un vif ressentiment.
  • Les mères, qui se sont mises au jeu et qui ont compris qu’elles étaient accros à leur tour, ont une meilleure compréhension de ce qu’il se passe quand on ne peut pas s’arrêter. Les disputes sur le temps d’écran sont moins présentes. Reste qu’une grande partie de la vie des enfants échappe au périmètre familial et c’est difficile à vivre pour les parents. Ils ont l’impression parfois de contrôler ce que font leurs enfants en ligne, mais ils se trompent.
  •  
    "Alors qu'il n'y a pas si longtemps, la fracture numérique semblait ne pouvoir se résorber, les usagers les plus modestes semblent finalement avoir adopté les outils numériques très rapidement, à l'image de l'introduction de la photographie au début du XXe siècle dans les sociétés rurales traditionnelles qu'évoquait Pierre Bourdieu dans Un art moyen. L'internet des classes dominantes et urbaines a colonisé la société, rapporte Dominique Pasquier dans son étude où elle s'est intéressée aux employées (majoritairement des femmes) travaillant principalement dans le secteur des services à la personne et vivant dans des zones rurales. En matière de temps, d'utilisation des services en lignes, les usages d'internet des plus modestes ont rejoint les taux d'usages des classes supérieures. Reste à savoir si les usages sont les mêmes du haut au bas de l'échelle sociale. Interview."
Asso Fing

Il est temps de reconnaître l'intégrité numérique des individus - Le Temps - 0 views

  • Aujourd’hui, les individus ont une existence numérique qui ne dépend pas de leur propre volonté. En effet, quelqu’un qui ne s’inscrit pas sur un réseau social a toutes les chances d’être connu de ce réseau social du simple fait que son entourage interagit avec cette plateforme. La compilation et l’analyse des données personnelles sont déjà suffisamment sophistiquées pour réaliser le profil précis d’un individu sans qu’il ait lui-même fourni des données personnelles à l’entreprise concernée. Il suffit par exemple pour cela, lorsqu’on s’inscrit sur un tel site, de donner accès à son répertoire.
  • De même, on commence à voir l’émergence d’une génération d’individus qui ont une existence numérique antérieure à leur naissance. Des parents qui partagent leur échographie sur un réseau social, cela existe. Il suffit aussi d’annoncer la naissance de cet enfant pour qu’il existe déjà numériquement. Bref, que nous le voulions ou non, une partie de notre existence est désormais numérique. C’est pourquoi les données qui nous concernent ne sont pas de simples propriétés, elles font partie de notre individualité, elles nous définissent, disent beaucoup de choses de nous. «Nous» sommes nos données personnelles et ces données personnelles, c’est «nous».
  • Si les êtres humains ont une existence numérique, il y a lieu de considérer que leur intégrité s’étend aussi à cette dimension. Puisqu’il y a une intégrité physique, qui correspond à notre corps, une intégrité psychique qui correspond à notre monde mental, il doit y avoir une intégrité numérique, laquelle se réfère logiquement à la dimension numérique de notre existence.
  • ...2 more annotations...
  • De ce fait, nos données personnelles font partie intégrante de notre intégrité numérique, ce qui revient à dire qu’exploiter nos données porte atteinte à notre intégrité.
  • Aujourd’hui, les Etats et les entreprises invoquent toujours d’excellentes raisons pour porter atteinte à l’intégrité numérique des individus en exploitant leurs données personnelles. Mais bien souvent, le traitement de ces données sert à influencer, de façon opaque, nos comportements, ou à mener des politiques sécuritaires de surveillance massive. La révolution numérique doit profiter à l’humanité, et non pas faciliter son exploitation pour favoriser des intérêts particuliers, dont seule une caste privilégiée en tirera la quasi-totalité des profits.
  •  
    "Reconnaître et protéger notre intégrité numérique constituent un premier pas nécessaire pour que l'humain ne soit pas l'objet de la technologie, écrit le journaliste Grégoire Barbey "
Asso Fing

« On cherche à éveiller la conscience éthique des développeurs et data scient... - 0 views

  • Comment la communauté Data For Good utilise-t-elle les algorithmes ? Qu’est-ce qui vous différencie des grandes entreprises tech ? Avec Data For Good, on veut permettre aux associations, aux projets citoyens et aux institutions d’avoir accès à la data science, qui est utilisée uniquement par les grandes entreprises comme les GAFA et les start-up pour l’instant, car c’est un service qui coûte très cher. Notre communauté bénévole soutient certains projets comme celui de l’association Frateli, qui travaille sur du mentorat. On leur a créé une plateforme de matching, avec des algorithmes, pour matcher en un clic un mentor avec un mentoré, alors qu’avant tout était fait à la main sur un tableur Excel. L’humain garde la décision finale, il peut changer les résultats donnés par l’algorithme, mais cela reste beaucoup plus rapide.
  • Notre but n’est pas de récolter des données, on ne fait pas des algorithmes qui utilisent les données des utilisateurs pour faire de la publicité. De plus, les codes sources produits par Data For Good sont tous en open source, donc si une autre association veut les utiliser, elle peut le faire gratuitement et librement. Les GAFA ouvrent certains de leurs codes sources, mais c’est avant tout pour attirer des développeurs, et ils n’ouvrent que des bribes de leurs codes. Et ils savent très bien que sans les données qu’ils possèdent, ces extraits de codes ne servent à rien.
  • Vous travaillez aussi chez AlgoTransparency, une plateforme qui cherche à décrypter les mécanismes de l’algorithme de YouTube : avez-vous réussi à savoir comment était construit cet algorithme, qui est un secret bien gardé par YouTube ? Sur YouTube, on est enfermé dans une spirale de recommandations qui ne montre pas forcément le meilleur de l’humanité... Sur AlgoTransparency, on a mis en place un robot qui est capable de mesurer quelle vidéo est recommandée, à partir de quelle vidéo. On a donc des données sur ces vidéos, mais comprendre comment fonctionne l’algorithme est très compliqué car celui-ci est très complexe, et il évolue en permanence car il est ré-entraîné tous les jours. Nous, on a décidé d’étudier nos données, en rentrant des mots clés, et de voir ce qu’il en sort.
  • ...4 more annotations...
  • L’algorithme de la plateforme, et YouTube le dit lui-même, c’est de maximiser le temps passé sur la plateforme, le « watch time ». Et quand l’algorithme voit que les gens passent plus de temps sur la plateforme quand ils regardent des vidéos complotistes par exemple, il va plus recommander ce contenu. Il fait juste le boulot pour lequel on l’a programmé.
  • Et dans un second temps, on pourrait créer pour la plateforme un statut hybride, qui serait entre l’hébergeur, qui n’a pas de responsabilité sur le contenu qu’il héberge, et le média, qui a toute la responsabilité sur ce qu’il partage. Pour l’instant, YouTube dit être un hébergeur, car il ne peut pas éditorialiser tout le contenu qui se trouve sur la plateforme. Pourtant, les algorithmes ont un rôle éditorial : quand ils recommandent un million de fois une vidéo à des êtres humains, il y a un choix fait derrière, l’algorithme a privilégié un contenu plutôt qu’un autre.
  • Par contre, là où on peut avoir peur, c’est quand ces algorithmes, notamment de machine learning (c’est-à-dire des algorithmes qui vont apprendre à partir des données qu’on leur a fourni pour prédire des choses), impactent la vie humaine : par exemple, lorsqu’on les utilise dans l’espace public pour faire de la reconnaissance faciale, ou quand les décisions concernant les peines de prison sont prises par des algorithmes. Si on ne sait pas quels sont les critères choisis pour définir les algorithmes, c’est là que ça devient dangereux. Et c’est pour cela qu’on demande l’ouverture de tous les codes sources utilisés dans les administrations (comme la loi Le Maire le recommande).
  • Est-ce que le problème de l’algorithme ne serait pas de décontextualiser les données ? Normalement, c’est aux data scientists de garder en tête le contexte des données qu’ils étudient, et de savoir qu’elles peuvent être biaisées : par exemple, connaître le quartier où habitent les utilisateurs peut être un biais sur leur niveau social. Dans le serment d’Hippocrate de Data For Good, on cherche au mieux à éveiller la conscience éthique des data scientist, en « informant les parties prenantes sur (…) l’utilisation des données », en assurant que « les individus ne soient pas discriminés par rapport à des critères illégaux ou illégitimes », en « respectant la vie privée et la dignité humaine » et en « assumant ses responsabilités en cas de difficulté ou de conflits d’intérêts ».
  •  
    "Et si les développeurs et data scientists prêtaient serment, comme les médecins, pour une utilisation des données plus éthique ? Data For Good, une communauté de data scientists et de développeurs bénévoles au service de projets d'intérêt général, en a fait une de ses missions. Ce « serment d'Hippocrate » des data scientists sera mis en ligne le 26 juin, lors d'un « Demo Day » qui présentera les projets soutenus par Data For Good. Curieux d'en savoir plus, nous avons interrogé Frédéric Bardolle, membre de Data For Good et d'Algotransparency, une plateforme qui décrypte les mécanismes de l'algorithme de YouTube. "
Aurialie Jublin

Le Minitel : réhabiliter un contre-modèle pour penser l'Internet d'aujourd'hu... - 0 views

  • Cette culture industrielle a été rendue possible par « les vertus de la centralisation » (Mailland et Driscoll). En effet, elle a permis la création du Kiosque, la « killer app » du Minitel : un système très simple, mis en place par l’Administration pour simplifier les transactions économiques autour des services Minitel. Kiosque reversait directement 2/3 des profits de connexion aux fournisseurs d’accès, leur évitant des démarches. Les utilisateurs, eux, ne payaient qu’à la fin du mois, en bloc, en même temps que leur facture téléphonique. Cette simplicité d’utilisation a été essentielle, en encourageant les entrepreneurs à se lancer sur le Minitel, et les utilisateurs à se connecter aux services. Cette centralisation a été largement critiquée, car elle fait dépendre le modèle économique et les connexions d’un acteur unique et ici étatique. Mais les chercheurs notent que son efficacité ne fait pas de doute, au plan économique. On retrouve une organisation similaire chez les géants du Web : l’Apple Store, par exemple, fonctionne un peu comme une version privée du Kiosque. Mais ce n’est pas tout : pour Mailland et Driscoll, Minitel offre une version publique des marchés multifaces, mettant en relation des usagers/consommateurs et des fournisseurs de services, en prélevant une rente — modèle devenu le filon des économies de plateforme comme Uber ou Air BnB.
  • Le Minitel a été un « succès domestique », qui a permis à la France de devenir un pays extrêmement connecté, et à toute une population de découvrir des activités en ligne. Il a surtout favorisé l’« émergence d’une pratique collective de la communication numérique qui a généré des systèmes de représentations variés, des formes de discours et de comportements qui apparaissent aujourd’hui comme matriciels ». Ainsi, les forums de discussion, la communication anonyme par écran interposé, l’usage de pseudonymes, l’explosion de la pornographie, les débats sur la liberté d’expression ou la censure qu’on associe souvent aux cultures numériques... ont leur origine dans le Minitel.
  • Les messageries roses en sont l’exemple le plus célèbre (et le plus lucratif) mais les usages du Minitel ne se limitaient pas à l’annuaire et aux messageries coquines. D’autres usages, éclipsés par ce folklore, se sont aussi développés dans ces années-là, préfigurant les usages numériques : achat et vente par correspondance, services bancaires, consultation d’informations (horaires de train, de spectacle — ou autres : sur le service Minitel de Libération, on peut accéder dès 12h aux infos qui seront publiées le lendemain), usages administratifs, enseignement (informations, corrigés, inscriptions...), jeux (black jack, bridges, quizz et même un 3615 PENDU)...
  • ...4 more annotations...
  • Certains s’emparent également du Minitel pour organiser des actions politiques, préfigurant l’usage qui est fait aujourd’hui des outils numériques : en 1986, des étudiants utilisent la messagerie de Libé pour organiser l’opposition à la loi Devaquet. Ils sont imités en 1988 et 89 par des infirmières, puis en 1992 par des syndicalistes du Ministère des Finances.
  • Pour Mailland et Driscoll, la réussite du Minitel permet de repenser l’opposition simpliste entre un système public et centralisé (mal) et un système privé et décentralisé (bien). Ils soulignent que ce sont les investissements stratégiques de l’État qui ont permis l’explosion du réseau — tout comme, aux États-Unis, c’est la décision du gouvernement de privatiser le « backbone » du réseau dans les années 1990 qui a conduit au boom commercial que l’on connaît. « L’intervention d’un état dans un système en ligne ne signifie pas automatiquement une perte de liberté. Au contraire : s’ils sont bien pensés, les fonds publics peuvent encourager la créativité et le développement dans le réseau. ».
  • Les auteurs se demandent alors si « des interventions ciblées du gouvernement ne pourraient pas réintroduire de la compétition et de l’ouverture, dans des champs d’Internet où les intérêts du secteur privé et du public ont cessé depuis longtemps de coïncider. » A l’heure où les appels à la régulation du secteur des GAFA par les Etats ou les instances supra-étatiques se multiplient, le Minitel aurait donc des choses à nous apprendre. « L’histoire du Minitel, et de ses trois décennies de fonctionnement, montre la voie vers un avenir différent, marqué par l’engagement envers l’intérêt public. (...) »
  • C’est cette défense des intérêts publics qui semble peu à peu reculer, selon les auteurs : « A moins d’une intervention stratégique des gouvernements ne préserve les éléments d’ouverture et d’équilibre des pouvoirs public/privé présents dans l’Internet des débuts et qui y ont attiré tant de hackeurs, d’entrepreneurs, d’expérimentateurs et d’explorateurs... l’Internet tel que nous le connaissons depuis les années 1990 ne vivra peut-être même pas trente ans. »
  •  
    "Suite de notre cycle sur les histoires d'Internet : reconsidérer le Minitel. Longtemps considéré comme une impasse française, l'incarnation du grand projet technocratique incapable d'évoluer, le Minitel est de plus en plus réhabilité par les historiens. Pas comme un modèle à suivre, mais comme une innovation radicale en son temps, qui fut pour les Français la première entrée dans les cultures numériques et dont le modèle dépendant des fonds publics peut nous aider à penser autrement l'Internet contemporain."
Aurialie Jublin

Des plateformes en leurs limites | InternetActu.net - 0 views

  • L’ouvrage commence par remettre la réalité des plateformes en perspective… Après le temps des promesses de l’avènement de « l’économie du partage » (voir notre dossier de 2014) voire de « la quatrième révolution industrielle », Srnicek rappelle que nous en sommes bien loin. Le secteur des technologies reste relativement modeste dans l’économie, tant en terme de valeur ajouté que d’emplois. Le secteur industriel, malgré la désindustrialisation, est encore bien plus flamboyant que le monde des nouvelles technologies.
  • Pour Srnicek, le capitalisme s’est tourné vers les données pour assurer la croissance et la vitalité de l’économie, à l’heure où l’industrie ralentissait. En ce sens, les plateformes sont un nouveau modèle d’entreprise, dont la fonction est d’extraire, de contrôler et de rendre productifs les données. Un « mirage compétitif », comme l’évoquaient Maurice Stucke et Ariel Ezrachi dans leur livre, qui tend à devenir de plus en plus monopolistique.
  • Le capitalisme s’est restructuré autour du numérique, réservoir de nouveaux concepts, d’innovations réelles ou à venir, reposant sur l’extraction des données. Les données sont devenues la matière première à extraire et les activités des usagers, leur source naturelle. Elles sont désormais au coeur du système capitaliste : « elles nourrissent les algorithmes et donnent [aux entreprises] des avantages concurrentiels, elles coordonnent la main d’oeuvre et permettent souvent de l’externaliser, elles optimisent et flexibilisent les processus de production, elles transforment des produits peu rentables en services hautement profitables et, après leur analyse, elles donnent accès à toujours plus de données – dans une sorte de cercle vertueux. »
  • ...21 more annotations...
  • La plupart des entreprises capitalistes n’étaient pas conçues pour extraire et utiliser des données, mais pour produire des marchandises. Pour améliorer l’extraction de données, un nouveau type d’entreprise s’est développée : la plateforme. Ce nouveau modèle est un intermédiaire entre différents usagers qui vise via des outils ou une infrastructure dédiée à produire des données à exploiter. Leur seconde caractéristique est de reposer sur des effets de réseaux qui favorisent le nombre et donc produits par nature des formes monopolistiques, très rapidement. Autre caractéristique des plateformes, contrairement aux entreprises allégées qui ne visaient qu’à conserver les compétences essentielles au coeur du projet, les plateformes démultiplient les activités rentables et non rentables pour diversifier les données, comme Google fourbit des services gratuits pour capter un maximum de données. Enfin, elles se présentent souvent comme des espaces ouverts, alors que les services sont entièrement déterminés par leurs propriétaires. Bien que se présentant comme des intermédiaires, les plateformes contrôlent et gouvernent les règles du jeu !
  • Srnicek distingue 5 catégories de plateformes : la plateforme publicitaire (type Google ou Facebook qui consiste à extraire de l’information pour vendre de l’espace publicitaire), la plateforme nuagique (type Amazon Web Services… qui loue de l’équipement à la demande), la plateforme industrielle (comme celles développées par GE ou Siemens… qui visent à transformer la production industrielle en processus produisant des données), la plateforme de produits (comme celles mises en place par Rolls Royce ou Spotify… qui transforment les produits en service sous forme de location ou d’abonnement) et enfin, la plateforme allégée (type Uber ou Airbnb… qui réduisent les actifs au minimum et dégage des profits en baissant au maximum leurs coûts de fonctionnement).
  • Plus qu’un digital labor, concept à l’égard duquel le philosophe semble méfiant, les plateformes publicitaires reposent sur l’appropriation des données et leur raffinage pour assortir annonceurs et usagers. Ce modèle n’est pas seulement prédominant sur internet : Dunnhumby, propriété de Tesco, est une entreprise d’analyse des habitudes de consommation. Ces plateformes publicitaires ont connu un grand succès. Leurs revenus, leurs profits sont élevés.
  • Les plateformes nuagiques permettent aux entreprises de sous-traiter leur développement technologique. Le modèle locatif permet aux entreprises qui développent des services en ligne de collecter de nouvelles données pour renforcer l’extraction. Là encore, les profits et revenus s’envolent.
  • Les plateformes industrielles, comme MindSphere de Siemens ou Predix de GE, sont certainement moins connues. Elles consistent à introduire des capteurs et des puces dans la chaîne de production pour améliorer la traçabilité logistique, afin d’optimiser l’efficacité du processus de production, de développer de la personnalisation dans la chaîne de montage et dans la chaîne de distribution. Ces plateformes construites pour collecter des mégadonnées de filières industrielles spécifiques, sont, elles aussi, particulièrement rentables.
  • Les plateformes de produits et de services en tant que produits reposent pour beaucoup sur le modèle de l’abonnement, à l’image de Spotify ou encore de Rolls Royce, qui, pour ses moteurs d’avion, fait payer les compagnies aériennes pour l’utilisation de ses moteurs plutôt que de les leur vendre. En retour, Rolls Royce prend en charge l’entretien et les pièces de rechange. En récupérant ainsi les données, ces plateformes améliorent leurs produits, à l’image de Rolls Royce qui a pu ainsi améliorer la consommation de carburant de ses moteurs et leur durée de vie, au détriment de ses compétiteurs.
  • Enfin, les plateformes allégées externalisent à maximum leurs coûts. La plateforme contrôle uniquement ce qui lui permet de percevoir une rente de monopole (un pourcentage sur les transactions qu’elle facilite). C’est là clairement le modèle d’Uber ou de Airbnb, de TaskRabbit ou Mechanical Turk. Mais, rappelle Srnicek, ce phénomène n’est pas propre au numérique. Le marché des travailleurs journaliers, des emplois informels, de la sous-traitance… bref du travail traditionnel… est également très proche de ce modèle.
  • Le numérique y ajoute une couche de surveillance. Aux États-Unis, les emplois non conventionnels représenteraient 15 millions de travailleurs soit 10 % de la main d’oeuvre du pays en 2005, et 15,8 % en 2015. Ces emplois non conventionnels ont même dépassé le nombre d’emplois créés entre 2005 et 2015 aux États-Unis (9,4 millions contre 9,1 millions). Reste que l’accélération de la précarisation de l’emploi n’est pas tout entier imputable aux plateformes numériques. On estime que l’économie du partage en ligne représente 1 % de la main-d’oeuvre américaine et que les chauffeurs d’Uber en représenteraient la grande majorité. En fait, ce secteur demeure encore relativement marginal, estime Srnicek. Ces plateformes prolongent la précarisation du travail initié par les entreprises allégées dès les années 70. Srnicek rappelle très justement que ce travail « autonome » demeure largement contraint 
  • Pour Srnicek, ces entreprises qui bénéficient de force investissements, sont un phénomène consécutif à la crise de 2008, mais Uber, Airbnb et Didi Chuxing (le concurrent chinois d’Uber), ont raflé à elles trois en 2015 59 % du financement des entreprises émergentes des services à la demande. Elles ont surtout bénéficié de capitaux excédentaires cherchant des opportunités de rendements élevés dans un contexte de faible taux d’intérêt. Pour Srnicek, la rentabilité des plateformes allégées est encore largement à prouver. Elle repose sur leur capacité à comprimer les coûts et à abaisser les salaires… comme on le constate dans le monde des livreurs à vélo où le prix de la course n’a cessé de s’effondrer.
  • Srnicek en tire un enseignement qui va à l’encontre des discours ambiants sur le modèle des plateformes : « le modèle allégé reste un joueur marginal », qui ne survit que par l’apport de capital-risque plutôt qu’en générant ses propres revenus. « Loin d’incarner l’avenir du travail ou de l’économie, il est fort probable que ces modèles finissent par s’écrouler dans les années à venir ».
  • Reste souligne Srnicek, que « nous n’assistons pas à la fin de la propriété, mais bien à sa concentration ». Les plateformes en imposant leur monopole sur l’extraction des données sont en passe de devenir « propriétaires de l’infrastructure même de la société ».
  • Le problème est que les monopoles qu’elles construisent sont donc de plus en plus importants. Qui pourrait aujourd’hui venir défaire le monopole d’un Google par exemple ? Pour autant, cela ne signifie pas que la concurrence est morte, souligne Srnicek, mais qu’elle a changé de forme. Pour lui, nous serions plutôt dans un colonialisme de plateforme, un moment où la capitalisation sur la quantité et la diversité des données importent plus que leur qualité.
  • Outre l’extraction de données, l’autre travail des plateformes repose sur leur capacité d’analyse et de traitement qui participe lui aussi à la concentration. D’où les investissements massifs dans l’intelligence artificielle : « le moindre goulot d’étranglement dans la circulation de données (…) contribue à entraver la production de valeur ». Pour Srnicek, l’expansionnisme des plateformes repose sur un modèle de convergence, tant et si bien que malgré leurs différences, les grandes plateformes se concurrencent de plus en plus entre elles.
  • Pour Srnicek, cette tendance devrait à terme se cristalliser dans des écosystèmes de plus en plus clos : « la concurrence capitaliste risque fort bien de mener à une fragmentation d’internet » que seule une intervention politique pourrait ralentir ou renverser.
  • Encore faudrait-il être sûr que la concurrence soit encore une caractéristique du capitalisme tel qu’il s’est transformé ces dernières années… C’est peut-être oublier combien celui-ci est en train de muter. Les comportements assez similaires des grandes plateformes, leurs ententes et collusions, montrent que si elles se font effectivement une petite guerre entre elles, leurs principes semblent imposer une vision du monde sans grande concurrence. Le retour des monopoles, le fait que d’énormes conglomérats dominent les marchés, souligne que nous ne sommes peut-être plus dans un capitalisme où la concurrence était un préalable. Peut-être que l’analyse de Srnicek n’est peut-être pas assez radicale ?
  • La conclusion de Srnicek est limpide. Le numérique ne nous conduit pas du tout à dépasser le capitalisme. Nous restons dans une économie où règne la concurrence et la rentabilité. Pour lui cependant, le modèle des plateformes fait face à un défi d’importance qui risque d’éprouver leurs limites : la crise de la production industrielle. Depuis 2008, la croissance est en berne. La Chine elle-même connaît une surcapacité industrielle, qui entraîne une baisse des prix… L’internet industriel est vu comme un espoir pour inverser la situation et ajuster la production à la demande. Or, souligne Srnicek, l’internet industriel lui-même ne semble pas capable de transformer le mode de production en profondeur : il se cantonne plutôt à réduire les coûts et le temps de production, plutôt que d’améliorer la productivité ou de développer de nouveaux marchés. L’internet industriel vise plutôt à agir sur la baisse des prix, et ce alors que l’austérité tend à diminuer la demande et à faire chuter la productivité. Quant au capital, explique-t-il, il cherche un peu partout les moindres opportunités, mais sans qu’elles soient raccord avec les difficultés actuelles.
  • Pour Srnicek, le scénario le plus probable est que les plateformes se propagent dans tous les secteurs, alors que la concurrence les entraîne à se refermer sur elles-mêmes. Les plateformes publicitaires pourraient être poussées à offrir des services payants, alors que les plateformes allégées pourraient être amenées à se transformer en plateformes de produits. « En dernière analyse, il semble que le capitalisme de plateforme tende inéluctablement à prendre la forme d’un échange d’une rente contre un service ». C’est-à-dire à construire des rentes par ceux qui souhaitaient les défaire…
  • La grande promesse de libération des plateformes, de fluidification de l’économie, se termine sous la forme de simples droits de péages (le fameux 30 % de marge qu’elles pratiquent toutes peu ou prou) pour accéder aux services, selon le modèle de bien des entreprises traditionnelles qu’elles prétendaient détrôner.
  • Dans une conclusion certainement trop rapide, Nick Srnicek, rappelle que les enjeux à venir consistent à s’opposer aux monopoles, à développer d’autres types de plateformes qui bénéficient à ceux qui les utilisent, à l’image du coopérativisme de plateforme, à lutter contre l’ubérisation, c’est-à-dire contre la précarisation, qu’induisent les plateformes allégées, à lutter contre l’évasion fiscale et l’exploitation des données… Pour lui, pour agir sur ce qui a permis le développement des plateformes, il est nécessaire de construire des plateformes publiques, de collectiviser les plateformes existantes pour mettre leurs données au service d’une meilleure redistribution des ressources, d’une plus grande participation… D’imaginer une autre innovation ne reposant plus sur l’optimisation capitalistique. Dommage que cette dernière partie ne dépasse pas l’appel d’intention.
  • Pour Erik Brynjolfsson et Andrew McAfee, dans Des machines, des plateformes et des foules (2018), la plateforme était encore définie comme une solution magique, puissante, sans réelle externalité (« la plateforme est un environnement numérique qui se caractérise par un coût marginal d’accès, de reproduction et de distribution proche de zéro »). La catégorisation de Srnicek apporte donc un peu de complexité et de mise en perspective et permet de relativiser l’enthousiasme et la fascination pour les plateformes, longtemps vues comme des infrastructures qui mettent en correspondance l’offre et la demande.
  • La plateforme était surtout un instrument pour industrialiser la création de valeurs et accélérer les rendements d’échelle nécessaires à l’établissement d’une position dominante sur les marchés, via un ensemble de mécanismes allant du crowdsourcing à l’appariement, en passant par des technologies comme les API et toutes les capacités offertes aux développeurs tiers. Reste que ces mécanismes et ces technologies ne sont plus magiques.
  •  
    "En attendant leurs nouvelles publications, intéressons-nous au précédent livre de Nick Srnicek Plaform Capitalism (2016), qui vient d'être traduit en français sous le titre Capitalisme de plateforme (Lux éditeur, 2018). Il est certainement moins ambitieux sur le plan politique que son manifeste, mais très stimulant pour comprendre les transformations concrètes de l'économie numérique. Ce court essai d'analyse de la réalité économique des plateformes nous aide à en saisir leur impact en les situant dans leur réalité économique."
Aurialie Jublin

De l'utilité des fake news et autres rumeurs - 0 views

  • Or aujourd’hui que constate-t-on ? Que la presse est de moins en moins lue. Qu’il y a une défiance vis-à-vis du discours journalistique. Que le mode de circulation de l’information dans les réseaux sociaux relève de l’oral plus que de l’écrit (dans les réseaux, c’est moins une vaste correspondance à laquelle on assiste, qu’une vaste conversation).  Et que ces mêmes réseaux sociaux sont une invitation pour tous à commenter, avec une diffusion plus large néanmoins. On est donc dans une situation qui est à la fois nouvelle, et pas tant que ça. 
  • Cette prolifération de rumeurs sous la Restauration était aussi, d’une certaine manière, un bon signe. C’était, dans une période pleine d’incertitudes, le signe d’une politisation, d’une envie de parler de la chose publique, le signe paradoxal d’une poussée démocratique (c’est d’ailleurs pour ça que le pouvoir s’en inquiétait autant). Encore une fois il y a des échos avec ce qu’on vit aujourd’hui.
  • Rassurez-vous, je ne vais pas dire que les fake news, c’est super, je ne vais pas me livrer non plus à un éloge de la surveillance d’Etat. En revanche, le pouvoir de l’époque avait peut-être compris une chose qu’on a un peu oubliée : il y a à apprendre des fausses nouvelles. Parfois mieux que les faits eux-mêmes, les fake news disent les angoisses, les espoirs et les obsessions. Ce à quoi on croit – ou fait semblant de croire – est aussi intéressant que ce qu’on sait. Donc, les fake news ont une utilité, c’est là où je voulais en venir. 
  •  
    "L'historien François Ploux y raconte la prolifération des bruits et des rumeurs pendant cette période qui s'étale entre 1815 et 1830. Au point que la préfecture de police de Paris avait créé un vaste réseau d'informateurs qui passaient leur temps dans les lieux de discussions - les salons, les cafés, la Halle, les Tuileries etc. - et envoyaient chaque jour au préfet des rapports très détaillés. Tout était consigné, de la rumeur la plus absurde à la médisance en passant par le commentaire politique. Ce qui intéressait la police n'était pas de savoir qui disait quoi, mais d'essayer de saisir l'état de l'opinion. Le pouvoir de l'époque avait compris que l'opinion se fabrique partout (dans la rue et dans les dîners en ville), qu'il se fabrique avec de tout - du vrai, du faux, de l'analyse et du fantasme -, que tout est important et mérite d'être observé. "
Aurialie Jublin

Interview des auteurs du livre : "Blockchain - vers de nouvelles chaînes de v... - 0 views

  • Une monnaie, qu’elle qu’en soit la forme, remplit une fonction d’utilité : principalement celle d’être un moyen d’échange facilitant les transactions. Le point commun entre les pièces d’argile, les pièces métalliques, les monnaies fiduciaire et scripturale est donc de remplir cette fonction de média d’échange. L’utilisation d’un média d’échange dans le cadre d’une transaction permet de réduire les coûts associés à celle-ci.
  • Le troc est facilement imaginable, notamment au sein de petites communautés, mais est extrêmement coûteux puisqu’il nécessite « une coïncidence des volontés ». Il faut qu’à un instant t, deux personnes aient besoin du bien proposé par l’autre mais surtout que chacun estime que la transaction est équitable. L’utilisation d’une monnaie supprime ce problème : je peux vendre un bien, conserver la monnaie en « réserve de valeur » avant de racheter un autre bien lorsque l’envie m’en prendra. Plus largement, une monnaie remplit donc classiquement trois fonctions économiques : medium d’échange, réserve de valeur (possibilité de transférer des valeurs dans le temps) et unité de compte (métrique / libellé de référence pour des acteurs).
  • Vous dites aussi qu’une autre caractéristique de la monnaie est qu’elle n’a peu ou pas de valeur intrinsèque.En effet. La valeur qu’on lui accorde dépasse de loin sa valeur fondamentale. Nul doute que le poids du métal d’une pièce de deux euros valle bien moins que deux euros. La valeur d’une monnaie repose sur la confiance, la croyance collective que lui apporte un groupe d’individus, le symbole. Nous aimons beaucoup les thèses de Yuval Noah Harari sur la construction collective des mythes et des croyances ; selon nous, une monnaie en est une. La monnaie est «l’avatar le plus représentatif de la capacité des hommes à créer des mondes intersubjectifs ». Ce constat est d’autant plus fort depuis que la fin de la convertibilité or du dollar a été actée en 1971.
  • ...7 more annotations...
  • Nous démontrons que les média d’échange ont toujours évolué dans l’histoire économique, prise dans le temps long. A ce titre, Bitcoin ne mérite pas de statut plus négatif que le billet de banque lors de son invention. Cette évolution historique n’est certes pas linéaire, et prudence doit être de mise pour ne pas tomber ni dans l’anachronisme ni dans un évolutionnisme mal placé. On peut toutefois identifier de grands changements associés au progrès technique : à chaque révolution industrielle son support. L’apprentissage de la manipulation des métaux a permis la création des pièces métalliques, l’invention de l’imprimerie a ouvert la voie à la création des billets et de la monnaie fiduciaire, la création de la comptabilité en partie double au XVe siècle a rendu possible la compensation de compte à compte sans déplacement physique de moyens d’échange. Il n’y a donc rien d’aberrant ou de surprenant à voir émerger de nouvelles formes d’échanges et de monnaies, comme le bitcoin, au gré des évolutions technologiques et sociétales. En cela, Bitcoin et la blockchain constituent une étape supplémentaire dans l’évolution de l’histoire monétaire et des transactions.
  • Pourtant, aujourd’hui, le bitcoin est rarement utilisé comme une monnaie.C’est vrai. Certes Bitcoin s’inscrit dans la continuité de l’histoire monétaire, repose sur un nouveau consensus, une nouvelle construction collective ; comme c’est le cas pour le dollar depuis des dizaines d’années. Cependant, nous pensons qu’à date Bitcoin remplit imparfaitement les fonctions monétaires, de médium d’échange, de réserve de valeur et dans une moindre mesure d’unité de compte. Imparfaitement puisque la volatilité reste trop importante et l’acceptation trop limitée pour prétendre au même statut que le dollar ou l’euro.
  • Avec le Bitcoin, c’est la première fois dans l’Histoire que l’évolution des médias d’échange se traduit par une décentralisation absolue, ou presque. Rappelons pour les novices que le protocole Bitcoin — et d’autres — permettent de transférer des valeurs en pair-à-pair, c’est-à-dire sans l’intervention de tiers centralisé, donc complètement à côté du système monétaire, financier et bancaire actuel. Bitcoin s’est donc construit selon une gouvernance diamétralement opposée au système monétaire actuel, sans lien aux Etats ou aux banques centrales ; mais aussi sans entreprise.
  • Le paradoxe en question réside dans le fait que se libérer d’un pouvoir ou d’une autorité donné ne signifie pas pour autant échapper à toute forme de contrôle. Ainsi, Bitcoin et d’autres protocoles parviennent à trouver des moyens d’échapper aussi bien au contrôle des États de manière générale, qu’à celui de la banque centrale pour ce qui concerne l’application monétaire de cette technologie. Mieux encore, elle abolit l’idée même d’autorité entre agents, ce qui constitue la condition sine qua non de l’accomplissement de la liberté dans l’optique crypto-anarchiste où fut élaborée cette technologie.
  • C’est précisément parce que tout est traçable et transparent au sein de la chaîne, que se crée une double situation dont on peut douter qu’elle soit propice à une liberté authentique. D’une part, par la sécurisation de l’information, chacun devient aliéné à son passé transactionnel, la blockchain enchaînant au sens propre l’utilisateur — fût-il anonyme — aux opérations qu’il accompli. D’autre part, au sein du système disparaissent les notions de secret et d’opacité, qui semblent constituer des fondements tout aussi décisifs d’une liberté concrète comme la volonté de ne pas être soumis à une surveillance continue.
  • Il ne faut pas confondre la dissimulation, qui est une négation — je ne suis pas identifiable — et la liberté, qui est une affirmation — je suis maître de ma volonté et de mes actes de telle sorte qu’ils me soient imputables. Or, à moins de disposer d’une définition extrêmement pauvre de la liberté — ne pas être identifié –, il semble impossible de déduire d’un anonymat la preuve d’une liberté effective ; par ailleurs, le propre de la blockchain consiste justement à rendre impossible (ou du moins difficile) l’attribution de transactions à l’identité réelle d’un individu donné. La condition même par laquelle l’individu échappe au contrôle devient la raison pour laquelle sa liberté perd son sens puisque que rien ne peut lui être imputé et que rien ne s’apparente de près ou de loin à une maîtrise responsable de sa volonté et de ses actes.
  • Enfin, la soustraction à l’endroit d’une certaine forme de contrôle (autorité, État, banques) ne garantit en rien d’éviter l’activation d’une autre forme de contrôle, plus contraignante encore puisqu’accomplie au nom de la sacro-sainte transparence mais supposant un contrôle autrement plus poussé et aliénant que le contrôle traditionnel de la puissance publique.
Aurialie Jublin

L'ouverture des données publiques : un bien commun en devenir ? - 0 views

  • La mise à disposition des données publiques : une logique du don Les traitements préalables à la mise à disposition des données : un investissement de la collectivité Conditions et limites à l’ouverture des données publiques comme bien commun Les licences comme garantie de préservation de la ressource commune Les flux de données comme ressource collective Commun et ré-utilisateurs des open data : un point d’achoppement Le rôle des ré-utilisateurs dans la gouvernance des données Communs urbains et open data : le cas de Bologne
  •  
    "Cet article interroge les données ouvertes en tant que bien commun. Le traitement préalable effectué sur les données à mettre à disposition permet de créer une ressource partagée et, à première vue, possède le potentiel pour être un bien commun. L'article relève plusieurs points d'achoppement qui nuancent cette affirmation. Le premier argument provient des licences qui n'exigent pas du fournisseur de données en temps réel une continuité du service. Le deuxième argument pointe le rôle du ré-utilisateur de la donnée qui ne participe pas à la gouvernance de la donnée. Enfin, le dernier argument souligne le fait que les collectivités impliquées dans les communs urbains ne présentent pas l'open data comme tel. Nos justifications sont le fruit d'analyses de portails de villes et d'entretiens menés auprès de ré-utilisateurs de données ouvertes."
Aurialie Jublin

Réseaux sociaux : « Les utilisateurs sont conscients de leur dépendance aux a... - 0 views

  • Il y a eu une chute des audiences de Facebook depuis les révélations sur son implication dans la diffusion de « fake news » lors des dernières élections présidentielles américaines et l’affaire Cambridge Analytica. Les géants du numérique sont aujourd’hui globalement dans une tentative de reconquête, en affirmant qu’ils agiront de manière plus responsable, plus régulée.Mais leur objectif est aussi d’obtenir de nouvelles métriques pour affiner encore l’extraction intentionnelle des informations sur leurs utilisateurs. C’est sur ces méthodes d’exploitation que repose leur modèle : susciter l’attention, définir notre profil de données pour vendre ensuite de la publicité.
  • Comment changer les choses, plus globalement ?H. G. : Je pense qu’il faut porter cette question de l’attention sur le plan politique, en réglementant davantage. Nous appelons aussi, avec la Fondation Internet nouvelle génération (Fing), à nommer dans les entreprises du numérique, des médiateurs chargés des questions attentionnelles, pour qu’elles soient enfin prises au sérieux.
  •  
    "Facebook a annoncé début août la mise en place en cours d'un outil permettant de mieux maîtriser le temps passé sur le réseau social. Google et Apple avaient déjà lancé ce genre d'option. Analyse d'Hubert Guillaud, spécialiste des questions d'attention sur les réseaux et responsable de la veille à la Fondation Internet nouvelle génération (Fing)."
1 - 20 of 75 Next › Last »
Showing 20 items per page