Skip to main content

Home/ QN2019/ Group items matching "conception" in title, tags, annotations or url

Group items matching
in title, tags, annotations or url

Sort By: Relevance | Date Filter: All | Bookmarks | Topics Simple Middle
Aurialie Jublin

Le Bitcoin va-t-il détruire la planète ? Contre point - LinuxFr.org - 0 views

  • « Si le Bitcoin consomme autant d’électricité que le Maroc, c’est une catastrophe, non ? » Actuellement le Bitcoin consommerait autant d’électricité que le Maroc. En fait, si on ne peut pas parler de catastrophe écologique c’est tout simplement parce que ce mot est plutôt employé pour une pollution flagrante (genre marée noire ou autre pollution chimique). Mais le fait est que le bitcoin consomme tous les jours et tous les jours un peu plus, la facture énergétique s’allonge et s'accroît ; c’est comme fumer : ça détruit un peu tous les jours les poumons et on ne parle de catastrophe que lorsque le cancer est là. Le Bitcoin seul ne crée pas le réchauffement climatique, mais il fait partie des nombreux systèmes qui tendent à l’aggraver. Donc : Si le Bitcoin consomme autant d’électricité que le Maroc, ce n’est pas une catastrophe mais ça n’est clairement pas bon du tout. Pour simplifier je vais diviser les erreurs de raisonnement en quatre parties : La fausse simplification consommation continue et gaspillée n’équivaut pas à pollution On ne compare que ce qui est comparable Oui, l’énergie du Bitcoin est gaspillée Les 2 phases d’optimisation en ingénierie
  • « …parfois l’électricité est là et inutilisée. C’est le cas des panneaux solaires, des barrages hydro-électriques ou des centrales nucléaires qui produisent de l’électricité, quoi qu’il arrive. On ne peut pas faire ON/OFF. Et l’électricité est pour le moment difficilement transportable. » 2 divisions par 0 et un verre de vin : Une plutôt évidente : “les panneaux solaires qui produisent de l’électricité quoi qu’il arrive” … sauf quand il fait nuit, quand la météo n’est pas clémente ou quand ils sont sales. L’autre division par 0 : “l’électricité est pour le moment difficilement transportable”. Difficilement par rapport à quoi ? Car en fait c’est sûrement la source d’énergie la plus transportable qui soit. D’ailleurs les pays européens sont interconnectés entre eux et s’échangent de l’électricité (bien plus rapidement qu’une transaction Bitcoin
  • Et même s’il est possible actuellement de perdre de l’énergie verte (en 2017 la Californie a perdu 300 000 MW faute d’utilisation). Cela démontre juste l’immaturité des réseaux électriques intelligents (smart grid).
  • ...6 more annotations...
  • “Les comparaisons que j’ai vues sont toutes plus absurdes les unes que les autres”, celle-ci en est un parfait exemple. Reprenons: qu’est ce que Bitcoin : Un système d’échange de valeurs. Ok, donc utiliser Bitcoin c’est comme payer avec sa carte bleue : le système a le même but. Donc ici, on essaye de nous faire avaler que 30 millions de personnes qui ne font que payer régulièrement avec leur carte bleue c’est pareil que 33 millions qui, en plus eux aussi, d’utiliser une carte bleue de temps en temps, se déplacent, s’éclairent, utilisent leurs ordinateurs, leurs machines, rechargent leurs téléphones, ont une climatisation, font fonctionner leurs entreprises … etc, bref 33 millions de personnes qui vivent. Non ce n’est pas du tout comparable : le fait que 30 millions d’utilisateurs de Bitcoin consomment autant que 33 millions de marocains démontre l’inefficacité énergétique extrême du Bitcoin.
  • « Surprise, le Bitcoin consomme à peine plus que la production des pièces de monnaies et des billets de banque ! Or, rappelons que les pièces et billets ne représentent que 8% de la masse monétaire totale et plus spécifiquement 6,2% pour la zone euro. » Effectivement je suis surpris ! Car je n’ai pas du tout les mêmes chiffres pour la production de monnaie. Mais j’ai l’impression que Ploum a intégré l’extraction de l’or dans le coût de production de monnaie ce qui est faux depuis de nombreuses années (j’y reviens juste après) Pour le coût de la monnaie fiduciaire je vais citer Emmanuelle Assouan, de la Banque de France :« le coût de fabrication d'un billet se situe entre 5 et 10 centimes d'euro. Une validation d'une transaction bitcoin c'est 215 kilowatts-heure… » 6.6. « Or, outre la consommation énergétique, l’extraction de l’or est extrêmement contaminante (notamment en termes de métaux lourds comme le mercure). » Donc l’excuse c’est “lui il pollue plus que moi, donc je peux polluer aussi”. C’est la défense Chewbacca !
  • 6.10. « Sans compter que nous n’en sommes qu’au début ! Bitcoin a le potentiel pour devenir une véritable plateforme décentralisée qui pourrait remplacer complètement le web tel que nous le connaissons et modifier nos interactions sociales et politiques : votes, communications, échanges sans possibilité de contrôle d’une autorité centralisée. » L’inefficience de Bitcoin a une conséquence lourde en plus de polluer : il ne scale pas (c’est à dire : très mauvaise montée en échelle). Il plafonne à 7 transactions par seconde, ce qui à l’échelle de la planète : 7 milliards d’utilisateurs potentiels, est vraiment … minable (presque sans mauvais jeux de mot). Pour comparer : VISA effectue en moyenne plus de 1600 transactions par seconde et des pics bien plus importants sont absorbés sans problème. Donc, non, sans résoudre le problème d’efficience, Bitcoin ne peut pas faire plus que ce qu’il fait aujourd’hui, c’est à dire finalement ne servir qu’à très peu d’utilisateurs.
  • Ploum ne parle que de la “Proof Of Work” comme concept de sécurisation. C’est pourtant une partie du système particulièrement inélégante qui devrait être remplacée par quelque chose de moins énergivore. Ethereum veut passer à la “Proof Of Stake” (preuve d’enjeux, moins énergivore) par exemple. Gridcoin remplace la “Proof Of Work” par des calculs utiles à l’humanité Duniter applique un handicap aux utilisateurs ayant trop de puissance de calcul ce qui évite la course à la puissance polluante. Bref, la consommation énergétique outrancière de Bitcoin n’est pas une fatalité pour les crypto monnaies.
  • Une image plus juste : le Bitcoin est actuellement comme un tracteur auquel on ajouterait des chariots, plus on lui ajoute de chariots, plus il crache de la fumée noire en faisant un boucan d'enfer et plus sa vitesse diminue … même si sa vitesse n’atteint jamais 0 km/h. A partir d’un certain nombre de chariots sa vitesse est tellement basse qu’il en devient inutilisable. Ici les chariots sont les utilisateurs et la vitesse représente les frais et la rapidité/lenteur des transactions. Ploum voudrait nous dire que ce tracteur rejette une fumée noire qui est une merveille d’écologie et que ce tracteur peut prendre l’autoroute sans rien y changer. Mais que c’est l’autoroute et notre perception de la vitesse qu’il faudrait adapter au système …
  • Je vous prie de croire que je n’ai aucune raison particulière de défendre les banques ou les états. Un système d’échange décentralisé est une bonne chose, mais pour moi laisser une planète dans le meilleur état possible à mes enfants est bien plus important.
  •  
    "Cet article est une réponse à celui de Ploum visible ici et ici. D'ordinaire j'aime bien les articles de Ploum, sa plume est plaisante et son analyse me paraît souvent juste; mais dans son article sur la consommation énergétique du Bitcoin, Ploum use de contre-vérités, de raccourcis et de métaphores inadaptées pour arriver à ses fins. Je vais m'attacher à démontrer qu'avec un minimum de connaissances des problèmes d'un réseau électrique, de la consommation d'énergie et de rendement il est impossible de considérer ce gaspillage d'énergie comme négligeable. Je reviendrai sur le pourquoi il est urgent d'être efficient dans tous les domaines. C'est-à-dire qu'il ne suffit pas "d'utiliser de l'énergie verte puis c'est tout", une telle affirmation relève d'une ignorance des problèmes liés à la transition énergétique."
Aurialie Jublin

Can Worker Co-ops Make the Tech Sector More Equitable? | The Nation - 0 views

  • Fed up with this heartless model, some tech activists are developing online workplaces that operate as worker-driven communities. Daemo, a pilot program incubated at Stanford University’s Crowd Research Collective, is one such worker-driven crowd-labor platform. Since 2015, Daemo’s developers have been building on MTurk’s interface with a communications system aimed at allowing for more equitable “matching” between work requesters and digital taskers. As a non-hierarchical, nonprofit framework where workers control the operations, Daemo is designed for fairer working conditions, with a minimum wage of $10 an hour, which is a major improvement on MTurk’s precarious labor-outsourcing system.
  • Some former participants in Daemo’s project recently aired sharp criticism of the platform in response to a largely favorable article in Wired. In a collectively authored article on Medium, they argued that, in their practical experience with the platform, decision-making power rests with a “platform team” of researchers and leading developers. Though Daemo has established a Constitution that theoretically is open to amendments and revision based on workers’ input, critics say the day-to-day management remains tightly controlled by researchers.
  • “Whenever they talk about the decentralization, they talk about technical decentralization, like block-chain or decentralized platforms, but most of the time they overlook the governance level, which is more important,” Hashim says. “So it’s about who takes the positions, it’s about who has the right to access information. If you don’t have a well-informed society, you don’t have democracy.”
  • ...4 more annotations...
  • Kristy Milland, an activist with the MTurk advocacy network We Are Dynamo, says she’s given up collaborating with Daemo because “There hasn’t been any deep, involved worker input…. It’s built by academics with the bias they bring to such a platform that they expect will provide them with free data to publish down the road. Just like Amazon built MTurk with their needs in mind, even if many of the roadblocks this caused may have been unintentional.”
  • The “platform cooperativism” concept, as articulated by technologist Trebor Scholz and other academics, is that worker control can be integrated by working with the democratic aspects of the online sphere: entrepreneurial horizontalism and a pluralistic culture of innovation. But with online workspaces proliferating at breakneck speed, it’s a race to see whether these more principled worker-led models will ever be able to compete for market share with the app-based workforce of MTurk. Similarly, small-scale cab-service cooperatives are emerging in the United States, but Uber and Lyft’s mega brands are displacing cabbies by the minute.
  • The problem with crowd labor isn’t that it’s big, or complex; it’s that workers can’t control their means of technological production. According to Joshua Danielson of the Bay Area start-up cooperative Loconomics, Daemo’s model “has the potential to provide an alternative to Amazon Turk,” if the platform combines a good product and good jobs for the producers. The key, he says via e-mail, is “creating a cooperative business model that can be self-sufficient and be able to attract clients. The latter is the more challenging one given the deep pockets of the current players. That said, it’s important to remember that workers are the product, not the platform, and they hold an immense amount of power if they can organize.”
  • The digital frontier offers endless room both for exploitation and for social transformation. But if workers can get ahead of corporations in harnessing the potential of open-source technology, they can disrupt the incumbent Silicon Valley oligarchs from below. So far, technology hasn’t emancipated labor nearly as rapidly as it has liberalized markets. Cooperative thinking can make technological power part of the solution, but only if it’s matched with people power.
  •  
    "The crowdwork sector is dominated by low-paid gigs-can communally run companies make these jobs sustainable?"
Aurialie Jublin

« Il existe deux Internets : celui des « précurseurs » et celui des classes populaires » - Digital Society Forum - 0 views

  • Ce qui est frappant, c’est que les milieux populaires participent très peu en ligne. Sur Internet, la prise de parole est très fortement associée au niveau de diplôme. Des enquêtes comme celle menée par Trevor Pinch et Filip Kesler montre ainsi que la plupart des top reviewers d’Amazon sont des hommes, très diplômés… Aujourd’hui la vraie fracture est ici, au niveau de la participation et de la production en ligne. C’est comme si maintenant tout le monde avait Internet, mais que certains s’en servaient pour faire des choses que les autres n’osent pas faire. J
  • Il existe ainsi deux Internets : celui des gens qui innovent, produisent, sont créatifs etc. et l’Internet des classes populaires, qui est un Internet à bas bruit, où l’on communique avec les gens de sa famille et qui est très présent dans la vie, très central – mais qui n’est pas le même que l’autre. Et il n’y a pas d’échanges entre l’internet « précurseur » et l’internet à bas bruit, qui est très très important pour ceux qui l’ont, mais n’est pas ouvert sur autre chose.
  • Le hasard heureux, la « sérendipité » en ligne… arrivent plutôt à des gens qui sont très, très diplômés. Ceux que j’ai étudié ne font que recopier ce que les autres ont déjà dit ! Ils communiquent beaucoup avec des images, des textes écrits par d’autres… Cela s’explique relativement bien : beaucoup de ces personnes ne sont pas allés longtemps à l’école. Même si Internet permet d’écrire avec des fautes, elles préfèrent passer par des images et des phrases déjà conçues.
  • ...6 more annotations...
  • Je m’attendais à voir des gens qui n’arrivaient pas à trouver ce qu’ils cherchaient, or ce n’était pas du tout le cas. Ils utilisaient tout le temps Internet pour faire des recherches et pour apprendre. Ils cherchent souvent des savoirs très spécialisés, pratiques : apprendre à jongler, danser telle danse, construire sa maison… Internet fonctionne alors comme une deuxième école, où acquérir des savoirs non certifiés par le système scolaire. Et ça représente des enjeux très forts pour de petites mobilités sociales, pour des gens qui ne sont pas allés à l’école. Je pense par exemple à cet homme qui va très tôt sur le marché de Caen acheter des sacs Chanel, qui a appris en ligne à estimer leur valeur, à rédiger des notices sur son compte Ebay, et qui correspond désormais avec un client anglais et un japonais : il ne parle aucune de ces langues mais il utilise Google Traduction. Ou encore à ce pâtissier qui confectionne des « wedding cakes » et des recettes inspirées par des chefs américains ou japonais dans un tout petit village…
  • En quoi peut-on parler de « petites mobilités sociales » ? Avec Internet, ces gens peuvent, sans changer nécessairement de métier, changer leur manière d’être au monde. Maintenant on peut très facilement récupérer des informations qui étaient auparavant complètement inaccessibles, faute d’interlocuteurs, de ressources... Des femmes employées dans des maisons de retraite, dans des positions très subalternes, des agents de service par exemple, me racontaient qu’elles rentraient chez elles le soir et cherchaient des mots employés par les médecins dans la journée. Le lendemain, elles avaient repris un peu de « pouvoir », comme diraient les gens qui travaillent avec le concept d’empowerment. Il y a indéniablement une ouverture sur des zones de connaissance et de façon d’être moins, à défaut d’un autre mot, démunie — Internet ouvre des façons d’être au monde en n’étant pas subalterne du côté du savoir.
  • Facebook propose un même dispositif à tout le monde, mais si vous êtes cadre supérieur vous y mettrez tous vos contacts professionnels et si vous êtes manœuvre en usine, vous posterez des clips de Johnny, des bandes annonces de Sophie Marceau et des nouvelles de la famille. Ces outils sont des dispositifs plastiques, dont les gens peuvent s’emparer de manière très différente.
  • Le mail n’est pas aimé. C’est de l’écrit, qui n’est pas censé être complètement phonétique (contrairement à Facebook), c’est asynchrone… Le mail est assimilé à une non-relation. Il n’est pas utilisé pour la correspondance personnelle mais les achats et les contacts avec l’administration. J’ai ainsi rencontré des gens qui ont 500 mails non ouverts… Ceci pose un problème majeur dans la communication avec Pôle Emploi, la CAF : tout ceci fonctionne largement par mail, or ces mails sont perdus dans un océan de pub venant des sites d’achats.
  • Personne ne m’en a parlé. Lors des entretiens, les aspects néfastes d’Internet apparaissaient sous l’angle de la perte de la communication en face à face, des problèmes de l’anonymat… Mais pas de la collecte de données. Est-ce que ça veut dire que c’est une inquiétude qui n’a pas traversé cette zone sociale ? C’est possible. Il faudrait peut-être des campagnes d’information auprès des milieux populaires. Car c’est une question qui n’est jamais sortie en entretien. Comme s’il n’y avait pas les mêmes problèmes publics dans tous les milieux sociaux.
  • L’échec du contact dématérialisé avec les services sociaux est majeur – tout comme l’est le succès des applications bancaires. Ce qui montre bien que cet échec n’est pas lié à une méfiance de la dématérialisation. J’ai rencontré une femme qui consulte son appli bancaire avant de faire chaque course. On voit bien que ces dispositifs sont entrés dans les habitudes, parce qu’ils rendent un service énorme, qu’ils sont désangoissants : on sait quand arrivent les virements, les prélèvements, on sait exactement ce qui reste… Mais ce n’est pas utilisé de la même manière dans les classes supérieures, qui ne s’en servent pas comme d’un fil continu.
  •  
    "Sociologue, Dominique Pasquier a mené une recherche de plusieurs années sur les usages numériques des familles modestes. Avec des entretiens qualitatifs et l'examen de comptes Facebook, elle a dessiné une cartographie, sensible et précise, des usages des Français des « classes populaires ». Elle décrit un « autre Internet », bien différent de celui des classes supérieures, mais qu'elle refuse de décrire comme plus pauvre."
Aurialie Jublin

La directive Copyright n'est pas une défaite pour l'Internet Libre et Ouvert ! | La Quadrature du Net - 0 views

  • Trop souvent, nous avons concentré nos énergies sur des combats législatifs, hypnotisés par l’idée que le décompte des voix conduirait à une sorte « d’ordalie démocratique ». Cela nous a donné plusieurs fois l’illusion d’avoir remporté quelque chose, comme au moment du rejet de l’ACTA, alors que les racines du problème restaient intactes. Mais heureusement en sens inverse, si la victoire n’est jamais acquise en cas de succès législatif, il en est de même pour la défaite. Et rien ne serait plus faux que de penser que le vote de cette semaine sur la directive Copyright constitue la fin de l’histoire, sous prétexte que nous aurions encaissé là une défaite décisive !
  • Certes les articles 11 et 13 du texte, qui instaurent une obligation de filtrage automatisé des plateformes et une taxe sur les liens hypertextes au profit des éditeurs de presse, représentent des monstruosités contre lesquelles il était nécessaire de lutter. Mais il convient à présent d’apprécier exactement la portée de ces mesures, pour réadapter très rapidement notre stratégie en conséquence à partir d’une appréhension claire de la situation. Or cette « vision stratégique d’ensemble » est à mon sens précisément ce qui a manqué tout au long de cette campagne dans le camp des défenseurs des libertés numériques et il est inquiétant de constater que ces erreurs de jugement n’ont pas disparu maintenant que l’heure est venue d’analyser les conséquences du scrutin.
  • On a pu voir par exemple cette semaine l’eurodéputée du Parti Pirate Julia Reda expliquer sur son blog que ce vote constituait un « coup dur porté à l’internet libre et ouvert » (Today’s decision is a severe blow to the free and open internet). De son côté, Cory Doctorow a écrit un article sur le site de l’EFF, où il affirme que « l’Europe a perdu Internet » (Today, Europe lost the Internet). Sur Next INpact, Marc Rees déplore dans la même veine « une mise au pilori du Web tel que nous le connaissons, un affront à la liberté d’expression. » Ces appréciations font écho au mot d’ordre qui fut celui des défenseurs des libertés en campagne contre les articles 11 et 13 de la Directive : Save Your Internet (Sauvez votre Internet).
  • ...12 more annotations...
  • Or lorsqu’on lit attentivement ces articles, tels qu’amendés par le vote des eurodéputés, on se rend compte qu’ils ne visent pas pas « l’Internet » ou « le Web » tout entier, mais seulement une catégorie d’acteurs déterminés, à savoir les plateformes centralisées à but lucratif. Ce n’est donc pas « l’Internet libre et ouvert » qui va être frappé par cette directive, mais plutôt exactement ce qui représente son antithèse ! A savoir cette couche d’intermédiaires profondément toxiques qui ont dénaturé au fil du temps les principes sur lesquels Internet et le Web s’appuyaient à l’origine pour nous faire basculer dans la « plateformisation ».
  • Or le grand mensonge sur lesquels s’appuient les GAFAM – principaux responsables de cette centralisation -, c’est de chercher à faire croire qu’ils représentent à eux-seuls l’Internet tout entier, comme si rien ne pouvait plus exister en dehors de leur emprise. En ce sens quand j’entends Cory Doctorow dire que nous « avons perdu Internet » à cause de mesures ciblant les acteurs centralisés lucratifs, je ne peux que frémir. Avec tout le respect que je peux avoir pour ce grand monsieur, ses propos paraissent avoir incorporé la prétention des GAFAM à recouvrir le web et c’est particulièrement grave. Car c’est précisément cela qui constituerait la défaite finale des défenseurs des libertés : se résigner à cet état de fait et ne pas agir sur les marges dont nous disposons encore pour briser cette hégémonie.
  • Sur Next INpact, Marc Rees identifie avec raison le changement le plus profond que ce texte va amener : il remet en question la distinction classique entre hébergeurs et éditeurs, issue de la directive eCommerce de 2000. Jusqu’à présent, les hébergeurs bénéficiaient d’une responsabilité atténuée vis-à-vis des actes commis par leurs utilisateurs. Au lieu de cela, la directive Copyright introduit une nouvelle catégorie d’intermédiaires dits « actifs » qui devront assumer la responsabilité des contenus qu’ils diffusent, même s’ils ne sont pas directement à l’origine de leur mise en ligne.
  • On voit que le « rôle actif » se déduit de trois éléments : la taille de l’acteur, son but lucratif et la hiérarchisation automatisée de contenus. Ce sont donc bien des plateformes centralisées lucratives, type Facebook ou YouTube, qui devront assumer cette nouvelle responsabilité. Pour y échapper, elles devront conclure des accords de licence pour rémunérer les ayant droits et, à défaut, déployer un filtrage automatisé des contenus a priori. En pratique, elles seront certainement toujours obligées de mettre en place un filtrage, car il est quasiment impossible d’obtenir une licence capable de couvrir l’intégralité des œuvres pouvant être postées.
  • La directive a par ailleurs pris le soin de préciser que les « prestataires sans finalité commerciale, comme les encyclopédies en ligne de type Wikipedia » ainsi que les « plateformes de développement de logiciels Open Source » seraient exclus du champ d’application de l’article 13, ce qui donne des garanties contre d’éventuels dommages collatéraux.
  • Marc Rees nous explique que cette évolution est dangereuse, parce que l’équilibre fixé par la directive eCommerce constituerait le « socle fondamental du respect de la liberté d’expression » sur Internet. Mais cette vision me paraît relever d’une conception purement « formelle » de la liberté d’expression. Peut-on encore dire que ce qui se passe sur Facebook ou YouTube relève de l’exercice de la liberté d’expression, alors que ces acteurs soumettent leurs utilisateurs à l’emprise d’une gouvernance algorithmique de plus en plus insupportable, que cible précisément la notion de « rôle actif » ?
  • Il est peut-être temps de tirer réellement les conséquences de la célèbre maxime « Code Is Law » de Lawrence Lessig : le droit n’est qu’une sorte de voile dans l’environnement numérique, car c’est le soubassement technique sur lequel s’appuie les usages qui conditionne réellement l’exercice des libertés. Quoi que dise la directive eCommerce, il n’y a quasiment plus rien qui relève de l’exercice de la liberté d’expression sur les plateformes centralisées lucratives, sinon une grotesque parodie qui salit le nom même de la liberté et nous en fait peu à peu perdre jusqu’au sens ! En le lisant « en creux », l’article 13 dessine au contraire l’espace sur Internet où la liberté d’expression peut encore réellement s’exercer : le réseau des sites personnels, celui des hébergeurs ne jouant pas un rôle actif et – plus important encore – les nouveaux services s’appuyant sur une fédération de serveurs, comme Mastodon ou Peertube.
  • Ce qui va se passer à présent avec l’obligation de filtrage automatisée, c’est que les grandes plateformes centralisées lucratives, type YouTube ou Facebook, vont sans doute devenir des espaces où les utilisateurs éprouveront le poids d’une répression « à la chinoise » avec la nécessité de se soumettre à un contrôle algorithmique avant même de pouvoir poster leurs contenus. Le contraste n’en sera que plus fort avec les espaces restant en dehors du périmètre de l’article 13, que les créateurs et leur public seront d’autant plus incités à rejoindre. Doit-on réellement le déplorer ?
  • On retrouve ici le problème de « l’agnosticisme économique » dont j’ai déjà parlé sur ce blog à propos du fonctionnement même des licences libres. En refusant de discriminer selon les types d’usages économiques, les défenseurs du Libre se sont en réalité privés de la possibilité de développer une réelle doctrine économique. C’est ce même aveuglement aux questions économiques qui conduit à des aberrations de positionnement comme celles que l’on a vu au cours de cette campagne contre la directive Copyright. Comment mobiliser autour du mot d’ordre « Save Your Internet », alors que cet « Internet » que l’on a voulu faire passer pour « le notre » comprend en réalité les principaux représentants du capitalisme de surveillance ? C’est le sens même de nos luttes qui disparaît si nous ne nous donnons pas les moyens d’opérer des distinctions claires parmi les acteurs économiques.
  • En juin dernier, c’est-à-dire avant même le premier vote sur la directive, La Quadrature du Net a commencé à développer ce type d’analyses, en suggérant de ne pas s’opposer à l’introduction du critère du « rôle actif » des plateformes pour au contraire le retourner comme une arme dans la lutte contre la centralisation
  • L’enjeu n’est pas de chercher – sans doute vainement – à supprimer l’article 13, mais de réussir à délimiter clairement son périmètre pour s’assurer qu’il ne s’appliquera qu’à des acteurs centralisés lucratifs procédant à une hiérarchisation des contenus. Manœuvrer ainsi ferait peser sur les GAFAM une charge écrasante, tout en préservant un espace pour développer un réseau d’acteurs éthiques non-centralisés et inscrits dans une logique d’économie solidaire. Il n’y a qu’au sein d’une telle sphère que l’on puisse encore espérer œuvrer pour un « Internet Libre et Ouvert ».
  • Il faut aussi sortir de l’urgence immédiate imposée par cette série de votes pour se replacer dans le temps long. De toutes façons, quelle que soit l’issue des dernières négociations, il restera encore plusieurs années (3, 4, peut-être plus ?) avant que la directive ne soit transposée dans les pays de l’Union. C’est un délai appréciable qui nous laisse encore le temps de travailler au développement de cette sphère d’acteurs alternatifs.
  •  
    "Bien que la directive droit d'auteur soit le symptôme d'une soumission économique de nos industries aux géants du Web, elle crée néanmoins l'opportunité de remettre en cause ces géants, au profit de l'Internet décentralisé. C'est ce que nous rappelle Calimaq, membre de La Quadrature du Net, dans cette tribune - initialement publiée sur son blog."
Aurialie Jublin

L'empire du signal, ou les dangers d'un contrôle social par les corps - Libération - 0 views

  • Mais réguler un tel déploiement s’annonce complexe. Car les usages de reconnaissance faciale proposés sont multiformes, à la fois commerciaux, publicitaires, sécuritaires, sanitaires ou éducatifs. Le privé et le public, le divertissement et le punitif s’entremêlent sans que l’on ne puisse y voir clair. Un thème récurrent est largement mobilisé pour justifier l’usage de ces technologies de surveillance biométrique : la sécurité. Et c’est toujours au nom du Bien qu’elle se voit matérialisée.
  • De façon assez inédite, la plupart des technologies de surveillance publique, à l’instar de la reconnaissance faciale, ont d’abord été élaborées et diffusées à des fins commerciales par des géants numériques de la publicité et de la recommandation. La reconnaissance faciale, dont on ne sait plus très bien si elle est proposée à des fins commerciales ou sécuritaires, a été banalisée par la domotique, et amplement développée avec les smartphones ou les réseaux sociaux, pour un confort d’utilisation et une expérience client toujours plus forte. En procédant par pseudomorphisme, l’omniprésence de technologies d’identification qui servent à un moment donné une entreprise de quadrillage techno-sécuritaire du territoire semble aller de soi.
  • L’enjeu technique ne sera bientôt plus la reconnaissance en elle-même, mais l’interprétation comportementale des surveillés. Des systèmes de vidéosurveillance bientôt augmentés d’algorithmes puissants seront capables d’analyser nos comportements et de désigner ceux qui seraient «inhabituels» ou jugés «subversifs».
  • ...6 more annotations...
  • A la suite des travaux de la mathématicienne américaine Cathy O’Neil, il convient ici d’insister sur les biais qui seront encodés dans les algorithmes modélisant les critères de dangerosité qui pourront toujours accompagner, de manière fluctuante et totalement «liquide», les logiques de surveillance d’une population.
  • Passé d’Etat de droit à Etat de l’ultrasécurité, inquiet pour sa propre survie et par conséquent boulimique de données de surveillance, il semble moins se préoccuper de fabriquer des libertés par la loi dans un cadre de surveillance bienveillant que d’industrialiser, de concert avec les acteurs privés compétents. Ainsi assistons-nous à une marchandisation de la souveraineté territoriale.
  • Il s’agit de trouver le juste équilibre entre la nécessaire sécurisation du territoire et le respect des libertés fondamentales. Et le glissement conceptuel de la Smart City à la Safe City actuellement à l’œuvre pose la question fondamentale de nos libertés, du droit à évoluer dans l’espace public sans être identifié. Surtout, quels contre-pouvoirs, quels recours mettre en place face à des dispositifs algorithmiques intangibles ? Comment rééquilibrer ce système qui invisibilise le pouvoir des surveillants privés et publics, où la transparence est en réalité un «jeu» à géométrie très variable ?
  • Nous évoluons dans des sociétés qui créent des effets de structuration sociotechnique où le passage de la sphère ludique à la sphère politique n’a sans doute jamais été aussi facilité. Le niveau d’acceptation sociale des technologies d’identification, qui nous assure toujours plus de «commodité», tend à créer les conditions d’un contrôle social total.
  • De tels lieux de transmission d’éclairages techno-scientifiques rétabliraient également les principes de responsabilité sociale que certaines communautés d’ingénieurs intégraient jadis dans leur conception de l’innovation. Des lieux et des agencements doivent être incontestablement imaginés et institués dans cet horizon, en vu de faciliter l’hybridation des compétences et le renforcement du jugement critique à l’égard de technologies qui s’avèrent de plus en plus difficiles à cerner d’un point de vue éthique et qui se révèlent toujours plus ambiguës sur le plan démocratique, en rappelant que le progrès technologique doit être toujours pensé dans sa relation au progrès sociétal.
  • Compte tenu de l’accélération croissante de l’innovation dans le domaine de l’identification, une proposition serait de favoriser la création de lieux où les citoyens pourraient librement être amenés à prendre connaissance des avancées technologiques, avec leurs possibles effets éthico-politiques.
  •  
    "Avec la reconnaissance faciale, une nouvelle forme de gouvernementalité se met en place, où des plateformes privées collaborent avec les dispositifs publics de sécurité. Un tel déploiement technologique dans notre quotidien, une telle capture de nos visages et de nos traits constituent un redoutable pallier vers une surveillance généralisée."
Aurialie Jublin

[Internet] Internet : vive le prétendu anonymat ! - Libération - 0 views

  • Sale temps pour la privacy, comme on dit dans le monde des nouvelles technologies, c’est-à-dire pour notre intimité - le mot français est sans doute plus parlant. Elle était déjà menacée par les grandes plateformes numériques qui vivent de la prédation de nos données personnelles, et qui en savent parfois plus que nous sur nous-mêmes. Elle est désormais attaquée sur un deuxième front, politique cette fois, avec le retour sur le devant de la scène d’un serpent de mer aussi inutile que dangereux : l’appel à en finir avec «l’anonymat sur Internet».
  • «Forçons chacun à publier avec son vrai nom, et alors Internet redeviendra une agora paisible et constructive !» Le mantra est repris jusqu’au sommet de l’Etat. Tant pis si la recherche universitaire ne démontre pas de lien nécessaire entre «anonymat» et comportement haineux ou manipulateur sur les médias sociaux. Tant pis si le concept même d’anonymat numérique veut tout, et surtout rien dire - on laisse quasiment toujours des traces sur Internet, sauf efforts et technicité hors normes. Tant pis donc si «l’anonymat» n’existe pas et est à proprement parler, dans la grande majorité des cas, un pseudonymat, c’est-à-dire l’utilisation d’un identifiant qui ne renvoie pas directement à son nom, prénom. Tant pis si la justice, en France, a déjà les moyens techniques et légaux d’identifier qui se cache derrière une identité fictive, en cas de comportement délictueux et si elle est saisie. Au diable la nuance, transformons le Web en un gigantesque LinkedIn, et tout ira mieux !
  • Fait significatif, les contempteurs de l’anonymat - qui-est-en-fait-un-pseudonymat - ne font jamais l’effort de se demander à quels usages il renvoie concrètement, par delà le fantasme de l’immonde troll téléguidé par une puissance étrangère qui viendrait tourmenter l’honnête internaute à coups de théories du complot et de harcèlement organisé. S’ils faisaient cet effort, ils comprendraient, je l’espère, que l’horrible «anonymat» recouvre autant de libertés, et de possibilités, qu’il est en réalité urgent de défendre et de sanctuariser.
  • ...10 more annotations...
  • La liberté d’exprimer des idées qui soient jugées pour elles-mêmes, et non pour l’identité de la personne qui les profère.
  • La liberté de dire ce que l’on pense, d’affirmer ou de discuter convictions politiques, religieuses, philosophiques, passions et centres d’intérêt personnels, sans avoir à affronter le qu’en-dira-t-on de ses voisins, de ses collègues, de son milieu.
  • La liberté de dire, tout court, quand son emploi ne le permet pas, que l’on ait un devoir de réserve - comme les fonctionnaires - ou une fonction sensible dans une entreprise.
  • La liberté de faire savoir ce qui se passe à son travail, en bien comme en mal, sans avoir à en référer à son patron, ni courir de risque professionnel.
  • La liberté de se dévoiler quand ce qu’on vit ou ce qu’on est peut attirer critiques, moqueries, menaces, opprobre sociale - quand on appartient à une population discriminée, et même si on n’a aucune honte à en avoir.
  • La liberté de changer, de ne pas être prisonnier de positions tenues ou d’erreurs commises des mois ou des années plus tôt, et que n’importe qui pourrait venir inspecter à tout moment, en passant au crible un nom sur tous les moteurs de recherche.
  • La liberté de ne pas tout partager avec tout le monde, d’avoir une vie compartimentée, une identité complexe, multiple, et de choisir comment, à et qui, on veut la dévoiler. Parce que tout le monde n’a pas fait le choix d’être une célébrité ou un «influenceur» vivant du voyeurisme institutionnalisé.
  • La liberté de créer, de tenter des choses, des expressions, des façons de faire - faut-il rappeler la place des pseudonymes dans l’histoire de la littérature ?
  • La liberté, en résumé et paradoxalement, d’être soi-même, sans passer son temps à s’autocensurer.
  • L’appel à cette transparence totalitaire, mais à sens unique - on aimerait que les politiciens qui la défendent s’astreignent à la même règle sur leurs rapports avec lobbys et financeurs - a, enfin, un ultime effet pervers : il fait peser le poids des problèmes actuels d’Internet, que nul ne conteste, sur l’utilisateur final, plutôt que sur leurs principaux coupables. Si vous voulez vraiment «civiliser» le Web, mesdames et messieurs les législateurs, portez plutôt votre attention sur le modèle économique et l’architecture technique des plateformes quasi monopolistiques qui le dominent et le façonnent. Donnez à la justice les moyens financiers et humains de poursuivre et de punir ceux qui abusent des canaux numériques pour menacer, insulter, harceler. Interrogez-vous sur les pratiques de vos propres partis, dont les militants ne sont pas les derniers à «ensauvager» ces nouveaux espaces de débat et d’expression. Votre responsabilité est immense. Notre vigilance la sera aussi.
  •  
    "On n'est jamais totalement incognito sur les réseaux sociaux, on laisse toujours des traces. C'est donc une fausse bonne idée de supprimer ce relatif anonymat. Il recouvre en fait autant de libertés que de possibilités d'agir qu'il faut conserver."
Aurialie Jublin

[Écologie] Le monde du logiciel est en train de se détruire... Manifeste pour un développement plus durable - GREENSPECTOR - 0 views

  • Tout est lent, et cela ne va pas dans le bon sens. Certaines voix s’élèvent. Je vous invite notamment à lire “Le désenchantement du logiciel”. Tout est insupportablement lent, tout est ÉNORME, tout finit par devenir obsolète… La taille des sites web explose. Un site web est aussi gros que le jeu Doom. Le phénomène ne touche pas que le Web mais aussi l’IoT, le mobile… Le saviez-vous ? Il faut 13% de CPU pour faire clignoter un curseur…
  • Tout grossit : la taille des applications, les données stockées, la taille des pages web, la mémoire des téléphones… Les téléphones ont maintenant 2 Go de mémoire, échanger une photo de 10 Mo par mail est maintenant classique… À la limite, cela ne serait peut-être pas un problème si tous les logiciels étaient utilisés, efficaces et performants… Mais cela n’est pas le cas,
  • Alors tout le monde se cale sur une lenteur. Tout est uniformément lent. On se cale sur cela et tout va bien. Être performant aujourd’hui, c’est arriver à atteindre un ressenti utilisateur qui correspond à cette lenteur uniforme. On élague les choses qui pourraient être trop visibles. Une page qui met plus de 20 secondes à se charger, c’est trop lent. Par contre, 3 secondes c’est bien. 3 secondes ? Avec les multicoeurs de nos téléphones/PC et les data centers partout dans le monde, le tout relié par des supers technologies de communication (4G, fibre…),c’est un peu bizarre non ? Si on regarde la débauche de ressources pour le résultat obtenu, 3 secondes, c’est énorme. D’autant plus que les bits circulent dans nos processeurs avec des unités de temps du niveau de la nanoseconde. Donc oui, tout est uniformément lent.
  • ...29 more annotations...
  • Il est nécessaire de revenir à plus d’efficience, de « challenger » les besoins en matériel, de redéfinir ce qu’est la performance. Tant que l’on se satisfera de cette lenteur uniforme avec des solutions pour ne pas ralentir plus (comme l’ajout de matériel), nous n’avancerons pas. La dette technique, notion largement assimilée par les équipes de développement, n’est malheureusement pas adaptée à ce problème (on y reviendra). Nous sommes sur une dette de ressources matérielles et de mauvaise adéquation entre le besoin utilisateur et la solution technique. On parle ici d’efficience et non pas uniquement de performance. L’efficience est une histoire de mesure du gaspillage. L’ISO définie l’efficience avec comme domaine : Time behaviour, Resource utilization et Capacity. Pourquoi ne pas pousser plus ces concepts ?
  • Développez du code Java pour un serveur J2EE ou pour un téléphone Android, ce n’est pas pareil. Des structures spécifiques existent par exemple pour traiter des données en Android mais les structures classiques sont toujours utilisées. Les développeurs ont perdu le lien avec le hardware. C’est malheureux car c’est passionnant (et utile) de savoir comment fonctionne un processeur. Pourquoi : abstraction et spécialisation (nous verrons cela plus loin). Car en perdant ce lien, on perd une des forces du développement. Ce lien est important chez les hackers ou chez les développeurs d’informatique embarquée mais malheureusement de moins en moins présent chez les autres développeurs.
  • Les pratiques devops pourraient répondre à cette perte de lien. Là, c’est pareil, nous n’allons pas jusqu’au au bout : généralement le devops va se focaliser à bien gérer le déploiement d’une solution logicielle sur une infrastructure mixte (matérielle et un peu logicielle). Il faudrait aller plus loin en remontant par exemple les métriques de consommation, en discutant sur les contraintes d’exécution… plutôt que de “scaler” juste parce que c’est plus simple.
  • Certaines technologies ont une utilité mais sont maintenant systématiquement utilisées. C’est le cas par exemple des ORM qui sont devenus systématiques. Aucune réflexion n’est faite sur son intérêt en début des projets. Résultat : on a rajouté une surcouche qui consomme, qu’il faut maintenir et des développeurs qui n’ont plus l’habitude d’effectuer des requêtes natives. Cela ne serait pas un problème si chaque développeur connaissait très bien le fonctionnement des couches d’abstraction : comment fonctionne HIBERNATE par exemple ? On s’appuie hélas de façon aveugle sur ces frameworks.
  • Le besoin d’abstraction est lié à un autre défaut: nous attendons toujours des outils miracles. La silver bullet qui améliorera encore plus nos pratiques. Le langage idéal, le framework pour aller plus vite, l’outil de gestion miracle des dépendances… C’est la promesse à chaque fois d’un nouveau framework : gagner du temps en développement, être plus performant… Et on y croit, on fonce. On abandonne les frameworks sur lesquels nous avions investi, sur lesquels on avait passé du temps… et on passe au nouveau. C’est le cas actuellement des frameworks JS. L’histoire du développement est pavé de framework oubliés, non maintenus, abandonnés… Nous sommes les champions pour réinventer ce qui existe déjà. Si on le gardait suffisamment longtemps, on aurait le temps de maîtriser un framework, de l’optimiser, de le comprendre. Mais ce n’est pas le cas. Et que l’on ne me dise pas que si on n’avait pas continuellement réinventé la roue, on aurait encore des roues en pierre… Innover serait d’améliorer les frameworks existants .
  • Sur les langages, c’est la même rengaine. Attention, je ne préconise pas de rester sur l’assembleur et sur le C… C’est le cas par exemple dans le monde Android, pendant plus de 10 ans les développeurs ont pu travailler sur des outils et des frameworks Java. Et comme cela, par magie, le nouveau Langage de la communauté est Kotlin. On imagine l’impact sur les applications existantes (si elles doivent changer), il faut recréer des outils, retrouver des bonnes pratiques… Pour quel gain?
  • Sincèrement, on ne voit aucun ralentissement sur les cycles de renouvellement des technologies. C’est toujours un rythme frénétique. Nous trouverons bien le Graal un jour. Le problème est ensuite l’empilement de ses technologies. Comme aucune ne meurt vraiment et que l’on en maintient toujours des parties, on développe d’autres couches pour s’adapter et continuer à maintenir ces bouts de code ou ces librairies. Le problèmen’est pas le code legacy,, c’est la glue que l’on développe autour qui pêche.
  • Au final, on passe du temps à résoudre des problèmes techniques internes, on recherche des outils pour résoudre les problèmes que l’on ajoute, on passe son temps à s’adapter à ses nouveaux outils, on ajoute des surcouches (voir chapitre précédent…) … et on n’a pas améliorer la qualité intrinsèque du logiciel ou les besoins auxquels on doit répondre.
  • Au final, le rythme frénétique des changements ne nous permet pas de nous stabiliser sur une technologie. J’avoue qu’en tant que vieux développeur que je suis, j’ai été découragé par le changement Java vers Kotlin pour Android. C’est peut-être pour certains de véritables challenges, mais quand je repense au temps que j’ai passé sur l’apprentissage, sur la mise en place d’outils
  • Ensuite, comme aucune solution ne meurt vraiment, que de nouvelles arrivent… on se retrouve avec des projets avec des multitudes de technologies à gérer avec les compétences associées aussi… On s’étonne ensuite que le marché du recrutement de développeur soit bouché. Pas étonnant.. Il y a énormément de développeurs mais il est difficile de trouver un développeur React avec 5 ans d’expérience qui connaîsse le Go. Le marché est fractionné, comme les technologies. C’est peut-être bon pour les développeurs car cela crée de la rareté et cela fait monter les prix, mais pas pour le projet !
  • Cependant, cet apprentissage continu des technologies pose le problème d’apprentissage de domaines transverses : accessibilité, agilité, performance… En effet, qu’est-ce qui nous prouve que les outils et les langages que nous allons choisir ne vont pas changer dans 4 ans ? Rust, Go… dans 2 ans ? Rien ne tend à donner une tendance.
  • On ne se remet pas en question car on veut s’amuser. Le fun est important, car si l’on s’ennuie dans son boulot, on va déprimer. Par contre, on ne peut pas, sous prétexte de vouloir du fun tout le temps, changer nos outils continuellement. Il y a un déséquilibre entre l’expérience du développeur et l’expérience de l’utilisateur. On veut du fun, mais qu’est-ce que cela va réellement apporter à l’utilisateur ? Un produit plus « joyeux » ? Non, nous ne sommes pas des acteurs.
  • On ne se pose pas de question sur l’éthique de notre domaine, sur sa durabilité… Cela vient peut-être du fait que notre domaine n’a pas réellement de code éthique (comme par exemple les médecins ou les avocats). Mais sommes-nous en tant que développeurs réellement libres si l’on ne peut pas avoir une autocritique ? Nous sommes peut être asservis à une cause portée par d’autres personnes ? Le problème n’est pas simple mais nous avons dans tous les cas une responsabilité. Sans code éthique, c’est le plus fort et le plus malhonnête qui est le plus fort. Le buzz et les pratiques pour manipuler les utilisateurs sont de plus en plus répandus. Sans Dark Pattern ton produit ne sera rien. Les plus gros (GAFA…) n’en sont pas arrivés là pour rien.
  • Est-ce que la solution est politique ? Il faut légiférer pour mieux gouverner le monde du logiciel. On le voit avec les dernières réponses législatives aux problèmes concrets : RGPD, notification des cookies… la source du problème n’est pas résolue. Peut-être parce que les politiques ne comprennent que très mal le monde du logiciel.
  • Car si cette structuration n’est pas faite, les développeurs vont perdre la main sur ce qu’ils font. Or le manque d’éthique de la profession est critiqué à l’extérieur. Rachel Coldicutt (@rachelcoldicutt) directrice de DotEveryOne, un think tank britannique qui promeut une technologie plus responsable, encourage à former des diplômés non-informaticiens qui traiteraient de ces problèmes (Voir plus précisément dans l’article d’Internet Actu). Pour poursuivre sur ce dernier article, cela serait dans la droite ligne de l’informatique, domaine issu du monde militaire où les ingénieurs et développeurs seraient formés à suivre des décisions et des commandements.
  • Le monde du logiciel s’intègre dans un système organisationnel classique. Grands groupes, sous-traitances via des ESN, web agencies… Tous suivent les mêmes techniques de gestion des projets informatiques. Et tout le monde va « dans le mur ». Aucune analyse sérieuse n’est faite sur le coût global d’un logiciel (TCO), sur son impact sur la société, sur son bénéfice, sa qualité… C’est la rapidité de release(Time to Market), la surcharge featurale (fonctionnelle), la productivité immédiate, qui comptent. Premièrement car les gens externes à ce monde ne connaissent que trop peu la technicité du logiciel et son monde. Il est virtuel donc simple (sic). Mais ce n’est pas le cas. Les écoles de commerce et autres usines de managers n’ont pas de cours de développement. Comment peuvent-ils bien diriger et piloter des projets ?
  • On continue a vouloir chiffrer des projets informatiques comme de simples projets alors que des mouvements comme le no estimate propose des approches innovantes. Les projets continuent d’échouer : le chaos report rapporte que simplement 30% des projets réussissent bien. Et face à cette mauvaise gouvernance, les équipes techniques continuent de se battre sur les technologies. Dommages collatéraux : la qualité, l’éthique, l’environnement… et au final l’utilisateur. Cela ne serait pas si critique si le logiciel n’avait pas un impact aussi fort sur le monde. Software eats the world… et oui, on le « bouffe »…
  • Si ces décisions absurdes arrivent, ce n’est pas uniquement la faute du développeur mais bien de l’organisation. Et qui dit organisation dit management (sous-différente forme). Si l’on revient au livre de Morel, il parle de piège cognitif dans lesquels les managers et les techniciens tombent souvent. C’est le cas de la navette Challenger qui a été quand même lancée malgré la connaissance du problème d’un joint défectueux. Les managers ont sous-évalué les risques et les ingénieurs ne les ont pas prouvés. Chacun a reproché à l’autre de ne pas fournir assez de preuves scientifiques. C’est souvent ce qui se passe dans les entreprises : des warnings sont levés par certains développeurs mais le management ne les prend pas assez au sérieux.
  • En même temps, on revient aux causes précédentes (silver bullet, on s’amuse…), il est nécessaire d’avoir une vraie ingénierie et une vraie analyse des technologies. Sans cela, les équipes techniques seront toujours non-écoutées par le management. Des outils et benchmark existent mais ils sont encore trop peu connus. Par exemple, Technologie Radar qui classe les technologies en terme d’adoption.
  • Ce phénomène de décision absurde est renforcé par le tissu complexe du développement logiciel : Les sociétés historiquement hors du numérique sous-traitent à des entreprises du numérique, les ESN sous-traitent aux freelances… Le partage de responsabilité technique / management est encore plus complexe et les décisions absurdes plus nombreuses.
  • Mais cela ne s’arrête pas là. On peut aussi voir l’usage de l’open-source comme une sorte de sous-traitance. Idem pour l’usage de framework. On est juste consommateur passif, on se déleste de plein de problématiques (qui ont un impact sur les ressources, la qualité…).
  • C’est d’autant plus facile que le domaine est passionnant et que la pratique des sides-projects, du temps passé sur les projets open-source hors des horaires de bureau est chose commune… La recherche de “fun” et le temps passé bénéficient alors plus aux organisations qu’aux développeurs. Difficile dans ce cas de chiffrer le coût réel d’un projet. Et pourtant, cela ne serait pas un problème si on arrivait à des logiciels « au top ».
  • Le développeur n’est ici plus un artisan du code, mais plutôt un pion dans un système critiquable du point de vue humain. Cela n’est pas visible, tout va bien et on s’amuse. En apparence seulement, car certains domaines du développement logiciel vont plus loin et rendent beaucoup plus visible cette exploitation : Le domaine du jeux-vidéo où les heures explosent.
  • Et donc, toutes ces maladresses (logiciel trop lourd, sans qualité…) se retrouvent chez les utilisateurs. Comme on doit releaser au plus vite les logiciels, que l’on ne tente pas de résoudre les inefficiences internes, et que l’on ne met pas plus de ressource pour faire de la qualité, on arrive à des logiciels médiocres. Mais on a tellement d’outils de monitoring et de suivi des utilisateurs pour détecter ce qui se passe directement chez eux qu’au final, on pense que ce n’est pas grave. Cela serait une bonne idée si les outils étaient bien utilisés. Or la multitude d’informations récoltées (en plus des bugs remontés par les utilisateurs) n’est que faiblement utilisée. Trop d’information, difficulté de cibler la vraie source du problème… on s’y perd et au final, c’est l’utilisateur qui trinque. Tous les logiciels sont maintenant en bêta-test. A quoi bon faire de la sur-qualité, autant attendre que l’utilisateur le demande. Et on revient ainsi au premier chapitre : un logiciel uniformément lent … et médiocre.
  • Heureusement, on est sauvé par la non-sensibilisation des utilisateurs au monde du logiciel. C’est un monde effectivement virtuel et magique qu’ils ont l’habitude d’utiliser. On leur a mis en main les outils mais sans notice explicative. Comment évaluer la qualité d’un logiciel, les risques sur l’environnement, les problèmes de sécurité… si l’on n’a pas des notions d’informatique, même rudimentaires ?
  • L’informatique du 21ème siècle est ce que l’agroalimentaire était pour les consommateurs au 20ème siècle. Pour des raisons de productivité, on a poussé des solutions médiocres avec un calcul court-termiste : mise sur le marché de plus en plus rapide, profit en hausse constante… agriculture intensive, malbouffe, pesticides… avec des impacts importants sur la santé, sur l’environnement… Les consommateurs savent maintenant (de plus en plus) les conséquences désastreuses de ces dérives, l’industrie agroalimentaire doit donc se réinventer, techniquement, commercialement et éthiquement. Pour le logiciel, quand les utilisateurs comprendront les tenants et les aboutissants des choix techniques, l’industrie du logiciel devra gérer les mêmes problèmes. En effet, le retour au bon sens et aux bonnes pratiques n’est pas une chose simple pour l’agroalimentaire. Dans l’IT, on commence à le voir avec ses conséquence sur la vie privée des utilisateurs (mais nous n’en sommes qu’aux balbutiements).
  • On va dans la mauvaise direction. L’industrie de l’informatique a déjà effectué dans les années 70 des erreurs avec des impacts non-négligeables. L’exclusion des femmes de l’informatique en fait partie. Non seulement cela a été fatal pour certaines industries mais on peut se poser la question de comment on peut maintenant adresser des réponses à seulement 50% de la population informatique, avec une représentativité très faible. Le chemin est maintenant difficile à retrouver.
  • Mais l’impact du monde IT ne s’arrête pas là. La source et le modèle d’une grosse partie de l’informatique sont issus de la Silicon valley. Si l’on écarte les gagnants de la Silicon Valley, les populations locales subissent la montée des prix, le déclassement, la pauvreté…
  • Dans sa lancée vers le progrès technique, le monde du logiciel crée aussi sa dette environnementale…
  •  
    "Le monde du logiciel va mal et si l'on n'agit pas, on risque de le regretter. Environnement, qualité, exclusion… Software Eats The World (Le logiciel mange le monde…) ? Oui un peu trop. "
Aurialie Jublin

« La small tech sera le poison de la Silicon Valley » - Usbek&Rica - 0 views

  • Votre existence numérique est une extension de vous-même, de votre esprit. Et c’est quelque chose de précieux car, si j'ai des informations sur vous, je peux les utiliser pour manipuler votre comportement. Écoutez les mots que j’utilise : je regarde ce que vous faites, j’en fais la liste, j’essaie de comprendre votre psychologie et de vous manipuler pour que vous fassiez ce que je veux. C’est horrible, c’est de l’abus, non ? C’est une relation de pouvoir. Pourtant, c’est ce que font Google et Facebook, que vous utilisez quotidiennement.
  • Quand Tim Berners Lee l’a imaginé, il l’a voulu en Read-Write (lecture-écriture), c’est-à-dire que vous pouviez écrire sur le web, et pas simplement lire. Mais ce qui est arrivé, c'est le capitalisme : les États-Unis ont perçu le potentiel du Web non pas en tant que média en lecture-écriture, mais en tant que média de diffusion. Et le capital-risque est entré dans la partie. Si vous avez un système basé sur des nœuds (nodes) avec des privilèges inégaux, que vous ajoutez du capital-risque, ces nœuds grandissent et deviennent les monopoles que sont Google et Facebook.
  • La conception du web n’a jamais été décentralisée, seule sa philosophie l’était. Nous savons maintenant qu’une centralisation du pouvoir est insoutenable, que ça détruit littéralement notre habitat. La technologie joue le rôle d'amplificateur : peut-être que toutes ces inégalités existaient avant, mais nous n’avions pas la technologie pour « détruire » le monde. Enfin pas le monde, pardon, plutôt notre habitat : la bactérie va survivre quoi qu'il arrive.
  • ...6 more annotations...
  • Deux choses : nous devons d’abord réglementer les abus du capitalisme de surveillance auxquels se livrent Google et Facebook, puis nous devons financer des alternatives. Nous ne pouvons pas attendre des alternatives qu’elles poussent sur des arbres : ça n’arrivera pas.
  • Il faut se demander quels sont les aspects du problème que vous pouvez changer. J’ai retiré Google de ma vie très facilement : vous n’avez pas besoin d’utiliser Gmail, vous pouvez utiliser Fastmail, qui ne vend pas vos informations personnelles. Et les gens peuvent toujours vous envoyer un email. Framasoft est un bel exemple d’organisation qui œuvre pour la bonne cause : protéger l’être humain et sa dignité à l’ère numérique. C’est une organisation fantastique mais, comparé à Google, ils ne sont qu'une poignée de personnes. Framasoft n'est financé par personne. Le réseau social décentralisé Mastodon est un autre exemple qui va dans ce sens. Et pourtant, le système de taxe de la Commission Européenne bénéficie à des start-up qui construisent la même technologie de surveillance que Google. Mais nous ne finançons pas Mastodon, ni Framasoft, ni Indie, notre minuscule organisme à but non lucratif. Nous n’obtenons aucun fonds de qui que ce soit, si ce n’est parfois de particuliers.
  • Si nous voulons une alternative, nous devons la financer alternativement. Elle ne pourra pas être financée par le capital-risque made in Silicon Valley. Ils ont financé les Google et les Facebook, et ils vont financer le prochain Google et le prochain Facebook, car ils chassent des licornes, des entreprises valant des milliards de dollars.
  • Le Danemark, par exemple, a été le premier pays au monde à nommer un ambassadeur auprès de ses entreprises, un ambassadeur pour la Silicon Valley. C’est la chose la plus absurde qui puisse être faite. Le seul pouvoir que le gouvernement danois a sur ces entreprises, c’est la démocratie. Via son mandat, le gouvernement danois devrait protéger les personnes de Facebook. Au lieu de cela, il élève les entreprises au même niveau que lui. Alors oui, un dispositif comme celui du Grand Barouf a du potentiel.
  • La plupart du temps, lorsque les gens parlent de « décentralisation » du pouvoir, ils disent que la solution, c'est la blockchain. Mais vous avez dit que « la blockchain est un fantasme de masturbation libertaire » : qu’est-ce que vous avez voulu dire par là ? Voilà un bon guide : si vous voyez dans la Silicon Valley des investisseurs en capital-risque investir dans quelque chose, ce n’est pas pour la justice sociale, ce n’est pas pour améliorer les choses. C’est pour enrichir un petit groupe d’hommes riches. Pourquoi parle-t-on aujourd’hui à ce point de la blockchain ? À cause du Bitcoin et des crypto-monnaies, à cause de la possibilité pour certaines personnes de gagner des millions ou des milliards avec ça... Les personnes qui veulent généralement un système totalement digne de confiance sont de vrais libertaires, ils ne veulent pas de justice sociale, ils veulent être ceux qui détiennent les rouages du système.
  • Ce projet, que vous appelez Hypha ou Peer-Web, est-ce une nouvelle version du Web ? Comment cela fonctionne-t-il ? Déjà, la différence avec la blockchain, c’est que nous n’essayons pas d’avoir des milliards de copies de la même base de données, mais de donner à un milliard de personnes leurs propres bases de données, toutes séparées, toutes différentes, à notre image. Avec Hypha, nous faisons une chose simple : nous vous donnons un espace que vous possédez et contrôlez. Vous pouvez ensuite définir ce qui est public de ce qui est privé. Vous avez ce choix initial car vous partez d’un espace que vous possédez.
  •  
    "À l'heure où Facebook essaie de se dépêtrer de ses affaires de chiffrement et où Google se prend les pieds dans un bug qui a rendu publique la vie privée des utilisateurs d'Android TV, l'activiste Aral Balkan revient sur les origines de ce qu'il appelle « le capitalisme de surveillance », en amont de sa venue à Lille le 21 mars à l'occasion du Grand Barouf Numérique."
Aurialie Jublin

Demain, les nains… - Framablog - 0 views

  • Les géants du numérique, avec leurs « licornes » à plusieurs milliards de dollars, nous ont confisqué le potentiel d’Internet. Alimentée par la très courte vue et la rapacité du capital-risque et des start-ups, la vision utopique d’une ressource commune décentralisée et démocratique s’est transformée en l’autocratie dystopique des panopticons de la Silicon Valley que nous appelons le capitalisme de surveillance. Cette mutation menace non seulement nos démocraties, mais aussi l’intégrité même de notre personne à l’ère du numérique et des réseaux1.
  • Alors que la conception éthique décrit sans ambiguïté les critères et les caractéristiques des alternatives éthiques au capitalisme de surveillance, c’est l’éthique elle-même qui est annexée par les Big Tech dans des opérations de relations publiques qui détournent l’attention des questions systémiques centrales2 pour mettre sous les projecteurs des symptômes superficiels3.
  • Small Tech elle est conçue par des humains pour des humains 4 ; elle n’a pas de but lucratif 5 ; elle est créée par des individus et des organisations sans capitaux propres6 ; elle ne bénéficie d’aucun financement par le capitalisme de la surveillance des Big Tech7 ; elle respecte la vie privée par défaut8 ; elle fonctionne en pair à pair9 ; elle est copyleft10 ; elle favorise les petits plutôt que les grands, les simples plutôt que les complexes et tout ce qui est modulaire plutôt que monolithique11 ; elle respecte les droits humains, leurs efforts et leur expérience12 ; elle est à l’échelle humaine13.
  • ...6 more annotations...
  • Ces critères signifient que la Small Tech : est la propriété des individus qui la contrôlent, et non des entreprises ou des gouvernements ; respecte, protège et renforce l’intégrité de la personne humaine, des droits humains, de la justice sociale et de la démocratie à l’ère du numérique en réseau ; encourage une organisation politique non-hiérarchisée et où les décisions sont prises à l’échelle humaine ; alimente un bien commun sain ; est soutenable ; sera un jour financée par les communs, pour le bien commun. ne rapportera jamais des milliards à quiconque.
  • Des entreprises comme Google et Facebook sont des fermes industrielles pour les êtres humains. Leurs produits sont les machines agricoles. Ils doivent fournir une façade brillante pour garder notre attention et nous rendre dépendants afin que nous, le bétail, puissions volontairement nous autoriser à être exploités. Ces institutions ne peuvent être réformées. Les Big Tech ne peuvent être réglementées que de la même manière que la Big Tobacco pour réduire ses méfaits sur la société. Nous pouvons et devrions investir dans une alternative éthique : la Small Tech
  • Nous construisons la Small Tech principalement pour le bien commun, pas pour faire du profit. Cela ne signifie pas pour autant que nous ne tenons pas compte du système économique dans lequel nous nous trouvons actuellement enlisés ou du fait que les solutions de rechange que nous élaborons doivent être durables. Même si nous espérons qu’un jour Small Tech sera financé par les deniers publics, pour le bien commun, nous ne pouvons pas attendre que nos politiciens et nos décideurs politiques se réveillent et mettent en œuvre un tel changement social. Alors que nous devons survivre dans le capitalisme, nous pouvons vendre et faire des profits avec la Small Tech. Mais ce n’est pas notre but premier. Nos organisations se préoccupent avant tout des méthodes durables pour créer des outils qui donnent du pouvoir aux gens sans les exploiter, et non de faire du profit. Small Tech n’est pas une organisation caritative, mais une organisation à but non lucratif
  • La vie privée, c’est avoir le droit de décider de ce que vous gardez pour vous et de ce que vous partagez avec les autres. Par conséquent, la seule définition de la protection de la vie privée qui importe est celle de la vie privée par défaut. Cela signifie que nous concevons la Small Tech de sorte que les données des gens restent sur leurs appareils. S’il y a une raison légitime pour laquelle cela n’est pas possible (par exemple, nous avons besoin d’un nœud permanent dans un système de pair à pair pour garantir l’accessibilité et la disponibilité), nous nous assurons que les données sont chiffrées de bout en bout et que l’individu qui possède l’outil possède les clés des informations privées et puisse contrôler seul qui est à chacun des « bouts » (pour éviter le spectre du Ghosting)
  • La configuration de base de notre technologie est le pair à pair : un système a-centré dans lequel tous les nœuds sont égaux. Les nœuds sur lesquels les individus n’ont pas de contrôle direct (p. ex., le nœud toujours actif dans le système pair à pair mentionné dans la note précédente) sont des nœuds de relais non fiables et non privilégiés qui n’ont jamais d’accès aux informations personnelles des personnes.
  • La Small Tech est conçue par des humains, pour des humains ; c’est une approche résolument non-coloniale. Elle n’est pas créée par des humains plus intelligents pour des humains plus bêtes (par exemple, par des développeurs pour des utilisateurs – nous n’utilisons pas le terme utilisateur dans Small Tech. On appelle les personnes, des personnes.) Nous élaborons nos outils aussi simplement que possible pour qu’ils puissent être compris, maintenus et améliorés par le plus grand nombre. Nous n’avons pas l’arrogance de supposer que les gens feront des efforts excessifs pour apprendre nos outils. Nous nous efforçons de les rendre intuitifs et faciles à utiliser. Nous réalisons de belles fonctionnalités par défaut et nous arrondissons les angles.
  •  
    "Et si les géants de la technologie numérique étaient concurrencés et peut-être remplacés par les nains des technologies modestes et respectueuses des êtres humains ? Telle est l'utopie qu'expose Aral Balkan ci-dessous. Faut-il préciser que chez Framasoft, nous avons l'impression d'être en phase avec cette démarche et de cocher déjà des cases qui font de nous ce qu'Aral appelle une Small Tech (littéralement : les petites technologies) par opposition aux Big Tech, autrement dit les GAFAM et leurs successeurs déjà en embuscade pour leur disputer les positions hégémoniques. Article original sur le blog d'Aral Balkan : Small technology"
Aurialie Jublin

Chartes et manifestes numérique et éthique - HackMD - 0 views

  • En français Manifeste RESET - 2019 - FING Label territoire numérique inclusif-mars 2019 Orientations stratégiques cadrant le développement des projets numériques au Pôle Solidarité Citoyenneté Culture de Rennes métropole 1 Développer des services numériques nouveaux pour une accessibilité renforcée aux services publics 2 Lutter contre la fracture numérique (et l’intégrer dans le point numéro 1) 3 Impulser une culture collaborative (personnes morales, habitants, institutions, etc) 4 Faire place et donner à voir l’innovation et l’expérimentation 5 Accompagner en interne l’appropriation d’une culture du numérique dans la collectivité. Conception numérique responsable - Low tech - Green IT (eco-responsable) Charte territoire France connectée pour un numérique inclusif (décembre 2018 - Etat-Gironde) - il existerait un pdf en ligne :-) Déclaration de Montréal IA Responsable Charte sur l’usage de la donnée - Nantes métropole - juin 2019 Manifeste de la fabcity Manifeste pour une démocratie délibérative (civic tech-BlueNove) Projet de charte des smart cities (ADULLACT - juin 2019) Charte PrestaLibre pour les relations entre prestataires informatiques et collectivités (2018, Lorient et les Consometers). Charte de l’aidant numérique, ville de Paris Charte de l’aidant numérique, Grand Chambery CHARTE DE L’ACCOMPAGNEMENT NUMERIQUE DES RESEAUX LOCAUX D’INCLUSION NUMERIQUE, Stratégie Départementale d’Inclusion numérique des Pyrénées-Atlantique Kit et modèle de mandat de la CNIL pour les travailleurs sociaux Charte internationale des données ouvertes [Serment d’Hippocrate pour Data Scientist by Data For Good] Explications (https://www.hippocrate.tech/) Serment (https://framavox.org/g/Qtz0JHr9/dataforgood-serment) Charte qualité des données de Datatourisme Charte de l’IFLA sur Internet en bibliothèque Charte Biblib ABF (Association des bibliothécaire de France)
  •  
    "L'objectif est de recenser des ressources de type "charte" ou "manifeste" permettant de cadrer éthiquement les développements de projets/plateformes/services/médiations outillés par du numérique, notamment sur des territoires. L'idée est de ne pas se focaliser sur la performance, la précision, le passage à l'échelle de nouveaux services ou de processus optimisés, mais de fabriquer des territoires souhaitables, à l'aide du numérique (le numérique peut servir à "ralentir" ou "déconnecter" des espaces-temps, par exemple. Il peut respecter des principes, utiliser des méthodes éco-responsables, des valeurs comme la démocratie, etc)."
Aurialie Jublin

SORI : les tendances à l'œuvre dans l'usine du futur - Metis - 0 views

  • Pour Hervé Valliet, le robot ne tue pas l’emploi. Il permet de retrouver de la compétitivité, ce qui engendre une augmentation du chiffre d’affaires, et permet la création de nouveaux emplois. SORI a créé cinq nouveaux emplois en deux ans, uniquement à la production, et prévoit d’en créer au moins cinq autres dans les deux ans qui viennent grâce à l’augmentation des volumes. À la question « jusqu’où voudriez-vous croître ? », Hervé Valliet répond que 50 personnes lui semblent être un palier, et ce point de vue semble partagé par le personnel. Au-delà, cela deviendrait un autre type d’entreprise.
  • En matière d’organisation du travail : Associer les personnels à l’introduction de technologies — mise au point du cahier des charges, choix de l’équipement, adaptation et réglage, révision du processus de production — permet d’optimiser l’outil et de faciliter son acceptation par les équipes. Lorsque l’autonomisation des personnes précède l’introduction des technologies, leur appropriation est plus aisée et plus efficace. L’autonomie résulte souvent de la volonté et de l’exemplarité du dirigeant qui fait un pari sur la confiance et apprend à lâcher prise. Réduire ou supprimer la hiérarchie intermédiaire permet d’évacuer le territoire de la décision, ce qui favorise l’autonomie des opérateurs. Le droit à l’erreur et la transparence sont des facteurs qui construisent la confiance. La prise en compte dès la conception de la manière dont sera fabriqué le produit est un facteur d’efficience. Elle met en cause la séparation « taylorienne » entre bureau d’études, méthodes et fabrication.
  • En matière de gestion des compétences : Adapter les compétences par la formation est un enjeu prioritaire. Ces formations peuvent être courtes et développées avec les fournisseurs de solutions. Il faut tenir compte du fait que la formation peut susciter des résistances chez les personnels de production, et les préparer en amont. Regarder le potentiel des personnes, les savoir-être et les capacités dont témoigne le hors CV permet d’ouvrir les sources de recrutement sur un marché des compétences tendu pour les emplois de production.
  •  
    "Le cas de SORI, une entreprise manufacturière de 38 salariés en Isère, permet de visualiser les conditions et étapes d'une transformation vers l'usine du futur à l'échelle d'une PME. Côté organisation du travail et compétences : Une organisation basée sur l'autonomie et la confiance, qui a nécessité un changement radical au Bureau d'études, le recrutement basé sur le savoir-être plutôt que sur les compétences techniques, et beaucoup de formation."
‹ Previous 21 - 31 of 31
Showing 20 items per page