Skip to main content

Home/ QN2019/ Group items tagged usine

Rss Feed Group items tagged

Aurialie Jublin

Le mythe de la technologie salvatrice | Esprit Presse - 0 views

  • Le débat entre les pessimistes, qui craignent pour l’environnement, et les optimistes, tenants du business as usual, ne porte donc pas sur la nécessité d’agir – personne n’est vraiment pour la disparition des éléphants ou la contamination des nappes phréatiques aux pesticides –, mais sur la gravité du problème, l’intensité et la vitesse avec laquelle il faudrait réagir, la possibilité de changer modes de production et habitudes de consommation, la manière (régulation, taxes, incitations, soutien public…) et les moyens (financiers, techniques) de mener la transition.
  • De fait, les solutions techniques sont présumées disponibles et abordables, sinon à portée de main, que ce soit pour les énergies « décarbonées », les solutions de mobilité du futur ou la capacité des rendements agricoles à toujours s’accroître – ou à se maintenir. Les plus audacieux, comme Jeremy Rifkin, vont jusqu’à promettre de telles « ruptures » technologiques – un vocable à la mode – que tout ou presque en deviendrait gratuit ou à « coût marginal zéro », à commencer par l’énergie issue de sources renouvelables2.
  • La pénurie a bien été un aiguillon essentiel, à l’origine d’une grande partie des innovations de la révolution industrielle, car la croissance permanente de la consommation allait bientôt dépasser les capacités de ponction sur les ressources renouvelables, locales ou importées. Jusque tard dans le xixe siècle, il y eut une limite purement « surfacique » à la production de produits essentiellement animaux et végétaux 
  • ...11 more annotations...
  • Globalement (hors l’épineux problème de répartition), le système technique, enchâssé dans un système social, moral et culturel qu’il modifiait à mesure, a plutôt bien répondu aux « besoins ». Mais cela a eu un prix : celui d’une fuite en avant, d’une accélération permanente entre des risques de pénuries et de nouvelles solutions pour y répondre, créant elles-mêmes de nouveaux besoins et de nouveaux risques ; celui de pollutions, de destructions sociales et environnementales sans précédent. Nos « ingénieurs thaumaturges » font rarement des omelettes sans casser des œufs.
  • À quoi ressembleraient nos campagnes, s’il avait fallu y monter les nouvelles usines – et assumer leurs rejets – pour notre consommation exponentielle de téléphonie, d’informatique, de jouets, de vêtements ? Pour y répondre, il faut regarder les zones industrielles chinoises. Mais grâce à la distance, nous nous berçons d’illusions sur la « dématérialisation » de l’économie et la croissance « verte » à base de nouvelles technologies.
  • Le numérique n’a rien de virtuel. Il mobilise toute une infrastructure, des serveurs, des bornes wifi, des antennes-relais, des routeurs, des câbles terrestres et sous-marins, des satellites, des centres de données… Il faut d’abord extraire les métaux (argent, lithium, cobalt, étain, indium, tantale, or, palladium…), engendrant destruction de sites naturels, consommation d’eau, d’énergie et de produits chimiques nocifs, rejets de soufre ou de métaux lourds et déchets miniers. Ensuite fabriquer les composants, comme les puces au silicium qui nécessitent quantité d’eau purifiée, mais aussi du coke de pétrole, du charbon, de l’ammoniaque, du chlore, des acides, etc., fournis par le cœur du capitalisme « carbonifère9 ». Puis faire fonctionner le tout, avec plus de 10 % de l’électricité mondiale ! Enfin, se débarrasser des déchets électroniques, parmi les plus complexes à traiter : une partie – majoritaire – est incinérée ou jetée en décharge ; une autre rejoint les circuits « informels » (Afrique de l’Ouest, Chine…), où ils sont brûlés à l’air libre et empoisonnent les sols et les eaux. Le reste rejoint quelques usines spécialisées, qui ne récupèrent que partiellement les ressources. In fine, le taux de recyclage de nombreux métaux rares est inférieur à 1 %, un terrible gâchis.
  • Pourtant, plus que jamais, nous vivons dans la religion exclusive du « techno-solutionnisme », en plaçant tous nos espoirs dans les innovations et les effets bénéfiques (futurs) du numérique, en fantasmant un monde où tout sera bien mieux optimisé, où les outils et les services numériques seront facteurs d’efficacité et de sobriété : énergies renouvelables distribuées par des smart grids, covoiturage bientôt servi par des véhicules autonomes, déplacements fluidifiés dans les smart cities, économie de la fonctionnalité réduisant les équipements individuels, etc., sans parler des biotechnologies et des applications médicales.
  • Mieux, les technologies de demain ne seront pas seulement propres, elles seront réparatrices : les bactéries modifiées génétiquement dépollueront les sols, les big data et les capteurs protégeront les forêts tropicales, la science ressuscitera même le mammouth laineux, dont l’Adn dégèle en même temps que le permafrost.
  • Peut-on compter sur une « sortie par le haut » à base d’innovation technologique ? Il serait périlleux de tout miser dessus. En premier lieu parce que la plupart des technologies prétendument « salvatrices » nécessitent, à plus ou moins grande échelle, des ressources métalliques, non renouvelables, et viennent accélérer, plutôt que remettre en cause, le paradigme « extractiviste » de notre société thermo-industrielle
  • En second lieu parce que les gains d’efficience sont balayés par un formidable effet « rebond ». Indéniablement, la consommation d’énergie des véhicules, des avions, des centres de données, des procédés industriels baisse régulièrement, les innovations sont nombreuses et les progrès réels. Mais la croissance du parc automobile, des kilomètres parcourus, des données échangées et stockées est largement supérieure aux gains unitaires. Entre 2000 et 2010, le trafic internet a été multiplié par cent. Que vaut alors une amélioration de quelques dizaines de points d’efficacité énergétique par octet ?
  • Il n’y a pas de solution technique permettant de maintenir – et encore moins de faire croître – la consommation globale d’énergie et de ressources. En continuant à alimenter la « chaudière du progrès11 », nous nous heurterons tôt ou tard aux limites planétaires, régulation climatique en tête. C’est donc – aussi – vers l’économie de matières qu’il faut orienter l’innovation. Avant tout par la sobriété, en réduisant les besoins à la source, en travaillant sur la baisse de la demande et pas seulement sur le remplacement de l’offre.
  • Mais on peut imaginer toute une gamme d’actions, comme bannir le jetable, les supports publicitaires, l’eau en bouteille, revenir à des emballages consignés, composter les déchets même en ville dense, brider progressivement la puissance des véhicules et les alléger, avant de passer au vélo, adapter les températures dans les bâtiments et enfiler des pull-overs, car il est bien plus efficace, plus simple, plus rapide, d’isoler les corps que les bâtiments !
  • Pour recycler au mieux les ressources et augmenter la durée de vie de nos objets, il faudra les repenser en profondeur, les concevoir simples et robustes (Ivan Illich aurait dit « conviviaux »), réparables et réutilisables, standardisés, modulaires, à base de matériaux simples, faciles à démanteler, n’utiliser qu’avec parcimonie les ressources rares et irremplaçables comme le cuivre, le nickel, l’étain ou l’argent, limiter le contenu électronique. Quitte à revoir le « cahier des charges », accepter le vieillissement ou la réutilisation de l’existant, une esthétique moindre pour les objets fonctionnels, parfois une moindre performance, de l’intermittence, une perte de rendement ou un côté moins « pratique ».
  • Pourquoi ne pas tenter plutôt la voie d’une transition post-croissance vers un nouveau « contrat social et environnemental » ?
  •  
    "Les coûts écologiques de la technique (déchets, pollution) sont rendus invisibles par la délocalisation de la production industrielle. Ils devraient nous inciter à promouvoir une technologie sobre et résiliente."
Aurialie Jublin

Dans les quartiers Nord de Marseille, des salariés envisagent de transformer ... - 0 views

  • Dans cette zone où les usines et les commerces ont fermé les uns après les autres, et où la République ne met plus guère les pieds [1], le McDo constitue un petit poumon économique auquel les salariés ont su donner une forte dimension sociale. « J’étais un petit délinquant, et le directeur de l’époque m’a ouvert une porte qui m’a permis d’obtenir un emploi [2]. Je veux que cette porte reste ouverte derrière moi, pour les jeunes qui arrivent », explique Kamel. Combien de jeunes du quartier ont connu leur première expérience professionnelle dans ce restaurant, qui a ouvert ses portes en 1992 ? Combien ont pu suivre une formation après y avoir travaillé, pour devenir plombier, électricien, ambulancier ? Combien, aussi, ont pu aller y bosser en accord avec un juge d’application des peines ? Combien ont pu passer leur permis de conduire après y avoir trouvé un job d’été ? Plusieurs centaines, c’est certain. Plus d’un millier, probablement.
  • Investi au sein de l’association « Syndicat des quartiers populaires de Marseille », Salim Grabsi confirme le rôle crucial que joue ici le McDo : « Il est implanté au cœur de différents quartiers qui ont pour point commun de souffrir d’une déficience des pouvoirs publics. Tous ses salariés sont issus de ces quartiers. Ce sont souvent des gens qui ont été cabossés par la vie. Lorsque des parents, des responsables associatif, ou des structures comme la nôtre repèrent des jeunes en difficulté, qui ont besoin d’une main tendue pour ne pas basculer dans la délinquance, on les oriente vers le McDo. Les directeurs successifs ont toujours joué le jeu, en leur faisant signer des petits contrats ou en les embauchant. Cet établissement est un intégrateur, un véritable amortisseur social. » Une dimension qui n’a pas ravi la direction du groupe McDonald’s France.
  • En début d’année, les salariés apprenaient que le franchisé et le groupe – ils possèdent l’établissement à 50-50 – comptaient revendre leur restaurant à un obscur homme d’affaires, lequel aurait un projet de « fast-food asiatique halal » [3]. « On prend ça comme une insulte, c’est très stigmatisant : on est dans les quartiers Nord, donc on est tous musulmans ?!, interroge Kamel. Nous, on ne veut pas d’un truc communautaire, on veut que tout le monde puisse venir. » Quant au prétendu repreneur, il est totalement inconnu, ne s’est jamais présenté devant les salariés, ne possède à l’heure actuelle aucun restaurant...
  • ...4 more annotations...
  • « Nous sommes en présence de l’une des plus belles tentatives d’escroquerie qui m’ait été donnée de voir dans toute ma carrière d’avocat », a rétorqué Me Blindauer. Selon l’avocat des salariés, les garanties de préserver tous les emplois durant au moins un an sont vaines, puisque, s’il ouvrait vraiment ses portes, le « fast-food asiatique halal » ne tiendrait de toutes manières pas plus de quelques mois. Pour Me Blindauer, l’objectif pour McDonald’s France est ailleurs : faire disparaître l’un des très rares bastions syndicaux au sein de McDo. Le prétendu repreneur « n’est pas là pour faire prospérer l’entreprise, il est là pour la couler ! », estime l’avocat.
  • Le McDonald’s de Saint-Barth’, en effet, a été façonné au fil des années par ceux qui y travaillent. Il ne correspond donc plus au « modèle social » de l’entreprise. Il s’agit certes, comme dans 84% des cas, d’un restaurant franchisé. Mais le nombre de salariés de cet établissement, 77, y est inhabituellement élevé. « McDonald’s utilise très généralement l’astuce suivante : un restaurant McDo = une société juridiquement distincte de toutes les autres. Et il est très rare qu’un restaurant seul emploie plus de 50 salariés en équivalent temps plein. Ainsi, un franchisé peut être à la tête d’un ensemble de 20 restaurants et employer plus d’un millier de salariés, tout en y appliquant le droit du travail qui prévaut dans les sociétés de moins de 50 salariés », indique le rapport Le Système Mcdo [5].
  • L’établissement de Saint-Barth’ est ainsi l’un des rares qui dispose d’un comité d’entreprise et d’un CHSCT. Autre particularité, les employés sont pour la plupart en poste depuis plus de quinze ans, alors que le taux de remplacement national (ou « turn-over ») au sein de l’entreprise s’élève, selon certaines estimations, à 88 % par an ! Les salariés marseillais faisant valoir leurs droits, ils ont obtenu le 13e mois, la participation aux bénéfices, des primes trimestrielles, la prise en charge de la mutuelle à 95 % par l’entreprise… Dans la galaxie McDonald’s, ce n’est pas banal. Et comme la stratégie du groupe consiste notamment à maintenir au plus bas les frais de personnel, il ne faudrait pas que le cas marseillais fasse tache d’huile.
  • Mais les choses pourraient ne pas se passer comme le prévoit monsieur Bordas : le 7 septembre, le juge des référés a annulé la vente du restaurant. Les salariés veulent désormais récupérer la franchise de l’établissement et créer une société coopérative et participative (Scop), qui leur appartiendrait. Le groupe fait pour l’instant la sourde oreille.
  •  
    "Important pour la vie sociale locale, le restaurant McDonald's de Saint-Barthélémy, dans les quartiers Nord de Marseille, est aussi un bastion syndical, où les conditions d'emploi sont bien meilleures que dans les autres restaurants de l'enseigne. McDonald's France tente cependant de se débarrasser de son établissement, dans des conditions laissant craindre sa fermeture prochaine. C'était sans compter la résistance des 77 salariés, engagés depuis plusieurs mois dans un véritable bras de fer. Ils ont obtenu de la justice l'annulation de la vente, et envisagent de transformer leur McDo en société coopérative ! Un reportage tiré du numéro d'octobre du journal L'âge de faire, partenaire de Basta !."
Aurialie Jublin

La Société Générale s'offre Lumo, la start-up bordelaise mi-fintech mi-greentech - 0 views

  •  
    La Société Générale rachète Lumo. Fondée en 2012, cette start-up a développé une plate-forme d'épargne participative dédiée à la transition énergétique.
Aurialie Jublin

« Il existe deux Internets : celui des « précurseurs » et celui des classes p... - 0 views

  • Ce qui est frappant, c’est que les milieux populaires participent très peu en ligne. Sur Internet, la prise de parole est très fortement associée au niveau de diplôme. Des enquêtes comme celle menée par Trevor Pinch et Filip Kesler montre ainsi que la plupart des top reviewers d’Amazon sont des hommes, très diplômés… Aujourd’hui la vraie fracture est ici, au niveau de la participation et de la production en ligne. C’est comme si maintenant tout le monde avait Internet, mais que certains s’en servaient pour faire des choses que les autres n’osent pas faire. J
  • Il existe ainsi deux Internets : celui des gens qui innovent, produisent, sont créatifs etc. et l’Internet des classes populaires, qui est un Internet à bas bruit, où l’on communique avec les gens de sa famille et qui est très présent dans la vie, très central – mais qui n’est pas le même que l’autre. Et il n’y a pas d’échanges entre l’internet « précurseur » et l’internet à bas bruit, qui est très très important pour ceux qui l’ont, mais n’est pas ouvert sur autre chose.
  • Le hasard heureux, la « sérendipité » en ligne… arrivent plutôt à des gens qui sont très, très diplômés. Ceux que j’ai étudié ne font que recopier ce que les autres ont déjà dit ! Ils communiquent beaucoup avec des images, des textes écrits par d’autres… Cela s’explique relativement bien : beaucoup de ces personnes ne sont pas allés longtemps à l’école. Même si Internet permet d’écrire avec des fautes, elles préfèrent passer par des images et des phrases déjà conçues.
  • ...6 more annotations...
  • Je m’attendais à voir des gens qui n’arrivaient pas à trouver ce qu’ils cherchaient, or ce n’était pas du tout le cas. Ils utilisaient tout le temps Internet pour faire des recherches et pour apprendre. Ils cherchent souvent des savoirs très spécialisés, pratiques : apprendre à jongler, danser telle danse, construire sa maison… Internet fonctionne alors comme une deuxième école, où acquérir des savoirs non certifiés par le système scolaire. Et ça représente des enjeux très forts pour de petites mobilités sociales, pour des gens qui ne sont pas allés à l’école. Je pense par exemple à cet homme qui va très tôt sur le marché de Caen acheter des sacs Chanel, qui a appris en ligne à estimer leur valeur, à rédiger des notices sur son compte Ebay, et qui correspond désormais avec un client anglais et un japonais : il ne parle aucune de ces langues mais il utilise Google Traduction. Ou encore à ce pâtissier qui confectionne des « wedding cakes » et des recettes inspirées par des chefs américains ou japonais dans un tout petit village…
  • En quoi peut-on parler de « petites mobilités sociales » ? Avec Internet, ces gens peuvent, sans changer nécessairement de métier, changer leur manière d’être au monde. Maintenant on peut très facilement récupérer des informations qui étaient auparavant complètement inaccessibles, faute d’interlocuteurs, de ressources... Des femmes employées dans des maisons de retraite, dans des positions très subalternes, des agents de service par exemple, me racontaient qu’elles rentraient chez elles le soir et cherchaient des mots employés par les médecins dans la journée. Le lendemain, elles avaient repris un peu de « pouvoir », comme diraient les gens qui travaillent avec le concept d’empowerment. Il y a indéniablement une ouverture sur des zones de connaissance et de façon d’être moins, à défaut d’un autre mot, démunie — Internet ouvre des façons d’être au monde en n’étant pas subalterne du côté du savoir.
  • Facebook propose un même dispositif à tout le monde, mais si vous êtes cadre supérieur vous y mettrez tous vos contacts professionnels et si vous êtes manœuvre en usine, vous posterez des clips de Johnny, des bandes annonces de Sophie Marceau et des nouvelles de la famille. Ces outils sont des dispositifs plastiques, dont les gens peuvent s’emparer de manière très différente.
  • Le mail n’est pas aimé. C’est de l’écrit, qui n’est pas censé être complètement phonétique (contrairement à Facebook), c’est asynchrone… Le mail est assimilé à une non-relation. Il n’est pas utilisé pour la correspondance personnelle mais les achats et les contacts avec l’administration. J’ai ainsi rencontré des gens qui ont 500 mails non ouverts… Ceci pose un problème majeur dans la communication avec Pôle Emploi, la CAF : tout ceci fonctionne largement par mail, or ces mails sont perdus dans un océan de pub venant des sites d’achats.
  • Personne ne m’en a parlé. Lors des entretiens, les aspects néfastes d’Internet apparaissaient sous l’angle de la perte de la communication en face à face, des problèmes de l’anonymat… Mais pas de la collecte de données. Est-ce que ça veut dire que c’est une inquiétude qui n’a pas traversé cette zone sociale ? C’est possible. Il faudrait peut-être des campagnes d’information auprès des milieux populaires. Car c’est une question qui n’est jamais sortie en entretien. Comme s’il n’y avait pas les mêmes problèmes publics dans tous les milieux sociaux.
  • L’échec du contact dématérialisé avec les services sociaux est majeur – tout comme l’est le succès des applications bancaires. Ce qui montre bien que cet échec n’est pas lié à une méfiance de la dématérialisation. J’ai rencontré une femme qui consulte son appli bancaire avant de faire chaque course. On voit bien que ces dispositifs sont entrés dans les habitudes, parce qu’ils rendent un service énorme, qu’ils sont désangoissants : on sait quand arrivent les virements, les prélèvements, on sait exactement ce qui reste… Mais ce n’est pas utilisé de la même manière dans les classes supérieures, qui ne s’en servent pas comme d’un fil continu.
  •  
    "Sociologue, Dominique Pasquier a mené une recherche de plusieurs années sur les usages numériques des familles modestes. Avec des entretiens qualitatifs et l'examen de comptes Facebook, elle a dessiné une cartographie, sensible et précise, des usages des Français des « classes populaires ». Elle décrit un « autre Internet », bien différent de celui des classes supérieures, mais qu'elle refuse de décrire comme plus pauvre."
Aurialie Jublin

Livreur.ses de tous les pays, unissons-nous ! | La Rue est notre Usine - 0 views

  • Du côté des institutions, après de longues procédures d’investigation le ministère du Travail vient de lancer une procédure en attaquant Deliveroo pour salariat déguisé. Le ministère des Transports s’en prend lui à l’absence de licence des livreurs en scooter et a également commencé une procédure. Elles n’en sont qu’au stade de dépôt au parquet. Si nous ne pouvons que nous réjouir de la prise de conscience des ministères publics des problèmes de l’ubérisation, nous restons attentifs et relativement inquiets des conséquences que pourront avoir les jugements. Peut-on craindre qu’après un jugement positif en notre faveur les multinationales soient obligées de cesser leurs activités en France ? Et donc de mettre à la rue un grand nombre de livreurs ? Nous réaffirmons nos revendications qui sont de profiter des avantages sociaux comme l’ensemble des autres travailleurs et de gérer les boîtes à la base par et pour les livreurs, par et pour nous.
  • Une des perspectives d’émancipation des livreurs, face au refus de Deliveroo de tout dialogue concernant l’amélioration de nos conditions de travail, est de créer nos propres structures. La forme privilégiée repose sur des structures coopératives autogérées par et pour les livreurs. Si la création de coopératives semble difficile à penser dans un grand nombre de secteurs (industrie par ex.), notamment parce qu’il faut un capital de départ important, difficile à réunir sans passer par des banques (on peut néanmoins citer l’exemple des Fralib qui après des années de luttes ont réussi à récupérer leur outil de travail), elle s’affranchit de beaucoup de problématiques pour la question des livraisons de repas.
  • Il nous paraît tout de même important de ne pas idéaliser les coopératives comme une solution finale. Les coopératives ont en effet deux buts liés et non exclusifs. Elles doivent être pour nous, à la fois comprises comme une perspective de lutte et d’émancipation. Mais cette stratégie ne peut pas se passer des luttes sociales chez Deliveroo, car tant que ces multinationales exploiteront leurs travailleurs, une coopérative ne pourra pas être concurrentielle en termes de tarif et devra donc se contenter de marchés limités, ne pouvant ainsi pas fournir un travail à tous les livreurs, qui devront donc continuer à se faire exploiter. De plus, en cas de manque de commandes, les livreurs sont obligés de s’auto-exploiter. Il faut donc voir les coopératives comme un élément d’une lutte générale contre les multinationales qui ne peut pas se passer de l’auto-organisation des travailleur.se.s.
  • ...6 more annotations...
  • C’est le but de l’association Coopcycle qui développe depuis 2016 une application qui permet de répartir les commandes entre les livreurs. Elle est utilisée par deux coopératives à Bordeaux et Molenbeek. Le but est simple et le résultat efficace, se passer des multinationales, éviter le vol de la plus-value et pouvoir répartir collectivement les bénéfices. Ces coopératives sont également la solution, de fait, pour les livreurs virés/réprimés pour s’être battus. Les camarades livreurs de la CGT à Bordeaux, qui ont été parmi les premiers mobilisés de France, ont pour la plupart aujourd’hui été virés de Deliveroo ou de Foodora après les mouvements de grèves. Ils ont ainsi créé leur propre coopérative, la coopérative des coursiers bordelais.
  • On voit clairement que les syndicats ont cherché à intégrer les livreurs et leurs spécificités dans un moule qui ne correspond pas forcément à leurs besoins. Cependant nous avons toujours pu compter sur des équipes spécifiques de la CGT et de Solidaires pour nous soutenir, que ce soit sur le plan financier, juridique ou organisationnel. Un certain nombre de militants de ces structures, parce qu’ils ont compris le risque que présente l’ubérisation, nous ont été d’une aide inestimable, et nous ne saurons jamais les remercier assez. Ils ont, c’est certain, fait beaucoup plus que quiconque pour rapprocher les jeunes précaires des structures syndicales qu’ils considéraient bien trop souvent comme des coquilles vides et inutiles.
  • Se battre lorsqu’on est précaire dans un travail qui n’est pas indispensable à l’économie est difficile. Mais lorsqu’on est individualisé à l’extrême cela devient très compliqué. C’est pourquoi nous sommes convaincus qu’une amélioration de nos conditions de travail et de vie ne peut se faire qu’en lien avec d’autres secteurs précaires et le reste du monde du travail. Nous tâchons donc d’essayer de prendre contact avec un maximum de monde, de créer des convergences de luttes avec d’autres secteurs pour pouvoir échanger sur nos conditions de travail, nos stratégies de luttes, mais également pouvoir partir ensemble dans un affrontement contre la précarité. Par exemple Stuart, start up française de livraison a été rachetée par le groupe La Poste. Il n’est pas inenvisageable, au vu des stratégies actuelles de flexibilisation du travail menées par ce groupe, que vos colissimos soient livrés 7/7j par des autoentrepreneurs. Afin d’éviter les divisions et parce que nous avons les mêmes intérêts objectifs que les postiers, nous sommes entrés en contact avec leurs syndicats pour réfléchir collectivement à une réponse positive pour les deux secteurs.
  • C’est pourquoi dès la première journée de mobilisation à Paris en août 2017 nous avons cherché à nous coordonner avec les autres collectifs de livreurs en France afin de faire valoir nos mobilisations au même moment et de nous mettre d’accord sur des mots d’ordre et des revendications. Cela a donné naissance à la CAVAL (Coordination d’actions vers l’autonomie des livreurs), structure nationale pérenne de mobilisations et d’échange d’informations. Ce qui a permis que, par la suite, la plupart des journées d’actions soient nationales. Mais pour mettre une pression suffisante sur Deliveroo, présent dans la plupart des pays européens, ce n’est pas suffisant. C’est pourquoi nous avons entrepris depuis quelques mois de nous coordonner au niveau européen. Nous avons ainsi rencontré des livreurs de Turin, Bologne, Vienne, Londres et nous sommes allés soutenir les grèves du mois de Janvier à Bruxelles.
  • La grève est très souvent considérée comme un outil daté, qui ne fonctionnerait plus. Le capitalisme se serait modifié et les nouvelles formes du travail seraient particulièrement touchées par ce constat. Nous pensons au contraire que la grève reste le moyen le plus efficace et le plus juste pour gagner le rapport de force qui oppose les livreurs et la multinationale. Parce que c’est le principal levier que nous avons pour engager un bras de fer économique avec la multinationale et qu’il se fait à la base par les travailleurs, les premiers concernés. Cependant, en raison des caractéristiques spécifiques de notre exploitation, il nous faut repenser la grève pour l’adapter aux modalités de ces nouvelles formes de travail. Nous avons pris la décision de bloquer les restaurants pour mettre un maximum la pression et faire perdre le plus d’argent possible aux multinationales.
  • Pour éviter la répression, nous devons être nombreux pour ne pas nous faire virer instantanément, mettre nos téléphones en mode avion (ils ont accès à notre géolocalisation) et faire masse. Cela permet de discuter entre nous plus longtemps que 5 minutes entre deux livraisons, de recréer une conscience collective du travail : nous sommes collègues et non concurrents. Nous étions pour la plupart masqués lors des premières mobilisations, mais paradoxalement c’est beaucoup plus radical de se mobiliser à visage découvert et de revendiquer qu’en France en 2018 on a le droit de se battre pour nos conditions de travail. Par la grève, et la grève seule, nous pourrons nous emparer des moyens de production et faire en sorte que Deliveroo appartienne à ses livreurs et non à des obscurs actionnaires et des fonds de pension.
  •  
    "L'ubérisation, stade suprême du capitalisme ? Depuis quelques années, les plateformes numériques réorganisent et transforment le travail, permettent à leurs propriétaires de maximiser leurs profits et de diviser les travailleurs. Ces derniers paient le prix fort : mal rémunérés, payés à la tâche, condamnés à la précarité. Malgré ces obstacles, les forçats de la pédale s'organisent et mènent des luttes. Dans cet article, un membre du collectif des livreurs autonomes de Paris (CLAP) nous raconte les mobilisations en cours face à Deliveroo. Au niveau local, national et transnational, les livreurs s'organisent, font alliance avec les syndicats et font pression sur la multinationale. Ils inventent des solutions qui permettront à l'avenir de créer une économie au service de ceux qui la font tourner."
Aurialie Jublin

[Écologie] Le monde du logiciel est en train de se détruire... Manifeste pour... - 0 views

  • Tout est lent, et cela ne va pas dans le bon sens. Certaines voix s’élèvent. Je vous invite notamment à lire “Le désenchantement du logiciel”. Tout est insupportablement lent, tout est ÉNORME, tout finit par devenir obsolète… La taille des sites web explose. Un site web est aussi gros que le jeu Doom. Le phénomène ne touche pas que le Web mais aussi l’IoT, le mobile… Le saviez-vous ? Il faut 13% de CPU pour faire clignoter un curseur…
  • Tout grossit : la taille des applications, les données stockées, la taille des pages web, la mémoire des téléphones… Les téléphones ont maintenant 2 Go de mémoire, échanger une photo de 10 Mo par mail est maintenant classique… À la limite, cela ne serait peut-être pas un problème si tous les logiciels étaient utilisés, efficaces et performants… Mais cela n’est pas le cas,
  • Alors tout le monde se cale sur une lenteur. Tout est uniformément lent. On se cale sur cela et tout va bien. Être performant aujourd’hui, c’est arriver à atteindre un ressenti utilisateur qui correspond à cette lenteur uniforme. On élague les choses qui pourraient être trop visibles. Une page qui met plus de 20 secondes à se charger, c’est trop lent. Par contre, 3 secondes c’est bien. 3 secondes ? Avec les multicoeurs de nos téléphones/PC et les data centers partout dans le monde, le tout relié par des supers technologies de communication (4G, fibre…),c’est un peu bizarre non ? Si on regarde la débauche de ressources pour le résultat obtenu, 3 secondes, c’est énorme. D’autant plus que les bits circulent dans nos processeurs avec des unités de temps du niveau de la nanoseconde. Donc oui, tout est uniformément lent.
  • ...29 more annotations...
  • Il est nécessaire de revenir à plus d’efficience, de « challenger » les besoins en matériel, de redéfinir ce qu’est la performance. Tant que l’on se satisfera de cette lenteur uniforme avec des solutions pour ne pas ralentir plus (comme l’ajout de matériel), nous n’avancerons pas. La dette technique, notion largement assimilée par les équipes de développement, n’est malheureusement pas adaptée à ce problème (on y reviendra). Nous sommes sur une dette de ressources matérielles et de mauvaise adéquation entre le besoin utilisateur et la solution technique. On parle ici d’efficience et non pas uniquement de performance. L’efficience est une histoire de mesure du gaspillage. L’ISO définie l’efficience avec comme domaine : Time behaviour, Resource utilization et Capacity. Pourquoi ne pas pousser plus ces concepts ?
  • Développez du code Java pour un serveur J2EE ou pour un téléphone Android, ce n’est pas pareil. Des structures spécifiques existent par exemple pour traiter des données en Android mais les structures classiques sont toujours utilisées. Les développeurs ont perdu le lien avec le hardware. C’est malheureux car c’est passionnant (et utile) de savoir comment fonctionne un processeur. Pourquoi : abstraction et spécialisation (nous verrons cela plus loin). Car en perdant ce lien, on perd une des forces du développement. Ce lien est important chez les hackers ou chez les développeurs d’informatique embarquée mais malheureusement de moins en moins présent chez les autres développeurs.
  • Les pratiques devops pourraient répondre à cette perte de lien. Là, c’est pareil, nous n’allons pas jusqu’au au bout : généralement le devops va se focaliser à bien gérer le déploiement d’une solution logicielle sur une infrastructure mixte (matérielle et un peu logicielle). Il faudrait aller plus loin en remontant par exemple les métriques de consommation, en discutant sur les contraintes d’exécution… plutôt que de “scaler” juste parce que c’est plus simple.
  • Certaines technologies ont une utilité mais sont maintenant systématiquement utilisées. C’est le cas par exemple des ORM qui sont devenus systématiques. Aucune réflexion n’est faite sur son intérêt en début des projets. Résultat : on a rajouté une surcouche qui consomme, qu’il faut maintenir et des développeurs qui n’ont plus l’habitude d’effectuer des requêtes natives. Cela ne serait pas un problème si chaque développeur connaissait très bien le fonctionnement des couches d’abstraction : comment fonctionne HIBERNATE par exemple ? On s’appuie hélas de façon aveugle sur ces frameworks.
  • Le besoin d’abstraction est lié à un autre défaut: nous attendons toujours des outils miracles. La silver bullet qui améliorera encore plus nos pratiques. Le langage idéal, le framework pour aller plus vite, l’outil de gestion miracle des dépendances… C’est la promesse à chaque fois d’un nouveau framework : gagner du temps en développement, être plus performant… Et on y croit, on fonce. On abandonne les frameworks sur lesquels nous avions investi, sur lesquels on avait passé du temps… et on passe au nouveau. C’est le cas actuellement des frameworks JS. L’histoire du développement est pavé de framework oubliés, non maintenus, abandonnés… Nous sommes les champions pour réinventer ce qui existe déjà. Si on le gardait suffisamment longtemps, on aurait le temps de maîtriser un framework, de l’optimiser, de le comprendre. Mais ce n’est pas le cas. Et que l’on ne me dise pas que si on n’avait pas continuellement réinventé la roue, on aurait encore des roues en pierre… Innover serait d’améliorer les frameworks existants .
  • Sur les langages, c’est la même rengaine. Attention, je ne préconise pas de rester sur l’assembleur et sur le C… C’est le cas par exemple dans le monde Android, pendant plus de 10 ans les développeurs ont pu travailler sur des outils et des frameworks Java. Et comme cela, par magie, le nouveau Langage de la communauté est Kotlin. On imagine l’impact sur les applications existantes (si elles doivent changer), il faut recréer des outils, retrouver des bonnes pratiques… Pour quel gain?
  • Sincèrement, on ne voit aucun ralentissement sur les cycles de renouvellement des technologies. C’est toujours un rythme frénétique. Nous trouverons bien le Graal un jour. Le problème est ensuite l’empilement de ses technologies. Comme aucune ne meurt vraiment et que l’on en maintient toujours des parties, on développe d’autres couches pour s’adapter et continuer à maintenir ces bouts de code ou ces librairies. Le problèmen’est pas le code legacy,, c’est la glue que l’on développe autour qui pêche.
  • Au final, on passe du temps à résoudre des problèmes techniques internes, on recherche des outils pour résoudre les problèmes que l’on ajoute, on passe son temps à s’adapter à ses nouveaux outils, on ajoute des surcouches (voir chapitre précédent…) … et on n’a pas améliorer la qualité intrinsèque du logiciel ou les besoins auxquels on doit répondre.
  • Au final, le rythme frénétique des changements ne nous permet pas de nous stabiliser sur une technologie. J’avoue qu’en tant que vieux développeur que je suis, j’ai été découragé par le changement Java vers Kotlin pour Android. C’est peut-être pour certains de véritables challenges, mais quand je repense au temps que j’ai passé sur l’apprentissage, sur la mise en place d’outils
  • Ensuite, comme aucune solution ne meurt vraiment, que de nouvelles arrivent… on se retrouve avec des projets avec des multitudes de technologies à gérer avec les compétences associées aussi… On s’étonne ensuite que le marché du recrutement de développeur soit bouché. Pas étonnant.. Il y a énormément de développeurs mais il est difficile de trouver un développeur React avec 5 ans d’expérience qui connaîsse le Go. Le marché est fractionné, comme les technologies. C’est peut-être bon pour les développeurs car cela crée de la rareté et cela fait monter les prix, mais pas pour le projet !
  • Cependant, cet apprentissage continu des technologies pose le problème d’apprentissage de domaines transverses : accessibilité, agilité, performance… En effet, qu’est-ce qui nous prouve que les outils et les langages que nous allons choisir ne vont pas changer dans 4 ans ? Rust, Go… dans 2 ans ? Rien ne tend à donner une tendance.
  • On ne se remet pas en question car on veut s’amuser. Le fun est important, car si l’on s’ennuie dans son boulot, on va déprimer. Par contre, on ne peut pas, sous prétexte de vouloir du fun tout le temps, changer nos outils continuellement. Il y a un déséquilibre entre l’expérience du développeur et l’expérience de l’utilisateur. On veut du fun, mais qu’est-ce que cela va réellement apporter à l’utilisateur ? Un produit plus « joyeux » ? Non, nous ne sommes pas des acteurs.
  • On ne se pose pas de question sur l’éthique de notre domaine, sur sa durabilité… Cela vient peut-être du fait que notre domaine n’a pas réellement de code éthique (comme par exemple les médecins ou les avocats). Mais sommes-nous en tant que développeurs réellement libres si l’on ne peut pas avoir une autocritique ? Nous sommes peut être asservis à une cause portée par d’autres personnes ? Le problème n’est pas simple mais nous avons dans tous les cas une responsabilité. Sans code éthique, c’est le plus fort et le plus malhonnête qui est le plus fort. Le buzz et les pratiques pour manipuler les utilisateurs sont de plus en plus répandus. Sans Dark Pattern ton produit ne sera rien. Les plus gros (GAFA…) n’en sont pas arrivés là pour rien.
  • Est-ce que la solution est politique ? Il faut légiférer pour mieux gouverner le monde du logiciel. On le voit avec les dernières réponses législatives aux problèmes concrets : RGPD, notification des cookies… la source du problème n’est pas résolue. Peut-être parce que les politiques ne comprennent que très mal le monde du logiciel.
  • Car si cette structuration n’est pas faite, les développeurs vont perdre la main sur ce qu’ils font. Or le manque d’éthique de la profession est critiqué à l’extérieur. Rachel Coldicutt (@rachelcoldicutt) directrice de DotEveryOne, un think tank britannique qui promeut une technologie plus responsable, encourage à former des diplômés non-informaticiens qui traiteraient de ces problèmes (Voir plus précisément dans l’article d’Internet Actu). Pour poursuivre sur ce dernier article, cela serait dans la droite ligne de l’informatique, domaine issu du monde militaire où les ingénieurs et développeurs seraient formés à suivre des décisions et des commandements.
  • Le monde du logiciel s’intègre dans un système organisationnel classique. Grands groupes, sous-traitances via des ESN, web agencies… Tous suivent les mêmes techniques de gestion des projets informatiques. Et tout le monde va « dans le mur ». Aucune analyse sérieuse n’est faite sur le coût global d’un logiciel (TCO), sur son impact sur la société, sur son bénéfice, sa qualité… C’est la rapidité de release(Time to Market), la surcharge featurale (fonctionnelle), la productivité immédiate, qui comptent. Premièrement car les gens externes à ce monde ne connaissent que trop peu la technicité du logiciel et son monde. Il est virtuel donc simple (sic). Mais ce n’est pas le cas. Les écoles de commerce et autres usines de managers n’ont pas de cours de développement. Comment peuvent-ils bien diriger et piloter des projets ?
  • On continue a vouloir chiffrer des projets informatiques comme de simples projets alors que des mouvements comme le no estimate propose des approches innovantes. Les projets continuent d’échouer : le chaos report rapporte que simplement 30% des projets réussissent bien. Et face à cette mauvaise gouvernance, les équipes techniques continuent de se battre sur les technologies. Dommages collatéraux : la qualité, l’éthique, l’environnement… et au final l’utilisateur. Cela ne serait pas si critique si le logiciel n’avait pas un impact aussi fort sur le monde. Software eats the world… et oui, on le « bouffe »…
  • Si ces décisions absurdes arrivent, ce n’est pas uniquement la faute du développeur mais bien de l’organisation. Et qui dit organisation dit management (sous-différente forme). Si l’on revient au livre de Morel, il parle de piège cognitif dans lesquels les managers et les techniciens tombent souvent. C’est le cas de la navette Challenger qui a été quand même lancée malgré la connaissance du problème d’un joint défectueux. Les managers ont sous-évalué les risques et les ingénieurs ne les ont pas prouvés. Chacun a reproché à l’autre de ne pas fournir assez de preuves scientifiques. C’est souvent ce qui se passe dans les entreprises : des warnings sont levés par certains développeurs mais le management ne les prend pas assez au sérieux.
  • En même temps, on revient aux causes précédentes (silver bullet, on s’amuse…), il est nécessaire d’avoir une vraie ingénierie et une vraie analyse des technologies. Sans cela, les équipes techniques seront toujours non-écoutées par le management. Des outils et benchmark existent mais ils sont encore trop peu connus. Par exemple, Technologie Radar qui classe les technologies en terme d’adoption.
  • Ce phénomène de décision absurde est renforcé par le tissu complexe du développement logiciel : Les sociétés historiquement hors du numérique sous-traitent à des entreprises du numérique, les ESN sous-traitent aux freelances… Le partage de responsabilité technique / management est encore plus complexe et les décisions absurdes plus nombreuses.
  • Mais cela ne s’arrête pas là. On peut aussi voir l’usage de l’open-source comme une sorte de sous-traitance. Idem pour l’usage de framework. On est juste consommateur passif, on se déleste de plein de problématiques (qui ont un impact sur les ressources, la qualité…).
  • C’est d’autant plus facile que le domaine est passionnant et que la pratique des sides-projects, du temps passé sur les projets open-source hors des horaires de bureau est chose commune… La recherche de “fun” et le temps passé bénéficient alors plus aux organisations qu’aux développeurs. Difficile dans ce cas de chiffrer le coût réel d’un projet. Et pourtant, cela ne serait pas un problème si on arrivait à des logiciels « au top ».
  • Le développeur n’est ici plus un artisan du code, mais plutôt un pion dans un système critiquable du point de vue humain. Cela n’est pas visible, tout va bien et on s’amuse. En apparence seulement, car certains domaines du développement logiciel vont plus loin et rendent beaucoup plus visible cette exploitation : Le domaine du jeux-vidéo où les heures explosent.
  • Et donc, toutes ces maladresses (logiciel trop lourd, sans qualité…) se retrouvent chez les utilisateurs. Comme on doit releaser au plus vite les logiciels, que l’on ne tente pas de résoudre les inefficiences internes, et que l’on ne met pas plus de ressource pour faire de la qualité, on arrive à des logiciels médiocres. Mais on a tellement d’outils de monitoring et de suivi des utilisateurs pour détecter ce qui se passe directement chez eux qu’au final, on pense que ce n’est pas grave. Cela serait une bonne idée si les outils étaient bien utilisés. Or la multitude d’informations récoltées (en plus des bugs remontés par les utilisateurs) n’est que faiblement utilisée. Trop d’information, difficulté de cibler la vraie source du problème… on s’y perd et au final, c’est l’utilisateur qui trinque. Tous les logiciels sont maintenant en bêta-test. A quoi bon faire de la sur-qualité, autant attendre que l’utilisateur le demande. Et on revient ainsi au premier chapitre : un logiciel uniformément lent … et médiocre.
  • Heureusement, on est sauvé par la non-sensibilisation des utilisateurs au monde du logiciel. C’est un monde effectivement virtuel et magique qu’ils ont l’habitude d’utiliser. On leur a mis en main les outils mais sans notice explicative. Comment évaluer la qualité d’un logiciel, les risques sur l’environnement, les problèmes de sécurité… si l’on n’a pas des notions d’informatique, même rudimentaires ?
  • L’informatique du 21ème siècle est ce que l’agroalimentaire était pour les consommateurs au 20ème siècle. Pour des raisons de productivité, on a poussé des solutions médiocres avec un calcul court-termiste : mise sur le marché de plus en plus rapide, profit en hausse constante… agriculture intensive, malbouffe, pesticides… avec des impacts importants sur la santé, sur l’environnement… Les consommateurs savent maintenant (de plus en plus) les conséquences désastreuses de ces dérives, l’industrie agroalimentaire doit donc se réinventer, techniquement, commercialement et éthiquement. Pour le logiciel, quand les utilisateurs comprendront les tenants et les aboutissants des choix techniques, l’industrie du logiciel devra gérer les mêmes problèmes. En effet, le retour au bon sens et aux bonnes pratiques n’est pas une chose simple pour l’agroalimentaire. Dans l’IT, on commence à le voir avec ses conséquence sur la vie privée des utilisateurs (mais nous n’en sommes qu’aux balbutiements).
  • On va dans la mauvaise direction. L’industrie de l’informatique a déjà effectué dans les années 70 des erreurs avec des impacts non-négligeables. L’exclusion des femmes de l’informatique en fait partie. Non seulement cela a été fatal pour certaines industries mais on peut se poser la question de comment on peut maintenant adresser des réponses à seulement 50% de la population informatique, avec une représentativité très faible. Le chemin est maintenant difficile à retrouver.
  • Mais l’impact du monde IT ne s’arrête pas là. La source et le modèle d’une grosse partie de l’informatique sont issus de la Silicon valley. Si l’on écarte les gagnants de la Silicon Valley, les populations locales subissent la montée des prix, le déclassement, la pauvreté…
  • Dans sa lancée vers le progrès technique, le monde du logiciel crée aussi sa dette environnementale…
  •  
    "Le monde du logiciel va mal et si l'on n'agit pas, on risque de le regretter. Environnement, qualité, exclusion… Software Eats The World (Le logiciel mange le monde…) ? Oui un peu trop. "
Aurialie Jublin

[Fake] Internet serait-il devenu complètement fake? - Digital Society Forum - 0 views

  • Sur Internet, moins de 60% du trafic serait humain, explique l’auteur. Le reste des Internautes seraient des bots, des logiciels opérant de manière autonome sur le réseau. Au point de brouiller la frontière entre Internautes humains et non-humains. En 2013, la moitié des usagers de Youtube étaient ainsi des bots se faisant passer pour des êtres humains, ce qui avait fait craindre aux employés de la multinationale l’avènement d’une ère où les systèmes de détection du trafic frauduleux jugeraient réelle l’activité des bots, et fausse celle des êtres humains.
  • Au cours des deux dernières années, Facebook aurait également publié des chiffres erronés sur le renvoi du trafic depuis Facebook vers des sites externes, la portée des publications, ou encore le nombre de “vues” des vidéos postées sur la plateforme. Ce qui interroge, là encore, sur la notion de “réel” sur Internet.
  • “Tout ce qui semblait auparavant incontestablement réel semble maintenant légèrement faux; tout ce qui semblait auparavant légèrement faux a maintenant le pouvoir et la présence du réel”, déplore l’auteur. Et de multiplier les exemples: entre les vidéos complotistes pullulant sur Youtube, les trolls russes se faisant passer pour des soutiens de Donald Trump sur Facebook et le “deepfake”, une technique de synthèse permettant de falsifier le visage ou la voix d’une personne sur une vidéo grâce à l’intelligence artificielle, l’auteur s’inquiète de l’effondrement de toute distinction claire entre le réel et l’irréel sur Internet.
  • ...2 more annotations...
  • L’exemple de Lil Miquela , une “influenceuse” suivie par plus d’un million et demi de personnes sur Instagram, est à ce titre particulièrement révélateur. Partageant régulièrement ses états d’âme, ses séances de shopping et ses sorties entre amis sur le réseau social entre deux selfies, ce mannequin américano-brésilien est en réalité un avatar, créé grâce à l’imagerie de synthèse par une start-up californienne spécialisée en intelligence artificielle et en robotique. Un faux mannequin, donc, mais une influence bien réelle: là aussi, avertit l’auteur, la frontière entre le vrai et le faux s’émousse.
  • “Ce qui a vraiment disparu d’internet, ce n’est pas la réalité, c’est la confiance : le sentiment que les personnes et les choses que l’on y rencontre sont ce qu’elles prétendent être,” conclut l’auteur. Remédier à cet état de fait nécessite selon lui une réforme du modèle économique d’Internet qui a permis au mensonge, à la déformation et à la falsification de devenir lucratifs. Sans une telle réforme, estime-t-il, Internet risque de devenir une usine à “fakes”, et les revenus publicitaires qu’ils génèrent la seule réalité.
  •  
    "Une chronique du New York Magazine alerte sur l'abondance de contenus faux sur Internet. Selon son auteur, les manipulations de données et de faits y auraient atteint un seuil critique, au point de compromettre notre capacité à distinguer le réel de l'irréel."
Aurialie Jublin

Internet est mort, vive le Trinet ? - Usbek&Rica - 0 views

  • Mais le développeur brésilien a, lui, daté très précisément le « début de la fin » : le Web est mort en 2014.
  • « Facebook et Google ont désormais une influence directe sur 70 % du trafic Internet » - rappelons ici qu’Internet désigne le réseau et que le Web en est sa principale application, le partage de fichiers ou la messagerie instantanée étant quelques-uns de ses autres usages - et la domination est particulièrement flagrante sur les médias, avec un basculement notable de la suprématie de Google à celle de Facebook, comme nous l’évoquions déjà récemment : avec Facebook Paper, puis Facebook Instant Articles, le réseau social de Zuckerberg s’est imposé comme source de trafic n°1 pour les médias, et une forme de dépendance s’est très rapidement installée.
  • Chaque entreprise a misé pleinement sur ce qu’elle faisait le mieux : le social pour Facebook (qui a racheté Whatsapp, Instagram...), l’intelligence artificielle pour Google, et elles ont ainsi cessé d’être concurrentes directes. Quant à Amazon, sa montée en puissance spectaculaire a été bien expliquée par Scott Galloway et se traduit par un chiffre récent : aux Etats-Unis, sa part sur le marché du e-commerce doit atteindre 43,5 % en 2017, contre 38 % l'année précédente.
  • ...7 more annotations...
  • Se pose alors la question de la mort du Web. En quoi laisser ce triumvirat aux commandes met-il le Web en péril ? D’abord parce qu’in fine, les 30 % du Web qu’ils ne maîtrisent pas devraient finir par être écrasés, assure André Staltz. La diversité du Web a permis à de multiples entreprises d’innover et de prospérer, à des communautés de grandir, à des sites indépendants d’être hébergés un peu partout, puis « à partir de 2014, nous avons commencé à perdre les bénéfices de la diversité d’Internet, en termes d’infrastructures et d’économie ».
  • Le développeur extrapole ensuite « à partir des stratégies exprimées par les cadres de Google, Facebook et Amazon », et décrit une bataille pour la neutralité du Net « que nous avons toutes les chances de perdre ».
  • « À cause de la demande du marché, les fournisseurs d’accès à Internet fourniront un accès moins cher à Google, Facebook et Amazon, et l’offre sera plus chère pour un accès complet au Web ». Comme le souligne André Staltz, c’est déjà le cas : le Portugal vient de décider de laisser faire le marché et d’offrir des forfaits Internet à la carte, chacun étant libre de n’avoir accès qu’à des applications de messagerie ou des réseaux sociaux pour moins cher.
  • Dans un tel scénario, « les petites entreprises ne seraient plus incitées économiquement à avoir leurs propres sites, et migrer vers des pages Facebook pourrait avoir plus de sens. Les petits sites de e-commerce serait rachetés par Amazon ou feraient faillite. Et parce que la plupart des internautes ne pourraient pas avoir accès à l’ensemble des sites, Google n’aurait que peu d’intérêt à continuer d’être ce pont entre les utilisateurs et les sites ».
  • Plus facile à percevoir dès aujourd’hui, plus palpable, et plus fréquemment discuté, l’autre signe de la mort du World Wide Web, c’est que Facebook, Google et Amazon grandissent toujours plus en dehors des frontières du Web. Il suffit de voir les Amazon Echo ou Google Home pulluler, écouter Google expliquer que l’avenir du search est dans la recherche vocale et dans l'intelligence artificielle, ou voir comme la plus jeune génération se contente de communiquer sur mobile, sur les applications de messagerie, sans jamais passer par un navigateur web.
  • En suivant une trajectoire qu’André Staltz appelle une « Apple-ification » - parce qu'ils construisent des écosystèmes fermés, deviennent des entreprises de hardware et soignent le marketing de leur design - les trois géants vont de plus en plus contourner le Web et créer de  « nouveaux espaces virtuels où la data est créée et partagée ». C’est la stratégie que mène Facebook depuis dix ans en misant sur la réalité virtuelle et la réalité augmentée.
  • « Vingt-cinq ans de Web nous ont habitués à des libertés fondamentales que l’on croit acquises », tranche le développeur. Nous avons oublié combien l'anonymat est précieux, tout comme l'est la possibilité de contrôler ce que nous partageons, ou celle de lancer une start-up qui ait ses propre serveurs, indépendamment de Google. « Sur le Trinet, si vous êtes bannis de Google et Facebook, vous n'aurez pas d'alternative ». Plus personne ne garantira votre droit d'accès à Internet. Les entreprises privées n'auront aucune obligation de vous fournir ce qu'un pays comme l'Estonie est allé jusqu'à ériger en droit de l'Homme.
  •  
    "Google, Facebook et Amazon se sont accaparés le Web. Cette domination était loin d'être aussi écrasante il y a encore quatre ans, et semble non seulement bien partie pour durer, mais devrait signer la mort d'un Web fondé sur la diversité et la liberté, comme le démontre le développeur brésilien André Medeiros - dit André Staltz - dans un post publié sur Medium. Nous nous dirigeons, à ses yeux, vers l'avènement d'un « Trinet » aux allures de dystopie."
Aurialie Jublin

TRIBUNE. Comment la France s'est vendue aux Gafam - Le Point - 0 views

  • L'histoire du déclin du numérique français est une tragédie en trois actes. Il y eut d'abord les «  30 honteuses du numérique  », où une petite élite arrogante et dénuée de vision stratégique a démantelé notre industrie informatique et électronique grand public. Elle a débranché les travaux de recherches les plus intéressants et laissé nos meilleurs développeurs partir à l'étranger faute de pouvoir les associer à des projets ambitieux. Vient ensuite la capitulation vis-à-vis des grands acteurs américains. Ainsi, de nombreux politiques et hauts fonctionnaires français leur ont permis d'intégrer leurs technologies au cœur des prérogatives régaliennes de l'État : défense, renseignement, éducation, sécurité, mais aussi culture. Plusieurs d'entre eux quitteront leurs fonctions pour aller rejoindre ces sociétés. Le troisième acte se joue en ce moment. Alors que nos dirigeants se préparent à une vente à la découpe, il reste cependant un mince espoir d'inventer une autre manière d'utiliser le réseau plus en phase avec nos principes et nos valeurs. Mais pouvons-nous encore changer la doctrine des politiques numériques de la France  ? Quand on écoute nos hommes politiques, le déclassement de l'Europe vis-à-vis de l'Internet est présenté comme une fatalité. Un accident de l'Histoire à l'issue duquel les clés du monde de demain auraient été données aux États-Unis et à la Chine.
  • Nous aurions pu avoir un autre destin, car si les États-Unis avaient la vision et l'argent, c'est en Europe qu'ont été inventées deux des briques fondamentales de l'Internet : Linux et le Web. Mais à la différence du standard GSM, ces dernières ont eu le malheur d'être conçues par des individus talentueux hors des grandes institutions. Snobés chez nous, ces deux projets deviendront le moteur des plateformes numériques américaines et chinoises et l'instrument de leur domination mondiale.
  • Tout commence dans les années 70, avec l'abandon du réseau Cyclades de Louis Pouzin au profit du Minitel. Louis Pouzin en est le concepteur et il est l'inventeur de la segmentation des données en «  Datagramme  ». Il sera récompensé (avec Tim Berners-Lee et Vinton Cerf) par la reine d'Angleterre pour ses contributions essentielles à la création de l'Internet et il reste à ce jour un inconnu du grand public en France. Il faudra attendre 1994 pour que nos chercheurs acceptent enfin de s'intéresser à autre chose qu'à des technologies incompatibles avec l'Internet.
  • ...8 more annotations...
  • Quasiment au même moment, Alcatel décide de transférer ses usines vers la Chine. Son PDG veut appliquer la stratégie du «  fabless  », à savoir délocaliser la production tout en conservant le design en France. Ce sera une grossière erreur d'analyse. Lorsque les smartphones deviennent un succès international, la France n'a plus de capacités industrielles dans ce secteur, alors qu'elle était l'un des principaux fabricants dans le monde.
  • Alors que la Silicon Valley parie sur les talents et les start-up, la France préfère s'embourber dans des grands projets institutionnels sans avenir. Mais ces projets permettent aux politiques de faire des annonces et aux industriels déjà établis de bénéficier de la manne de l'argent public. Ainsi, le projet Quaero, qui visait à créer un «  Google Européen  », a été lancé par Jacques Chirac. Il terminera rapidement dans les oubliettes technologiques. Plus récemment, le Cloud souverain, qui se targuait d'être la réponse française à Amazon et Microsoft, sera abandonné en rase campagne puis revendu (et sans ironie aucune)… au chinois Huawei. Au final, beaucoup d'argent aura été dépensé soit pour concurrencer l'Internet lui-même soit pour contourner les start-up qui voulaient développer des solutions alternatives aux Gafam. C'est une génération entière d'entrepreneurs et de chercheurs que l'on a écartés pour redéfinir la politique industrielle du secteur. Tout récemment, le rapport sur l'intelligence artificielle de Cédric Villani n'a pas fait mention des deux meilleures solutions open sources dans le domaine : SciKit Learn et Keras qui se trouvent être… françaises.
  • L'acte deux commence avec le quinquennat Hollande. Un changement d'attitude va s'opérer vis-à-vis des grandes plateformes. La défaite est désormais entérinée en coulisses. Il ne s'agit plus d'exister au niveau mondial, mais de négocier avec les Gafam tout en faisant mine de s'indigner publiquement de leurs abus de position dominante.
  • Microsoft est devenue le partenaire de l'Éducation nationale, et Google le parrain de la Grande École du Numérique. La société de Big Data Palantir, proche des services secrets américains, a conclu un contrat avec la DGSI (et peut-être la DGSE  ?), et elle est également présente chez Airbus. Enfin, à l'échelon des collectivités territoriales, les régions vont s'appuyer sur Facebook pour «  la formation au numérique  ».Comment, dans ces conditions, se plaindre des conséquences des réseaux sociaux et de l'impact des Gafam sur notre démocratie quand nous leur avons ouvert si largement les portes de l'État  ?
  • En effet, ce gouvernement prend un risque inconsidéré en pariant notre avenir sur une hypothétique transformation numérique autour de «  l'intelligence artificielle  ». Si nous ne nous donnons pas les moyens de réguler la manière dont ses entreprises et ce type de technologies fonctionnent, nous pourrions détruire notre modèle social en tentant de copier ceux de la Chine ou des États-Unis. L'ironie du sort veut que, désormais, certains industriels et chercheurs américains s'appuient sur l'Europe et sa réglementation sur les données personnelles pour sortir d'un modèle numérique qui n'est pas «  durable  ». Aux États-Unis, le ministère de la Santé a ainsi lancé une grande étude sur l'impact des écrans et le Sénat a analysé, dans un rapport très détaillé, les manipulations des réseaux sociaux qui ont eu lieu lors de la dernière campagne présidentielle.
  • Il existe pourtant un scénario de sortie de crise. En effet, la meilleure réponse à la crise de confiance systémique vis-à-vis des Gafam est de soutenir les mouvements autour des technologies «  éthiques  ». Il s'agit d'un nouveau terrain de croissance industrielle pour l'Europe, comme le Bio l'a été pour l'agriculture. De nombreux entrepreneurs réfléchissent à d'autres façons de concevoir la technologie, s'appuyant beaucoup moins sur la donnée et créant moins d'intrusions vis-à-vis de leurs utilisateurs. C'est le mouvement autour des logiciels éthiques et du Slow Web. Ce mouvement, qui s'est réuni en septembre dernier à Copenhague, souhaite définir un meilleur équilibre entre usage numérique et monde réel pour ne pas rendre ces technologies aliénantes. Il prône notamment l'arrêt de certaines pratiques toxiques comme le profilage (micro targeting) ou la manipulation de nos émotions via des messages ciblés sur nos mobiles dont nous avons vu les conséquences désastreuses lors du référendum sur le Brexit ou l'élection américaine.
  • Nous devons désormais exiger que les choix technologiques faits par l'État (comme les décisions politiques dans ces domaines) soient lisibles et compréhensibles par l'ensemble des citoyens… Car s'il s'agit de faire de la France une colonie numérique des plateformes et qui ne profiterait qu'à une petite bourgeoisie d'Internet, alors il faudra le dire clairement  
  • Il est temps également de voir émerger une nouvelle forme de résistance citoyenne. Car l'usage de ces technologies n'est pas neutre, la substitution de l'action de l'État par des algorithmes rend caduque l'égalité de traitement entre chaque Français. Le remplacement de nos services publics par un «  État plateforme  » totalitaire (à l'instar du «  Crédit social  » qui voit chaque Chinois recevoir une note qui détermine leur capacité à se déplacer ou à obtenir un crédit) n'est pas la vision que nous souhaitons promouvoir. C'est pourtant ce qui se prépare dans certains cabinets ministériels lorsqu'il est question d'État plateforme…
  •  
    "Pour le pionnier du Web français Tariq Krim, l'histoire du déclin du numérique français est une tragédie en 3 actes. Il existe pourtant une sortie de crise."
Aurialie Jublin

SORI : les tendances à l'œuvre dans l'usine du futur - Metis - 0 views

  • Pour Hervé Valliet, le robot ne tue pas l’emploi. Il permet de retrouver de la compétitivité, ce qui engendre une augmentation du chiffre d’affaires, et permet la création de nouveaux emplois. SORI a créé cinq nouveaux emplois en deux ans, uniquement à la production, et prévoit d’en créer au moins cinq autres dans les deux ans qui viennent grâce à l’augmentation des volumes. À la question « jusqu’où voudriez-vous croître ? », Hervé Valliet répond que 50 personnes lui semblent être un palier, et ce point de vue semble partagé par le personnel. Au-delà, cela deviendrait un autre type d’entreprise.
  • En matière d’organisation du travail : Associer les personnels à l’introduction de technologies — mise au point du cahier des charges, choix de l’équipement, adaptation et réglage, révision du processus de production — permet d’optimiser l’outil et de faciliter son acceptation par les équipes. Lorsque l’autonomisation des personnes précède l’introduction des technologies, leur appropriation est plus aisée et plus efficace. L’autonomie résulte souvent de la volonté et de l’exemplarité du dirigeant qui fait un pari sur la confiance et apprend à lâcher prise. Réduire ou supprimer la hiérarchie intermédiaire permet d’évacuer le territoire de la décision, ce qui favorise l’autonomie des opérateurs. Le droit à l’erreur et la transparence sont des facteurs qui construisent la confiance. La prise en compte dès la conception de la manière dont sera fabriqué le produit est un facteur d’efficience. Elle met en cause la séparation « taylorienne » entre bureau d’études, méthodes et fabrication.
  • En matière de gestion des compétences : Adapter les compétences par la formation est un enjeu prioritaire. Ces formations peuvent être courtes et développées avec les fournisseurs de solutions. Il faut tenir compte du fait que la formation peut susciter des résistances chez les personnels de production, et les préparer en amont. Regarder le potentiel des personnes, les savoir-être et les capacités dont témoigne le hors CV permet d’ouvrir les sources de recrutement sur un marché des compétences tendu pour les emplois de production.
  •  
    "Le cas de SORI, une entreprise manufacturière de 38 salariés en Isère, permet de visualiser les conditions et étapes d'une transformation vers l'usine du futur à l'échelle d'une PME. Côté organisation du travail et compétences : Une organisation basée sur l'autonomie et la confiance, qui a nécessité un changement radical au Bureau d'études, le recrutement basé sur le savoir-être plutôt que sur les compétences techniques, et beaucoup de formation."
1 - 10 of 10
Showing 20 items per page