Skip to main content

Home/ QN2019/ Group items tagged hacker

Rss Feed Group items tagged

Aurialie Jublin

Mise en commun de l'action publique  : faut il hacker le droit ?  - La 27e Ré... - 0 views

  • Souvent conçues et testées dans une démarche expérimentale, ces initiatives offrent des réponses efficientes et nouvelles aux enjeux qu’elles traitent. Mais sous leur apparente simplicité, elles posent de nombreux challenges juridiques en matière de mise en œuvre pour l’acteur public. Quid de la responsabilité de l’acteur public en matière de risque sanitaire et de salubrité des aliments d’un frigo partagé, qui s’adresse de facto à des usagers en dehors du seul spectre des membres de l’association qui l’ont conçu ? Quid du statut des contributeurs de Sauvlife, qui s’apparentent presque à des pompiers, mais qui ont également la liberté de ne pas intervenir ? Dans le cas du lycée, comment rendre possible un usage multiple d’un équipement public réservé à des mineurs ?
  • Quand certains pans de l’action publique sont gérés et utilisés de manière mutualisée, cela bouscule fondamentalement les piliers de l’acteur public : sa responsabilité face aux risques, ses contributeurs et la manière de les valoriser, la perméabilité avec le secteur marchand et même la légitimité à lever l’impôt pour financer des services devenus communs.
  • Sans surprise, faute de cadre juridique clair et sécurisant, rares sont les initiatives de ce type qui passent le cap de l’expérimentation. Et quand cela advient, cela tient souvent à des qualités individuelles : un élu prêt à prendre le risque, des équipes d’agents et des citoyens à l’implication exceptionnelles.
  • ...6 more annotations...
  • Elle peut s’inspirer des règlements d’administration partagée, développés par le laboratoire Labsus en Italie et actifs dans plus de 200 villes – dont Bologne, Gènes, Florence, Turin. S’appuyant sur un principe de subsidiarité horizontale stipulant que que “l’État, les Régions, les villes métropolitaines, les provinces et les communes favorisent l’initiative autonome des citoyens, seuls et associés, pour le développement d’activité d’intérêt général, sur la base du principe de subsidiarité”, ces règlements permettent aux villes de contracter des Pactes de collaboration avec les citoyens de la ville. Ces pactes actent une collaboration étroite entre citoyens et agents publics pour co-administrer des biens communs : espaces verts, entretien du patrimoine, solidarités… 
  • En rapprochant certaines notions italiennes avec des principes de droit français – comme par exemple le principe de subsidiarité horizontale italien avec la théorie de la collaboration occasionnelle au service public - il semble envisageable de procéder à une transposition effective d’un tel règlement. 
  • Quand ces frigos sont en libre accès et placés sur la voie publique, la responsabilité du maire est engagée au titre de ses pouvoirs de police, de la salubrité publique et de la conservation du domaine public, ce qui le conduit à faire des opérations de contrôle. En explorant les arrêtés et les potentialités offertes par le modèle des régies publiques, les étudiants ont posé les contours d’un partenariat public-commun soutenable du point de vue de l’acteur public et qui favorise le développement de cette solution.
  • Enfin, le terrain nous enseigne qu’il nous faut dépasser les cadres du seul droit public pour trouver des solutions durables. Face à l’enjeu de responsabilité civile de l’occupation d’un bâtiment public vacant par un tiers-lieu, comment renverser le problème, et confronter l’acteur public sur sa responsabilité de non-occupation ou de non usage d’espaces réinvestis ? Parfois les réponses peuvent se situer du côté des droits fondamentaux et du droit constitutionnel. 
  • Parfois les réponses se situent même en dehors du droit : du côté des mécanismes de financement et de démocratie participative, ou encore de l’innovation managériale. La mise en place de budgets participatifs, ou la collaboration occasionnelle au service public obligent par exemple à repenser la place de l’agent : quel est son mandat dans une logique de coproduction de service ? 
  • A cette occasion, les  juristes territoriaux avaient notamment proposé aux étudiants de la clinique juridique territoriale grenobloise de sécuriser la mise en oeuvre des frigos partagés – ces initiatives de lutte contre le gaspillage alimentaire par la mise à disposition gratuite d’aliments frais dans des frigos postés sur la voie publique.
  •  
    "A l'heure où la gestion en commun apparaît comme une piste sérieuse pour améliorer le fonctionnement de nos villes, les expériences territoriales à l'oeuvre appellent une nouvelle pratique du droit pour s'inscrire durablement dans nos politiques publiques. Elles nous invitent nous, agents publics, juristes, acteurs d'innovation publique, chercheurs, à puiser dans le droit d'usage, exhumer des principes constitutionnels et développer notre ingéniosité juridique et nos meilleures pratiques de détournement pour inventer de nouveaux modèles et travailler la souplesse de nos administrations.  Et si pour dépasser le cap de l'expérimentation, il devenait nécessaire d'inventer une nouvelle grammaire réglementaire ?"
Aurialie Jublin

La plupart des applis pour les réfugiés ne sont pas utilisées - Digital Socie... - 0 views

  • avec la généralisation du mobile. Celle-ci a instauré un mode d’existence différent, fondé sur la joignabilité permanente. Les nouvelles technologies ont apporté des réponses immédiates à certains besoins des migrants : rester proche de la famille, rendre la migration supportable. À mesure que ces technologies se sont développées, elles ont envahi tous les aspects de la vie des migrants. Elles ont aussi amené de nouvelles contraintes : les smart borders , le tracking, la question de la privacy, ainsi que des contraintes sociales nouvelles comme l’obligation d’être présent même à distance, d’envoyer de l’argent…
  • Tout s’accélère en 2015, quand les médias mettent en lumière le migrant connecté. De tous côtés activistes et hackers se mettent à créer des applications pour les réfugiés. Il y a une vague d’idées, une sorte de « technophorie ». Avec une expertise technique sur le sujet, beaucoup d’élan et d’initiative, mais sans vraiment avoir étudié la chose avant, sans avoir réellement regardé les usages.
  • Toutes les associations doivent soudain s’y mettre, le Haut Commissariat aux Réfugiés de l’ONU se lance aussi là-dedans, Techfugees naît et la presse encourage beaucoup ces initiatives. Il y a de l’argent, public et privé, pour développer des prototypes, mais pas assez pour accompagner ces applications vers leur maturation, les phases de testing, le développement d’un business model.
  • ...6 more annotations...
  • Avec mes collègues Léa Macias et Samuel Huron, nous avons inventorié une centaine d’applications et de plateformes construites ces 8 dernières années. Celles-ci proposent des services très variés : Information-service, mise en relation, recherche d’emploi, hébergement, traduction, apprentissage des langues, éducation et formation, identité, santé… Nous avons constaté que ces applications ont une vie de comète : ainsi en juin 2018, 27 % des applications recensées précédemment avaient disparu (13 sur les 48 recensées). En septembre 2018, 29 % avaient disparu (soit 10 sur les 35 recensées).
  • Nous avons aussi testé ces applications avec des réfugiés inscrits à l’école Simplon, dans le programme Refugeek qui les forme à être programmeurs en France. Ce sont des gens habitués au code, aux applications. Dans leur téléphone, nous n’avons trouvé aucune application destinée aux réfugiés. Ils utilisent Facebook, WhatsApp, Google, comme tout le monde
  • Nous avons aussi constaté que toutes les applications, même les plus simples, demandaient des informations personnelles. Toutes ont l’idée de faire reposer leur modèle économique sur les data. C’est classique dans le champ des applications. Mais quand on travaille avec des réfugiés, c’est délicat. Car ces personnes ne sont pas réfugiées par hasard : elles fuient des dangers et il faut faire très attention avec ces données.
  • Les applications qui marchent, comme CALM (Comme à la Maison, application qui met en lien des réfugiés avec des particuliers qui peuvent les héberger pour des durées variables, ndlr), c’est parce qu’elles mettent en pratique une idée longuement mûrie, dans le cas de CALM celle de favoriser l’intégration par l’immersion.
  • CALM, développé par le mouvement citoyen Singa , repose sur l’idée de l’intégration par l’immersion. je crois aussi que c’est très efficace. Les codes d’une société s’acquièrent plus facilement lorsqu’on est immergé dans un environnement, on approche l’altérité différemment. Surtout, des sentiments naissent de cette mise en relation de reconnaissance, de satisfaction... Cela crée une énergie très positive. Parfois ces relations durent quelques semaines, parfois toute une vie. Quand les migrants racontent des trajectoires migratoires réussies, il y a toujours une personne, à un moment donné, qui les a tiré vers la société. Singa a essayé de capter ce moment, de l’investir de manière numérique et je pense que c’est une bonne chose.
  • Ensuite, nous avons vu que l’hospitalité ne pouvait pas être déléguée à des techniques de matching. L’hospitalité, ce n’est pas Tinder. Nous avons essayé d’utiliser le matching pour organiser des rencontres, par exemple, sur la base d’intérêts communs. Mais ça ne marchait pas. Ou bien, quand ça prenait, les gens passaient sur Facebook, qui donne un aperçu plus complet de l’environnement social de la personne... Mais CALM reste une plateforme importante. Elle a été beaucoup médiatisée et a permis d’ouvrir les esprits, de faire parler de l’hébergement chez soi. Je pense qu’elle n’est pas étrangère à l’amendement adopté en octobre 2018 par l’Assemblée Nationale, instaurant un crédit d’impôt pour les personnes hébergeant des réfugiés chez elles .
  •  
    "Depuis le début de la crise migratoire en 2015, de nombreuses applications pour les réfugiés ont vu le jour. Si elles naissent de bonnes intentions, elles sont rarement utiles. C'est ce qu'explique la sociologue Dana Diminescu , enseignante-chercheuse à Télécom Paris-Tech, qui étudie depuis longtemps les usages des TIC chez les migrants (elle avait d'ailleurs coordonné le dossier consacré aux diasporas connectées sur notre site )."
Aurialie Jublin

"I Was Devastated": Tim Berners-Lee, the Man Who Created the World Wide Web, Has Some R... - 2 views

  • Initially, Berners-Lee’s innovation was intended to help scientists share data across a then obscure platform called the Internet, a version of which the U.S. government had been using since the 1960s. But owing to his decision to release the source code for free—to make the Web an open and democratic platform for all—his brainchild quickly took on a life of its own.
  • He also envisioned that his invention could, in the wrong hands, become a destroyer of worlds, as Robert Oppenheimer once infamously observed of his own creation. His prophecy came to life, most recently, when revelations emerged that Russian hackers interfered with the 2016 presidential election, or when Facebook admitted it exposed data on more than 80 million users to a political research firm, Cambridge Analytica, which worked for Donald Trump’s campaign. This episode was the latest in an increasingly chilling narrative. In 2012, Facebook conducted secret psychological experiments on nearly 700,000 users. Both Google and Amazon have filed patent applications for devices designed to listen for mood shifts and emotions in the human voice.
  • This agony, however, has had a profound effect on Berners-Lee. He is now embarking on a third act—determined to fight back through both his celebrity status and, notably, his skill as a coder. In particular, Berners-Lee has, for some time, been working on a new platform, Solid, to reclaim the Web from corporations and return it to its democratic roots.
  • ...10 more annotations...
  • What made the Web powerful, and ultimately dominant, however, would also one day prove to be its greatest vulnerability: Berners-Lee gave it away for free; anyone with a computer and an Internet connection could not only access it but also build off it. Berners-Lee understood that the Web needed to be unfettered by patents, fees, royalties, or any other controls in order to thrive. This way, millions of innovators could design their own products to take advantage of it.
  • “Tim and Vint made the system so that there could be many players that didn’t have an advantage over each other.” Berners-Lee, too, remembers the quixotism of the era. “The spirit there was very decentralized. The individual was incredibly empowered. It was all based on there being no central authority that you had to go to to ask permission,” he said. “That feeling of individual control, that empowerment, is something we’ve lost.”
  • The power of the Web wasn’t taken or stolen. We, collectively, by the billions, gave it away with every signed user agreement and intimate moment shared with technology. Facebook, Google, and Amazon now monopolize almost everything that happens online, from what we buy to the news we read to who we like. Along with a handful of powerful government agencies, they are able to monitor, manipulate, and spy in once unimaginable ways.
  • The idea is simple: re-decentralize the Web. Working with a small team of developers, he spends most of his time now on Solid, a platform designed to give individuals, rather than corporations, control of their own data. “There are people working in the lab trying to imagine how the Web could be different. How society on the Web could look different. What could happen if we give people privacy and we give people control of their data,” Berners-Lee told me. “We are building a whole eco-system.”
  • For now, the Solid technology is still new and not ready for the masses. But the vision, if it works, could radically change the existing power dynamics of the Web. The system aims to give users a platform by which they can control access to the data and content they generate on the Web. This way, users can choose how that data gets used rather than, say, Facebook and Google doing with it as they please. Solid’s code and technology is open to all—anyone with access to the Internet can come into its chat room and start coding.
  • It’s still the early days for Solid, but Berners-Lee is moving fast. Those who work closely with him say he has thrown himself into the project with the same vigor and determination he employed upon the Web’s inception. Popular sentiment also appears to facilitate his time frame. In India, a group of activists successfully blocked Facebook from implementing a new service that would have effectively controlled access to the Web for huge swaths of the country’s population. In Germany, one young coder built a decentralized version of Twitter called Mastodon. In France, another group created Peertube as a decentralized alternative to YouTube.
  • Berners-Lee is not the leader of this revolution—by definition, the decentralized Web shouldn’t have one—but he is a powerful weapon in the fight. And he fully recognizes that re-decentralizing the Web is going to be a lot harder than inventing it was in the first place.
  • But laws written now don’t anticipate future technologies. Nor do lawmakers—many badgered by corporate lobbyists—always choose to protect individual rights. In December, lobbyists for telecom companies pushed the Federal Communications Commission to roll back net-neutrality rules, which protect equal access to the Internet. In January, the U.S. Senate voted to advance a bill that would allow the National Security Agency to continue its mass online-surveillance program. Google’s lobbyists are now working to modify rules on how companies can gather and store biometric data, such as fingerprints, iris scans, and facial-recognition images.
  • It’s hard to believe that anyone—even Zuckerberg—wants the 1984 version. He didn’t found Facebook to manipulate elections; Jack Dorsey and the other Twitter founders didn’t intend to give Donald Trump a digital bullhorn. And this is what makes Berners-Lee believe that this battle over our digital future can be won.
  • When asked what ordinary people can do, Berners-Lee replied, “You don’t have to have any coding skills. You just have to have a heart to decide enough is enough. Get out your Magic Marker and your signboard and your broomstick. And go out on the streets.” In other words, it’s time to rise against the machines.
  •  
    "We demonstrated that the Web had failed instead of served humanity, as it was supposed to have done, and failed in many places," he told me. The increasing centralization of the Web, he says, has "ended up producing-with no deliberate action of the people who designed the platform-a large-scale emergent phenomenon which is anti-human." "While the problems facing the web are complex and large, I think we should see them as bugs: problems with existing code and software systems that have been created by people-and can be fixed by people." Tim Berners-Lee
  •  
    "Berners-Lee has seen his creation debased by everything from fake news to mass surveillance. But he's got a plan to fix it."
Aurialie Jublin

[Écologie] Le monde du logiciel est en train de se détruire... Manifeste pour... - 0 views

  • Tout est lent, et cela ne va pas dans le bon sens. Certaines voix s’élèvent. Je vous invite notamment à lire “Le désenchantement du logiciel”. Tout est insupportablement lent, tout est ÉNORME, tout finit par devenir obsolète… La taille des sites web explose. Un site web est aussi gros que le jeu Doom. Le phénomène ne touche pas que le Web mais aussi l’IoT, le mobile… Le saviez-vous ? Il faut 13% de CPU pour faire clignoter un curseur…
  • Tout grossit : la taille des applications, les données stockées, la taille des pages web, la mémoire des téléphones… Les téléphones ont maintenant 2 Go de mémoire, échanger une photo de 10 Mo par mail est maintenant classique… À la limite, cela ne serait peut-être pas un problème si tous les logiciels étaient utilisés, efficaces et performants… Mais cela n’est pas le cas,
  • Alors tout le monde se cale sur une lenteur. Tout est uniformément lent. On se cale sur cela et tout va bien. Être performant aujourd’hui, c’est arriver à atteindre un ressenti utilisateur qui correspond à cette lenteur uniforme. On élague les choses qui pourraient être trop visibles. Une page qui met plus de 20 secondes à se charger, c’est trop lent. Par contre, 3 secondes c’est bien. 3 secondes ? Avec les multicoeurs de nos téléphones/PC et les data centers partout dans le monde, le tout relié par des supers technologies de communication (4G, fibre…),c’est un peu bizarre non ? Si on regarde la débauche de ressources pour le résultat obtenu, 3 secondes, c’est énorme. D’autant plus que les bits circulent dans nos processeurs avec des unités de temps du niveau de la nanoseconde. Donc oui, tout est uniformément lent.
  • ...29 more annotations...
  • Il est nécessaire de revenir à plus d’efficience, de « challenger » les besoins en matériel, de redéfinir ce qu’est la performance. Tant que l’on se satisfera de cette lenteur uniforme avec des solutions pour ne pas ralentir plus (comme l’ajout de matériel), nous n’avancerons pas. La dette technique, notion largement assimilée par les équipes de développement, n’est malheureusement pas adaptée à ce problème (on y reviendra). Nous sommes sur une dette de ressources matérielles et de mauvaise adéquation entre le besoin utilisateur et la solution technique. On parle ici d’efficience et non pas uniquement de performance. L’efficience est une histoire de mesure du gaspillage. L’ISO définie l’efficience avec comme domaine : Time behaviour, Resource utilization et Capacity. Pourquoi ne pas pousser plus ces concepts ?
  • Développez du code Java pour un serveur J2EE ou pour un téléphone Android, ce n’est pas pareil. Des structures spécifiques existent par exemple pour traiter des données en Android mais les structures classiques sont toujours utilisées. Les développeurs ont perdu le lien avec le hardware. C’est malheureux car c’est passionnant (et utile) de savoir comment fonctionne un processeur. Pourquoi : abstraction et spécialisation (nous verrons cela plus loin). Car en perdant ce lien, on perd une des forces du développement. Ce lien est important chez les hackers ou chez les développeurs d’informatique embarquée mais malheureusement de moins en moins présent chez les autres développeurs.
  • Les pratiques devops pourraient répondre à cette perte de lien. Là, c’est pareil, nous n’allons pas jusqu’au au bout : généralement le devops va se focaliser à bien gérer le déploiement d’une solution logicielle sur une infrastructure mixte (matérielle et un peu logicielle). Il faudrait aller plus loin en remontant par exemple les métriques de consommation, en discutant sur les contraintes d’exécution… plutôt que de “scaler” juste parce que c’est plus simple.
  • Certaines technologies ont une utilité mais sont maintenant systématiquement utilisées. C’est le cas par exemple des ORM qui sont devenus systématiques. Aucune réflexion n’est faite sur son intérêt en début des projets. Résultat : on a rajouté une surcouche qui consomme, qu’il faut maintenir et des développeurs qui n’ont plus l’habitude d’effectuer des requêtes natives. Cela ne serait pas un problème si chaque développeur connaissait très bien le fonctionnement des couches d’abstraction : comment fonctionne HIBERNATE par exemple ? On s’appuie hélas de façon aveugle sur ces frameworks.
  • Le besoin d’abstraction est lié à un autre défaut: nous attendons toujours des outils miracles. La silver bullet qui améliorera encore plus nos pratiques. Le langage idéal, le framework pour aller plus vite, l’outil de gestion miracle des dépendances… C’est la promesse à chaque fois d’un nouveau framework : gagner du temps en développement, être plus performant… Et on y croit, on fonce. On abandonne les frameworks sur lesquels nous avions investi, sur lesquels on avait passé du temps… et on passe au nouveau. C’est le cas actuellement des frameworks JS. L’histoire du développement est pavé de framework oubliés, non maintenus, abandonnés… Nous sommes les champions pour réinventer ce qui existe déjà. Si on le gardait suffisamment longtemps, on aurait le temps de maîtriser un framework, de l’optimiser, de le comprendre. Mais ce n’est pas le cas. Et que l’on ne me dise pas que si on n’avait pas continuellement réinventé la roue, on aurait encore des roues en pierre… Innover serait d’améliorer les frameworks existants .
  • Sur les langages, c’est la même rengaine. Attention, je ne préconise pas de rester sur l’assembleur et sur le C… C’est le cas par exemple dans le monde Android, pendant plus de 10 ans les développeurs ont pu travailler sur des outils et des frameworks Java. Et comme cela, par magie, le nouveau Langage de la communauté est Kotlin. On imagine l’impact sur les applications existantes (si elles doivent changer), il faut recréer des outils, retrouver des bonnes pratiques… Pour quel gain?
  • Sincèrement, on ne voit aucun ralentissement sur les cycles de renouvellement des technologies. C’est toujours un rythme frénétique. Nous trouverons bien le Graal un jour. Le problème est ensuite l’empilement de ses technologies. Comme aucune ne meurt vraiment et que l’on en maintient toujours des parties, on développe d’autres couches pour s’adapter et continuer à maintenir ces bouts de code ou ces librairies. Le problèmen’est pas le code legacy,, c’est la glue que l’on développe autour qui pêche.
  • Au final, on passe du temps à résoudre des problèmes techniques internes, on recherche des outils pour résoudre les problèmes que l’on ajoute, on passe son temps à s’adapter à ses nouveaux outils, on ajoute des surcouches (voir chapitre précédent…) … et on n’a pas améliorer la qualité intrinsèque du logiciel ou les besoins auxquels on doit répondre.
  • Au final, le rythme frénétique des changements ne nous permet pas de nous stabiliser sur une technologie. J’avoue qu’en tant que vieux développeur que je suis, j’ai été découragé par le changement Java vers Kotlin pour Android. C’est peut-être pour certains de véritables challenges, mais quand je repense au temps que j’ai passé sur l’apprentissage, sur la mise en place d’outils
  • Ensuite, comme aucune solution ne meurt vraiment, que de nouvelles arrivent… on se retrouve avec des projets avec des multitudes de technologies à gérer avec les compétences associées aussi… On s’étonne ensuite que le marché du recrutement de développeur soit bouché. Pas étonnant.. Il y a énormément de développeurs mais il est difficile de trouver un développeur React avec 5 ans d’expérience qui connaîsse le Go. Le marché est fractionné, comme les technologies. C’est peut-être bon pour les développeurs car cela crée de la rareté et cela fait monter les prix, mais pas pour le projet !
  • Cependant, cet apprentissage continu des technologies pose le problème d’apprentissage de domaines transverses : accessibilité, agilité, performance… En effet, qu’est-ce qui nous prouve que les outils et les langages que nous allons choisir ne vont pas changer dans 4 ans ? Rust, Go… dans 2 ans ? Rien ne tend à donner une tendance.
  • On ne se remet pas en question car on veut s’amuser. Le fun est important, car si l’on s’ennuie dans son boulot, on va déprimer. Par contre, on ne peut pas, sous prétexte de vouloir du fun tout le temps, changer nos outils continuellement. Il y a un déséquilibre entre l’expérience du développeur et l’expérience de l’utilisateur. On veut du fun, mais qu’est-ce que cela va réellement apporter à l’utilisateur ? Un produit plus « joyeux » ? Non, nous ne sommes pas des acteurs.
  • On ne se pose pas de question sur l’éthique de notre domaine, sur sa durabilité… Cela vient peut-être du fait que notre domaine n’a pas réellement de code éthique (comme par exemple les médecins ou les avocats). Mais sommes-nous en tant que développeurs réellement libres si l’on ne peut pas avoir une autocritique ? Nous sommes peut être asservis à une cause portée par d’autres personnes ? Le problème n’est pas simple mais nous avons dans tous les cas une responsabilité. Sans code éthique, c’est le plus fort et le plus malhonnête qui est le plus fort. Le buzz et les pratiques pour manipuler les utilisateurs sont de plus en plus répandus. Sans Dark Pattern ton produit ne sera rien. Les plus gros (GAFA…) n’en sont pas arrivés là pour rien.
  • Est-ce que la solution est politique ? Il faut légiférer pour mieux gouverner le monde du logiciel. On le voit avec les dernières réponses législatives aux problèmes concrets : RGPD, notification des cookies… la source du problème n’est pas résolue. Peut-être parce que les politiques ne comprennent que très mal le monde du logiciel.
  • Car si cette structuration n’est pas faite, les développeurs vont perdre la main sur ce qu’ils font. Or le manque d’éthique de la profession est critiqué à l’extérieur. Rachel Coldicutt (@rachelcoldicutt) directrice de DotEveryOne, un think tank britannique qui promeut une technologie plus responsable, encourage à former des diplômés non-informaticiens qui traiteraient de ces problèmes (Voir plus précisément dans l’article d’Internet Actu). Pour poursuivre sur ce dernier article, cela serait dans la droite ligne de l’informatique, domaine issu du monde militaire où les ingénieurs et développeurs seraient formés à suivre des décisions et des commandements.
  • Le monde du logiciel s’intègre dans un système organisationnel classique. Grands groupes, sous-traitances via des ESN, web agencies… Tous suivent les mêmes techniques de gestion des projets informatiques. Et tout le monde va « dans le mur ». Aucune analyse sérieuse n’est faite sur le coût global d’un logiciel (TCO), sur son impact sur la société, sur son bénéfice, sa qualité… C’est la rapidité de release(Time to Market), la surcharge featurale (fonctionnelle), la productivité immédiate, qui comptent. Premièrement car les gens externes à ce monde ne connaissent que trop peu la technicité du logiciel et son monde. Il est virtuel donc simple (sic). Mais ce n’est pas le cas. Les écoles de commerce et autres usines de managers n’ont pas de cours de développement. Comment peuvent-ils bien diriger et piloter des projets ?
  • On continue a vouloir chiffrer des projets informatiques comme de simples projets alors que des mouvements comme le no estimate propose des approches innovantes. Les projets continuent d’échouer : le chaos report rapporte que simplement 30% des projets réussissent bien. Et face à cette mauvaise gouvernance, les équipes techniques continuent de se battre sur les technologies. Dommages collatéraux : la qualité, l’éthique, l’environnement… et au final l’utilisateur. Cela ne serait pas si critique si le logiciel n’avait pas un impact aussi fort sur le monde. Software eats the world… et oui, on le « bouffe »…
  • Si ces décisions absurdes arrivent, ce n’est pas uniquement la faute du développeur mais bien de l’organisation. Et qui dit organisation dit management (sous-différente forme). Si l’on revient au livre de Morel, il parle de piège cognitif dans lesquels les managers et les techniciens tombent souvent. C’est le cas de la navette Challenger qui a été quand même lancée malgré la connaissance du problème d’un joint défectueux. Les managers ont sous-évalué les risques et les ingénieurs ne les ont pas prouvés. Chacun a reproché à l’autre de ne pas fournir assez de preuves scientifiques. C’est souvent ce qui se passe dans les entreprises : des warnings sont levés par certains développeurs mais le management ne les prend pas assez au sérieux.
  • En même temps, on revient aux causes précédentes (silver bullet, on s’amuse…), il est nécessaire d’avoir une vraie ingénierie et une vraie analyse des technologies. Sans cela, les équipes techniques seront toujours non-écoutées par le management. Des outils et benchmark existent mais ils sont encore trop peu connus. Par exemple, Technologie Radar qui classe les technologies en terme d’adoption.
  • Ce phénomène de décision absurde est renforcé par le tissu complexe du développement logiciel : Les sociétés historiquement hors du numérique sous-traitent à des entreprises du numérique, les ESN sous-traitent aux freelances… Le partage de responsabilité technique / management est encore plus complexe et les décisions absurdes plus nombreuses.
  • Mais cela ne s’arrête pas là. On peut aussi voir l’usage de l’open-source comme une sorte de sous-traitance. Idem pour l’usage de framework. On est juste consommateur passif, on se déleste de plein de problématiques (qui ont un impact sur les ressources, la qualité…).
  • C’est d’autant plus facile que le domaine est passionnant et que la pratique des sides-projects, du temps passé sur les projets open-source hors des horaires de bureau est chose commune… La recherche de “fun” et le temps passé bénéficient alors plus aux organisations qu’aux développeurs. Difficile dans ce cas de chiffrer le coût réel d’un projet. Et pourtant, cela ne serait pas un problème si on arrivait à des logiciels « au top ».
  • Le développeur n’est ici plus un artisan du code, mais plutôt un pion dans un système critiquable du point de vue humain. Cela n’est pas visible, tout va bien et on s’amuse. En apparence seulement, car certains domaines du développement logiciel vont plus loin et rendent beaucoup plus visible cette exploitation : Le domaine du jeux-vidéo où les heures explosent.
  • Et donc, toutes ces maladresses (logiciel trop lourd, sans qualité…) se retrouvent chez les utilisateurs. Comme on doit releaser au plus vite les logiciels, que l’on ne tente pas de résoudre les inefficiences internes, et que l’on ne met pas plus de ressource pour faire de la qualité, on arrive à des logiciels médiocres. Mais on a tellement d’outils de monitoring et de suivi des utilisateurs pour détecter ce qui se passe directement chez eux qu’au final, on pense que ce n’est pas grave. Cela serait une bonne idée si les outils étaient bien utilisés. Or la multitude d’informations récoltées (en plus des bugs remontés par les utilisateurs) n’est que faiblement utilisée. Trop d’information, difficulté de cibler la vraie source du problème… on s’y perd et au final, c’est l’utilisateur qui trinque. Tous les logiciels sont maintenant en bêta-test. A quoi bon faire de la sur-qualité, autant attendre que l’utilisateur le demande. Et on revient ainsi au premier chapitre : un logiciel uniformément lent … et médiocre.
  • Heureusement, on est sauvé par la non-sensibilisation des utilisateurs au monde du logiciel. C’est un monde effectivement virtuel et magique qu’ils ont l’habitude d’utiliser. On leur a mis en main les outils mais sans notice explicative. Comment évaluer la qualité d’un logiciel, les risques sur l’environnement, les problèmes de sécurité… si l’on n’a pas des notions d’informatique, même rudimentaires ?
  • L’informatique du 21ème siècle est ce que l’agroalimentaire était pour les consommateurs au 20ème siècle. Pour des raisons de productivité, on a poussé des solutions médiocres avec un calcul court-termiste : mise sur le marché de plus en plus rapide, profit en hausse constante… agriculture intensive, malbouffe, pesticides… avec des impacts importants sur la santé, sur l’environnement… Les consommateurs savent maintenant (de plus en plus) les conséquences désastreuses de ces dérives, l’industrie agroalimentaire doit donc se réinventer, techniquement, commercialement et éthiquement. Pour le logiciel, quand les utilisateurs comprendront les tenants et les aboutissants des choix techniques, l’industrie du logiciel devra gérer les mêmes problèmes. En effet, le retour au bon sens et aux bonnes pratiques n’est pas une chose simple pour l’agroalimentaire. Dans l’IT, on commence à le voir avec ses conséquence sur la vie privée des utilisateurs (mais nous n’en sommes qu’aux balbutiements).
  • On va dans la mauvaise direction. L’industrie de l’informatique a déjà effectué dans les années 70 des erreurs avec des impacts non-négligeables. L’exclusion des femmes de l’informatique en fait partie. Non seulement cela a été fatal pour certaines industries mais on peut se poser la question de comment on peut maintenant adresser des réponses à seulement 50% de la population informatique, avec une représentativité très faible. Le chemin est maintenant difficile à retrouver.
  • Mais l’impact du monde IT ne s’arrête pas là. La source et le modèle d’une grosse partie de l’informatique sont issus de la Silicon valley. Si l’on écarte les gagnants de la Silicon Valley, les populations locales subissent la montée des prix, le déclassement, la pauvreté…
  • Dans sa lancée vers le progrès technique, le monde du logiciel crée aussi sa dette environnementale…
  •  
    "Le monde du logiciel va mal et si l'on n'agit pas, on risque de le regretter. Environnement, qualité, exclusion… Software Eats The World (Le logiciel mange le monde…) ? Oui un peu trop. "
Aurialie Jublin

[Démocratie/Logiciel libre] Alerte / en marche vers la privatisation de la dé... - 0 views

  • Pourquoi cette entreprise continue à jouer solo, à capter les contributions communes, et malgré toutes les demandes, à fermer son code ? Et par quelle magie est arrivé ce quasi monopole alors que dans d’autres pays de nombreuses solutions libres, ouvertes et transparentes ont fait leur preuve ?
  • Avons-nous compris qu'un code fermé et propriétaire c'est comme un brevet Monsanto ? Qui s'approprie le vivant, qui fait disparaître la diversité du vivant et donc des espèces, qui privatise le commun, qui installe une dépendance mortifère avec sa solution et nécessite de toujours racheter la même solution ? Avons-nous bien compris qu'un code propriétaire s'est s'approprier la richesse offerte par les gens, leur travail, leurs données ?Avons-nous bien compris qu'un code propriétaire c'est une boîte noire en qui personne, je dis bien personne, à part celui qui l’a codé, ne peut avoir confiance ?
  • il n’y a que le logiciel libre qui peut garantir les conditions de transparence, de responsabilité collective (hackers, développeurs, usagers, citoyennes et citoyens, associations de liberté et neutralité du net), qui coopérant les unes avec les autres, peuvent être les seuls garants d’un processus numérique démocratique sincère et sous surveillance.
  • ...9 more annotations...
  • Je ne sais pas à combien d'entre nous cette proposition a été faite. D’ailleurs ça m’intéresse de savoir qui travaille avec des solutions Cap Co pour comprendre l’entendue du problème et du désastre dans lequel nous nous sommes mis. De notre côté, il en était hors de question, un de nos principes fondateurs était que tout ce qui serait créé par nos petites mains serait libre, public, partageable et pourrait servir à toutes et tous. C’est exactement ce qu’il s’est passé, on s’est servi d’autres travaux d’autres équipes par delà le monde et on a offert nos travaux à d’autres équipes qui les ont adapté en fonction de leurs besoins. Tous ces travaux sont à dispo de toutes et tous. Et n’importe quel codeur peut venir voir le cœur du réacteur, déceler les failles, les signaler, et donc les réparer, etc…
  • Nous avions donc à l'époque refusé cette proposition d’utiliser en marque blanche et gratuitement la plateforme de Cap Collectif. Mais combien ont accepté la bonne affaire ? En toute bonne foi, sans comprendre les enjeux immenses autour de la bataille des bases de données, l'ouverture des données, des choix d'algorithme, de la surveillance. Vous connaissez toutes et tous l'adage, "si c'est gratuit, c'est toi le produit".
  • Revenons un peu en arrière, la plateforme en question originelle qui a donné naissance à Cap Collectif, Parlement et citoyens, a été construite bénévolement par un tas de gens extraordinaires, qui ont vu leur travail capté, et fermé dans Cap Collectif. C’est un tout premier scandale. Qui l'a vendu et revendu à des collectivités ou "prêté" à des expérimentations citoyennes.
  • On arrive aujourd'hui ce mercredi 29 janvier 2019 à un énorme gag sur ce nouvel épisode du Grand débat, opération massive de communication gouvernementale : Cap Collectif met en place les plateformes de tous les cotés CESE, gouvernement, Gilets jaunes, provoquant un énorme malaise de ces derniers lorsqu’ils ont compris qu’ils partageaient le même outil et même prestataire, et une défiance accrue envers les outils au service de l'expression citoyenne pour celles et ceux qui s’intéresseraient aux dispositifs.
  • Cap Collectif étant en mesure de vendre ses plateformes grâce à un immense travail collectif en faveur de la participation citoyenne, dont nous sommes toutes et tous actrices et acteurs ici-mêmes (et pas que nous évidemment), et financé avec les deniers publics, donc l'argent des français, il n'est plus question de continuer à tolérer ce qui était déjà hier intolérable : le code doit être ouvert et publié.
  • Comment imaginer rétablir un lien de confiance dans la société avec des boîtes noires ? La démocratie se fonde sur la transparence de la décision publique, sa souveraineté, sa responsabilité, comment imaginer une seconde que les outils à son service ne soit pas fondé sur les mêmes obligations de transparence, souveraineté et responsabilité ?
  • Premièrement, je demande donc officiellement à Cap Collectif de publier son code. Et je vous demande, chaleureusement, à chacune et chacun d'entre vous, usagers et usagères, en tant qu'orga ou en tant que citoyen.ne.s d'en faire de même. Ou alors d’assumer publiquement votre choix du logiciel propriétaire avec tout ce que cela comporte d’antagonique avec les principes fondamentaux de la démocratie.
  • Deuxièmement, je demande aux instances de Démocratie Ouverte de favoriser la diversité des acteurs, des solutions, de ne plus recommander ou contribuer à des outils en logiciels propriétaires, de ne plus jamais favoriser une entreprise de participation par rapport à d'autres.
  • Enfin je demande à toutes les institutions, aux collectivités, de ne plus reproduire leurs erreurs en utilisant des solutions opaques : erreur sur la souveraineté des données, erreur sur la sécurité des outils, erreur et gabegie budgétaires.
  •  
    "Alors qu'explose en France une demande sans précédent de démocratie de la part des citoyens et des citoyens, de Nuit Debout, aux Gilets jaunes (assemblées réunies à Commercy)... ... celles et ceux qui sont censés être au service de cette participation citoyenne, ne voient pas ou font semblant de ne pas voir, qu'une entreprise s'approprie et capte cette formidable émulation collective, qui représente un commun, puisque financé par des deniers publics et enrichis grâce au travail de toutes et tous. Tous ces efforts collectifs pour mettre les citoyennes et les citoyens au cœur de la démocratie. Pour aller vers la transparence. De la coopération. Du partage. Des communs.  Pour quoi ? Moi je croyais que c'était vraiment notre rêve d'asseoir les citoyennes et citoyens à la table des décisions. A peine née, l'utopie d'une meilleure participation des habitantes et habitants de ce pays est déjà pervertie, et déjà gravement menacée."
Aurialie Jublin

Derrière les promesses de l'intelligence artificielle, le cauchemar du "digit... - 0 views

  • En l’absence de régulation, le digital labor préfigure le pire du travail : un monde de travailleurs isolés, privés de droits sociaux et iolés les uns des autres, livrés aux conditions léonines des employeurs — et accomplissant des tâches standardisées, fragmentées, peu qualifiées et dépourvues de sens global. Ici et là, des tentatives de régulation ou de création de plateformes équitables sont en cours. Il est urgent de les soutenir, si l’on ne veut pas que le développement croissant de l’automatisation ne soit synonyme non d’une disparition du travail, mais de sa dégradation irrémédiable.
  • Cet imaginaire largement libertarien irrigue profondément la culture du web depuis ses débuts et s’incarne, par exemple, dans la figure du hacker ou de l’entrepreneur nomade, du passionné qui s’accomplit dans un « projet professionnel qui est aussi existentiel ». Mais Antonio Casilli note combien cette vision est élitiste et ne prend pas en compte l’asymétrie des forces dans un marché du travail en berne où le chômage est élevé et l’ascenseur social en panne,
  • « Ce ne sont pas les machines qui font le travail des hommes, mais les hommes qui sont poussés à réaliser un digital labor pour les machines en les accompagnant, en les invitant, en les entraînant », résume le chercheur. Les intelligences artificielles doivent toujours être paramétrées, entraînées et encore très largement supervisées par des humains, malgré les progrès des méthodes d’apprentissage non supervisés. Les progrès fulgurants des IA ces dernières années sont surtout dus à l’explosion des quantités de données d’entraînement : or celles-ci doivent être triées, annotées, préparées par des humains. Et enfin, ces programmes doivent être évalués et corrigés pour pouvoir s’améliorer. Ainsi, les utilisateurs vont utiliser pendant plusieurs années une version beta du service Gmail de Google, pour l’améliorer, ou tagger leurs amis sur des photos et contribuer ainsi sans nécessairement en avoir conscience à l’affinement du service de reconnaissance faciale de Facebook : « C’est un travail humble et discret, qui fait de nous, contemporains, à la fois les dresseurs, les manouvriers et les agents d’entretien de ces équipements. » La question que pose l’intelligence artificielle et l’automatisation, ce n’est donc pas celle de la menace sur l’emploi – mais celle de la transformation profonde du travail pour répondre aux besoins de la machine.
  •  
    "Un spectre hante l'intelligence artificielle, c'est le digital labor. Le dernier livre du sociologue Antonio Casilli , spécialiste des réseaux sociaux et des mutations du travail à l'ère numérique, dresse un panorama sombre des nouvelles formes de travail déconsidéré ou invisible apparues avec l'essor des plateformes et de l'automatisation."
1 - 6 of 6
Showing 20 items per page