Skip to main content

Home/ QN2019/ Group items tagged innovation

Rss Feed Group items tagged

Aurialie Jublin

Comment les blockchains peuvent sauver la culture - 0 views

  • Le premier est de former des registres immuables et distribués, enrichis au fil de l’eau et de façon sécurisée, tout en restant facilement consultables par tous à tout moment. En matière de gestion des droits d’auteur, ou de simple référencement des oeuvres, c’est un fort atout, en rupture avec la logique de fichier centralisé qui prévaut aujourd’hui.
  • Le second est de permettre la création de « contrats intelligents », c’est-à-dire des transactions programmables, conditionnées à des événements futurs. Ce sont ces contrats qui sont à l’origine de toutes les ICO (« Initial Coin Offering »), permettant à quiconque d’acquérir un token avant qu’il ne soit créé. Transposé au domaine culturel, le principe d’associer flux financiers et conditions pré-programmées automatisables peut s’avérer puissant. Il devient par exemple facile de faire évoluer le prix d’un album musical en fonction de son succès, ou d’offrir aux 100 premiers acheteurs de cet album une remise sur un concert à venir.
  • Le troisième atout tient aux paiements proprement dits : toute blockchain publique (ou tout token) est aussi une crypto-monnaie, convertible en d’autres monnaies, et autorisant de façon efficace des transactions de montants très faibles (inférieurs au centime d’euro), ce que nulle autre solution ne permettait jusqu’alors.
  • ...10 more annotations...
  • Voise, développé en OpenSource sur la plate-forme Ethereum, dispose ainsi de sa propre monnaie (VOISE) pour créer « une plate-forme libre et équitable permettant aux artistes de monétiser leur contenu sans intermédiaire ». Ciblant les artistes indépendants et déjà disponible en version alpha, la plate-forme offrira comme d’autres du streaming payant, mais sans abonnement et avec une différence de taille : les artistes fixent eux-mêmes le prix de leur musique et conservent 100% des revenus
  • De son côté, Ujo est encore plus ambitieux, en tirant parti de plusieurs blockchains et outils décentralisés pour créer « une plate-forme où la musique reste en permanence sous le contrôle de l’artiste » : stockage décentralisé via IPFS et Swarm, licensing et paiements via Ethereum, gestion des identités sans mot de passe via uPort, lui-même un projet blockchain innovant... Chaque artiste est responsable de ses données et de son contenu, fixant les prix et les licenses, et pourra vendre par ce biais non seulement sa musique mais tous les produits dérivés (goodies, places de concert, etc.)
  • Autres exemples, Opus, disponible en version beta, et « s’opposant aux modèles monopolistiques et centralisés actuels » ou Muse qui, bien que tardant à se concrétiser (en développement depuis plus de deux ans), entend également créer « un réseau P2P globalement distribué appartenant aux musiciens eux-mêmes, où les royalties de tous les ayant-droits sont payées directement et instantanément, sans intermédiaires qui prélèvent des commissions ».
  • Sur le Web, la monétisation des textes a toujours été un problème. Un auteur de blog ou un petit éditeur de presse n’ont que peu de choix : couvrir leurs pages de bannières (dont l’immense majorité est gérée par une seule entreprise, Google) et espérer s’adjuger une (maigre) part du gâteau publicitaire. Là encore, les blockchains peuvent changer la donne.
  • On peut faire autrement, et deux plates-formes de contenu éditorial, Steemit et Yours, le prouvent. Toutes deux, inspirées de Reddit et opérationnelles (en version beta), permettent à quiconque d’ouvrir un blog, en dégageant des revenus directement liés à la popularité de ce qu’il/elle publie. L’idée est bien de s’opposer aux modèles en vigueur. « La plupart des médias sociaux extraient de la valeur de leurs utilisateurs pour le seul bénéficie de leurs actionnaires. Steemit est différent, formant un nouveau genre d’économie de l’attention. Etant connecté à une blockchain décentralisée et contrôlée par les gens, ce sont les utilisateurs eux-mêmes qui perçoivent tous les bénéfices et toutes les récompenses pour leur attention », explique Steemit, dont la monnaie (STEEM) pèse près de 300 millions de dollars en capitalisation.
  • « Les paiements en pair à pair sont la pièce manquante aux médias sociaux. Cette absence de paiement explique pourquoi Internet est rempli de clickbait, de spam et de fausses actus. Les gens devraient être capables de gagner de l’argent directement depuis celles et ceux qui les soutiennent, et tout ne devrait pas été financé par la publicité », ajoute Yours, dont la principale différence avec Steemit est d’imposer un coût initial pour la publication de nouveaux contenus.
  • Alors qu’on peut tout dupliquer en deux clics, comment prouver l’antériorité d’un texte, s’assurer qu’une photo émane bien de la personne qui prétend en être l’auteur, ou reproduire facilement un contenu en toute légitimité, en créditant ou payant les auteurs initiaux ? Plusieurs (ambitieux) projets s’attaquent au problème.
  • Po.et, après la création de son token POE ayant levé 10 millions de dollars en ICO, veut créer « un registre universel partagé pour tracer l’existence et la propriété de tous les actifs culturels mondiaux ». Initialement, le dispositif se contente d’établir une « preuve d’existence » de tout document numérique en lui adjoignant des méta-données rattachées à la blockchain Bitcoin. Tout article publié sur un site Web peut ainsi être horodaté de façon irréfutable, tout en étant plus facilement indexable (titre, mots-clés, auteur, lieu de publication, etc.).
  • A terme (d’ici à 2019), l’idée va bien au-delà, avec la création d’un dispositif de gestion automatisée des licenses, permettant de former un marché mondial du contenu numérique, quel que soit son format. Tout ebook, tout article de presse ou de blog, toute image ou tout enregistrement numérique seront dûment identifiés, et les licenses acquittées, via un réseau décentralisé et des crypto-monnaies, sans intermédiaires entres éditeurs et producteurs de contenus. Au passage, « non seulement un enregistrement Po.et stockera plus de méta-données qu’un ISBN, mais ce sera un service gratuit »
  • Des dizaines de projets à base de cryptos et tokens montrent la voie. Automatisation du traitement des droits d’auteur, indexation intelligente et pérenne des oeuvres, plus grande transparence, mise en rapport direct des artistes/auteurs et de leurs fans, suppression partielle ou totale des intermédiaires financiers et leurs commissions, réduction du modèle publicitaire... On comprend que les blockchains ont de sérieux atouts pour disrupter l’industrie culturelle.
  •  
    "Les blockchains et les crypto-monnaies intriguent, excitent ou effraient, c'est selon, mais tout porte à croire qu'elles sont en train de donner naissance à une nouvelle économie, déjà baptisée « Token economy », reposant sur une myriade de monnaies et/ou jetons électroniques qui réinventent les usages, décentralisent la valeur et bousculent les systèmes en place. Pour démarrer cette série de « Mes tokens et moi », penchons-nous sur la diffusion d'oeuvres culturelles grâce aux blockchains. Episode 1 : Décentraliser la culture. "
Aurialie Jublin

Bientôt une IA éco-friendly ? - 0 views

  •  
    "Des chercheurs d'IBM publiaient une étude le 6 juin 2018 dans la revue Nature présentant un prototype de puce intégrant un réseau neuronal artificiel, permettant un système machine learning plus rapide, efficace et surtout consommant moins d'énergie qu'un même réseau fabriqué à partir d'un logiciel. Serions-nous sur la piste d'une adéquation entre progrès numérique et régulation écologique ?"
Aurialie Jublin

CHATONS, le collectif anti-GAFAM ? - Framablog - 0 views

  • Pour faire court, CHATONS serait un peu aux services libres ce que la Fédération FDN est aux fournisseurs d’accès internet libres : un moyen de rassembler, de mutualiser, de décentraliser, de donner de la visibilité, de fédérer autour de valeurs communes, de faciliter l’essaimage, mais sans pour autant centraliser, rigidifier, contrôler ces structures.
  • Framasoft ne couvre pas l’ensemble des besoins, et ne propose aucune garantie de disponibilités dans ses Conditions Générales d’Utilisation. Il serait donc utile de répartir la charge et les services sur différentes organisations, non seulement pour éviter les silos de données, mais aussi pour s’assurer de ne laisser aucun utilisateur dans l’impasse. L’un des objectifs serait de mettre en réseau les différentes organisations volontaires, afin qu’elles puissent proposer des services complémentaires (voir redondants) aux utilisateurs.
  • Pas encore, mais il est certain qu’Internet, tel que nous le connaissons, est en train de changer. Et pas forcément dans le bon sens. Les attaques contre la neutralité du net se multiplient (malgré quelques victoires). Google et Apple sont aujourd’hui les deux plus grosses capitalisation boursières mondiales, tous secteurs confondus. La valeur de leurs actions équivaut aux PIB d’États « riches » comme l’Argentine, la Belgique ou la Suède. La trésorerie des GAFAM leur permettent de faire un lobbying à une échelle jamais connue auparavant, leur assurant à terme d’avoir des lois, des réglementations, qui joueront en leur faveur. Cette puissance financière leur permet de racheter n’importe quelle start-up de la planète, leur confiant la maîtrise des innovations. La loi de Moore permet d’envisager des collectes, agrégation et analyse de données toujours plus importantes. L’internet des objets va accélérer ce mouvement et lui donner une ampleur nouvelle en « sortant » les pratiques de surveillance des périphériques habituels. Ces pratiques de surveillance sont adossées à des lois publiées en procédure accélérée, sans recul sur leur efficacité.
  • ...1 more annotation...
  • Si nous voulons une économie qui soit aussi sociale et solidaire, il va nous falloir un internet qui soit aussi social et solidaire. Et cela passera entre autre par une diversité d’acteurs indépendants proposant des services web libres, éthiques et respectueux de vos données, décentralisés et solidaires.
  •  
    "Suite à la mise en place de la campagne Dégooglisons Internet, Framasoft souhaite impulser la création d'un Collectif d'Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires (C.H.A.T.O.N.S. ! :-P ). Ce collectif rassemblerait les organisations souhaitant proposer des services alternatifs à ceux de GAFAM (Google, Apple, Facebook, Amazon, Microsoft), respectueux de la vie privée des utilisateurs."
Aurialie Jublin

Redecentralize.org - 0 views

  • Motivations for decentralizing the internet vary. These three keep coming up: Resilient - whether there’s a hurricane, a severed trans-atlantic cable or just a train line with a poor connection, we’d like to be able to carry on making phone calls and sharing documents. Private - as a company keeping our commercial secrets, or as an individual concerned about criminals and overreaching governments, we'd like our most personal messages not to be held in distant data centres. Competitive - we're often forced to use one dominant provider who restricts competition, we'd like to build communtities around new protocols, driving innovation of new services on top.
  •  
    "The original Internet was decentralized. Anyone could set up parts of it. That's why it won. For various reasons, control of our information technologies is increasingly falling into a few hands. Some big companies and Governments. We want it to become decentralized. Again."
Aurialie Jublin

Can Worker Co-ops Make the Tech Sector More Equitable? | The Nation - 0 views

  • Fed up with this heartless model, some tech activists are developing online workplaces that operate as worker-driven communities. Daemo, a pilot program incubated at Stanford University’s Crowd Research Collective, is one such worker-driven crowd-labor platform. Since 2015, Daemo’s developers have been building on MTurk’s interface with a communications system aimed at allowing for more equitable “matching” between work requesters and digital taskers. As a non-hierarchical, nonprofit framework where workers control the operations, Daemo is designed for fairer working conditions, with a minimum wage of $10 an hour, which is a major improvement on MTurk’s precarious labor-outsourcing system.
  • Some former participants in Daemo’s project recently aired sharp criticism of the platform in response to a largely favorable article in Wired. In a collectively authored article on Medium, they argued that, in their practical experience with the platform, decision-making power rests with a “platform team” of researchers and leading developers. Though Daemo has established a Constitution that theoretically is open to amendments and revision based on workers’ input, critics say the day-to-day management remains tightly controlled by researchers.
  • “Whenever they talk about the decentralization, they talk about technical decentralization, like block-chain or decentralized platforms, but most of the time they overlook the governance level, which is more important,” Hashim says. “So it’s about who takes the positions, it’s about who has the right to access information. If you don’t have a well-informed society, you don’t have democracy.”
  • ...4 more annotations...
  • Kristy Milland, an activist with the MTurk advocacy network We Are Dynamo, says she’s given up collaborating with Daemo because “There hasn’t been any deep, involved worker input…. It’s built by academics with the bias they bring to such a platform that they expect will provide them with free data to publish down the road. Just like Amazon built MTurk with their needs in mind, even if many of the roadblocks this caused may have been unintentional.”
  • The “platform cooperativism” concept, as articulated by technologist Trebor Scholz and other academics, is that worker control can be integrated by working with the democratic aspects of the online sphere: entrepreneurial horizontalism and a pluralistic culture of innovation. But with online workspaces proliferating at breakneck speed, it’s a race to see whether these more principled worker-led models will ever be able to compete for market share with the app-based workforce of MTurk. Similarly, small-scale cab-service cooperatives are emerging in the United States, but Uber and Lyft’s mega brands are displacing cabbies by the minute.
  • The problem with crowd labor isn’t that it’s big, or complex; it’s that workers can’t control their means of technological production. According to Joshua Danielson of the Bay Area start-up cooperative Loconomics, Daemo’s model “has the potential to provide an alternative to Amazon Turk,” if the platform combines a good product and good jobs for the producers. The key, he says via e-mail, is “creating a cooperative business model that can be self-sufficient and be able to attract clients. The latter is the more challenging one given the deep pockets of the current players. That said, it’s important to remember that workers are the product, not the platform, and they hold an immense amount of power if they can organize.”
  • The digital frontier offers endless room both for exploitation and for social transformation. But if workers can get ahead of corporations in harnessing the potential of open-source technology, they can disrupt the incumbent Silicon Valley oligarchs from below. So far, technology hasn’t emancipated labor nearly as rapidly as it has liberalized markets. Cooperative thinking can make technological power part of the solution, but only if it’s matched with people power.
  •  
    "The crowdwork sector is dominated by low-paid gigs-can communally run companies make these jobs sustainable?"
Aurialie Jublin

« Il existe deux Internets : celui des « précurseurs » et celui des classes p... - 0 views

  • Ce qui est frappant, c’est que les milieux populaires participent très peu en ligne. Sur Internet, la prise de parole est très fortement associée au niveau de diplôme. Des enquêtes comme celle menée par Trevor Pinch et Filip Kesler montre ainsi que la plupart des top reviewers d’Amazon sont des hommes, très diplômés… Aujourd’hui la vraie fracture est ici, au niveau de la participation et de la production en ligne. C’est comme si maintenant tout le monde avait Internet, mais que certains s’en servaient pour faire des choses que les autres n’osent pas faire. J
  • Il existe ainsi deux Internets : celui des gens qui innovent, produisent, sont créatifs etc. et l’Internet des classes populaires, qui est un Internet à bas bruit, où l’on communique avec les gens de sa famille et qui est très présent dans la vie, très central – mais qui n’est pas le même que l’autre. Et il n’y a pas d’échanges entre l’internet « précurseur » et l’internet à bas bruit, qui est très très important pour ceux qui l’ont, mais n’est pas ouvert sur autre chose.
  • Le hasard heureux, la « sérendipité » en ligne… arrivent plutôt à des gens qui sont très, très diplômés. Ceux que j’ai étudié ne font que recopier ce que les autres ont déjà dit ! Ils communiquent beaucoup avec des images, des textes écrits par d’autres… Cela s’explique relativement bien : beaucoup de ces personnes ne sont pas allés longtemps à l’école. Même si Internet permet d’écrire avec des fautes, elles préfèrent passer par des images et des phrases déjà conçues.
  • ...6 more annotations...
  • Je m’attendais à voir des gens qui n’arrivaient pas à trouver ce qu’ils cherchaient, or ce n’était pas du tout le cas. Ils utilisaient tout le temps Internet pour faire des recherches et pour apprendre. Ils cherchent souvent des savoirs très spécialisés, pratiques : apprendre à jongler, danser telle danse, construire sa maison… Internet fonctionne alors comme une deuxième école, où acquérir des savoirs non certifiés par le système scolaire. Et ça représente des enjeux très forts pour de petites mobilités sociales, pour des gens qui ne sont pas allés à l’école. Je pense par exemple à cet homme qui va très tôt sur le marché de Caen acheter des sacs Chanel, qui a appris en ligne à estimer leur valeur, à rédiger des notices sur son compte Ebay, et qui correspond désormais avec un client anglais et un japonais : il ne parle aucune de ces langues mais il utilise Google Traduction. Ou encore à ce pâtissier qui confectionne des « wedding cakes » et des recettes inspirées par des chefs américains ou japonais dans un tout petit village…
  • En quoi peut-on parler de « petites mobilités sociales » ? Avec Internet, ces gens peuvent, sans changer nécessairement de métier, changer leur manière d’être au monde. Maintenant on peut très facilement récupérer des informations qui étaient auparavant complètement inaccessibles, faute d’interlocuteurs, de ressources... Des femmes employées dans des maisons de retraite, dans des positions très subalternes, des agents de service par exemple, me racontaient qu’elles rentraient chez elles le soir et cherchaient des mots employés par les médecins dans la journée. Le lendemain, elles avaient repris un peu de « pouvoir », comme diraient les gens qui travaillent avec le concept d’empowerment. Il y a indéniablement une ouverture sur des zones de connaissance et de façon d’être moins, à défaut d’un autre mot, démunie — Internet ouvre des façons d’être au monde en n’étant pas subalterne du côté du savoir.
  • Facebook propose un même dispositif à tout le monde, mais si vous êtes cadre supérieur vous y mettrez tous vos contacts professionnels et si vous êtes manœuvre en usine, vous posterez des clips de Johnny, des bandes annonces de Sophie Marceau et des nouvelles de la famille. Ces outils sont des dispositifs plastiques, dont les gens peuvent s’emparer de manière très différente.
  • Le mail n’est pas aimé. C’est de l’écrit, qui n’est pas censé être complètement phonétique (contrairement à Facebook), c’est asynchrone… Le mail est assimilé à une non-relation. Il n’est pas utilisé pour la correspondance personnelle mais les achats et les contacts avec l’administration. J’ai ainsi rencontré des gens qui ont 500 mails non ouverts… Ceci pose un problème majeur dans la communication avec Pôle Emploi, la CAF : tout ceci fonctionne largement par mail, or ces mails sont perdus dans un océan de pub venant des sites d’achats.
  • Personne ne m’en a parlé. Lors des entretiens, les aspects néfastes d’Internet apparaissaient sous l’angle de la perte de la communication en face à face, des problèmes de l’anonymat… Mais pas de la collecte de données. Est-ce que ça veut dire que c’est une inquiétude qui n’a pas traversé cette zone sociale ? C’est possible. Il faudrait peut-être des campagnes d’information auprès des milieux populaires. Car c’est une question qui n’est jamais sortie en entretien. Comme s’il n’y avait pas les mêmes problèmes publics dans tous les milieux sociaux.
  • L’échec du contact dématérialisé avec les services sociaux est majeur – tout comme l’est le succès des applications bancaires. Ce qui montre bien que cet échec n’est pas lié à une méfiance de la dématérialisation. J’ai rencontré une femme qui consulte son appli bancaire avant de faire chaque course. On voit bien que ces dispositifs sont entrés dans les habitudes, parce qu’ils rendent un service énorme, qu’ils sont désangoissants : on sait quand arrivent les virements, les prélèvements, on sait exactement ce qui reste… Mais ce n’est pas utilisé de la même manière dans les classes supérieures, qui ne s’en servent pas comme d’un fil continu.
  •  
    "Sociologue, Dominique Pasquier a mené une recherche de plusieurs années sur les usages numériques des familles modestes. Avec des entretiens qualitatifs et l'examen de comptes Facebook, elle a dessiné une cartographie, sensible et précise, des usages des Français des « classes populaires ». Elle décrit un « autre Internet », bien différent de celui des classes supérieures, mais qu'elle refuse de décrire comme plus pauvre."
manonmolins

Technology May Seek To Flatten The World, But The Digital South Will Chart Its Own Course - 1 views

  •  
    L'article donne les résultats de "The Digital Planet" - une étude comparatives des usages des technologies entre Nord et Sud de "The Fletcher School/Mastercard". L'auteur invite les acteurs majeurs du numérique qui souhaitent "reinventer le web" à sortir de leur visions centrées sur les problématiques du Nord. "Overall, the energy, attitudes and pace of digital transformation in the Digital South are very different from that in the North. In many ways, tech innovators, investors and policymakers are in the process of re-inventing the digital value proposition given our collective reckoning of the risks of these technologies. As they do so they must examine the digital development of the South and evaluate it by its own measures and rules and not assume it will follow the historical precedent of the North.
Aurialie Jublin

Pourquoi nous vivons dans un monde de plus en plus open-source - ZDNet - 0 views

  • Certaines personnes insistent encore sur le fait que l'open source et Linux sont en guerre contre les travers des logiciels propriétaires. En fait, nous avons gagné cette guerre il y a des années. Le dernier rapport Red Hat State of Enterprise Open Source, basé sur 950 entretiens, le montre clairement. Seulement 1% seulement des entreprises négligent l'importance des logiciels libres.
  • Cela ne veut pas dire que l'open source n'a pas son lot de problèmes. Ils sont nombreux. Plus notable encore, certaines entreprises open-source ont changé leurs licences en raison de conflits avec des entreprises de cloud computing.Mais, en fin de compte, ces conflits portent sur les limites de l'open source, et non sur la question de savoir si les anciennes méthodes propriétaires sont meilleures. Elles ne le sont pas.
  • Red Hat constate également que "nous voyons de plus en plus de logiciels libres utilisés dans des catégories qui, historiquement, ont été davantage associées à des applications propriétaires. Ces catégories comprennent, sans s'y limiter, la gestion du cloud, la sécurité, l'analyse et le stockage."
  • ...3 more annotations...
  • Historiquement, les entreprises se tournent vers les logiciels libres parce que c'est moins cher : 33% des utilisateurs professionnels considèrent que son coût total de possession (TCO) est le principal avantage de l'open-source mais "l'open source d'entreprise est de plus en plus utilisé non pas parce que c'est moins cher - bien que cela le soit souvent - mais parce que c'est un logiciel réellement meilleur".
  • Et 29% se tournent vers l'open source car il leur donne accès aux dernières innovations. Par exemple, le Big Data, l'intelligence artificielle et l'apprentissage machine sont presque entièrement construits sur des logiciels libres.
  • Ensuite, en terme d'avantage, les répondants mentionnent une meilleure sécurité, des logiciels de meilleure qualité, l'accès au support et la possibilité de personnaliser les logiciels.
  •  
    "Technologie : La nouvelle enquête de Red Hat sur l'utilisation de l'informatique en entreprises révèle un monde où le mouvement de l'open-source est ultra dominant."
Aurialie Jublin

Peut-on créer un nouveau moteur de recherche aujourd'hui ? U&R - 0 views

  • Si elle n’est pas en mesure de construire sa propre base et son propre index rapidement et efficacement, vous aurez beau l’interroger, aucun résultat n’en sortira… Peut-elle le faire ? Techniquement oui. Cela va néanmoins lui coûter cher car il va falloir qu’elle achète des milliers de serveurs pour stocker une réplique du web. Mais c’est possible, et c’est justement ce qu’est en train de faire Qwant. Ce moteur de recherche français construit son propre index, qui contient actuellement près de 20 milliards de pages. Cette société bâtit ainsi progressivement son indépendance technologique. Cette barrière technique et financière n’est donc pas infranchissable en soi. Le problème est qu’elle est doublée d’autres barrières autrement plus élevées. Lesquelles ?
  • D’abord, toute nouvelle entreprise créant un moteur de recherche innovant commercera son travail d’indexation à partir du moment où … elle commencera à le faire. Cette lapalissade a en réalité un sens profond : si Google a commencé à indexer le web en 1998, notre jeune société innovante a accumulé un retard de 20 dans la collecte des données du web. Mais ce n’est pas tant les couches successives du web qui vont lui faire défaut. C’est surtout 20 ans d’analyse des habitudes des internautes.
  • Or Google a verrouillé la connaissance client. Comment ? En offrant toute la panoplie des parfaits services web. Voyons le cheminement de l’internaute, c’est-à-dire « vous », sur la toile. Après vous être connecté, la première chose que vous ferez sera d’ouvrir un navigateur (Google a développé le navigateur Chrome pour les ordinateurs et Android pour les téléphones, dont il détient 80% de part de marché). Puis vous allez généralement consulter vos mails (Google a développé Gmail). Vous ferez ensuite des recherches (Google search a 92% de part de marché en France). Quand vous cliquez sur un lien vous arrivez sur un site. Et même à l’intérieur du site, Google sait comment vous naviguez grâce à son outil d’analyse d’audience (Google Analytics là encore possède près de 80% de part de marché). Que vous recherchiez un endroit où aller ou une vidéo à regarder, Google Maps et Youtube règnent sans réelle concurrence. Vous êtes donc cerné par ces outils. C’est cette « capture » dans le monde Google qui est préoccupante.
  • ...7 more annotations...
  • Les jeunes moteurs Lilo ou Ecosia sont adossés à Bing, sinon ils n’existeraient tout simplement pas. Ils ventent leur orientation écologique pour séduire l’internaute. Qwant utilise Bing pour compléter les résultats issus de son propre index, lorsque c'est nécessaire, en particulier sur les images. Et ce dernier a fait du respect de la vie privée son cheval de bataille.
  • On peut reprocher à Google sa position hégémonique, sa captation continuelle d’informations sur ses utilisateurs, sa malhonnêteté fiscale et concurrentielle sanctionnée récemment par la Commission Européenne. Mais beaucoup de personnes, en réalité, ignorent ou s’accommodent de cet état de fait. Cette soumission consentie du grand public risque de faire disparaitre une partie de notre liberté numérique. Par contre, les autorités américaines et européennes peuvent-elles accepter cette « confiscation » du web et cette « captation » des internautes qui empêchent de facto l’apparition de tout nouvel acteur ? On peut imaginer que, dans un monde normal, la réponse serait négative ! Quelle solution ?
  • Une troisième idée consiste simplement à empêcher Google d’imposer son navigateur sur les ordinateurs (Chrome) et surtout sur les mobiles (Android), privant les autres moteurs de recherche de la possibilité d'investir le marché de façon équitable. Cette solution simple et réaliste est certainement la plus prometteuse. L’amende récente de la Commission Européenne va dans ce sens.
  • On pourra poursuivre en objectant que les moteurs chinois (Baidu) ou Russe (Yandex) existent bien et prouvent qu’une alternative est possible. Mais ces derniers sont le reflet d’une politique volontariste d’Etats en délicatesse avec l’hégémonie américaine. Ils ne sont en rien le produit d’une libre concurrence.
  • On pourra objecter qu’une révolution technique peut toujours poindre, avec comme ingrédient la blockchain, une autre forme d’indexation ou une autre forme de distribution du référencement. Bien sûr, mais la création de la valeur est actuellement totalement phagocytée par les GAFAM, et si une révolution voit le jour, elle risque d’être préemptée, voire étouffée dans l’œuf par les géants en position monopolistique.
  • Une autre critique peut porter sur le fait que Google n’est qu’une partie du problème, et que c’est la puissance du système composé des GAFAM, de la dynamique d’innovation américaine, de son système de financement, … qui est en cause. Mais là encore nous pourrions rétorquer qu’en s’attaquant à un premier acteur emblématique, il se créé un précédent qui pourra ensuite s’étendre aux autres rouages du système.
  • Mais en définitive, le peuple européen peut aussi s’exprimer. Nous sommes les clients et donc avons un pouvoir considérable. Pourquoi ne pas faire l’expérience d’une sortie de Chrome et d’Android ? Firefox est un excellent navigateur pour ordinateurs. Quant aux mobiles, des solutions se font jour avec notamment FairPhone et la suite Framasoft. Soyons clair : sortir complètement de Google n’est pas facile, mais les bénéfices à long terme sont à la mesure des enjeux !
  •  
    "Un moteur de recherche concurrent à Google n'a aujourd'hui presque aucune chance d'émerger, explique Jérôme Bondu, lecteur d'Usbek & Rica et directeur de la société Inter-Ligere. Or les implications sur notre liberté sont grandes, car nous sommes « capturés » dans le monde de Google, estime-t-il, proposant des pistes pour s'affranchir de cette emprise. "
Aurialie Jublin

Amazon promet de rendre la moitié de ses livraisons neutres en carbone d'ici ... - 0 views

  • Après une année 2018 et un début d'année 2019 marqués par une succession d'annonces et de révélations très polémiques (optimisation fiscale, conditions de travail « critiques », « destruction massive » des invendus), le temps des bonnes résolutions a sonné pour Amazon. Lundi 18 février, l'entreprise a fait part sur son blog de sa nouvelle « vision » : « Nous croyons que baisser les coûts va de pair avec une réduction de l’impact sur l’environnement dans lequel nous vivons et travaillons tous au quotidien ».
  • Cette annonce fait suite à un rapport de Greenpeace publié le 13 février, soit cinq jours plus tôt, accusant AWS (Amazon Web Services) et d’autres géants du cloud computing installés dans la « data center alley », en Virginie, de ne pas alimenter leurs infrastructures à 100 % avec des énergies renouvelables.
  • Selon l’ONG, AWS dispose d’une cinquantaine de data centers de Virginie, et figure parmi les plus grands consommateurs d’électricité de l’État. Or ses centres de traitement des données ne reposeraient qu’à 12 % sur une énergie d'origine renouvelable. C’est beaucoup moins que Facebook (37 %) et Microsoft (34 %), qui se sont, comme Apple et Google, engagés à atteindre 100% d'énergies renouvelables.
  • ...2 more annotations...
  • Amazon a cependant démenti les chiffres avancés par Greenpeace. « En décembre 2018, Amazon et AWS ont réalisé des investissements dans 53 projets d’énergies renouvelables (dont 6 en Virginie) », s’est-elle défendue. « AWS reste fermement engagé à reposer à 100 % sur les énergies renouvelables : elle en était à 50 % en 2018 ».
  • Le géant du e-commerce en a donc profité pour annoncer de nouveaux engagements, cette fois-ci concernant ses émissions de dioxyde de carbone : « Avec les innovations actuelles concernant les véhicules électriques, les carburants bio pour l’aviation, les emballages réutilisables et les énergies renouvelables, pour la première fois, nous voyons se dessiner clairement la voie vers des livraisons neutres en carbone ». 
  •  
    "Le géant de la vente en ligne a annoncé, lundi 18 février, son intention d'atteindre la neutralité carbone pour la moitié de ses livraisons d'ici 2030, dans le cadre d'un programme baptisé « Shipment zero »."
Aurialie Jublin

[Écologie] Le monde du logiciel est en train de se détruire... Manifeste pour... - 0 views

  • Tout est lent, et cela ne va pas dans le bon sens. Certaines voix s’élèvent. Je vous invite notamment à lire “Le désenchantement du logiciel”. Tout est insupportablement lent, tout est ÉNORME, tout finit par devenir obsolète… La taille des sites web explose. Un site web est aussi gros que le jeu Doom. Le phénomène ne touche pas que le Web mais aussi l’IoT, le mobile… Le saviez-vous ? Il faut 13% de CPU pour faire clignoter un curseur…
  • Tout grossit : la taille des applications, les données stockées, la taille des pages web, la mémoire des téléphones… Les téléphones ont maintenant 2 Go de mémoire, échanger une photo de 10 Mo par mail est maintenant classique… À la limite, cela ne serait peut-être pas un problème si tous les logiciels étaient utilisés, efficaces et performants… Mais cela n’est pas le cas,
  • Alors tout le monde se cale sur une lenteur. Tout est uniformément lent. On se cale sur cela et tout va bien. Être performant aujourd’hui, c’est arriver à atteindre un ressenti utilisateur qui correspond à cette lenteur uniforme. On élague les choses qui pourraient être trop visibles. Une page qui met plus de 20 secondes à se charger, c’est trop lent. Par contre, 3 secondes c’est bien. 3 secondes ? Avec les multicoeurs de nos téléphones/PC et les data centers partout dans le monde, le tout relié par des supers technologies de communication (4G, fibre…),c’est un peu bizarre non ? Si on regarde la débauche de ressources pour le résultat obtenu, 3 secondes, c’est énorme. D’autant plus que les bits circulent dans nos processeurs avec des unités de temps du niveau de la nanoseconde. Donc oui, tout est uniformément lent.
  • ...29 more annotations...
  • Il est nécessaire de revenir à plus d’efficience, de « challenger » les besoins en matériel, de redéfinir ce qu’est la performance. Tant que l’on se satisfera de cette lenteur uniforme avec des solutions pour ne pas ralentir plus (comme l’ajout de matériel), nous n’avancerons pas. La dette technique, notion largement assimilée par les équipes de développement, n’est malheureusement pas adaptée à ce problème (on y reviendra). Nous sommes sur une dette de ressources matérielles et de mauvaise adéquation entre le besoin utilisateur et la solution technique. On parle ici d’efficience et non pas uniquement de performance. L’efficience est une histoire de mesure du gaspillage. L’ISO définie l’efficience avec comme domaine : Time behaviour, Resource utilization et Capacity. Pourquoi ne pas pousser plus ces concepts ?
  • Développez du code Java pour un serveur J2EE ou pour un téléphone Android, ce n’est pas pareil. Des structures spécifiques existent par exemple pour traiter des données en Android mais les structures classiques sont toujours utilisées. Les développeurs ont perdu le lien avec le hardware. C’est malheureux car c’est passionnant (et utile) de savoir comment fonctionne un processeur. Pourquoi : abstraction et spécialisation (nous verrons cela plus loin). Car en perdant ce lien, on perd une des forces du développement. Ce lien est important chez les hackers ou chez les développeurs d’informatique embarquée mais malheureusement de moins en moins présent chez les autres développeurs.
  • Les pratiques devops pourraient répondre à cette perte de lien. Là, c’est pareil, nous n’allons pas jusqu’au au bout : généralement le devops va se focaliser à bien gérer le déploiement d’une solution logicielle sur une infrastructure mixte (matérielle et un peu logicielle). Il faudrait aller plus loin en remontant par exemple les métriques de consommation, en discutant sur les contraintes d’exécution… plutôt que de “scaler” juste parce que c’est plus simple.
  • Certaines technologies ont une utilité mais sont maintenant systématiquement utilisées. C’est le cas par exemple des ORM qui sont devenus systématiques. Aucune réflexion n’est faite sur son intérêt en début des projets. Résultat : on a rajouté une surcouche qui consomme, qu’il faut maintenir et des développeurs qui n’ont plus l’habitude d’effectuer des requêtes natives. Cela ne serait pas un problème si chaque développeur connaissait très bien le fonctionnement des couches d’abstraction : comment fonctionne HIBERNATE par exemple ? On s’appuie hélas de façon aveugle sur ces frameworks.
  • Le besoin d’abstraction est lié à un autre défaut: nous attendons toujours des outils miracles. La silver bullet qui améliorera encore plus nos pratiques. Le langage idéal, le framework pour aller plus vite, l’outil de gestion miracle des dépendances… C’est la promesse à chaque fois d’un nouveau framework : gagner du temps en développement, être plus performant… Et on y croit, on fonce. On abandonne les frameworks sur lesquels nous avions investi, sur lesquels on avait passé du temps… et on passe au nouveau. C’est le cas actuellement des frameworks JS. L’histoire du développement est pavé de framework oubliés, non maintenus, abandonnés… Nous sommes les champions pour réinventer ce qui existe déjà. Si on le gardait suffisamment longtemps, on aurait le temps de maîtriser un framework, de l’optimiser, de le comprendre. Mais ce n’est pas le cas. Et que l’on ne me dise pas que si on n’avait pas continuellement réinventé la roue, on aurait encore des roues en pierre… Innover serait d’améliorer les frameworks existants .
  • Sur les langages, c’est la même rengaine. Attention, je ne préconise pas de rester sur l’assembleur et sur le C… C’est le cas par exemple dans le monde Android, pendant plus de 10 ans les développeurs ont pu travailler sur des outils et des frameworks Java. Et comme cela, par magie, le nouveau Langage de la communauté est Kotlin. On imagine l’impact sur les applications existantes (si elles doivent changer), il faut recréer des outils, retrouver des bonnes pratiques… Pour quel gain?
  • Sincèrement, on ne voit aucun ralentissement sur les cycles de renouvellement des technologies. C’est toujours un rythme frénétique. Nous trouverons bien le Graal un jour. Le problème est ensuite l’empilement de ses technologies. Comme aucune ne meurt vraiment et que l’on en maintient toujours des parties, on développe d’autres couches pour s’adapter et continuer à maintenir ces bouts de code ou ces librairies. Le problèmen’est pas le code legacy,, c’est la glue que l’on développe autour qui pêche.
  • Au final, on passe du temps à résoudre des problèmes techniques internes, on recherche des outils pour résoudre les problèmes que l’on ajoute, on passe son temps à s’adapter à ses nouveaux outils, on ajoute des surcouches (voir chapitre précédent…) … et on n’a pas améliorer la qualité intrinsèque du logiciel ou les besoins auxquels on doit répondre.
  • Au final, le rythme frénétique des changements ne nous permet pas de nous stabiliser sur une technologie. J’avoue qu’en tant que vieux développeur que je suis, j’ai été découragé par le changement Java vers Kotlin pour Android. C’est peut-être pour certains de véritables challenges, mais quand je repense au temps que j’ai passé sur l’apprentissage, sur la mise en place d’outils
  • Ensuite, comme aucune solution ne meurt vraiment, que de nouvelles arrivent… on se retrouve avec des projets avec des multitudes de technologies à gérer avec les compétences associées aussi… On s’étonne ensuite que le marché du recrutement de développeur soit bouché. Pas étonnant.. Il y a énormément de développeurs mais il est difficile de trouver un développeur React avec 5 ans d’expérience qui connaîsse le Go. Le marché est fractionné, comme les technologies. C’est peut-être bon pour les développeurs car cela crée de la rareté et cela fait monter les prix, mais pas pour le projet !
  • Cependant, cet apprentissage continu des technologies pose le problème d’apprentissage de domaines transverses : accessibilité, agilité, performance… En effet, qu’est-ce qui nous prouve que les outils et les langages que nous allons choisir ne vont pas changer dans 4 ans ? Rust, Go… dans 2 ans ? Rien ne tend à donner une tendance.
  • On ne se remet pas en question car on veut s’amuser. Le fun est important, car si l’on s’ennuie dans son boulot, on va déprimer. Par contre, on ne peut pas, sous prétexte de vouloir du fun tout le temps, changer nos outils continuellement. Il y a un déséquilibre entre l’expérience du développeur et l’expérience de l’utilisateur. On veut du fun, mais qu’est-ce que cela va réellement apporter à l’utilisateur ? Un produit plus « joyeux » ? Non, nous ne sommes pas des acteurs.
  • On ne se pose pas de question sur l’éthique de notre domaine, sur sa durabilité… Cela vient peut-être du fait que notre domaine n’a pas réellement de code éthique (comme par exemple les médecins ou les avocats). Mais sommes-nous en tant que développeurs réellement libres si l’on ne peut pas avoir une autocritique ? Nous sommes peut être asservis à une cause portée par d’autres personnes ? Le problème n’est pas simple mais nous avons dans tous les cas une responsabilité. Sans code éthique, c’est le plus fort et le plus malhonnête qui est le plus fort. Le buzz et les pratiques pour manipuler les utilisateurs sont de plus en plus répandus. Sans Dark Pattern ton produit ne sera rien. Les plus gros (GAFA…) n’en sont pas arrivés là pour rien.
  • Est-ce que la solution est politique ? Il faut légiférer pour mieux gouverner le monde du logiciel. On le voit avec les dernières réponses législatives aux problèmes concrets : RGPD, notification des cookies… la source du problème n’est pas résolue. Peut-être parce que les politiques ne comprennent que très mal le monde du logiciel.
  • Car si cette structuration n’est pas faite, les développeurs vont perdre la main sur ce qu’ils font. Or le manque d’éthique de la profession est critiqué à l’extérieur. Rachel Coldicutt (@rachelcoldicutt) directrice de DotEveryOne, un think tank britannique qui promeut une technologie plus responsable, encourage à former des diplômés non-informaticiens qui traiteraient de ces problèmes (Voir plus précisément dans l’article d’Internet Actu). Pour poursuivre sur ce dernier article, cela serait dans la droite ligne de l’informatique, domaine issu du monde militaire où les ingénieurs et développeurs seraient formés à suivre des décisions et des commandements.
  • Le monde du logiciel s’intègre dans un système organisationnel classique. Grands groupes, sous-traitances via des ESN, web agencies… Tous suivent les mêmes techniques de gestion des projets informatiques. Et tout le monde va « dans le mur ». Aucune analyse sérieuse n’est faite sur le coût global d’un logiciel (TCO), sur son impact sur la société, sur son bénéfice, sa qualité… C’est la rapidité de release(Time to Market), la surcharge featurale (fonctionnelle), la productivité immédiate, qui comptent. Premièrement car les gens externes à ce monde ne connaissent que trop peu la technicité du logiciel et son monde. Il est virtuel donc simple (sic). Mais ce n’est pas le cas. Les écoles de commerce et autres usines de managers n’ont pas de cours de développement. Comment peuvent-ils bien diriger et piloter des projets ?
  • On continue a vouloir chiffrer des projets informatiques comme de simples projets alors que des mouvements comme le no estimate propose des approches innovantes. Les projets continuent d’échouer : le chaos report rapporte que simplement 30% des projets réussissent bien. Et face à cette mauvaise gouvernance, les équipes techniques continuent de se battre sur les technologies. Dommages collatéraux : la qualité, l’éthique, l’environnement… et au final l’utilisateur. Cela ne serait pas si critique si le logiciel n’avait pas un impact aussi fort sur le monde. Software eats the world… et oui, on le « bouffe »…
  • Si ces décisions absurdes arrivent, ce n’est pas uniquement la faute du développeur mais bien de l’organisation. Et qui dit organisation dit management (sous-différente forme). Si l’on revient au livre de Morel, il parle de piège cognitif dans lesquels les managers et les techniciens tombent souvent. C’est le cas de la navette Challenger qui a été quand même lancée malgré la connaissance du problème d’un joint défectueux. Les managers ont sous-évalué les risques et les ingénieurs ne les ont pas prouvés. Chacun a reproché à l’autre de ne pas fournir assez de preuves scientifiques. C’est souvent ce qui se passe dans les entreprises : des warnings sont levés par certains développeurs mais le management ne les prend pas assez au sérieux.
  • En même temps, on revient aux causes précédentes (silver bullet, on s’amuse…), il est nécessaire d’avoir une vraie ingénierie et une vraie analyse des technologies. Sans cela, les équipes techniques seront toujours non-écoutées par le management. Des outils et benchmark existent mais ils sont encore trop peu connus. Par exemple, Technologie Radar qui classe les technologies en terme d’adoption.
  • Ce phénomène de décision absurde est renforcé par le tissu complexe du développement logiciel : Les sociétés historiquement hors du numérique sous-traitent à des entreprises du numérique, les ESN sous-traitent aux freelances… Le partage de responsabilité technique / management est encore plus complexe et les décisions absurdes plus nombreuses.
  • Mais cela ne s’arrête pas là. On peut aussi voir l’usage de l’open-source comme une sorte de sous-traitance. Idem pour l’usage de framework. On est juste consommateur passif, on se déleste de plein de problématiques (qui ont un impact sur les ressources, la qualité…).
  • C’est d’autant plus facile que le domaine est passionnant et que la pratique des sides-projects, du temps passé sur les projets open-source hors des horaires de bureau est chose commune… La recherche de “fun” et le temps passé bénéficient alors plus aux organisations qu’aux développeurs. Difficile dans ce cas de chiffrer le coût réel d’un projet. Et pourtant, cela ne serait pas un problème si on arrivait à des logiciels « au top ».
  • Le développeur n’est ici plus un artisan du code, mais plutôt un pion dans un système critiquable du point de vue humain. Cela n’est pas visible, tout va bien et on s’amuse. En apparence seulement, car certains domaines du développement logiciel vont plus loin et rendent beaucoup plus visible cette exploitation : Le domaine du jeux-vidéo où les heures explosent.
  • Et donc, toutes ces maladresses (logiciel trop lourd, sans qualité…) se retrouvent chez les utilisateurs. Comme on doit releaser au plus vite les logiciels, que l’on ne tente pas de résoudre les inefficiences internes, et que l’on ne met pas plus de ressource pour faire de la qualité, on arrive à des logiciels médiocres. Mais on a tellement d’outils de monitoring et de suivi des utilisateurs pour détecter ce qui se passe directement chez eux qu’au final, on pense que ce n’est pas grave. Cela serait une bonne idée si les outils étaient bien utilisés. Or la multitude d’informations récoltées (en plus des bugs remontés par les utilisateurs) n’est que faiblement utilisée. Trop d’information, difficulté de cibler la vraie source du problème… on s’y perd et au final, c’est l’utilisateur qui trinque. Tous les logiciels sont maintenant en bêta-test. A quoi bon faire de la sur-qualité, autant attendre que l’utilisateur le demande. Et on revient ainsi au premier chapitre : un logiciel uniformément lent … et médiocre.
  • Heureusement, on est sauvé par la non-sensibilisation des utilisateurs au monde du logiciel. C’est un monde effectivement virtuel et magique qu’ils ont l’habitude d’utiliser. On leur a mis en main les outils mais sans notice explicative. Comment évaluer la qualité d’un logiciel, les risques sur l’environnement, les problèmes de sécurité… si l’on n’a pas des notions d’informatique, même rudimentaires ?
  • L’informatique du 21ème siècle est ce que l’agroalimentaire était pour les consommateurs au 20ème siècle. Pour des raisons de productivité, on a poussé des solutions médiocres avec un calcul court-termiste : mise sur le marché de plus en plus rapide, profit en hausse constante… agriculture intensive, malbouffe, pesticides… avec des impacts importants sur la santé, sur l’environnement… Les consommateurs savent maintenant (de plus en plus) les conséquences désastreuses de ces dérives, l’industrie agroalimentaire doit donc se réinventer, techniquement, commercialement et éthiquement. Pour le logiciel, quand les utilisateurs comprendront les tenants et les aboutissants des choix techniques, l’industrie du logiciel devra gérer les mêmes problèmes. En effet, le retour au bon sens et aux bonnes pratiques n’est pas une chose simple pour l’agroalimentaire. Dans l’IT, on commence à le voir avec ses conséquence sur la vie privée des utilisateurs (mais nous n’en sommes qu’aux balbutiements).
  • On va dans la mauvaise direction. L’industrie de l’informatique a déjà effectué dans les années 70 des erreurs avec des impacts non-négligeables. L’exclusion des femmes de l’informatique en fait partie. Non seulement cela a été fatal pour certaines industries mais on peut se poser la question de comment on peut maintenant adresser des réponses à seulement 50% de la population informatique, avec une représentativité très faible. Le chemin est maintenant difficile à retrouver.
  • Mais l’impact du monde IT ne s’arrête pas là. La source et le modèle d’une grosse partie de l’informatique sont issus de la Silicon valley. Si l’on écarte les gagnants de la Silicon Valley, les populations locales subissent la montée des prix, le déclassement, la pauvreté…
  • Dans sa lancée vers le progrès technique, le monde du logiciel crée aussi sa dette environnementale…
  •  
    "Le monde du logiciel va mal et si l'on n'agit pas, on risque de le regretter. Environnement, qualité, exclusion… Software Eats The World (Le logiciel mange le monde…) ? Oui un peu trop. "
Aurialie Jublin

The biggest technology failures of 2018 - MIT Technology Review - 0 views

  •  
    "From gene-edited babies to guaranteed-fatal brain uploads, it was a bumper year for technology misfires and misuses."
Aurialie Jublin

Gilles Babinet : «Il faut arrêter ce projet et mettre en place une concertati... - 0 views

  • Il y a aujourd’hui une compétition entre réseaux sociaux. En Chine, WeChat a intégré depuis longtemps un système de paiement, qui rencontre un grand succès. S’il ne lance pas un service équivalent, Facebook peut se mettre en danger et va avoir du mal à perdurer. Mais à la différence d’un autre réseau social, Facebook ne peut pas le faire sans concertation, à la fois pour des raisons de taille, d’historique et de gouvernance.
  • On ne peut pas lancer un système de paiement avec une échelle, à terme, de 2,5 milliards d’utilisateurs, sans une large concertation avec les parties prenantes, à commencer par les Etats, et ce pour cinq raisons. La première, c’est justement le nombre d’utilisateurs concernés. La deuxième, c’est que la conjugaison entre un réseau social avancé et un système de paiement est précisément ce qui permet les systèmes de «crédit social», comme en Chine, avec une sanction des «mauvais comportements». La troisième, c’est le risque que demain, Facebook se mette à faire du crédit, et donc de l’émission monétaire. La quatrième, c’est qu’un tel projet a, selon moi, une nature politique. Je me souviens de ce que disait Peter Thiel, qui siège toujours au conseil d’administration de Facebook, lorsqu’il a lancé PayPal : il le voyait comme un moyen de contourner les Etats… Enfin, la cinquième raison est que, par le passé, Facebook n’a pas démontré, loin s’en faut, sa capacité à avoir une gouvernance optimale dans ses projets.
  • A long terme, il y a un risque politique : celui de voir émerger une puissance monétaire en capacité, notamment, d’influencer les marchés. C’est peut-être à l’échéance de cinq ou dix ans, mais c’est un risque significatif.
  • ...3 more annotations...
  • Je ne vois pas Facebook rencontrer un succès dans les systèmes de paiement sans vouloir aller plus loin : si vous connaissez le comportement des gens, vous êtes capable de qualifier le risque attaché à l’utilisation de l’argent, donc de créer des produits financiers sophistiqués, des produits assurantiels… Et je ne les imagine pas se limiter à un système de transaction et ne pas venir, à terme, sur l’émission monétaire.
  • Je ne suis pas sûr qu’il faille vraiment démanteler Facebook, mais je suis certain qu’il faut en changer la gouvernance. On ne peut pas avoir des gens qui débarquent dans la vie de 2,5 milliards de personnes et disent : «On a parlé avec le gouverneur de la Banque centrale d’Angleterre et avec quelques régulateurs, et on y va.» C’est inacceptable.
  • Il faut d’abord arrêter ce projet, et mettre en place une concertation avec les Etats, à commencer par le G7. Des débats citoyens seraient sans doute nécessaires : l’émission monétaire, les produits financiers, ce sont des sujets assez techniques, mais ce sont des enjeux importants. De façon plus générale, il y a une asymétrie entre les Etats qui cherchent à innover mais sont soumis à des règles, à des normes, et les innovateurs - le cas de Facebook est très emblématique - qui ont une culture de la rupture. Et cette asymétrie est très défavorable aux Etats. Il faut que nous ayons, entre les deux, la capacité à faire naître de l’innovation qui soit réellement au service du bien commun. Jusqu’à preuve du contraire, et même si c’est une plateforme fantastique, le bien commun n’est pas dans Facebook.
  •  
    "Gilles Babinet, spécialiste des questions numériques, détaille les raisons pour lesquelles le libra présente de vrais risques à terme, et menace notamment la souveraineté des pays."
Aurialie Jublin

Qu'est devenue l'utopie d'Internet ? | Revue Projet - 0 views

  • Si les années 1990 constituent bien une sorte d’âge d’or de l’utopie numérique, l’expansion d’Internet va progressivement remettre en cause cette vision enchantée du cyberespace. Afin de financer le développement de l’infrastructure, l’administration scientifique en charge d’Internet décide, en 1993, d’ouvrir le réseau aux entreprises privées. Jusqu’alors soutenu par la puissance publique, il était considéré comme un outil de coordination scientifique dont les usages se devaient d’être strictement non lucratifs. Mais le développement de services commerciaux d’accès favorise la découverte du web par un plus large public.
  • La deuxième trahison tient à l’accroissement du contrôle des communications dans un espace numérique jusqu’ici marqué par le principe d’auto-régulation et de responsabilisation de chaque participant. Dans les années 1990, les premières « affaires du net » révèlent la face sombre du web : incitations à la haine, pédopornographie, piratage informatique, propagande, etc. Ces menaces favorisent un retour progressif des États, jusqu’alors remarquablement absents, pour réguler les échanges et protéger les droits sur Internet. Depuis les années 2000, les initiatives législatives se multiplient pour lutter contre le piratage, la prolifération de contenus haineux ou, plus récemment, la manipulation de l’information.
  • Retour du contrôle des communications, règne de la marchandisation et centralisation du web autour des grandes plateformes : ces transformations d’Internet sont dénoncées comme autant de coups portés au projet initial de « l’Internet libre », principalement de la part des Gafam. Pour autant, on aurait tort d’opposer schématiquement les défenseurs aux fossoyeurs de l’utopie numérique. Google s’est parfois trouvé aux côtés des militants du net pour défendre la libre circulation de l’information, la neutralité du net ou l’assouplissement de la propriété intellectuelle. Le projet « Google books » de numérisation de livres, par exemple, n’est pas sans rappeler celui de bibliothèque universelle formulé par les premiers concepteurs du réseau. On songe également aux prises de position très strictes d’Apple au sujet de la protection de la vie privée5. Ces affinités s’expliquent aussi par les racines culturelles de l’utopie numérique. Les fondateurs d’entreprises numériques, les développeurs qui y travaillent, sont bien souvent des utilisateurs pionniers et passionnés d’Internet. Pour certains, l’esprit de la Silicon Valley, loin de marquer une trahison de l’utopie numérique, en constitue l’expression la plus aboutie en tant que synthèse entre l’esprit de la contre-culture et l’enthousiasme technologique d’entrepreneurs innovants.
  •  
    "Aux débuts d'Internet, un idéal d'horizontalité, de gratuité, de liberté. Trente ans après, le web s'est centralisé, marchandisé, et a été colonisé par les géants du numérique. Ces derniers ont-ils trahi l'utopie des pionniers d'Internet ?"
Cécile Christodoulou

Our Tech, Our Future: digital social innovation in 2030 | Nesta - 0 views

  •  
    "A collection of stories exploring how we might be using technology for good in the year 2030 " > méthodo utilisée : https://digitalsocial.eu/images/upload/78-Workshopmaterialsforupload.pdf
‹ Previous 21 - 35 of 35
Showing 20 items per page