Skip to main content

Home/ QN2019/ Group items tagged déclaration

Rss Feed Group items tagged

Aurialie Jublin

Déclaration de Bologne pour une Reconnaissance Ouverte - Bologna Open Recogni... - 0 views

  • En 1999, la Déclaration de Bologne proposait l’établissement d’un espace européen de l’enseignement supérieur dans lequel les étudiants et les diplômés pourraient se déplacer librement entre les pays, utilisant les qualifications acquises antérieurement dans un pays comme conditions d’entrée acceptables pour la poursuite de ses études dans un autre pays. Ceci a lancé le processus de Bologne de réforme des systèmes de qualification, qui a été depuis adopté par 50 pays.
  • Aujourd’hui, en 2016, une nouvelle coalition d’acteurs de l’éducation publie la déclaration de Bologne pour une reconnaissance ouverte : un appel à une architecture ouverte universelle pour la reconnaissance des apprentissages tout au long de la vie.
  • Nous assistons à une prise de conscience croissante dans de nombreux secteurs de la politique, de l’éducation et de l’emploi ainsi que dans l’opinion publique de la nécessité d’adopter une approche plus ouverte, transparente, fiable et digne de confiance pour la reconnaissance des apprentissages.
  • ...5 more annotations...
  • Open Badges, le standard ouvert pour la reconnaissance des apprentissages, a prouvé la puissance d’une technologie simple, abordable, résiliente et digne de confiance pour créer un écosystème de reconnaissance ouvert fonctionnant à travers les pays, les secteurs éducatifs, l’emploi, les environnements sociaux et les technologies.
  • Les badges numériques ouverts ont démontré que nous avons les moyens et la possibilité de mettre fin aux disparités du paysage de la reconnaissance. En reliant et en nourrissant les référentiels de compétences, ils deviennent les éléments constitutifs d’une architecture ouverte pour la reconnaissance des apprentissages tout au long de la vie. Ils créent les conditions pour que les individus aient le contrôle de leur propre reconnaissance, pour fonder leur identité et leur capacité d’agir en toute autonomie, que ce soit formellement (au sein des institutions) ou informellement (à travers les communautés).
  • Le libre accès à la connaissance et à l’éducation est largement reconnu comme un facteur irremplaçable de croissance sociale et humaine et un élément indispensable pour consolider et enrichir la citoyenneté, capable de donner aux citoyens les compétences nécessaires pour relever les défis du nouveau millénaire, ainsi que la conscience de valeurs partagées et de l’appartenance à divers espaces sociaux et culturels.
  • La création d’un espace ouvert pour la délivrance et la reconnaissance de l’apprentissage tout au long de la vie et à vie est un facteur clé pour la promotion de l’inclusion sociale, l’employabilité et la mobilité des citoyens du monde, et le développement de notre planète. En fin de compte, la capacité de reconnaître ses apprentissages, sociaux ou professionnels, est un facteur clé dans la construction de la capacité d’agir en toute autonomie et dans l’établissement de la confiance au sein d’une communauté.
  • Nous devons maintenant étendre ce travail au-delà des frontières de l’enseignement supérieur, pour créer un continuum au travers de tous les apprentissages, tout au long et dans toutes les dimensions de la vie. Ceci pourra être obtenu en encourageant l’adoption d’unités de valeur plus ouvertes pour représenter et partager les acquis d’apprentissage, que ce soit dans des contextes formels, informels ou non-formels.
  •  
    "Vers une architecture ouverte pour la reconnaissance des acquis des apprentissages"
Aurialie Jublin

« À l'ère post-Snowden, on ne peut plus se voiler la face» - 0 views

  •  
    "L'universitaire américain Yochai Benkler fait partie de ces intellectuels qui pensent l'impact d'Internet sur nos sociétés depuis les années 1990. Le professeur d'études juridiques entrepreneuriales à Harvard est aujourd'hui membre d'une commission lancée le 11 septembre 2018 par l'ONG Reporters sans frontières et chargée de travailler à la rédaction d'une future « déclaration sur l'information et la démocratie ». Nous avons à cette occasion pu échanger avec l'auteur de The Wealth of Networks (La Richesse des Réseaux) autour de ses thèmatiques de prédilection : les communs, le rôle du domaine public informationnel et de la collaboration décentralisée dans l'innovation et la place de la liberté dans une économie et une société en réseau. Sans oublier de faire le point sur les évolutions récentes du Web, et ce qu'elles impliquent sur nos démocraties et nos sociétés. "
Aurialie Jublin

Pourquoi la technologie n'est pas démocratique et comment elle peut le devenir - 0 views

  • les technologies font rarement l’objet de débats démocratiques, il nous semble même étrange d’accoler les deux termes, comme si ce qui était « technique » sortait par principe de la sphère du débat. Les seuls critères peut-être, qui mériteraient des discussions, seraient les analyses coûts / bénéfices et les risques sanitaires et environnementaux.
  • Comment expliquer ce déficit démocratique ? Sclove le met sur le compte d’un malentendu à propos de la technologie : nous aurions trop tendance à penser chaque objet à travers un usage unique. Un marteau par exemple, sert à planter un clou et ce serait tout. En fait, lorsqu’un homme plante un clou, il développe ses muscles, sue, s’affirme, se souvient des mythes de Vulcain et Thor, du garage de son grand-père, etc. Le marteau lui, a nécessité de couper un arbre, extraire du minerai de fer, c’est un objet plutôt utilisé pour travailler seul (il n’a qu’un manche) qui véhicule donc une certaine forme d’organisation du travail. Comme toutes les technologies, les marteaux sont « polypotents », c’est-à-dire bourrés d’effets secondaires et d’externalités de toutes sortes qui passent bien souvent à la trappe. C’est au regard de ces effets qu’une démocratie devrait pouvoir anticiper, jauger, et décider ou non d’adopter une technologie.
  • La seconde critique affirme que « prévoir » les externalités positives ou négatives d’une technologie est difficile. Sclove l’admet volontiers mais nuance néanmoins : il reste que les citoyens sont les plus à même de savoir si une technologie va changer leur vie, les forcer à travailler ensemble ou isolément, procurer du plaisir ou de l’apathie, accroitre ou non l’autonomie ou la dépendance à une entité centralisée. Qui plus est, la démocratie technique n’agit pas qu’à l’endroit des nouveautés, elle concerne également le régime technologique présent : questionner l’existant est aussi une manière de ne pas le renforcer dans ses défauts.
  • ...10 more annotations...
  • Mais tout n’est pas si simple et les résistances sont nombreuses. La démocratie technique souffre de deux critiques majeures. La première prétend que les gens simples ne sont « pas capables » de prendre ce genre de décisions, ne font pas le poids face aux avis d’experts, en bref, la parole populaire est envisagée comme un risque à ne pas prendre.
  • En fait, les freins à la démocratie technique sont ceux dont souffre la représentativité citoyenne en général (la démocratie participative, le tirage au sort) : une certaine peur de la parole populaire et une foi aveugle en un régime technocratique qui pourrait s’absoudre de toute position idéologique, quand bien même il est incapable d’observer les siennes. Cela s’explique. Pour Sclove, les citoyens ont davantage d’intérêt au développement de la démocratie que les experts car ils sont plus à même de comprendre comment la technologie va concrètement changer leur vie.
  • Très concrètement, les technologies peuvent être autoritaires (quand par exemple elles perpétuent des hiérarchies illégitimes), individualisées (lorsque les individus peuvent leur attribuer seuls un rôle ou un autre), communautaires ou coopératives (lorsqu’elles perpétuent des hiérarchies légitimes, par exemple une hiérarchie qui amène à plus de démocratie), de masse (ce qui implique une élite détachée du reste) et transcommunautaires (qui facilite les relations entre plusieurs communautés).
  • De cette patiente déconstruction des enjeux démocratiques liés aux différents régimes technologiques, Richard Sclove dégage un certain nombre de critères de nature à faciliter la prise de décision démocratique. Pour commencer, il faudrait veiller à trouver le juste équilibre entre toutes ces formes de technologies (c’est-à-dire le bon rapport de pouvoir). Richard Sclove propose ensuite de « limiter les techniques débilitantes »
  • Parmi les autres « critères de conception démocratiques », Richard Sclove mentionne les technologies permettant une relative autonomie, capables de contenir les externalités environnementales et sociales à l’intérieur du domaine politique local, soutenables écologiquement et flexibles, c’est-à-dire susceptible de recevoir des évolutions facilement.
  • Ces critères peuvent bien sûr soulever un certain nombre de craintes légitimes. Un cadre aussi strict n’est-il pas l’assurance de signer l’arrêt de mort de toute innovation ? Richard Sclove répond par la négative. D’une part, les procédés démocratiques qu’il promeut (inspirés des modèles de conférences de consensus et autres conférences citoyennes) agissent toujours à un niveau relativement local. Si une technologie n’est pas adoptée à un endroit, elle le sera probablement ailleurs, l’objectif étant de favoriser un pluralisme technologique. Si la technologie s’avère être sans risque, alors elle pourra se diffuser.
  • Entrer dans le concret est une autre paire de manche. Pour Sclove, la première étape doit être celle de la prise de conscience. Il faudrait commencer au niveau local, par inventorier les technologies selon les critères déjà expliqués.
  • Il faudrait aussi changer de regard sur la technologie, les discours médiatiques sont bien souvent focalisés sur des « découvertes stupéfiantes » et autres « récits sensationnels ». Il faut une critique sociale de la technologie qui ne soit pas une parole descendante de la part des « experts-qui-éclairent-les-masses. »
  • Concernant le type d’institutions à mettre en place, pas de suspense, il faut tester, échouer, apprendre. De nombreuses approches déjà bien documentées ont fait leurs preuves. Le point sensible reste la bonne représentativité des citoyens. Structurellement, les experts sont surreprésentés car le personnel politique, peu formé et en manque de temps, se repose sur un personnel non-élu qui les sollicite. Ceux-là sont rarement impartiaux, peu à même d’envisager les implications sociales et politiques d’une technologie et participent pourtant à des décisions d’envergure (comme on l’a vu dans le cas des systèmes automatisés pour les aides sociales). I
  • Pour autant, nous ne devrions pas totalement baisser les bras : il reste des tas d’endroits où un contrôle démocratique est possible et même souhaitable : transport et mobilité, urbanisme, automatisation du travail, ces champs sont bien souvent laissés à l’appréciation d’entreprises, de techniciens et d’experts qui peinent à solliciter les citoyens (si tant est qu’ils le veuillent).
  •  
    "L'innovation, loin de n'être qu'une affaire technique, transforme profondément et durablement les sociétés. La plupart des technologies sont pourtant adoptées sans qu'aucun processus démocratique ne soit mis en oeuvre. Le citoyen peut-il avoir son mot à dire, et sous quelle forme ? Cette question essentielle a été posée il y a 15 ans par Richard Sclove, fondateur du Loka Institute. Mais Où Va Le Web, média d'analyse souhaitant « p(a)nser le numérique », s'est plongé dans un essai d'autant plus intéressant qu'il promeut des procédés démocratiques concrets, des conférences de consensus aux « Déclarations d'impact social et politique »"
Aurialie Jublin

Dans un monde de la post-vérité, de nouvelles formes de luttes émergent | Met... - 0 views

  • Le terme de « post-vérité » a été utilisé pour la première fois en 2004 par l’écrivain américain Ralph Keyes. Il décrit la post-vérité comme l’apparition d’un système ou d’une société où la différence entre le vrai ou le faux n’a plus d’importance. Cette définition a éclaté aux yeux du monde en 2016 avec le vote pour le Brexit et l’élection de Donald Trump à la présidence des Etats-Unis. Et fake news a été élu terme de l’année 2017.
  • C’est pourquoi RSF a créé une commission sur l’information et la démocratie, composée de 25 personnalités de 18 nationalités différentes. Y figurent des lauréats du prix Nobel, des spécialistes des nouvelles technologies, des journalistes, des juristes et des anciens dirigeants d’organisations internationales. Cette commission a édicté une déclaration qui « vise à entrer dans cette nouvelle logique afin de définir les obligations des entités structurantes de l’espace public ». RSF a donc sélectionné douze pays qui vont s’engager à signer un pacte sur l’information et la démocratie sur la base de la déclaration évoquée ci-dessus. Le but est, à terme, de créer une entité qui associera des experts indépendants qui pourra édicter des propositions avec un monopole de l’initiative et qui pourront être mises en œuvre par des Etats.
  • Elle repose sur des principes forts : Le droit à l’information fiable La liberté de la presse La vie privée La responsabilité des participants du débat public La transparence des pouvoirs
  • ...1 more annotation...
  • Pour lutter face à cela, Gerald Bronner préconise une nouvelle forme de régulation : une régulation individuelle. Cette forme de régulation consiste à développer un esprit critique, on parle même de « système de pensée analytique ». Scientifiquement, il a été prouvé que la stimulation de la pensée analytique réduit l’adhésion à des théories complotistes. C’est la raison pour laquelle le sociologue recommande d’apprendre aux élèves du cycle primaire jusqu’à l’université le fonctionnement de leur cerveau. Le principal biais dont il est question est le biais de la taille de l’échantillon.
  •  
    "« Le sort de la vérité a toujours été très fragile », a déclaré il y a quelques jours Edgar Morin lors du colloque sur la post-vérité à la Cité des sciences et de l'industrie à Paris. A cette occasion, chercheurs, décideurs publics et professionnels des médias ont décrit cette société de la désinformation, rétablit quelques faits sur les fake news et proposé quelques pistes pour lutter contre l'infox.  "
Aurialie Jublin

Society in the loop : vers un intelligence artificielle plus démocratique ? -... - 0 views

  • Mais l’intelligence artificielle se diffuse également dans des sphères qui concernent plus directement la vie publique, et donc la société. Pour ne citer qu’eux : le classement de lycéens après leurs bacs[4], l’automatisation de procédures judiciaires[5] ou des horaires de ramassage scolaire[6], la dérégulation du flux automobile dans les villes dus à l’utilisation d’un service de GPS comme Waze[7], l’utilisation de la reconnaissance faciale dans des lieux publics[8] et privés[9], l’usage de « détecteurs de mensonges » aux frontières[10], la police prédictive[11], ou même plus simplement l’usage de systèmes reposant sur la captation de l’attention de l’utilisateur[12].  A leurs échelles, ces sujets touchent la vie sociale dans des dimensions qui pourraient légitimement demander à ce que des discussions plus démocratiques aient lieu. Ils entrent certes, plus ou moins directement dans la catégorie « intelligence artificielle » mais participent de la numérisation du monde à travers des algorithmes, et feront tous le pas vers l’IA si ce n’est déjà fait.
  • C’est là qu’intervient le passage qualitatif du « human in the loop » (HITL) au « society in the loop » (SITL). Pour le dire simplement, le SITL devient nécessaire lorsqu’un système utilisant l’intelligence artificielle a des implications importantes sur la sphère sociale. Iyad Rahwan explique : « alors que le HITL utilise le jugement d’un individu ou d’un groupe pour optimiser un système pensé trop étroitement, SITL embarque le jugement et les valeurs d’une société vue comme un tout, dans la définition la gouvernance algorithmique[13] de questions sociétales ». En résumé, le SITL est une forme de contrat social entre ceux qui doivent obéir aux règles et ceux qui écrivent les règles.
  • Coupons court au débat qui concerne les bulles de filtres : leur émergence et leurs effets dépendent du paramétrage des algorithmes de Facebook, de Google et des autres services susceptibles de créer ces bulles. Par conséquent, elles restent à leur main, notamment à travers leurs Conditions générales d’utilisation (CGU) et le secret d’affaires qui protègent ces systèmes (et les modèles d’affaires de captation du « temps de cerveau disponible » qui y sont directement liés). Pas de démocratie à cet endroit, quand bien même les impacts sur la démocratie pourraient être réels, même s’ils sont encore mal mesurés. C’est une des premières limites du modèle « Society in the loop ».
  • ...11 more annotations...
  • Dans le cas des véhicules autonomes en revanche, une vaste étude a été réalisée sur plusieurs années par le MIT Lab. Elle a concerné des millions de personne dans 233 pays (à travers le petit jeu http://moralmachine.mit.edu/) et a montré à quel point le traitement des questions éthique est variable, même lorsqu’on parle de conduite automobile ! Comme le relate Hubert Guillaud : « la question éthique diverge selon la culture, le niveau économique et la localisation géographique ; bien plus que selon des préférences individuelles (…) les Japonais ont plutôt tendance à préférer des véhicules qui épargnent les piétons alors que d’autres cultures, comme la culture chinoise, préfèrent des véhicules qui épargnent les passagers. » L’objectif d’une telle étude est d’apporter l’éclairage de la société toute entière afin que le système technique réponde au « bien commun ».
  • A l’initiative de Grégoire Japiot (@gregoire) et Matteo Mazzeri (@matemaz), le projet GEnIAL (voir le site internet) est « Une plateforme qui utilise les interfaces conversationnelles et l’intelligence artificielle afin de permettre à la population d’un territoire de mieux vivre dans sa ville à l’ère de la Smart City en offrant des moyens simples pour accéder aux services des administrations et des autres acteurs de la région. » Le projet, qui se revendique de « Society in the loop », est d’utilité publique et censé resté « la propriété des citoyens », contrairement aux services d’assistants proposés par les géants d’internet. Les données collectées ne sont pas commercialisées et la vie privée reste préservée. Grégoire, le fondateur, précise que les concertations citoyennes sont au cœur du projet. L’idée : intégrer dans le service les retours de la société (citoyens, administrations/institutions publiques, chercheurs et acteurs économiques) en vue d’élaborer des modèles d’apprentissage utilisés pour construire une « intelligence artificielle concertée ».
  • Concrètement, GEnIAL Bot, est une « solution qui vise à permettre aux utilisateurs d’interagir avec l’ensemble des informations d’un territoire via des interfaces conversationnelles de type chatbot et assistant vocal. » Au lieu de devoir utiliser des moteurs de recherche pour identifier les différents sites où se trouvent les informations recherchées ou bien de devoir téléphoner aux services concernés, les utilisateurs peuvent interroger GEnIAL Bot en s’adressant en langage naturel et se laisser guider sous forme de conversations vers l’information. Pour la partie technologique, GEnIAL « dispose d’une convention de partenariat avec le CERN qui lui permet de concevoir avec les équipes les plus pointues, une intelligence artificielle éthique et explicable, dont les modèles d’apprentissage sont pensés de manière à refléter l’identité du territoire et intégrer un processus de concertation continue avec ses habitants. »
  • A une échelle très locale, le projet GEnIAL pourrait entrer dans ce qu’il convient d’appeler la « démocratie technique ». La formule que j’emprunte ici à Callon, Barthes et Lascoumes dans l’ouvrage fondateur Agir dans un monde incertain, Essai sur la démocratie technique (Seuil, 2011) désigne notamment les dispositifs par lesquels des profanes peuvent peser sur les modes de conception et de diffusion des sciences et des techniques. A l’évocation de la démocratie technique, on pense souvent aux grandes polémiques et controverses qui ont agité des sujets technoscientifiques comme les OGM, l’enfouissement des déchets nucléaires, ou encore les traitements contre le SIDA. Ce dernier cas a montré que l’intrusion des malades parmi les experts a pu conduire à améliorer les protocoles des laboratoires pharmaceutiques, alors très éloignés de leurs vies.
  • Si ces exemples peuvent paraître éloignés des questions relatives à l’intelligence artificielle, ils permettent d’entrouvrir une autre dimension de la démocratie technique. Par-delà la pure contestation ou modification a posteriori d’une technique existante, Callon, Barthes et Lascoumes décrivent un modèle de « co-production des savoirs ». Ce modèle postule que les non-spécialistes peuvent produire des connaissances à partir de leurs intérêts propres. Ils sont les plus à même d’entrevoir les risques d’un projet et de les faire reconnaître comme légitimes lors d’une étape de conception commune. Ce faisant, ils participent pleinement à la production des sciences et des techniques. Ce modèle suscite des critiques : on pointe le fait que des profanes ne seraient pas capables de s’exprimer sur un sujet technique, et que par conséquent, l’avis des experts serait toujours supérieur, de meilleure qualité, et devrait être pris en compte en priorité.
  • De nombreux contre-exemples viennent infirmer ces thèses. L’expérience prouve que si les conditions sont réunies, des personnes éloignées d’un sujet technique ou scientifique peuvent tout à fait construire des rapports de grande qualité et reconnus comme tels par les experts eux-mêmes. Ce fut le cas lors des controverses concernant les OGM il y a de cela une vingtaine d’années. Callon, Barthes et Lascoumes racontent également comment les amateurs contribuent à améliorer la connaissance scientifique dans de nombreux domaines, comme par exemple l’astronomie.
  • pourquoi ce traitement démocratique si spécial devrait-il se limiter à l’intelligence artificielle ? Une des raisons est sans doute que l’on pressent que son déploiement va changer le monde et susciter des controverses qu’il vaut mieux anticiper. N’oublions pas cependant que de nombreuses technologies numériques (ou non) changent le monde plus insidieusement et suivant des échelles temporelles qui nous les rendent « invisibles à l’œil nu ». Légitimement, on pourrait aussi poser la question démocratique à leur endroit[20].
  • Ce que la démocratie technique questionne, c’est non seulement l’aménagement du progrès, mais aussi sa définition. C’est-à-dire la direction donnée à la civilisation. Entraîner une intelligence artificielle – même avec la méthodologie Society in the loop – c’est déjà faire le choix d’une intelligence artificielle. Ce qui ne veut pas dire que ce choix soit mauvais. Pas plus qu’il n’est naturellement bon. Disons que c’est un choix parmi d’autres. Ce point chaud qui concerne la définition du progrès est et sera de plus en plus au centre de toutes les questions liant technosciences et démocratie.
  • Parallèlement, l’Université de Montréal a bâti une « Déclaration pour un développement responsable de l’intelligence artificielle[23] ». Cette déclaration décrit dix principes phares pour guider le développement de l’IA, parmi lesquels un « principe de bien être » ou encore un « principe d’inclusion de la diversité » (
  • Toutes les controverses techniques n’ont pas vocation à passer sous les fourches caudines de la démocratie, il existe une multitude d’autres échelons pour co-construire, réguler, interdire ou favoriser des systèmes. En témoignent les nombreuses villes qui se « défendent » contre AirBnb ou Uber puis qui finissent par utiliser les données que ces sociétés récoltent, à d’autres fins (des « arrangements » a posteriori[25]). Par ailleurs, c’est aussi dans les écoles qui forment les ingénieurs, designers et entrepreneurs de demain et bien sûr dans les entreprises elles-mêmes, dont certaines décident d’être plus soucieuses des effets générés par leurs activités, que l’avenir se joue
  • Bien sûr, ces quelques pages souffrent de nombreuses limites et à de multiples niveaux. A mon sens néanmoins, le fond de la question consiste (aussi) à savoir quelle « dose » de démocratie nous sommes prêts à mettre dans nos ambitions technologiques. Et en retour, dans quelle mesure les technologies que nous produirons permettront ou non à la démocratie de continuer d’exister[26].
  •  
    "En 2017, Iyad Rahwan (@iyadrahwan), responsable du groupe des coopérations évolutives au MIT posait avec Joi Ito (@Joi) du MIT Medialab le concept de « Society in the loop » (SITL), une méthode pour impliquer différentes parties-prenantes dans la conception d'un système d'apprentissage automatique[1] (ou machine learning), à la base des intelligences artificielles (IA) qui jalonnent le quotidien. L'idée : co-construire plutôt qu'imposer les solutions au grand public, en faisant intervenir dès la phase de conception une diversité d'acteurs. J'en retrace ici un court historique, une illustration et les quelques perspectives et limites qu'il me paraît intéressant de pointer, notamment au regard des questions relatives à ce qu'on appelle la « démocratie technique »."
manonmolins

Déclaration de principes - Cities for Digital Rights - 0 views

  •  
    Annoncée dans le cadre de la Smart Cities World Expo à Bacerlone ce jeudi 15 novembre, une coalition de villes (pour le moment : Amsterdam, New York City et Barcelone) - soutenue par l'ONU - s'engage à protéger et soutenir les droits numériques des individus sur internet au niveau local et global.
Asso Fing

Imagining a Universal Declaration of Digital Rights - Ding Magazine - 0 views

  •  
    "With this question, we kicked off a "Future-proofing our digital rights" workshop in Berlin. Together with digital rights experts, campaigners and activists, we imagined a positive future conversation about our digital rights and penned a multitude of statements. Temporarily switching our focus from the digital rights battles being fought today to the future we want turned out to be an invigorating and inspiring experience; the energy fed into our own imagining of a "Universal Declaration of Digital Rights". From a starting point of how rights are currently protected in our international human rights system, we looked at how these would be interpreted in the future and asked ourselves what would need to be established over the coming years. The collated document from our collective imagination was a combination of both re-imagined existing rights, such as fair trial rights, focused on algorithmic decision-making, or a right to "understand the implications of technology" as a manifestation of the right to education, and the formulation of new potential rights, such as a right to modify and update devices, the right to interoperability of technologies, and the right to disconnect. "
Aurialie Jublin

Chartes et manifestes numérique et éthique - HackMD - 0 views

  • En français Manifeste RESET - 2019 - FING Label territoire numérique inclusif-mars 2019 Orientations stratégiques cadrant le développement des projets numériques au Pôle Solidarité Citoyenneté Culture de Rennes métropole 1 Développer des services numériques nouveaux pour une accessibilité renforcée aux services publics 2 Lutter contre la fracture numérique (et l’intégrer dans le point numéro 1) 3 Impulser une culture collaborative (personnes morales, habitants, institutions, etc) 4 Faire place et donner à voir l’innovation et l’expérimentation 5 Accompagner en interne l’appropriation d’une culture du numérique dans la collectivité. Conception numérique responsable - Low tech - Green IT (eco-responsable) Charte territoire France connectée pour un numérique inclusif (décembre 2018 - Etat-Gironde) - il existerait un pdf en ligne :-) Déclaration de Montréal IA Responsable Charte sur l’usage de la donnée - Nantes métropole - juin 2019 Manifeste de la fabcity Manifeste pour une démocratie délibérative (civic tech-BlueNove) Projet de charte des smart cities (ADULLACT - juin 2019) Charte PrestaLibre pour les relations entre prestataires informatiques et collectivités (2018, Lorient et les Consometers). Charte de l’aidant numérique, ville de Paris Charte de l’aidant numérique, Grand Chambery CHARTE DE L’ACCOMPAGNEMENT NUMERIQUE DES RESEAUX LOCAUX D’INCLUSION NUMERIQUE, Stratégie Départementale d’Inclusion numérique des Pyrénées-Atlantique Kit et modèle de mandat de la CNIL pour les travailleurs sociaux Charte internationale des données ouvertes [Serment d’Hippocrate pour Data Scientist by Data For Good] Explications (https://www.hippocrate.tech/) Serment (https://framavox.org/g/Qtz0JHr9/dataforgood-serment) Charte qualité des données de Datatourisme Charte de l’IFLA sur Internet en bibliothèque Charte Biblib ABF (Association des bibliothécaire de France)
  •  
    "L'objectif est de recenser des ressources de type "charte" ou "manifeste" permettant de cadrer éthiquement les développements de projets/plateformes/services/médiations outillés par du numérique, notamment sur des territoires. L'idée est de ne pas se focaliser sur la performance, la précision, le passage à l'échelle de nouveaux services ou de processus optimisés, mais de fabriquer des territoires souhaitables, à l'aide du numérique (le numérique peut servir à "ralentir" ou "déconnecter" des espaces-temps, par exemple. Il peut respecter des principes, utiliser des méthodes éco-responsables, des valeurs comme la démocratie, etc)."
1 - 8 of 8
Showing 20 items per page