Skip to main content

Home/ InternetActu/ Group items tagged intelligencedesdonnees

Rss Feed Group items tagged

hubert guillaud

Avec les données personnelles, les applications prédictives ont une longueur ... - 0 views

  •  
    Les logiciels capables de nous fournir des informations avant que nous ne les leur demandions sont appelés à nous changer la vie, explique Tom Simonite pour la Technology Review. Les logiciels commencent à pouvoir nous dire qu'il nous faut partir 10 minutes plus tôt à notre rendez-vous à l'autre côté de la ville du fait des conditions de circulation... comme le fait Google Now. Pour Bill Ferrell, PDG d'Osito - http://www.getosito.com - , une application concurrente, il nous faut parler désormais d'intelligence prédictive, mais cela nécessite d'avoir toujours plus de données personnelles pour affiner la prédiction. Google est ainsi capable de vous signaler des propriétés à vendre lors de vos déplacements si vous avez cherché auparavant ce type d'informations... Reste que ces systèmes ont encore du mal à dire ce qui est important à l'utilisateur : leur indiquer où se trouve le café le plus proche parce qu'ils en ont déjà pris un dans ce type d'établissement ou le passage du prochain bus juste parce qu'ils passent devant un arrêt n'est pas toujours opportun. 
hubert guillaud

Des algorithmes responsables - Freedom to Tinker - 0 views

  •  
    Ed Felten du Centre des politiques pour les technologies de l'information - https://citp.princeton.edu/ - de Princeton revient dans un très intéressant billet sur la responsabilité des algorithmes. Il s'inspire d'un billet d'Ethan Zuckerman - http://www.ethanzuckerman.com/blog/2012/09/05/tsa-pre-check-fairness-and-opaque-algorithms/ - qui évoque son expérience du programme de pré-enregistrement de l'administration de la sécurité des transports américaine, qui permet à ceux qui voyagent beaucoup de s'enregistrer pour diminuer le temps des procédures de sécurité aux aéroports.  Zuckerman s'interroge sur l'iniquité des algorithmes, capables de sélectionner les gens selon des critères qui leur demeurent opaques. Ed Felten estime qu'il faut rendre les processus algorithmiques publics et ouverts, afin que les gens puissent savoir ce qu'il fait (la transparence) et que les gens puissent s'assurer que l'algorithme ait été exécuté correctement. Ainsi, si un algorithme annonce qu'il choisit 5 % des gens au hasard pour leur faire subir une fouille poussée, vous pouvez le contrôler, et vérifier que d'autres critères n'entrent pas en jeu. Même imprévisible, un algorithme doit toujours rendre des comptes. Si vous êtes sur une liste de personnalités à risque (qui a une action sur l'algorithme) vous devriez aussi pouvoir le savoir (même si vous n'avez pas à connaitre forcément les raisons). Ed Felten estime que les algorithmes responsables devraient se développer dans d'autres secteurs que la sûreté aéroportuaire, comme dans les systèmes de votes électroniques...
1 - 2 of 2
Showing 20 items per page