Skip to main content

Home/ HyperVoix/ Group items tagged interaction humain-machine

Rss Feed Group items tagged

Cécile Christodoulou

Humain et numérique en interaction | CNRS - 0 views

  •  
    "Les journées Humain et numérique en interaction des 31 janvier et 1er février 2019 permettront de répondre à ces interrogations en présentant l'état des recherches dans des domaines aussi variés que l'interaction avec les robots, les agents conversationnels, le dialogue en langage naturel, ou encore les nouveaux modes d'interaction avec les machines."
Cécile Christodoulou

#4 - Un assistant vocal à la maison : une bonne idée ? (Joseph Dureau, CTO Sn... - 1 views

  •  
    Passionnant décryptage du CTO de Snips... depuis Siri à aujourd'hui... décryptage de la technologie autour des assistants vocaux, cas d'usages, fantasmes... Interface vocale, la technologie existe depuis 30 ans (médecins, call center...), "interface" remplacée par "assistant" (promesse de l'IA) + promesse d'un dialogue naturel... Limites : la voix ne sert pas à tout, besoin d'un écran quand on a une recherche plus précise à faire... ex: est-ce à l'usager de s'adapter à l'interface ? = > formulation de l'intention... Briques techniques d'un assistant vocal : - banc de micros (détection de la source, triangulation pour mieux capter la source de son) - wakeword pour réveiller l'assistant (machine learning = écoute le signal en permanence mais entre en écoute active à partir du "wakeword", la reconnaissance vocale est alors lancée qui a pour objectif de transcrire ce que l'utilisateur a dit) - NLU : natural language understanding https://en.wikipedia.org/wiki/Natural-language_understanding prend le texte en entrée ("la météo demain à Bordeaux ?") et sort un objet structuré : intention : météo, quand : demain soir, où : bordeaux même fonctionnement qu'un chatbot - Logique d'action (comment réagir à la demande de l'utilisateur ?) :ce sont les développeurs qui travaillent cette dernière partie + synthèse vocale pour donner la réponse Snips travaille les étapes "wakeword" + "NLU" logique d'action (cf. modèle app store) avec 16000 développeurs + synthèse vocale : sous-traitance secteurs : bureau, habitat, véhicule, industrie Privacy / snips : le son ne sort pas du "salon" - sortie prévue fin 2019 petit réseau de neurones pour le "wakeword" tourne en embarqué pour toutes les solutions (amazon, google...)... mais il y a un taux d'erreur (de une fois par heure à une fois par jour)... donc
Aurialie Jublin

L'interaction vocale ou l'oubli des techniques - Blog SPOON : Reflections % - 0 views

  •  
    "Selon une étude du cabinet d'analyse Juniper Research, 2,5 milliards d'assistants vocaux étaient utilisés fin 2018. Ils devraient être 8 milliards d'ici 2023. Le « marché de la voix », tel qu'on le nomme désormais, semble donc promis à un grand avenir. Des enceintes connectées aux smart TV en passant par les objets connectés, nos voix seront de plus en plus sollicitées pour interagir avec les technologies. Certains prédisent même un recul substantiel du tactile au profit du vocal. Si l'avenir des interactions humain-machine est à la voix, il semble nécessaire de questionner dès maintenant ce phénomène technique et, en particulier, les implications d'une de ses caractéristiques majeures : sa capacité à plonger l'artefact dans une nouvelle forme d'oubli. J'en propose ici quelques éléments d'analyse débouchant sur deux idées éthico-politiques permettant de contrer les effets potentiellement délétères de l'occultation technique."
Cécile Christodoulou

Voice assistant technology is in danger of trying to be too human - 0 views

  •  
    "Rather than consistently embracing humanness, we can accept that there may be fundamental limits, both technological and philosophical, to the types of interactions we can and want to have with machines. We should be inspired by human conversations rather than using them as a perceived gold standard for interaction. For instance, looking at these systems as performers rather than human-like conversationalists, may be one way to help to create more engaging and expressive interfaces. Incorporating specific elements of conversation may be necessary for some contexts, but we need to think about whether human-like conversational interaction is necessary, rather than using it as a default design goal." "Making systems that do not have the ability to converse like a human sound human may do far more harm than good."
Cécile Christodoulou

Can emotion-regulating tech translate across cultures? | Aeon Essays - 0 views

  •  
    Every answer from a conversational agent is a sign that algorithms are becoming a tool of soft power, a method for inculcating particular cultural values. While conversational AI agents can reiterate stereotypes and clichés about how emotions should be treated, mood-management apps go a step further - making sure we internalise those clichés and steer ourselves upon them. The upbringing of conversational agents invariably turns into the upbringing of users. It's impossible to predict what AI might do to our feelings. Interacting with and via machines has already changed the way that humans relate to one another.
Cécile Christodoulou

Neuroscientists Have Converted Brain Waves Into Verbal Speech - 1 views

  •  
    "[...] neuroscientists from Columbia University recently made a major advancement toward this futuristic goal, successfully translating brain waves into intelligible speech for the first time." "Rather than directly tracking thoughts to produce speech, the researchers recorded neurological patterns generated by test subjects listening to others speak. These brain waves were fed into a vocoder-an artificial intelligence algorithm that synthesizes speech-and then converted into comprehensible, albeit robotic-sounding, speech mirroring the phrases heard by participants." article scientifique : https://www.nature.com/articles/s41598-018-37359-z
1 - 7 of 7
Showing 20 items per page