Qu’est-ce qu’un assistant personnel ? Comment s’intègre-t-il dans les enceintes intelligentes connectées d’aujourd’hui ? En quoi est-il capable de nous assister ? Comment l’avancée technologique tend peu à peu à nous faire oublier que la machine en est une ?
- Frédéric Landragin Chercheur en linguistique au CNRS
- Sylvain Peyronnet Directeur scientifique du moteur de recherche QWANT
- Clotilde Chevet Doctorante et enseignante en information et communication au laboratoire Gripic (Groupe de recherches interdisciplinaires sur les processus d’information et de communication) du CELSA, Sorbonne Université
D’ici 2020, les géants du web prévoient que la moitié des recherches sur mobile devraient se faire par commande vocale. Au début de l’an dernier, 40 millions d’Américains disposaient d’une enceinte connectée, type Google Home ou Alexa. Autant dire que ce vieux rêve de science-fiction domotique des années 60 est sur le point de se réaliser : grâce au marché exponentiel des enceintes connectées et aux progrès spectaculaires du TLA, le traitement automatique du langage, nous allons dans un futur proche finir par parler à notre maison, à notre téléphone, à notre montre : bref, à dialoguer au quotidien avec une Intelligence Artificielle. Mais jusqu’à quelles limites d’intrusion dans notre vie privée ?
"Enceintes connectées : demain, tous assistés ?" c’est le programme vocal qui est le nôtre pour l’heure qui vient.
Pour parler de l’essor de ces technologies d’assistant vocal ou d’enceintes connectées, nous avons le plaisir de recevoir aujourd’hui Sylvain Peyronnet, directeur scientifique du moteur de recherche QWANT, Clotilde Chevet, doctorante et enseignante en information et communication au laboratoire Gripic (Groupe de recherches interdisciplinaires sur les processus d’information et de communication) du CELSA, Sorbonne Université et Frédéric Landragin, directeur de recherche CNRS au laboratoire « Langues, Textes, Traitements informatiques et Cognition », rattaché à l’ENS et à Paris III Sorbonne Nouvelle.
Le reportage du jour
Chloé Clavel, chercheuse et enseignante en “informatique affective”, et le sociologue Nicolas Rollet travaillent en équipe pour analyser comment nous nous désengageons d’une conversation et comment la parole se distribue dans les échanges. A travers des enregistrements d'interaction homme-robot, ils montrent quelques exemples de la façon dont on indique à l’autre qu’on s’apprête à partir. L’objectif du protocole est de récolter des données et de les systématiser pour que les robots comprennent quand la conversation s'éternise, et apprennent à dire au revoir à temps. Par Tom Umbdenstock :
LA_METHODE_SCIENTIFIQUE - Reportage : Comment les Hommes disent au revoir aux robots
6 min
Repères
- Apparu dans les objets grand public depuis une dizaine d’années, le champ des “assistants vocaux” s’est tout d’abord développé sous la forme de programmes intégrés à des systèmes d’exploitation pour smartphones, puis a récemment été incorporé dans des objets “boîtes noires” autonomes.
- Aujourd’hui, le fait est que l’IA nous parle vraiment. Elle a pénétré le grand public et laissé une relation presque intime se créer entre elle et les humains par son expression vocale. Le boom actuel des outils de reconnaissance vocale repose sur les progrès réalisés depuis et qui s’incarnent au début des années 2010, avec Watson d’IBM (2011), Siri d’Apple (2011), Google Assistant de Google (2012), Cortana de Microsoft (2013), des interfaces qui vont entrer en interaction avec les fonctions du téléphone pour proposer des réponses à des questions vocales.
- Puis, ces assistants intégrés aux téléphones se sont externalisés dans des objets dédiés pour une utilisation domestique, comme les enceintes connectées avec Alexa d’Amazon (2014), Google Home (2016), HomePod d’Apple (2018), Portal de Facebook (2018)… Ces boîtiers, pas plus grands qu’un disque dur, permettent d’interagir avec l’environnement pour le contrôle des volets, du panier de courses, de l’éclairage, de la réservation d’un VTC, etc.
- Enfin, une ultime génération commerciale commence à arriver qui propose de sortir les interfaces vocales d’appareils spécifiques pour intégrer tous types d’appareils : casques, lunettes, appareils électroménagers…
- Début 2018, 39 millions d’Américains possédaient une enceinte connectée. D’ici 2020, 50% des recherches sur mobile devraient se faire en vocal (20% des recherches depuis un mobile se font en vocal aujourd’hui et les recherches depuis un appareil mobile totalisent 50% des recherches sur Google). Quant à la commande vocale pour faire ses courses, le marché annuel devrait passer de 2 milliards en 2018 à 40 milliards en 2022.
Pour en savoir plus
Retrouvez aussi les compléments d'information sur le fil Twitter de la Méthode scientifique
Avec des enceintes connectées, des conversations loin d’être privées (Le Monde, Avril 2019)
Comment fonctionnent les assistants vocaux ? par Frédéric Landragin (La Croix, 2018)
Dossier complet à découvrir sur la question des assistants vocaux (CNIL, 2018)
L'enceinte qui parlait à l'oreille des enfants (Usbek et Rica, 2018)
Pourquoi la publicité sur les assistants comme Google Home ou Amazon Echo est inévitable (Numerama, 2018)
Vidéo : "Les assistants personnels numériques" par Clotilde Chevet (Sorbonne Université, Février 2019)
Les références musicales
Le titre du jour : "The girl and the robot " par Royskopp
Le générique de début : "Music to watch space girls by", par Leonard Nimoy
Le générique de fin : "Says" par Nils Frahm
L'équipe
- Production
- Collaboration
- Collaboration
- Collaboration
- Réalisation
- Collaboration
- Collaboration