Jonathan Cohen / Université de Binghamton
Nouveautés + tendances

Chien d'aveugle 2.0 : ce robot parle et vous guide vers votre destination

Kim Muntinga
13/4/2026
Traduction : traduction automatique

Seuls deux pour cent des malvoyants américains utilisent un chien-guide, car les vrais chiens sont chers et rares. Un robot de l'université de Binghamton vise à combler cette lacune : Il vous guide, planifie des itinéraires et vous parle.

Un vrai chien guide d'aveugle comprend une vingtaine de commandes. Il guide, avertit et protège, mais n'explique pas. Il ne peut pas dire si le chemin à gauche est plus court, si le couloir est actuellement libre ou combien de temps il reste avant la conférence. C'est pourtant ce que peut faire le robot à quatre pattes de Binghamton University.

Shiqi Zhang, professeur associé à la School of Computing du Thomas J. Watson College of Engineering and Applied Science, et son équipe ont mis au point un chien-guide robotisé capable d'établir une véritable communication bidirectionnelle avec ses utilisateurs sur la base de grands modèles de langage - concrètement GPT-4. Le système planifie des itinéraires, les explique avant le départ, et décrit l'environnement en temps réel pendant le trajet.

Ce qui est important, c'est que les démonstrations présentées ne constituent pas encore un système entièrement autonome. Le mouvement physique du robot est actuellement surveillé et contrôlé à distance par un expert, tandis que l'interaction vocale, le choix de l'itinéraire et la description de la situation sont déjà automatisés.

De la secousse de la ligne au langage parlé

Dans une itération précédente, le chien robot réagissait à des secousses de la laisse pour changer de direction aux intersections. La nouvelle approche va beaucoup plus loin.

Avant de commencer la visite, le robot vous demande où vous voulez aller. Il suggère des itinéraires possibles, indique le temps de marche estimé et attend votre choix. En cours de route, le robot verbalise l'environnement : il signale si un long couloir se trouve devant vous, annonce les obstacles et vous donne une vision de la situation qu'un vrai chien ne peut pas fournir.

Les vrais chiens comprennent au mieux une vingtaine d'ordres. Mais avec les chiens guides robotisés, vous pouvez utiliser GPT-4 avec des commandes vocales, ce qui vous donne des capacités vocales très puissantes.
Shiqi Zhang, Associate Professor, Binghamton University

Le système combine deux fonctions clés : la "Plan Verbalization" - la planification de l'itinéraire avant de commencer le parcours - et la "Scene Verbalization", c'est-à-dire la description continue de l'environnement pendant la visite. Selon Zhang, cette dernière est particulièrement précieuse, car la perception de la situation et de l'environnement est fortement limitée sans la vue.

L'essai : 7 participants aveugles dans un complexe de bureaux

Pour évaluer le système, les chercheurs ont recruté sept personnes légalement reconnues comme aveugles, âgées de 40 à 68 ans : deux d'entre elles avaient une expérience de maître-chien d'aveugle. Dans un vaste immeuble de bureaux à plusieurs pièces, le robot a guidé les sujets vers une salle de réunion. Le système demandait la destination, présentait des itinéraires possibles et guidait ensuite les participants pas à pas, avec des indications vocales continues.

Chaque participant est passé par trois variantes : une interaction vocale minimale, uniquement des descriptions de l'environnement pendant le trajet et enfin le système complet avec planification de l'itinéraire et commentaires en temps réel. Le résultat de l'enquête qui a suivi a été très clair : La variante combinée a obtenu les meilleurs résultats dans les catégories utilité, confort de communication et serviabilité.

Dans une simulation informatique complémentaire, l'équipe a testé le système à l'aide de 77 demandes de navigation émanant de 16 étudiants : des formulations directes comme «Je veux aller à la salle de bains» aux souhaits plus vagues comme «Je veux m'asseoir et me reposer.» Avec la possibilité de poser des questions, le système a correctement identifié la destination dans 94,8 pour cent des cas. Le système s'est également montré robuste face à des entrées vocales fortement bruitées - simulées avec près d'un caractère erroné sur trois.

Un énorme problème d'approvisionnement en arrière-plan

La démarche de recherche ne s'adresse pas seulement à une lacune technique, mais à un réel problème de société : aux États-Unis, seuls deux pour cent des malvoyants utilisent un chien-guide.

La raison n'est pas le manque de besoin, mais l'énorme coût : la formation d'un vrai chien-guide dure deux à trois ans et coûte environ 50 000 dollars US. Moins de la moitié des chiens terminent leur formation avec succès. Un chien-guide robotisé pourrait combler cette lacune ou du moins la réduire.

La question du coût du chien d'aveugle robotisé n'est pas encore claire. Pour l'instant, l'équipe de recherche ne donne aucune indication sur le prix du système. Aux États-Unis, même les chiens d'aveugle classiques ne sont généralement pas financés par les caisses d'assurance maladie, mais par des dons, des fondations et des organisations à but non lucratif.

Un système d'assistance technique de ce type devrait donc être soit subventionné par les pouvoirs publics, soit évalué par de nouveaux modèles d'assurance, soit financé par le secteur privé. En l'absence de programmes de financement appropriés, il est peu probable qu'un tel robot soit abordable pour de nombreuses personnes concernées.

L'équipe de recherche a présenté son travail sous le titre «From Woofs to Words : Towards Intelligent Robotic Guide Dogs with Verbal Communication» lors de la 40th Annual AAAI Conference on Artificial Intelligence, l'une des plus grandes conférences spécialisées en IA au monde.

Perspectives pour l'avenir

Les prochaines étapes sont clairement définies : L'équipe prévoit de poursuivre les études sur les utilisateurs, d'augmenter l'autonomie du système et de rendre le robot apte à parcourir de longues distances en intérieur comme en extérieur.

Ce n'est que lorsque la perception, la navigation et les mouvements fonctionneront de manière totalement autonome que le prototype de recherche actuel pourrait devenir un système d'assistance utilisable au quotidien.

Photo d’en-tête : Jonathan Cohen / Université de Binghamton

Cet article plaît à 4 personne(s)


User Avatar
User Avatar

Mes intérêts sont variés, j'aime simplement profiter de la vie. Toujours à l'affût de l'actualité dans le domaine des fléchettes, des jeux, des films et des séries.


Robotique
Suivez les thèmes et restez informé dans les domaines qui vous intéressent.

Nouveautés + tendances

Du nouvel iPhone à la résurrection de la mode des années 80. La rédaction fait le tri.

Tout afficher

Ces articles pourraient aussi vous intéresser

  • Nouveautés + tendances

    Un robot plie le linge, emballe les paquets - et improvise en même temps

    par Kevin Hofer

  • En coulisse

    Le test d’aspirateurs robots de l’émission « Kassensturz » est embarrassant !

    par Lorenz Keller

  • En coulisse

    Après avoir frôlé la faillite : le PDG d'iRobot parle des erreurs, du redémarrage et des grands projets

    par Lorenz Keller

1 commentaire

Avatar
later