Comme un couple de longue date qui peut se prédire chacun de ses mouvements, un robot Columbia Engineering a appris à prédire les actions et les objectifs futurs de son robot partenaire sur la base de quelques images vidéo initiales.

Lorsque deux primates sont enfermés ensemble pendant une longue période, nous apprenons rapidement à prédire les actions à court terme de nos colocataires, collègues ou membres de la famille. Notre capacité à anticiper les actions des autres nous permet de vivre et de travailler plus facilement ensemble. En revanche, même les robots les plus intelligents et les plus avancés sont restés notoirement inaptes à ce type de communication sociale. Cela peut être sur le point de changer.

L'étude, menée au Creative Machines Lab de Columbia Engineering dirigé par le professeur de génie mécanique Hod Lipson, fait partie d'un effort plus large visant à doter les robots de la capacité de comprendre et d'anticiper les objectifs d'autres robots, uniquement à partir d'observations visuelles.

Les chercheurs ont d'abord construit un robot et l'ont placé dans un parc d'environ 3 x 2 pieds. Ils ont programmé le robot pour qu'il cherche et se déplace vers n'importe quel cercle vert qu'il pouvait voir. Mais il y avait un hic: parfois le robot pouvait voir un cercle vert dans sa caméra et se diriger directement vers lui. Mais d'autres fois, le cercle vert serait occlus par une grande boîte en carton rouge, auquel cas le robot se déplacerait vers un autre cercle vert, ou pas du tout.

Après avoir observé son partenaire se balader pendant deux heures, le robot d'observation a commencé à anticiper le but et le chemin de son partenaire. Le robot d'observation a finalement été en mesure de prédire l'objectif et la trajectoire de son partenaire 98 fois sur 100, dans différentes situations – sans être explicitement informé du handicap de visibilité du partenaire.

«Nos premiers résultats sont très intéressants», déclare Boyuan Chen, auteur principal de l'étude, qui a été menée en collaboration avec Carl Vondrick, professeur adjoint d'informatique, et publiée aujourd'hui par Nature Scientific Reports. «Nos résultats commencent à montrer comment les robots peuvent voir le monde du point de vue d'un autre robot. La capacité de l'observateur à se mettre à la place de son partenaire, pour ainsi dire, et à comprendre, sans être guidé, si son partenaire pouvait ou non voir le le cercle vert de son point de vue, est peut-être une forme primitive d'empathie. "

Lorsqu'ils ont conçu l'expérience, les chercheurs s'attendaient à ce que le robot observateur apprenne à faire des prédictions sur les actions à court terme du robot sujet. Ce que les chercheurs ne s'attendaient pas, cependant, était la précision avec laquelle le robot observateur pouvait prévoir les futurs «mouvements» de son collègue avec seulement quelques secondes de vidéo comme signal.

Les chercheurs reconnaissent que les comportements présentés par le robot dans cette étude sont bien plus simples que les comportements et les objectifs des humains. Ils croient cependant que cela pourrait être le début de doter les robots de ce que les scientifiques cognitifs appellent la «théorie de l'esprit» (ToM). Vers l'âge de trois ans, les enfants commencent à comprendre que les autres peuvent avoir des objectifs, des besoins et des perspectives différents de ceux-ci. Cela peut conduire à des activités ludiques comme le cache-cache, ainsi qu'à des manipulations plus sophistiquées comme le mensonge. Plus largement, la ToM est reconnue comme un signe distinctif clé de la cognition humaine et primate, et un facteur essentiel pour les interactions sociales complexes et adaptatives telles que la coopération, la compétition, l'empathie et la tromperie.

De plus, les humains sont toujours meilleurs que les robots pour décrire leurs prédictions en utilisant un langage verbal. Les chercheurs ont demandé au robot d'observation de faire ses prédictions sous forme d'images, plutôt que de mots, afin d'éviter de s'empêtrer dans les défis épineux du langage humain. Pourtant, Lipson spécule, la capacité d'un robot à prédire visuellement les actions futures n'est pas unique: "Nous, les humains, pensons parfois aussi visuellement. Nous imaginons souvent l'avenir dans nos yeux, pas avec des mots."

Lipson reconnaît qu'il existe de nombreuses questions éthiques. La technologie rendra les robots plus résistants et plus utiles, mais lorsque les robots peuvent anticiper la façon dont les humains pensent, ils peuvent également apprendre à manipuler ces pensées.

«Nous reconnaissons que les robots ne resteront pas longtemps des machines à suivre les instructions passives», déclare Lipson. "Comme d'autres formes d'IA avancées, nous espérons que les décideurs politiques pourront aider à garder ce type de technologie sous contrôle, afin que nous puissions tous en bénéficier."


Vous pourriez également aimer

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *