Non, « l’IA physique » n’est pas l’IA appliquée aux sciences physiques pour modéliser des particules ou valider des équations sur les ondes gravitationnelles…L’IA physique est plus prosaïquement constituée de toutes ces IA qui s’insèrent de plus en plus dans notre quotidien, à la maison, au bureau comme à l’usine. Elles sont capables de capter, de toucher, d’analyser notre environnement immédiat pour ensuite actionner des systèmes - robots, véhicules ou utilitaires de la vie courante. Elles peuvent être reliées ou non à nos applications mobiles ou à des logiciels bureautiques ou des systèmes d’organisation, ou des chaînes d’approvisionnement, etc.
« L’IA ne se limite plus à analyser des données ou générer du texte, des images : elle interagit directement avec le monde réel (et pas seulement digital). (…) Contrairement aux objets connectés traditionnels qui restent dépendants d’une interface ou d’un opérateur humain, ces machines construisent leur comportement à partir de leurs perceptions et exécutent des actions dans le monde physique », résume Grégoire Martinon, directeur Recherche de Emerton Data.
Jusqu'à récemment, les machines dites autonomes, les robots ou « cobots » fonctionnaient en étant préprogrammés. Dans une usine, un engin suivait une ligne tracée au sol ; ou un aspirateur robot changeait de direction simplement en heurtant un mur. L’IA physique change la donne car elle dote les machines de ce que les experts appellent une « conscience spatiale ». Grâce à une assimilation de données issues de caméras, de radars, de capteurs de température et de centrales à inertie, ces nouveaux systèmes ne se contentent plus de voir : ils enregistrent et comprennent leur milieu. Ils perçoivent la profondeur, la texture des surfaces, la vitesse d’un objet en mouvement et même anticipent l’attitude probable d’un humain croisant leur chemin.
Des modèles de raisonnement
On parle ainsi de modèles de raisonnement dits VLA, pour « vision-language-action ». Concrètement, la machine dotée d’une ou plusieurs IA peut traduire une perception visuelle et une consigne vocale en une action ou mouvements précis. Ainsi, dans les entrepôts, les robots mobiles de nouvelle génération ne sont plus confinés à des zones sécurisées. Ils sont capables de se déplacer avec une fluidité organique et de réelles précautions au milieu des employés, ajustant leur vitesse et leur trajectoire pour contourner un objet ou une personne distraite. Les bras robotisés, autrefois rigides, disposent aujourd'hui d'une motricité fine capable de saisir un œuf sans le briser ou d'enfiler une aiguille, autant de prouesses qui ouvrent des perspectives prometteuses, par exemple pour assister un chirurgien.
Dans les transports, l'IA physique tend à devenir le cerveau qui manquait aux véhicules autonomes pour sortir des itinéraires balisées et s'aventurer dans le chaos des centres-villes. Une voiture équipée d’IA ne réagit plus seulement à des obstacles selon une pré-programmation : à chaque kilomètre parcouru, elle progresse en mode d’apprentissage par renforcement. Elle pourra ainsi, en principe, anticiper le comportement imprévisible d'un enfant jouant au ballon sur un trottoir ; adapter la conduite et le freinage en cas de verglas non perçu par le conducteur. Cette capacité d'adaptation se retrouve également dans des objets plus personnels, comme des lunettes connectées capables de reformuler une information visuelle à un malvoyant. On peut imaginer des prothèses d’assistance pilotées par des capteurs capables d’anticiper un terrain accidenté.
Des données dites « synthétiques »
Cette accélération de l’IA physique découle de l'utilisation massive de données dites « synthétiques ». Pour apprendre à une IA comment se comporte la gravité ou comment la lumière se reflète sur une carrosserie, on utilise désormais des jumeaux numériques devenus des répliques virtuelles parfaites du monde réel. Les robots s'entraînent des millions de fois avant de faire leurs premiers pas physiques. Un simulateur permet d'apprendre sans risque, à une vitesse prodigieuse, car, en quelques minutes de calculs, il peut tirer parti de décennies d'expérience. Une fois le modèle entraîné, il est installé sur des puces électroniques très puissantes, embarquées directement dans la machine, ce qui lui permet de prendre des décisions critiques en quelques millisecondes, sans attendre une connexion Internet.
Le secteur militaire et celui de l'exploration des océans voire de planètes lointaines s’y intéressent de près. Un drone d’intervention ou d’exploration va pouvoir, lui-même, modifier sa mission s'il rencontre une anomalie ou un danger immédiat.
A la maison, ces technologies préfigurent l'arrivée de véritables assistants, capables de nettoyer ou de ranger une chambre, de trier le linge ou même de préparer un repas après avoir appris à sélectionner, avec précaution, ustensiles et ingrédients requis.
Notre environnement proche entièrement piloté ?
La science-fiction, qui imaginait des droïdes polyvalents (Star Wars) ou des véhicules dotés d'une « âme » (cf. K-2000), devient réalité. L’IA physique peut organiser elle-même notre environnement matériel. Ces agents autonomes pourront-ils s'intégrer harmonieusement dans nos espaces publics et privés ? Comment accepterons-nous de cohabiter avec des machines capables d’appréhender notre univers proche pour y intervenir et l’organiser à notre place ?
Pierre MANGIN