Des experts de l’Université d’Oslo, en Norvège – l’équipe travaillant avec le professeur agrégé Kyrre Glette – ont mis en place une méthode permettant aux robots de concevoir et de fabriquer en toute autonomie des pièces les composant et ce, en utilisant une forme d’évolution artificielle appelée Generative design et une imprimante 3D à leur disposition. Toutefois, l’équipe doit encore lui assembler ses pièces. Il ne s’agit pas du 1er robot créé par le laboratoire. Il y a eu le robot Henriette en 2005 par le professeur Mats Hovin qui devait apprendre à marcher. Puis Erna et Turbo.
Le Generative design est une technique où les programmes d’intelligence artificielle – ou machines créatives – innovent pour créer de nouveaux produits, du meuble à la semelle de chaussure.
Le dernier robot du laboratoire, Number Four (une référence à numéro 5 de Short Circuit?) composé de pièces en plastique reliées entre elles par des servomoteurs, essaie différentes manières de se déplacer d’un bout à l’autre du sol. Il évolue au fur et à mesure de ses tests et pourrait trouver une méthode plus efficace que la notre ou que celle d’autres animaux, une méthode à laquelle nous n’aurions pas pensé. «Il teste les variations de son modèle de mouvement original», explique Kyrre Glette.
Dans la nature, par exemple, environ 99,9% des «évolutions» ne mènent nulle part et les animaux disparaissent.
Les instructions de « Number Four » proviennent d’une simulation par ordinateur. Comme un simulateur informatique ne modélise pas parfaitement le monde réel, les membres de l’équipe prévoient une différence entre le monde virtuel et le monde réel.
Le robot a été conçu dans un « ventre virtuel » – un programme de conception générative qui essaye des milliers de simulations et de solutions différentes pour se déplacer au mieux dans un environnement donné, dans ce cas, le tapis du laboratoire de Glette. Glette et son équipe ne disent pas à l’ordinateur comment résoudre le problème, ils introduisent seulement certains paramètres – comme le fait que le robot doit passer de A à B, les tâches à faire, la vitesse désirée, sa taille et la consommation d’énergie maximale; et l’IA, la machine créative, fait le reste, multipliant les expérience en gardant les meilleures versions et en itérant de nouveau.
« C’est une évolution artificielle. Il commence par des combinaisons très simples de ses pièces et des moteurs simples qui peuvent les déplacer. Finalement, quelques solutions réussissent à donner un avantage, elles sont enregistrées pour les tests à venir et légèrement modifiées. Vous obtenez de meilleures et meilleures solutions. » explique Glette.
Par ces itérations, l’ordinateur peut arriver avec un modèle de travail en quelques heures, puis il demande à l’imprimante 3D de faire une version réelle de son modèle et l’équipe n’a plus qu’à assembler l’ensemble à l’aide de servomoteurs. Le robot compare ainsi l’aide que peuvent lui apporter des pattes supplémentaires par rapport à la consommation supplémentaire nécessaire.
La montée de l’impression 4D – imprimantes qui impriment et assemblent les produits imprimés – rappelle que les robots pourraient bientôt être en mesure de se développer eux-mêmes dans le laboratoire, de la même manière BAE et ses drones avec de nouveaux assembleurs.
Il existe un certain nombre de types d’imprimantes 3D à l’université, certaines produisent des impressions en acier, titane et plastique, d’autres des tissus, des organes. (L’hôpital universitaire d’Oslo Rikshospitalet emploie cette technologie pour concevoir des pièces squelettiques pour les patients de remplacement de la hanche ). Les imprimantes à l’Université d’Oslo coûtent entre 400K NOK et 3M (40K€ à 300K€).
À l’avenir, les robots de Glette pourraient trouver comment contourner des obstacles inattendus – et pourquoi pas s’imprimer et se poser eux-mêmes de nouvelles parties du corps pour y palier. Pour beaucoup de gens, ce types de robots ressemblent à Skynet du film Terminator. Le physicien Stephen Hawking, par exemple, a averti sur les dangers de l’IA. Et il n’est pas le seul: Musk, Bill Gates et d’autres ont formé un groupe de réflexion sur la question.
«L’apprentissage de ce robot se fait 24/24 et 7/7, il ne se fatigue pas», explique Keith Downing, professeur d’intelligence artificielle à l’Université norvégienne des sciences et de la technologie.
Un scénario d’utilisation de ces robots serait de les envoyer dans une zone de catastrophe nucléaire pour résoudre des problèmes inattendus. Un robot de ce type pourrait être utile pour explorer des planètes éloignées.
« Dans le futur, les robots doivent être capables de résoudre des tâches dans les mines profondes sur des planètes lointaines, dans les zones sinistrées radioactives, dans les zones de glissement de terrain dangereux et sur le lit de la mer sous l’Antarctique. Ces environnements sont si extrêmes que nul être humain ne peut y faire face. Tout doit être contrôlé automatiquement. Imaginez qu’un groupe de robots pénètre dans l’épave d’une centrale nucléaire, il trouve un escalier qui ne lui a pas été mis dans les paramètres, il prend une photo. L’image est analysée. Les bras de l’un des robots, équipé d’une imprimante, produisent un nouveau robot ou une nouvelle partie pour un des robots afin de négocier les escaliers « , espère Kyrre Glette.
Les experts estiment qu’ils ne seront toutefois pas plus « intelligents » que nous avant 2045 (encore cette histoire de singularité technologique ?)
Tout cela me rappelle mon stage dans un laboratoire de la faculté de pharmacie de Lille 2 quand j’étais en Licence. L’idée était de créer un Atelier de Génie Robotique Virtuel (AGRL) pour modéliser et entraîner des robots en virtuel, avant d’uploader le code dans de véritables robots, tout en prévoyant tous les mécanismes adaptatifs. Bon, je n’ai travaillé que sur une petit partie, mais c’était fort stimulant.
C’est aussi à l’origine de mon projet de jeu « Lost Colonies » qui est en pause pour le moment.
0 commentaires