La semaine dernière, nous avons parlé de la façon dont l’agent IA se rend enfin au travail.
Les brokers de l’IA commencent maintenant à planifier, à raisonner et à effectuer des tâches numériques sans incitation constante.
Les codeurs les utilisent pour rechercher des bogues et réécrire du code brisé. Les vendeurs sur Amazon les utilisent pour aider à gérer leurs shares. Et l’IA agentique est même utilisée pour aborder des problèmes plus complexes.
Par exemple, les chercheurs du mois dernier ont publié un article sur HealthFlow, un agent de recherche autonome construit pour relever les défis de la recherche médicale.
Au lieu d’attendre une invite humaine à chaque étape, HealthFlow prévoit sa propre approche de la recherche. Il teste différentes stratégies, apprend des résultats et améliore ses méthodes au fil du temps.
C’est comme un chercheur junior qui devient plus clever avec chaque expérience. Et dans les exams de référence, HealthFlow a battu les meilleurs systèmes d’IA sur certains des défis des données de santé les plus difficiles.
Pourtant, aussi excitant que cela soit, ces brokers de l’IA sont toujours un logiciel. Ils sont piégés dans le monde numérique.
Ou sont-ils?
Les robots obtiennent une mise à niveau
Le 25 septembre, Deepmind de Google a présenté Gemini Robotics 1.5.
Et avec cette model, l’agent AI a fait partie du monde physique.
Gemini Robotics 1.5 est en fait deux modèles qui fonctionnent en tandem. Gemini Robotics ER 1.5 est un modèle de raisonnement. Il peut utiliser des outils comme Google Search pour diviser les grands objectifs en étapes plus petites et décider de ce qui doit se passer ensuite.
Gemini Robotics 1.5 est un modèle de vision-action (VLA). Il prend les sous-objectifs de ER 1.5 et les traduit en mouvements concrètes comme la saisie, le pointage et la manipulation d’objets.
La combinaison des deux modèles est quelque selected de nouveau en robotique…
Un système qui pense avant qu’il ne bouge.
DeepMind dit que ces modèles sont conçus pour les tâches quotidiennes en plusieurs étapes, comme le trier des buandeurs, l’emballage pour la météo ou le recyclage des articles en fonction des règles locales.
Ce sort d’adaptabilité est la pièce manquante en robotique depuis des décennies.
Les usines sont pleines de machines rigides qui effectuent une seule motion, encore et encore. Mais au second où le produit change, le robotic doit être reprogrammé à partir de zéro.
Ce que DeepMind développe, c’est un robotic qui peut généraliser et apporter des modifications à la volée.
Tout aussi importante, ils ont introduit le transfert de mouvement, la capacité d’enseigner une des compétences une fois et de la partager sur différents corps robotes.
Dans une vidéo, ils ont montré un bras de robotic en laboratoire pour apprendre à effectuer des tâches spécifiques. Gemini Robotics 1.5 a ensuite permis à l’humanoïde Apollo du robotic d’Apptronik de réutiliser ces connaissances sans repartir de zéro.
Picture: DeepMind sur YouTube
Cela permettra aux robots d’évoluer rapidement les varieties d’emplois qu’ils peuvent faire dans le monde réel.
Et c’est pourquoi Deepmind n’est pas seul dans ces ambitions.
Nvidia a couru sur le même chemin. Lors de sa conférence du GTC en mars, le PDG de Nvidia, Jensen Huang, a montré quelque selected appelé GR00T qui ressemble à un «cerveau» pour les robots humanoïdes.
C’est un modèle de fondation formé pour les aider à voir, comprendre et se déplacer davantage comme les gens.
Quelques mois plus tard, Nvidia a ajouté le «muscle» lorsqu’il a introduit Jetson Thor, un ordinateur puissant qui se trouve à l’intérieur du robotic lui-même. Au lieu de renvoyer chaque décision au cloud, il permet aux robots de penser et d’agir sur place en temps réel.
Ensemble, GR00T et Jetson Thor donnent à des robots à la fois l’intelligence et les réflexes qui leur manquaient.
Amazon a également évolué dans cette course. L’année dernière, la société a commencé à tester Digit, un robotic humanoïde d’Agility Robotics, à l’intérieur de ses entrepôts.

Picture: Agility Robotics
Les essais étaient limités, mais l’objectif d’Amazon est évident. Une flotte de robots humanoïdes non seulement ne se lasserait jamais, ils ne se syndiqueraient jamais.
Ensuite, il y a Covariant, une startup qui a lancé son propre modèle de fondation robotique, RFM-1, plus tôt cette année.
Les robots de Covariant peuvent suivre les directions du langage naturel, apprendre de nouvelles tâches à la volée et même demander des éclaircissements lorsqu’ils ne savent pas quoi faire. En d’autres termes, RFM-1 donne aux robots des capacités de raisonnement humain.
C’est un énorme saut des machines insensées auxquelles nous avons été habitués.
Sanctuary AI construit des robots équipés de capteurs tactiles. Leur objectif est de faire des machines qui peuvent sentir ce qu’ils touchent.
C’est une capacité que les humains tiennent pour acquise, mais c’est celle avec laquelle les robots ont toujours eu du mal. Combinez le toucher avec le raisonnement et vous pouvez voir remark les robots pourraient bientôt gérer le sort de tâches imprévisibles et délicates qui remplissent notre vie quotidienne.
Mais à quoi correspondent toutes ces avancées en robotique?
Rien de moins que ce que je bat la desk depuis des années.
La ligne entre les logiciels et le matériel se floue automobile l’intelligence numérique des brokers de l’IA est fusionnée avec les capacités physiques des robots.
Une fois que cette ligne disparaît, les opportunités sont infinies…
Et le potentiel du marché est stupéfiant.
Goldman Sachs prévoit que le marché humanoïde pourrait atteindre à lui seul 38 milliards de {dollars} d’ici 2035.

Alors que l’industrie mondiale de la robotique devrait atteindre 375 milliards de {dollars} en une décennie – plus de 5 fois sa taille aujourd’hui.

Voici ma prise
Comme toujours, il y a des raisons de mesurer l’optimisme avec prudence.
Après tout, les environnements du monde réel ne sont pas les mêmes que les environnements numériques. Les changements d’éclairage, les objets se chevauchent et les choses se cassent.
La dextérité et l’agilité sont toujours des problèmes pour les robots, mais la sécurité n’est pas négociable. Un robotic maladroit pourrait blesser quelqu’un.
De plus, les coûts de building et de maintien de ces systèmes restent élevés.
Mais si l’histoire nous dit quelque selected, c’est que les percées arrivent rarement entièrement polies.
Je suis sûr que vous vous souvenez de l’Web diat-up lent et peu fiable des années 1990. Mais cela ne l’a pas empêché de devenir l’épine dorsale de l’économie mondiale.
Je crois que c’est là que nous sommes avec la convergence de l’IA et de la robotique brokers aujourd’hui…
Mais je m’attends à ce que les choses se déplacent beaucoup plus vite d’ici.
À l’avenir, nous allons commencer à traiter avec des machines qui peuvent penser et agir dans le même monde dans lequel nous vivons.
Et la perturbation qui swimsuit a le potentiel de éclipser tout ce que nous avons vu jusqu’à présent.
Salutations,
Strototeur d’Ian Kingchief, Banyan Hill Publishing
Word de l’éditeur: nous serions ravis de vous entendre!
Si vous souhaitez partager vos réflexions ou options sur le perturbateur quotidien, ou s’il y a des sujets spécifiques que vous aimeriez que nous couvrions, envoyez simplement un e-mail à DailyDisruptor@banyanhill.com.
Ne vous inquiétez pas, nous ne révélerons pas votre nom complet dans le cas où nous publions une réponse. Alors n’hésitez pas à commenter!

















