La bataille pour la maîtrise de l'intelligence artificielle que se livrent les géants technologiques promet de donner une nouvelle dimension aux assistants virtuels. 10 ans après les premiers chatbots et leurs réponses prédéfinies programmées à des fins de service client, les derniers "agents d'IA" profitent des progrès des grands modèles de langage pour gagner de nouveaux pouvoirs.
Un an et demi après l'irruption fracassante de ChatGPT dans le paysage de la tech, son éditeur californien OpenAI a créé l'événement lundi 13 mai en présentant une mise à jour de l'outil qui peut désormais tenir des conversations fluides à l'oral avec ses utilisateurs. L'assistant s'appuie pour cela sur un réseau multimodal baptisé GPT-4o (pour "omni") capable de comprendre à la fois le texte, le son et l'image et de répondre à l'écrit, par la voix ou en générant des images. Le tout, en un temps record.
Les démonstrations du nouveau modèle jonglant avec fluidité entre le texte, l'audio et l'image pour répondre à l'utilisateur, expliquer du code, résoudre des équations et analyser un flux vidéo en temps réel en intégrant des éléments issus de différentes sources dans son raisonnement ont fait mouche. De quoi ringardiser pour de bon les assistants traditionnels comme Siri et Alexa. Et sa capacité à comprendre et exprimer des émotions dans ses interactions avec l'utilisateur n'ont pas manqué de convoquer le souvenir des intelligences artificielles omniscientes imaginées il y a quelques années dans des films de science-fiction comme Her.
Le timing des annonces d'OpenAI ne doit rien au hasard. L'entreprise de Sam Altman était déterminée à couper l'herbe sous le pied de son grand rival Google, investi dans la recherche en IA depuis plus d'une décennie et contraint de démontrer ces derniers mois que le créateur de ChatGPT n'a pas le monopole du narratif du secteur. Le moteur de recherche organisait ce mardi 14 mai sa conférence annuelle des développeurs Google I/OS. Signe du changement de paradigme à l'œuvre dans l'industrie, l'événement fut quasi-exclusivement consacré à l'intelligence artificielle, reportant à mercredi la présentation des nouveautés mobiles d'Android 15.
Dans une réplique clinique aux arguments d'OpenAI, le laboratoire de recherche de Google, DeepMind, a diffusé mardi une démonstration bluffante d'Astra, un prototype d'agent virtuel dopé à l'IA capable d'interagir de façon naturelle avec l'utilisateur sur plusieurs supports en simultané. On y voit un utilisateur pointer la caméra de son smartphone, mais aussi des lunettes avec caméra intégrée, sur son environnement. Il interroge le modèle qui parvient à identifier le lieu où il se trouve, à résoudre un problème informatique à partir d'un schéma et à se souvenir de l'endroit où étaient posées des lunettes. Pour Sundar Pichai, le dirigeant de Google. Ces agents d'IA seront "des systèmes intelligents capables de raisonner, de planifier et de retenir des informations. Ils anticipent les étapes et savent travailler avec des logiciels pour accomplir des choses en votre nom, sous votre supervision".
Avant de donner corps à cette vision, Google va s'atteler à doper les capacités de son moteur de recherche, son activité historique aujourd'hui menacée par les progrès des assistants virtuels qui sont désormais capables de répondre aux questions des internautes. Alors qu'OpenAI est sur le point de lancer son propre moteur de recherche intégré à ChatGPT, Google a annoncé mardi qu'il allait opérer dès cette semaine la transformation la plus importante de Google Search depuis sa création il y a 25 ans. Les utilisateurs Américains auront la primeur de tester la fonction AI Overviews, une technologie qui promet de bouleverser la façon dont les internautes font des recherches en ligne.
Au lieu de proposer des liens vers des sites Internet, la première page de résultats mettra en avant des résumés des réponses générés par l'IA maison Google Gemini et des visuels inspirés des contenus des sites Web. Les internautes pourront se contenter de la réponse ou choisir d'approfondir le sujet en cliquant sur les liens des sources mises en exergue. Les listes de liens habituelles seront, quant à elles, reléguées au second plan. D'après Google, un milliard de personnes auront accès aux recherches résumées par AI Overview d'ici la fin d'année 2024. Un changement qui annonce de lourdes répercussions sur les revenus issus du référencement pour les sites Internet et des débats houleux avec les éditeurs.
Bienvenue sur RTL
Ne manquez rien de l'actualité en activant les notifications sur votre navigateur
Cliquez sur “Autoriser” pour poursuivre votre navigation en recevant des notifications. Vous recevrez ponctuellement sous forme de notifciation des actualités RTL. Pour vous désabonner, modifier vos préférences, rendez-vous à tout moment dans le centre de notification de votre équipement.
Bienvenue sur RTL
Rejoignez la communauté RTL, RTL2 et Fun Radio pour profiter du meilleur de la radio
Je crée mon compte