Rendu accessible au plus grand nombre fin novembre, le robot conversationnel ChatGPT a fait une irruption fracassante dans le débat public en offrant une illustration concrète des dernières avancées de l’intelligence artificielle générative. Même s'il n'est pas exempt de défauts, ChatGPT impressionne par sa capacité à répondre en quelques secondes en langage naturel à n'importe quelle requête avec une qualité confondante. OpenAI, le laboratoire de recherche privé californien à l’origine de sa conception, prépare déjà la prochaine version du programme qui promet d’être encore plus performant et suscite déjà un certain nombre de fantasmes.
ChatGPT, tout comme le générateur d’images Dall-E, repose sur les capacités de GPT-3, un modèle de réseau de neurones artificiels en apprentissage profond (deep learning) entraîné sur de très grandes quantités de ressources textuelles disponibles sur Internet jusqu'en 2021. La troisième version de ce Generative Pre-Trained Transformer (transformeur préformé génératif) est l'un des modèles existants les plus avancés en termes de données utilisées avec 175 milliards de paramètres au compteur.
Son prédécesseur, GPT-2, lancé en 2019, comptait 1,5 milliard de paramètres, c'est-à-dire les variables qui définissent le processus d'apprentissage des algorithmes et organisent les résultats obtenus. Plus un modèle d'intelligence artificielle dispose de paramètres, plus il sera puissant et précis. À titre de comparaison, on a tendance à dire que le cerveau humain contient entre 100 et 200 milliards de neurones.
OpenAI ne s'est pas beaucoup épanché sur les capacités de son prochain modèle de langage, GPT-4. Selon certains initiés proches de l'organisation, GPT-4 pourrait comprendre environ 100 billions de paramètres, soit 100.000 milliards de variables, un total 570 fois plus important que le modèle GPT-3 actuellement utilisé par ChatGPT. De quoi espérer un bond en avant des capacités de l'outil, que l'on imagine déjà en mesure de répondre plus rapidement et précisément aux questions, de se connecter à Internet pour mettre à jour ses connaissances, de traduire et résumer des textes à la volée, de mieux comprendre les intentions des utilisateurs et d'utiliser un langage plus riche et moins robotique pour mieux imiter les humains.
Le patron d'OpenAI, Sam Altman, a tempéré récemment ces attentes dans différents entretiens à la presse américaine. Le cofondateur du centre de recherche a démenti le total de 100.000 milliards de paramètres évoqué pour son modèle, assurant que GPT-4 ne sera pas une intelligence artificielle "générale", c'est-à-dire, dont les capacités cognitives lui permettraient de rivaliser avec l'intelligence humaine "Je pense qu’une IA générale est en quelque sorte ce qu'on attend de nous" mais GPT-4 "va décevoir" ceux qui espèrent cela, a-t-il souligné à TechCrunch.
Selon lui, les gains de GPT-4 se situeront surtout dans l'optimisation du modèle actuel, qui devrait franchir un nouveau cap dans sa capacité à traiter plus de données tout en contenant la puissance de calcul nécessaire pour le faire. La prochaine version pourrait aussi être en mesure de mieux comprendre le contexte des requêtes et fournir des réponses plus précises. Enfin, même s'il semble encore un peu tôt pour envisager la perspective d'un véritable modèle multimodal, Sam Altman a confirmé qu'OpenAI travaillait en parallèle sur le développement d'une IA programmée pour générer des vidéos. Sans faire de prédiction sur la livraison du projet.