2 min de lecture

Conflit entre Anthropic et le gouvernement américain sur l'usage de l'IA Claude : "Un avant-goût des vifs débats qui nous attendent", juge François Lenglet

Anthropic, qui avait refusé que le ministère de la Défense américain utilise son IA Claude sans respecter ses conditions, a été classée comme "société à risque". L'entreprise de la tech a porté plainte contre le Pentagone ce lundi 9 mars.

L'assistant IA Claude, développé par l'entreprise américaine Anthropic (illustration).

Crédit : Jean-Marc Barrère / Hans Lucas / Hans Lucas via AFP

Est-il possible de mettre des garde-fous à l'IA ?

00:03:42

Est-il possible de mettre des garde-fous à l'IA ?

00:03:42

François Lenglet - édité par Ennio Aparicio-Szkudlarek

Je m'abonne à la newsletter « Infos »

Cette histoire a de quoi nous inquiéter sur l'avenir de l'IA. Anthropic est l’un des leaders mondiaux de cette technologie. L'entreprise américaine, qui vaut pas loin de 400 milliards, a réalisé et commercialisé le système Claude, meilleur que ChatGPT selon ses utilisateurs.

Au point que le Pentagone, le ministère de la Défense américain, l’a utilisé pour l’opération au Venezuela et l’utilise encore pour la guerre en Iran pour repérer les cibles et simuler les combats. Claude était jusqu’ici le seul homologué par ce client très exigeant. 

Sauf que ce lundi 9 mars, Anthropic a porté plainte contre le ministère de la Défense et son chef, Peter Hegseth. Lors de la négociation du dernier contrat en date estimé à 200 millions de dollars, l'entreprise de la tech a exigé du Pentagone le respect du code d’éthique qu'elle s’est donné.

L'usage de Claude pour mener des frappes remis en cause

Anthropic ne voulait pas que Claude soit utilisé pour déclencher des armes létales sans intervention humaine. En clair, qu’il ne tue pas de sa propre initiative. L'entreprise ne voulait également pas que son système serve à la surveillance massive.

Le ministère a refusé ces conditions, en arguant du fait qu’il se conformait aux lois et à l’état de droit et qu’il ne fallait pas lui en demander davantage. Mais Anthropic n’a pas cédé et a demandé un engagement explicite. 

Ce qui lui a valu, la semaine dernière, d’être labellisée comme une "entreprise à risque", au même titre que les Russes ou les Chinois. Ce statut lui interdit de contracter pour le ministère, les entreprises privées travaillant pour la défense, et plus largement, pour toute entité publique.

Guerre ouverte avec le gouvernement

La situation s’est depuis envenimée. La Maison Blanche a réagi en déclarant que "jamais une entreprise woke de la gauche radicale" ne dicterait sa loi à la plus puissante armée du monde, et qu’il ne cèderait pas devant les oligarques de la tech. De son côté, Anthropic accuse le gouvernement de détruire la valeur de l’une des entreprises les plus innovantes, vitales pour l’avenir du pays. 

Aussitôt, les renards d’Open AI (concurrent qui commercialise ChatGPT) et de chez Elon Musk se sont précipités pour remplacer l'entreprise au ministère de la Défense, sans imposer les mêmes conditions, cette fois. 

Quel est l’avenir d’Anthropic ? Ses grands clients privés, Microsoft ou Google, lui ont maintenu leur confiance. L'entreprise s’est aussi attiré pas mal de sympathies de la galaxie anti-Trump.

Cette affaire est un avant-goût des débats qui nous attendent avec l’intelligence artificielle et son utilisation. Pris en balancier entre efficacité et morale, ces questions essentielles ont toujours accompagné l’essor des nouvelles technologies, et qui promettent d’être particulièrement vifs avec l’IA.

La rédaction vous recommande
À lire aussi

L’actualité par la rédaction de RTL dans votre boîte mail.

Grâce à votre compte RTL abonnez-vous à la newsletter RTL info pour suivre toute l'actualité au quotidien

S’abonner à la Newsletter RTL Info