La chef de cupboard de la Maison Blanche, Susie Wiles, prévoit d’interroger le PDG d’Anthropic, Dario Amodei, sur le nouveau modèle Mythos de la société d’intelligence artificielle, qui a attiré l’consideration du gouvernement fédéral sur la façon dont il pourrait transformer la sécurité nationale et l’économie.
Un responsable de la Maison Blanche, qui a requis l’anonymat pour discuter de la réunion prévue vendredi, a déclaré que l’administration discutait avec des laboratoires d’IA avancés au sujet de leurs modèles et de la sécurité des logiciels. Le responsable a souligné que toute nouvelle technologie inclined d’être utilisée par le gouvernement fédéral nécessiterait une période approach d’évaluation.
La réunion intervient après que les tensions soient vives entre l’administration Trump et Anthropic, soucieux de sa sécurité, qui a cherché à mettre des garde-fous au développement de l’IA afin de minimiser les risques potentiels et de maximiser ses avantages économiques et de sécurité nationale pour les États-Unis.
Le président Donald Trump a tenté d’empêcher toutes les agences fédérales d’utiliser le chatbot Claude d’Anthropic dans le cadre du différend contractuel entre l’entreprise et le Pentagone. Trump a déclaré dans un message publié en février sur les réseaux sociaux que l’administration « ne ferait plus affaire avec eux !
Le secrétaire à la Défense, Pete Hegseth, a également cherché à déclarer Anthropic comme un risque pour la chaîne d’approvisionnement, une mesure sans précédent contre une entreprise américaine qu’Anthropic a contestée devant deux tribunaux fédéraux. La société a déclaré qu’elle voulait avoir l’assurance que le Pentagone n’utiliserait pas sa technologie pour des armes entièrement autonomes et pour la surveillance des Américains. Hegseth a déclaré que la société doit autoriser toute utilisation jugée légale par le Pentagone.
La juge de district américaine Rita Lin a rendu une décision en mars bloquant l’software de la directive de Trump sur les médias sociaux ordonnant à toutes les agences fédérales de cesser d’utiliser les produits Anthropic.
Anthropic a refusé de parler de la réunion à l’avance.
Anthropic, basé à San Francisco, a déclaré que le nouveau modèle Mythos annoncé le 7 avril était si « remarquablement performant » qu’il limitait son utilisation à certains shoppers en raison de sa capacité à surpasser les consultants humains en cybersécurité dans la recherche et l’exploitation des vulnérabilités informatiques.
Et tandis que certains consultants du secteur se demandent si les affirmations d’Anthropic selon lesquelles une technologie d’IA trop puissante étaient un stratagème advertising, même certains des critiques les plus virulents de l’entreprise ont suggéré que Mythos pourrait représenter une nouvelle avancée dans le domaine de l’IA.
Un critique influent d’Anthropic, David Sacks, qui était le tsar de l’IA et de la cryptographie à la Maison Blanche, a déclaré que les gens devraient « prendre cela au sérieux ».
“Chaque fois qu’Anthropic fait peur aux gens, vous devez vous demander : “Est-ce une tactique ? Est-ce que cela fait partie de leur routine Rooster Little ? Ou est-ce réel ?”, a déclaré Sacks sur le podcast “All-In” qu’il co-anime avec d’autres investisseurs technologiques. “En ce qui concerne le cyber, je leur donnerais du crédit dans cette affaire et je dirais que c’est plutôt du côté réel.”
Sacks a déclaré : “Il est tout simplement logique qu’à mesure que les modèles de codage deviennent de plus en plus performants, ils sont plus capables de trouver des bogues. Cela signifie qu’ils sont plus capables de trouver des vulnérabilités. Cela signifie qu’ils sont plus capables de regrouper plusieurs vulnérabilités et de créer un exploit.”
Les avantages potentiels du modèle, ainsi que ses risques, ont également attiré l’consideration en dehors des États-Unis.
L’AI Safety Institute du Royaume-Uni a déclaré avoir évalué le nouveau modèle et l’avoir considéré comme une « avancée » par rapport aux modèles précédents, qui s’amélioraient déjà rapidement.
“Mythos Preview peut exploiter des systèmes avec une sécurité faible, et il est possible que davantage de modèles dotés de ces capacités seront développés”, a déclaré l’institut dans un rapport.
Anthropic est également en pourparlers avec l’Union européenne au sujet de ses modèles d’IA, y compris des modèles avancés qui n’ont pas encore été commercialisés en Europe, a déclaré vendredi le porte-parole de la Fee européenne, Thomas Regnier.
Axios a d’abord signalé la réunion prévue entre Wiles et Amodei.
Lors de l’annonce de Mythos, Anthropic a déclaré qu’elle formait également une initiative appelée Venture Glasswing, réunissant des géants de la technologie tels qu’Amazon, Apple, Google et Microsoft, ainsi que d’autres sociétés comme JPMorgan Chase, dans l’espoir de protéger les logiciels critiques du monde entier des retombées « graves » que le nouveau modèle pourrait poser à la sécurité publique, à la sécurité nationale et à l’économie.
“Nous le diffusons à un sous-ensemble de certaines des entreprises et organisations les plus importantes au monde afin qu’elles puissent l’utiliser pour trouver des vulnérabilités”, a déclaré Jack Clark, co-fondateur et responsable politique d’Anthropic, lors de la conférence Semafor World Economic system de cette semaine.
Clark a ajouté que Mythos, bien qu’en avance sur la courbe, n’est pas un « modèle spécial ».
“Il y aura d’autres systèmes comme celui-ci dans quelques mois provenant d’autres sociétés, et dans un an ou un an et demi plus tard, il y aura des modèles à poids ouvert en provenance de Chine qui auront ces capacités”, a-t-il déclaré. Le monde va donc devoir se préparer à l’arrivée de systèmes plus puissants en son sein. »
___
O’Brien a rapporté de Windfall, le journaliste économique du RI AP Kelvin Chan a contribué à ce rapport depuis Londres.














