En janvier dernier, DeepSeek a choqué le monde en abandonnant un modèle d’IA à l’échelle frontière pour une fraction du coût de ses rivaux américains.
La sortie du DeepSeek-R1 a prouvé que la Chine pouvait dépasser son poids dans un raisonnement de haut niveau.
Et comme je l’ai mentionné à l’époque, cela a également changé la trajectoire de la course à l’IA.
C’était un signe clair que Pékin voulait réduire l’écart avec les États-Unis et cela prouvait que la Chine ne ralentissait pas.
Mais je l’ai vu comme une bonne selected. Et je crois que j’ai été justifié. Parce que cela a finalement poussé les décideurs politiques américains à considérer l’intelligence artificielle comme une priorité nationale.
Je suis convaincu que c’est l’une des raisons pour lesquelles la Maison Blanche a récemment créé un nouveau plan de développement inter-agences de l’IA appelé Genesis Mission, qui pourrait représenter un projet Manhattan pour l’IA.
Et c’est certainement un facteur qui a incité le secteur privé à investir des milliards de {dollars} dans de nouveaux pôles de formation cette année.
Une décision qui semble porter ses fruits.
ChatGPT-5 est arrivé cette année avec les meilleurs scores en raisonnement en contexte lengthy. Google a récemment lancé Gemini 3 et a encore amélioré les performances multimodales. Et Claude d’Anthropic est furtivement devenu le chief de la course à l’IA d’entreprise.
Mais cela ne signifie pas que DeepSeek est resté motionless.
La semaine dernière, la société a refait floor avec une nouvelle model appelée DeepSeek V3.2 et V3.2 Speciale.
L’annonce n’a pas choqué le monde comme la sortie de DeepSeek en janvier, mais les détails sont toujours révélateurs.
Parce que si les chiffres publiés par DeepSeek sont exacts, alors la Chine vient de livrer son challenger le plus puissant à ce jour.
Ce qui en fait le second idéal pour vous enregistrer auprès de DeepSeek.
Nouvelles allégations de référence
DeepSeek affirme que son modèle V3.2 Speciale a obtenu des performances de niveau or sur quatre critères académiques haut de gamme. Il s’agit notamment de l’Olympiade mathématique internationale (OMI) 2025, de l’Olympiade mathématique de Chine (CMO), de l’Olympiade internationale d’informatique (IOI) et de la finale mondiale du CIPC.
Évidemment, ce ne sont pas des exams simples.
Il s’agit des défis de mathématiques et de codage les plus difficiles au monde, et ils sont généralement dominés par des laboratoires de recherche d’élite. Les équipes américaines affichent souvent de bons résultats, mais elles publient rarement des modèles à poids ouvert qui obtiennent des scores tout en haut.
DeepSeek affirme avoir fait exactement cela.
La société a également révélé quelque selected d’inhabituel dans son rapport method. Il indique que le modèle utilise un système appelé DeepSeek Sparse Consideration pour gérer plus efficacement les problèmes à contexte lengthy.
Il a également déclaré que plus de 10 % de son funds de calcul complete était consacré à l’apprentissage par renforcement du raisonnement et du comportement agent. C’est inhabituellement élevé pour un modèle à poids ouvert. Si cela est vrai, cela aiderait à expliquer pourquoi DeepSeek présente la V3.2 comme un modèle « axé sur le raisonnement d’abord » au lieu d’un chatbot à utilization général.
Voici remark l’entreprise se situe.
Comme vous pouvez le constater, les nouveaux modèles de DeepSeek semblent correspondre ou se rapprocher des meilleurs scores affichés par GPT-5 et Gemini 3 sur des tâches de raisonnement étroites comme les mathématiques et la résolution structurée de problèmes.
Ces chiffres sont impressionnants, mais ils s’accompagnent d’une mise en garde importante.
Ils n’ont pas fait l’objet d’un audit indépendant. Et en attendant, nous devons les traiter comme des affirmations prometteuses plutôt que comme des avancées confirmées.
Cependant, nous pouvons confirmer certaines events de cette model.
Les poids sont disponibles en ligne et les développeurs ont déjà commencé à exécuter des exams d’inférence locaux. Les premiers utilisateurs affirment que le modèle gère mieux le raisonnement en plusieurs étapes que les variations précédentes de DeepSeek. Et le mécanisme d’consideration clairsemé semble réel sur la base du code publié.
Mais le tableau devient moins clair lorsque l’on dépasse les résultats en mathématiques et en codage.
Quelques groupes indépendants, dont une équipe de recherche qui collabore avec le NIST, ont testé cette année des modèles DeepSeek antérieurs. Leur conclusion était que ces variations étaient encore à la traîne des meilleurs systèmes américains en termes de connaissances générales, d’utilisation des outils et de fiabilité réelle.
Ces résultats ne contredisent pas les nouveaux chiffres de DeepSeek, mais ils soulignent quelque selected d’vital.
De bons résultats aux concours de mathématiques ne garantissent pas une intelligence générale. Cela montre simplement la drive d’une partie du puzzle plus vaste.
Mais c’est l’intelligence générale qui compte à lengthy terme.
C’est le même écart dont nous parlions en janvier. À l’heure actuelle, les entreprises américaines sont toujours en tête en matière de formation multimodale à grande échelle, de exams de sécurité mondiaux et de déploiement de plateformes intégrées.
OpenAI possède le meilleur système d’utilisation d’outils en manufacturing. Google possède l’structure de mémoire la plus développée. Anthropic possède les meilleurs antécédents en matière de fiabilité et de stabilité du raisonnement. Et ensemble, ces entreprises ont accès aux plus grands pôles de formation de la planète.
DeepSeek poursuit toujours ces entreprises. Mais cela ne veut pas dire que l’écart reste aussi grand qu’il l’était autrefois.
Le nouveau modèle de DeepSeek avance à un rythme qui aurait semblé irréaliste il y a à peine un an. Et le fait qu’ils puissent proposer des modèles à pondération ouverte avec des résultats mathématiques proches de la frontière devrait inquiéter tous ceux qui pensent que les États-Unis peuvent se permettre de rouler en roue libre.
Parce que chaque fois que la Chine progresse dans le domaine de l’IA, elle fait pression sur les États-Unis pour qu’ils aillent encore plus vite.
Voici mon avis
DeepSeek affirme avoir formé la V3.2 en utilisant plus de 1 800 environnements synthétiques et plus de 85 000 invitations d’utilisation d’outils. Celles-ci incluent des tâches de recherche, des tâches de codage et des tâches d’agent en plusieurs étapes.
Le comportement agent est la prochaine frontière majeure de l’IA. Les modèles capables de raisonner, de planifier et d’agir par eux-mêmes façonneront tout, du développement de logiciels à la sécurité nationale.
C’est pourquoi je continuerai à surveiller de près DeepSeek.
Parce que la société affirme qu’elle continuera à développer son pipeline d’brokers. Et s’il reste sur cette trajectoire, il faudra s’attendre à des modèles encore plus ambitieux en 2026.
Cela signifie que les États-Unis doivent continuer à accélérer leur propre rythme.
Nous disposons toujours des entreprises d’IA les plus puissantes au monde. Mais cette publication envoie un message clair : la course à la superintelligence artificielle (ASI) est plus proche aujourd’hui qu’elle ne l’était en janvier.
Et les deux camps le savent.
Salutations,
Ian KingStratège en chef, Banyan Hill Publishing
Observe de l’éditeur : nous serions ravis d’avoir de vos nouvelles !
Si vous souhaitez partager vos réflexions ou ideas sur le Each day Disruptor, ou s’il y a des sujets spécifiques que vous souhaiteriez que nous abordions, envoyez simplement un e-mail à dailydisruptor@banyanhill.com.
Ne vous inquiétez pas, nous ne révélerons pas votre nom complet si nous publions une réponse. Alors n’hésitez pas à commenter !
















