Il est temps de repenser l’exposition, le déploiement et la stratégie de l’IA
Cette semaine, Yann LeCun, scientifique en chef de l’IA récemment quitté chez Meta et l’un des pères de l’IA moderne, a présenté une imaginative and prescient techniquement fondée de l’évolution du paysage des risques et des opportunités de l’IA lors de la session de preuve sur l’intelligence artificielle de l’APPG du Parlement britannique. APPG AI est le groupe parlementaire multipartite sur l’intelligence artificielle. Ce billet est construit autour du témoignage de Yann LeCun devant le groupe, avec des citations tirées directement de ses propos.
Ses remarques sont pertinentes pour les gestionnaires d’investissement automotive elles touchent à trois domaines que les marchés de capitaux considèrent souvent séparément, mais ne devraient pas le faire : la capacité de l’IA, le contrôle de l’IA et l’économie de l’IA.
Les risques dominants en matière d’IA ne sont plus centrés sur celui qui forme le plus grand modèle ou sécurise les accélérateurs les plus avancés. Il s’agit de plus en plus de savoir qui contrôle les interfaces des systèmes d’IA, où résident les flux d’informations et si la imprecise actuelle de dépenses en capital centrées sur le LLM générera des rendements acceptables.
Risque d’IA souveraine
« C’est le plus grand risque que je vois dans l’avenir de l’IA : la seize d’informations par un petit nombre d’entreprises by way of des systèmes propriétaires. »
Pour les États, il s’agit d’un problème de sécurité nationale. Pour les gestionnaires de placements et les entreprises, il s’agit d’un risque de dépendance. Si les flux de recherche et d’aide à la décision sont médiés par un ensemble restreint de plateformes propriétaires, la confiance, la résilience, la confidentialité des données et le pouvoir de négociation s’affaiblissent avec le temps.
LeCun a identifié « l’apprentissage fédéré » comme une mesure d’atténuation partielle. Dans de tels systèmes, les modèles centralisés évitent d’avoir besoin de voir les données sous-jacentes pour la formation, s’appuyant plutôt sur les paramètres de modèle échangés.
En principe, cela permet à un modèle résultant de fonctionner «… comme s’il avait été formé sur l’ensemble des données… sans que les données ne quittent jamais (votre domaine)».
Ce n’est cependant pas une answer légère. L’apprentissage fédéré nécessite un nouveau kind de configuration avec une orchestration fiable entre les events et les modèles centraux, ainsi qu’une infrastructure cloud sécurisée à l’échelle nationale ou régionale. Cela réduit le risque lié à la souveraineté des données, mais ne supprime pas le besoin d’une capacité cloud souveraine, d’un approvisionnement énergétique fiable ou d’un investissement en capital soutenu.
Les assistants IA comme vulnérabilité stratégique
« Nous ne pouvons pas nous permettre de laisser ces assistants IA sous le contrôle exclusif d’une poignée d’entreprises aux États-Unis ou en provenance de Chine. »
Il est peu possible que les assistants IA restent de simples outils de productivité. Ils serviront de plus en plus d’intermédiaires dans les flux d’informations quotidiens, façonnant ce que les utilisateurs voient, demandent et décident. LeCun a fait valoir que le risque de focus à ce niveau est structurel :
« Nous allons avoir besoin d’une grande diversité d’assistants IA, pour la même raison que nous avons besoin d’une grande diversité de médias d’info. »
Les risques se situent avant tout au niveau de l’État, mais ils importent également pour les professionnels de l’investissement. Au-delà des scénarios d’abus évidents, un rétrécissement des views informationnelles par un petit nombre d’assistants risque de renforcer les biais comportementaux et d’homogénéiser l’analyse.
Edge Compute ne supprime pas la dépendance au cloud
“Certains fonctionneront sur votre appareil native, mais la plupart devront s’exécuter quelque half dans le cloud.”
Du level de vue de la souveraineté, le déploiement en périphérie peut réduire certaines fees de travail, mais il n’élimine pas les problèmes de juridiction ou de contrôle :
« Il y a ici une vraie query de compétence, de confidentialité et de sécurité. »
La capacité LLM est surestimée
“Nous pensons que ces systèmes sont intelligents parce qu’ils maîtrisent bien le langage.”
Le problème n’est pas que les grands modèles linguistiques soient inutiles. Le fait est que la maîtrise est souvent confondue avec le raisonnement ou la compréhension du monde – une distinction essentielle pour les systèmes agentiques qui s’appuient sur les LLM pour la planification et l’exécution.
“Le langage est easy. Le monde réel est désordonné, bruyant, de grande dimension et continu.”
Pour les investisseurs, cela soulève une query familière : dans quelle mesure les dépenses d’investissement actuelles en IA contribuent-elles à la création d’une intelligence sturdy et dans quelle mesure optimisent-elles l’expérience utilisateur autour de la correspondance de modèles statistiques ?
Modèles mondiaux et horizon post-LLM
“Malgré les prouesses des systèmes actuels axés sur le langage, nous sommes encore très loin du kind d’intelligence que nous voyons chez les animaux ou les humains.”
Le idea de modèles mondiaux de LeCun se concentre sur l’apprentissage du comportement du monde, et pas seulement sur la corrélation entre les langues. Là où les LLM optimisent la prédiction du prochain jeton, les modèles mondiaux visent à prédire les conséquences. Cette distinction sépare la réplication de modèles au niveau de la floor des modèles qui sont plus fondés sur des causes causales.
Cela n’implique pas que les architectures actuelles vont disparaître, mais qu’elles ne seront peut-être pas celles qui, en fin de compte, généreront des good points de productivité ou un avantage en matière d’investissement durables.
Risque de méta et de plates-formes ouvertes
LeCun a reconnu que la place de Meta a changé :
“Meta était autrefois un chief dans la fourniture de systèmes open supply.”
“Au cours de la dernière année, nous avons perdu du terrain.”
Cela reflète une dynamique industrielle plus massive plutôt qu’un easy renversement stratégique. Alors que Meta proceed de publier des modèles sous licences ouvertes, la pression concurrentielle et la diffusion rapide des architectures de modèles – mises en évidence par l’émergence de groupes de recherche chinois tels que DeepSeek – ont réduit la durabilité de l’avantage purement architectural.
L’inquiétude de LeCun n’a pas été présentée comme une critique d’une seule entreprise, mais comme un risque systémique :
« Ni les États-Unis ni la Chine ne devraient dominer cet espace. »
À mesure que la valeur migre des pondérations de modèle vers la distribution, les plateformes privilégient de plus en plus les systèmes propriétaires. Du level de vue de la souveraineté et de la dépendance, cette tendance mérite l’consideration des investisseurs et des décideurs politiques.
IA agentique : en avance sur la maturité de la gouvernance
« Les systèmes brokers n’ont aujourd’hui aucun moyen de prédire les conséquences de leurs actions avant d’agir. »
“C’est une très mauvaise façon de concevoir des systèmes.”
Pour les gestionnaires de placements qui expérimentent avec des brokers, il s’agit d’un avertissement clair. Un déploiement prématuré risque de provoquer des hallucinations se propageant à travers des chaînes de décision et des boucles d’motion mal gouvernées. Même si les progrès strategies sont rapides, les cadres de gouvernance de l’IA agentique restent sous-développés par rapport aux normes professionnelles dans les environnements d’investissement réglementés.
Réglementation : des purposes, pas de la recherche
“Ne réglementez pas la recherche et le développement.”
« Vous créez une seize réglementaire par les grandes applied sciences. »
LeCun a fait valoir qu’une réglementation mal ciblée renforce les acteurs en place et élève des barrières à l’entrée. Au lieu de cela, la réglementation devrait se concentrer sur les résultats du déploiement :
« Chaque fois que l’IA est déployée et peut avoir un affect vital sur les droits des personnes, une réglementation doit être mise en place. »
Conclusion : maintenir la souveraineté, éviter la seize
Le risque immédiat de l’IA n’est pas une intelligence générale incontrôlable. Il s’agit de la seize d’informations et de valeur économique au sein de systèmes exclusifs et transfrontaliers. La souveraineté, tant au niveau de l’État que de l’entreprise, est centrale et cela signifie une approche axée sur la sécurité pour déployer les LLM dans votre organisation. Une approche à faible confiance.
Le témoignage de LeCun détourne l’consideration des principales publications de modèles et se concentre sur qui contrôle les données, les interfaces et le calcul. Dans le même temps, une grande partie des dépenses d’investissement actuelles en IA restent ancrées dans un paradigme centré sur le LLM, même si la prochaine part de l’IA sera probablement sensiblement différente. Cette combinaison crée un environnement familier pour les investisseurs : un risque élevé de mauvaise allocation du capital.
Dans les périodes d’évolution technologique rapide, le plus grand hazard ne réside pas dans ce que la technologie peut faire, mais dans l’endroit où la dépendance et les rentes finissent par s’accumuler.













