Ce mois-ci, le journal Time a fait un choix inhabituel.
Au lieu de désigner un homme politique ou une célébrité comme personnalité annuelle de l’année, il a couronné les architectes de l’intelligence artificielle.
Picture : Time.com
La publication ne s’est pas concentrée sur une seule personne pour ce prix. Il comprenait les concepteurs de puces, les constructeurs de modèles et les dirigeants qui ont transformé la recherche abstraite en systèmes d’IA fonctionnels qui se trouvent désormais dans les logiciels de bureau, les centres d’appels et les réseaux de défense.
Il est donc raisonnable de considérer cela comme une étape culturelle. Après tout, Time a nommé « l’ordinateur » machine de l’année en 1982, et son impression au cours des quatre décennies suivantes a été profond.
Mais voici le problème.
Au second même où les constructeurs d’IA étaient célébrés, les régulateurs avançaient dans la route opposée. La Fee européenne a ouvert de nouvelles enquêtes sur la manière dont les modèles d’IA sont formés. Les agences américaines intensifient leurs efforts pour définir la responsabilité des décisions basées sur l’IA. Et les tribunaux continuent de se demander si les pratiques de formation actuelles dépassent les limites juridiques.
Si cela vous semble contradictoire, je comprends. Mais c’est ce qui arrive lorsqu’une nouvelle technologie start à s’intégrer dans notre vie quotidienne.
C’est pourquoi, à l’approche de 2026, la véritable histoire de l’IA ne se limite pas à l’innovation.
Il s’agit de ce qui se passe lorsqu’une technologie devient une infrastructure.
L’émergence de l’IA
Pendant la majeure partie de la dernière décennie, l’intelligence artificielle a vécu dans une sorte de zone grise.
Avant 2023, les modèles d’IA étaient impressionnants, mais pour la grande majorité des humains, les enjeux de l’IA étaient très faibles. Si quelque selected n’allait pas, c’était généralement dû à un chatbot défectueux qui vous donnait une mauvaise réponse.
Mais l’IA a franchi un seuil lorsque les grands modèles sont devenus à la fois généraux et intégrés.
Par général, j’entends que les mêmes systèmes pourraient écrire, coder, raisonner, analyser des pictures et faire fonctionner des outils. Par intégré, je parle de systèmes qui ne sont plus des purposes autonomes. Ils sont directement intégrés dans les flux de recherche, de productivité, de help consumer, de logistique et industriels.
C’est pourquoi j’ai recommandé Palantir Applied sciences Inc (Nasdaq : PLTR) début 2024 aux membres de mon service de recherche phare, Strategic Fortunes.
J’ai réalisé que nous avions franchi ce seuil, alors je les ai exhortés à envisager d’acquérir des actions de PLTR au second même où la société se lançait dans une course 10X vers des sommets sans précédent.
Mais une fois qu’une technologie atteint ce level, les gouvernements doivent commencer à se demander qui est responsable en cas d’échec.
Et c’est pourquoi l’examen réglementaire s’accélère aujourd’hui, à mesure que l’IA fait désormais partie de notre vie quotidienne.
En Europe, cette réglementation se concentre sur le contrôle et la concurrence. Les régulateurs examinent si des entreprises comme Google et Meta ont utilisé du contenu protégé par le droit d’auteur ou exclusif pour former des modèles sans consentement.
En effet, la formation d’une IA moderne nécessite des quantités impressionnantes de données. Les textes, pictures, vidéos, codes et paroles sont tous extraits d’Web et de sources privées. Et cet avantage en matière de données est devenu un fossé pour les entreprises qui y sont parvenues les premières et qui contrôlent désormais les systèmes les plus vastes et les plus performants.
Les régulateurs européens veulent s’assurer que ces entreprises ne bénéficient pas d’un avantage injuste grâce à la manière dont ces données ont été collectées.
Ils réclament également de la transparence sur la manière dont les modèles sont construits et sur la manière dont les résultats sont générés dans le cadre de la loi européenne sur l’IA.
Picture : Fee européenne
Aux États-Unis, l’accent est différent, mais tout aussi sérieux.
Ici, les agences se concentrent davantage sur la responsabilité. Si un système d’IA refuse une hypothèque, signale un candidat à un emploi, diagnostique un affected person ou contrôle un véhicule, quelqu’un doit répondre de cette décision.
« L’algorithme l’a fait » n’est pas une défense qui tiendra la route auprès des régulateurs ou des juges.
Et nous voyons cela se produire devant les tribunaux en ce second.
Les poursuites pour droits d’auteur contre OpenAI et Anthropic sont déjà en cours dans le système juridique. Les agences fédérales publient des directives qui traitent les systèmes d’IA comme faisant partie d’une infrastructure critique. Et les législateurs se demandent si la responsabilité devrait incomber aux entreprises qui développent l’IA, à celles qui l’utilisent, ou aux deux.
Mais ne présumez pas que toute cette surveillance signifie que nous nous dirigeons vers un ralentissement de l’IA. Parce que l’histoire dit que c’est exactement le contraire qui se produira.
L’électricité n’a pas stagné parce que des codes de sécurité ont été introduits.
Picture : Wikimédia Commons
L’industrie aéronautique ne s’est pas effondrée lorsque des normes ont été imposées. Et les marchés financiers n’ont cessé d’évoluer avec l’apparition de règles de divulgation.
Au lieu de cela, ils sont devenus plus sûrs et plus fiables.
L’IA entre maintenant dans la même section.
Voici mon avis
Il y a aujourd’hui une double histoire avec l’IA.
D’un côté, une célébration de l’innovation rapide et des personnes qui la conduisent. De l’autre, une demande croissante de surveillance et de garde-fous.
Et aucune des deux events n’a tort.
Les personnes qui construisent l’IA méritent d’être reconnues. Après tout, ils ont mis au level l’un des outils de productivité les plus puissants de l’histoire de l’humanité. L’IA permet déjà aux entreprises d’économiser des milliards de {dollars}, en accélérant la recherche et en élargissant ce que les petites équipes peuvent accomplir.
Mais les régulateurs ont également raison d’intervenir maintenant, avant que les échecs de l’IA ne se transforment en échecs systémiques. Parce que c’est exactement ce qui s’est passé avec Web.
Dans les années 1990, Web était considéré comme une drive de liberté et de croissance. Mais la réglementation a pris du retard pendant des décennies et, à bien des égards, elle n’a toujours pas rattrapé son retard.
L’IA évolue plus rapidement qu’Web.
Cela signifie que les délais pour parvenir à une bonne gouvernance sont beaucoup plus restreints.
À l’approche de 2026, nous devrions continuer à célébrer l’innovation. Mais nous devons également adopter davantage de réglementation autour de l’intelligence artificielle.
Après tout, la réglementation ne constitue pas une menace pour l’IA.
C’est la preuve qu’il est arrivé.
Salutations,
Ian KingStratège en chef, Banyan Hill Publishing
Be aware de l’éditeur : nous serions ravis d’avoir de vos nouvelles !
Si vous souhaitez partager vos réflexions ou ideas sur le Day by day Disruptor, ou s’il y a des sujets spécifiques que vous souhaiteriez que nous abordions, envoyez simplement un e-mail à dailydisruptor@banyanhill.com.
Ne vous inquiétez pas, nous ne révélerons pas votre nom complet si nous publions une réponse. Alors n’hésitez pas à commenter !














