Un récent rapport d’un organisme de surveillance de la sécurité de l’IA n’est pas celui que les entreprises technologiques voudront coller sur le réfrigérateur.
Le dernier indice de sécurité de l’IA du Way forward for Life Institute a révélé que les principaux laboratoires d’IA ne répondaient pas à la plupart des mesures de responsabilité en matière d’IA, avec peu de notes dépassant le C. L’organisation a noté huit entreprises dans des catégories telles que les cadres de sécurité, l’évaluation des risques et les préjudices actuels.
Le plus frappant était peut-être la ligne de « sécurité existentielle », où les entreprises obtenaient des notes D et F dans tous les domaines. Même si nombre de ces entreprises recherchent explicitement la superintelligence, elles n’ont pas de plan pour la gérer en toute sécurité, selon Max Tegmark, professeur au MIT et président du Way forward for Life Institute.
“Les critiques ont trouvé ce style de discorde”, nous a expliqué Tegmark.
Les évaluateurs en query étaient un panel d’universitaires de l’IA et d’specialists en gouvernance qui ont examiné les paperwork accessibles au public ainsi que les réponses à l’enquête soumises par cinq des huit entreprises.
Anthropic, OpenAI et GoogleDeepMind ont pris les trois premières locations avec une observe globale de C+ ou C. Viennent ensuite, dans l’ordre, Xai, Z.ai, Meta, DeepSeek et Alibaba d’Elon Musk, qui ont tous obtenu un D ou un D-.
Tegmark blâme le manque de réglementation qui fait que la concurrence acharnée de la course à l’IA l’emporte sur les précautions de sécurité. La Californie a récemment adopté la première loi qui oblige les entreprises pionnières de l’IA à divulguer des informations de sécurité concernant les risques catastrophiques, et New York est actuellement également à portée de primary. Les espoirs d’une législation fédérale sont toutefois faibles.
“Les entreprises sont incitées, même si elles ont les meilleures intentions, à toujours lancer de nouveaux produits avant les concurrents, au lieu de consacrer nécessairement beaucoup de temps à les rendre sûrs”, a déclaré Tegmark.
Au lieu des normes imposées par le gouvernement, Tegmark a déclaré que l’industrie avait commencé à prendre plus au sérieux les indices de sécurité régulièrement publiés par le groupe ; Quatre des cinq entreprises américaines répondent désormais à son enquête (Meta est la seule à résister.) Et les entreprises ont apporté quelques améliorations au fil du temps, a déclaré Tegmark, citant comme exemple la transparence de Google concernant sa politique de dénonciation.
Mais les préjudices réels signalés autour de problèmes tels que les suicides d’adolescents que les chatbots auraient encouragés, les interactions inappropriées avec des mineurs et les cyberattaques majeures ont également fait monter les enjeux du débat, a-t-il déclaré.
“[They] « J’ai vraiment fait comprendre à beaucoup de gens que ce n’est pas l’avenir dont nous parlons, c’est celui d’aujourd’hui », a déclaré Tegmark.
Le Way forward for Life Institute a récemment fait appel à des personnalités publiques aussi diverses que le prince Harry et Meghan Markle, l’ancien assistant de Trump Steve Bannon, le cofondateur d’Apple Steve Wozniak et le rappeur Will.i.am pour signer une déclaration s’opposant aux travaux qui pourraient conduire à la superintelligence.
Tegmark a déclaré qu’il aimerait voir quelque selected comme « une FDA pour l’IA où les entreprises doivent d’abord convaincre les specialists que leurs modèles sont sûrs avant de pouvoir les vendre.
“L’industrie de l’IA est tout à fait distinctive en ce sens qu’elle est la seule aux États-Unis à créer une technologie puissante qui est moins réglementée que les sandwichs, voire pas du tout réglementée”, a déclaré Tegmark. “Si quelqu’un dit : ‘Je veux ouvrir une nouvelle sandwicherie près de Occasions Sq.’, avant de pouvoir vendre le premier sandwich, vous avez besoin d’un inspecteur sanitaire pour vérifier votre delicacies et s’assurer qu’elle n’est pas pleine de rats… Si vous dites plutôt : ‘Oh non, je ne vais pas vendre de sandwichs. Je vais juste libérer la superintelligence.’ D’accord ! Pas besoin d’inspecteurs, pas besoin d’obtenir des approbations pour quoi que ce soit.
“La answer à ce problème est donc très évidente”, a ajouté Tegmark. « Il suffit de mettre un terme à cette aide sociale aux entreprises consistant à accorder aux entreprises d’IA des exemptions dont aucune autre entreprise ne bénéficie. »
Ce rapport a été initialement publié par Tech Brew.












