Elle ouvre la voie à des technologies comme les véhicules autonomes, mais en leurrant leur système de vision, on peut aussi transformer ces véhicules en armes… Les risques liés à l’IA sont multiples et spécifiques, et doivent être compris comme tels, ne serait-ce que parce que les systèmes d’IA sont complexes et s’adaptent avec le temps, ce qui les rend plus imprévisibles. Les gouvernements devraient également soutenir la recherche et l’investissement dans des domaines comme l’apprentissage automatique sécurisé, et encourager la coopération internationale en matière de partage de données et de renseignement, afin de mieux comprendre les menaces globales. De la même manière que les nations se sont accordées sur l’énergie nucléaire et les armes biochimiques, nous devons ouvrir la voie à des efforts similaires en matière de supervision de l’IA.
Author: David Rios Insua, Member of the ICMAT, AXA-ICMAT Chair in Adversarial Risk Analysis and Member of the Spanish Royal Academy of Sciences, Instituto de Ciencias Matemáticas (ICMAT-CSIC)
Published at: 2025-11-23 09:47:02
Still want to read the full version? Full article