Avec l'effacement progressif de la vérification effectuée par des journalistes sur les plateformes comme Facebook, de plus en plus d'internautes se tournent vers des outils d'IA comme Grok pour trouver des informations fiables, mais les réponses obtenues les exposent parfois à de la désinformation. Selon l'étude publiée mardi du Digital Forensic Research Lab (DFRLab) de l'Atlantic Council, un cercle de réflexion américain, « les performances de Grok pendant les premiers jours du conflit entre Israël et l'Iran ont révélé des défauts significatifs et montré les limites du chatbot à fournir de l'information précise, fiable et cohérente en temps de crise ». Par exemple, après des frappes de représailles de l'Iran en Israël, Grok a proposé des réponses très différentes à des instructions similaires au sujet d'images générées par l'IA d'un aéroport détruit, qui avaient amassé des millions de vues sur X : elles oscillaient, parfois dans la même minute, entre démentir la destruction de l'aéroport et confirmé qu'il avait été touché par des frappes.
Author: La rédaction avec AFP
Published at: 2025-06-25 15:37:00
Still want to read the full version? Full article