I modelli linguistici di grandi dimensioni (LLM) stanno diventando l'interfaccia predefinita per la ricerca online, ma una recente ricerca di Netcraft mette in luce un problema di grande rilevanza in termini di sicurezza informatica: quando gli utenti chiedono dove accedere a piattaforme note, l'intelligenza artificiale fornisce spesso URL errati o pericolosi. Questo anche per via della minore presenza di questi marchi nei dati di addestramento degli LLM, che di riflesso aumenta la probabilità di allucinazioni. Un approccio sicuramente originale, anche se ci lascia il sospetto che forse, più che di una rivolta organizzata, si tratti semplicemente del fatto che anche le intelligenze artificiali, proprio come noi, sono soggette a errori grossolani e c'è qualcuno più che pronto a sfruttarli.
Published at: 2025-07-22 06:31:01
Still want to read the full version? Full article