Big tech cancella i limiti etici per lavorare con la Difesa – Ma si tratta di un fenomeno che riguarda Big Tech nel suo complesso: uno dei più importanti competitor di Open Ai, Anthropic, ha annunciato il 5 giugno un modello AI (“Claude Gov”) con regole più blande e permissive per le agenzie di difesa e intelligence USA, che può lavorare con dati sensibili e fornire risposte che la versione tradizionale (“Claude”) non darebbe. Anche Google a febbraio di quest’anno ha rivisto le sue politiche, sbianchettando clausole che vietavano, ad esempio, di impiegare l’IA secondo modalità “che causano o sono suscettibili di causare danni complessivi”, o di sviluppare “armi o altre tecnologie il cui scopo principale o utilizzo concreto è causare o facilitare direttamente danni alle persone”. Mark Zuckerberg si è mosso prima degli altri: a novembre dell’anno scorso Meta annunciò che avrebbe consentito alle agenzie del governo statunitense e ai loro appaltatori di utilizzare il suo modello di intelligenza artificiale “Llama”, nel quadro di una collaborazione estesa anche ad Amazon, Microsoft, IBM, Lockheed Martin e Oracle.
Author: Michelangelo Mecchia
Published at: 2025-06-25 06:18:07
Still want to read the full version? Full article