Vai al contenuto

Google cambia le regole: l’IA potrà essere usata per armi e sorveglianza

Armi google

Google, IA e armi, argomento del giorno. Siamo cresciuti con l’idea che Google fosse diverso, che fosse il gigante buono della Silicon Valley. Quello che ti dava risposte prima ancora che finissi la domanda. Quello del “Don’t be evil”, il motto che suonava come una promessa di moralità in un mondo sempre più dominato dalla tecnologia.

Poi, d’un tratto, la retromarcia. E oggi, nel 2025, scopriamo che Google non vuole più porsi limiti. Alphabet, la società madre di Google, ha rimosso una delle sue promesse più importanti: il divieto di utilizzare l’IA per armi e sorveglianza di massa. La regola d’oro è sparita, sostituita da un vago richiamo alla sicurezza nazionale. Come se la protezione del bene comune dovesse passare attraverso un occhio onnipresente e una mano invisibile capace di colpire.

Google cambia le regole sull’uso dell’IA

Secondo un recente articolo del Guardian, Google ha aggiornato i suoi AI Principles, eliminando il riferimento esplicito al divieto di utilizzo dell’intelligenza artificiale per scopi militari o di sorveglianza di massa.

Demis Hassabis, CEO di Google DeepMind, ha giustificato questa scelta affermando che il contesto globale è in continua evoluzione e che la priorità ora è la sicurezza nazionale. L’azienda sostiene che l’IA debba essere sviluppata in collaborazione con governi e organizzazioni che condividono valori di libertà, uguaglianza e rispetto dei diritti umani.

Tuttavia, la modifica delle linee guida solleva più dubbi che certezze. Google, che in passato si presentava con il motto “Don’t be evil”, sembra aver imboccato una direzione ben diversa. Un meme virale riassume il cambiamento con ironia:

“Google 2005: Don’t be evil. Google 2025: Fuck it.”

Cosa è cambiato nei principi dell’IA di Google?

Analizzando le versioni archiviate dei principi di Google tramite archive.org, emergono differenze sostanziali tra le dichiarazioni di gennaio 2025 e le attuali.

Ecco cosa è stato eliminato:

  • Tecnologie che possono causare danni fisici alle persone
  • Armi o tecnologie progettate per ferire
  • Sorveglianza di massa che viola le norme internazionali
  • Strumenti che minano i diritti umani e le leggi globali

Nella versione precedente, Google ammetteva che questa lista potesse evolversi, ma ci si sarebbe aspettati un ampliamento delle restrizioni, non la loro eliminazione.

I nuovi principi di Google AI

L’azienda ha ridefinito le proprie priorità attorno a tre concetti chiave:

  1. Bold Innovation (Innovazione audace)
  2. Sviluppo responsabile
  3. Progresso collaborativo

Sebbene questi valori sembrino positivi, la loro vaghezza lascia ampio spazio a interpretazioni che potrebbero giustificare un uso più aggressivo dell’IA.

L’IA e il rischio di militarizzazione

L’eliminazione delle restrizioni etiche da parte di Google si inserisce in un contesto di guerra tecnologica sempre più evidente. La corsa tra Stati Uniti e Cina per il predominio nell’IA è ormai una realtà, e il concetto di “AI war” non è più fantascienza.

In questo scenario, il pericolo non è solo la possibile creazione di armi autonome, ma anche l’espansione della sorveglianza globale. Un’IA meno regolamentata potrebbe trasformarsi in uno strumento di controllo di massa, mettendo a rischio le libertà individuali e favorendo un aumento del monitoraggio digitale a livello governativo e aziendale.

Un campanello d’allarme che suona troppo tardi

Il cambiamento delle politiche di Google rappresenta un punto di svolta. Non è solo un aggiornamento dei principi aziendali. È un cambio di paradigma. Un segnale che la corsa all’IA sta entrando in una fase nuova e più oscura. Un’epoca in cui la tecnologia smette di essere un supporto e diventa un’arma.

Per anni ci siamo illusi di vivere in una bolla di libertà digitale, credendo che i giganti della Silicon Valley fossero almeno in parte vincolati da principi etici. Ma oggi quei principi vengono archiviati con la stessa nonchalance con cui si aggiorna un algoritmo.

E mentre noi ci affanniamo a leggere l’ultima policy di Google, qualcuno, da qualche parte, sta già addestrando un’intelligenza artificiale a riconoscere volti, prevedere comportamenti e premere il grilletto senza esitazione.