Gemini e i minori: Google apre l’IA ai bambini sotto i 13 anni

Gemini e i minori: Google apre l’IA ai bambini sotto i 13 anni

Pubblicato il9 maggio 2025 - 08:00

Una novità che apre il dibattito

Il 5 maggio 2025, Google ha annunciato un cambiamento che potrebbe ridefinire il rapporto tra intelligenza artificiale e minori: Gemini, il suo avanzato assistente AI, sarà accessibile anche ai bambini sotto i 13 anni. Naturalmente, l’accesso sarà regolamentato e possibile solo tramite parental control attivi e account supervisionati. È la prima volta che un modello generativo di questa portata viene reso disponibile a un pubblico così giovane, e la notizia — riportata da testate come The Verge, Il Fatto Quotidiano e AINews — sta già suscitando un acceso confronto tra sostenitori ed esperti di tutela dei minori.

Come sarà gestito l’accesso all’IA

Google ha specificato che solo i bambini che utilizzano un account supervisionato tramite Family Link potranno accedere a Gemini. L’iniziativa sarà lanciata inizialmente negli Stati Uniti, in lingua inglese, per poi essere estesa ad altri mercati.

Le caratteristiche chiave includono:

  • Controllo genitoriale attivo: i genitori potranno monitorare e limitare l’utilizzo dell’IA.

  • Accesso tramite app Google o browser: sia su dispositivi Android che iOS.

  • Contenuti e linguaggio adeguati all’età: l’esperienza sarà pensata per essere sicura e costruttiva.

L’obiettivo di Google è offrire uno strumento educativo e creativo, in grado di stimolare la curiosità e favorire l’apprendimento personalizzato.

Opportunità e rischi

Da un punto di vista pedagogico, l’apertura dell’IA ai minori porta con sé molte potenzialità:

  • Supporto nello studio con spiegazioni semplici e immediate.

  • Stimolo alla curiosità scientifica e all’uso consapevole della tecnologia.

  • Familiarizzazione precoce con strumenti digitali complessi, utile per il futuro.

Tuttavia, i timori non mancano, soprattutto in relazione a:

  • Qualità e coerenza delle risposte: l’IA può fornire risposte errate o imprecise.

  • Gestione dei dati sensibili: anche se supervisionato, l’interazione di minori con un sistema AI richiede garanzie elevate di privacy.

  • Sovraesposizione digitale: il rischio di passare troppo tempo davanti a uno schermo resta reale, anche per scopi educativi.

La questione etica e la responsabilità dei brand

Questa apertura solleva interrogativi più ampi su come progettare tecnologie accessibili e sicure per i più piccoli. L’interfaccia conversazionale deve essere trasparente, educativa e soprattutto progettata con criteri etici. Le aziende tech hanno una responsabilità crescente nel costruire ecosistemi digitali a misura di bambino, e questo include:

  • Evitare bias o contenuti fuorvianti.

  • Chiarire in ogni momento che si sta interagendo con un’IA, non con un essere umano.

  • Promuovere l’uso attivo e critico della tecnologia, non una fruizione passiva.

In conclusione: un banco di prova per il futuro

La decisione di Google di estendere Gemini ai bambini under 13 non è solo una novità tecnica, ma un passaggio culturale. È la prova che l’intelligenza artificiale sta diventando mainstream anche tra le fasce d’età più giovani. Ma la vera sfida non è solo rendere l’IA accessibile: è costruirla pensando a inclusione, sicurezza e consapevolezza. Perché innovare davvero significa saper educare.