I bambini di oggi sono la prima generazione di nativi digitali che cresce con l’Intelligenza Artificiale.
I bambini sono utenti assidui di strumenti digitali, inclusa l’intelligenza artificiale (IA). L’IA generativa – ossia quella capace di creare nuovi contenuti come testi, immagini, video e musica – sta diventando sempre più sofisticata, rendendo difficile distinguere i contenuti generati dagli utenti da quelli prodotti dall’IA. Se non adeguatamente supervisionati, questi strumenti possono rappresentare dei rischi per i bambini, le cui capacità cognitive sono ancora in fase di sviluppo. Pertanto, diventa sempre più cruciale rafforzare l’alfabetizzazione all’IA generativa per bambini, educatori e genitori, oltre a intensificare gli sforzi del settore e migliorare l’attuazione della legislazione sull’IA, inclusi indicatori di monitoraggio.
La maggior parte dei bambini nell’Unione Europea utilizza quotidianamente lo smartphone, iniziando a farlo da un’età molto più precoce rispetto a dieci anni fa. Tuttavia, spesso gli ambienti online a cui accedono non sono stati progettati appositamente per loro. Alcuni Paesi, come l’Australia, hanno introdotto leggi per impedire ai minori di 16 anni di usare i social media. Nonostante ciò, i bambini trovano spesso il modo di aggirare i requisiti di età imposti da queste piattaforme.
Allo stesso modo, i bambini utilizzano già l’IA integrata in app, giocattoli, assistenti virtuali, videogiochi e software educativi. Un’indagine del 2024 condotta nel Regno Unito ha rivelato che il 77,1% dei ragazzi tra i 13 e i 18 anni ha utilizzato l’IA generativa, risultando il doppio più propensi rispetto agli adulti. L’uso più comune riguarda l’assistenza nei compiti scolastici e la ricerca di intrattenimento. Il Regno Unito, attraverso il suo piano d’azione per le opportunità dell’IA, promuove l’uso dell’IA nelle scuole, purché avvenga sotto supervisione.
Come per altre tecnologie digitali, gli strumenti di IA più popolari non adottano misure specifiche per adattare le loro funzionalità agli utenti minorenni, fatta eccezione per l’imposizione di un’età minima. Ad esempio, Anthropic, sviluppatore di Claude, vieta l’uso ai minori di 18 anni. ChatGPT richiede il consenso dei genitori per gli utenti tra i 13 e i 18 anni. Google ha recentemente modificato il chatbot Gemini, abbassando il limite minimo di età da 18 a 13 anni (solo per account studenteschi) e implementando misure di protezione aggiuntive, come l’esclusione dei dati di questi giovani utenti dalla fase di addestramento del modello di IA. Anche il Brasile ha adottato una misura simile, vietando alla piattaforma social X di utilizzare i dati personali dei bambini per l’addestramento della sua IA.
L’intelligenza artificiale generativa può offrire numerosi benefici, ad esempio integrando strumenti basati sull’IA nell’educazione. Può aiutare i bambini a sviluppare curiosità e innovazione, incoraggiandoli a porre domande, sperimentare e trovare soluzioni a problemi reali. Inoltre, l’integrazione dell’IA nell’istruzione potrebbe migliorare l’accessibilità per studenti con disabilità, supportando esigenze di apprendimento diversificate.
Ma senza correttivi adeguati l’IA generativa potrebbe interferire con l’apprendimento e lo sviluppo scolastico dei bambini. L’UNICEF sottolinea che l’interazione con l’IA ha implicazioni sia fisiologiche che psicologiche.
Uno dei problemi principali è la crescente difficoltà nel distinguere i contenuti reali da quelli generati dall’IA. I bambini sono particolarmente vulnerabili ai contenuti come i deepfake, e a causa delle loro capacità cognitive ancora in sviluppo, possono essere manipolati più facilmente. Uno studio del Massachusetts Institute of Technology Media Lab ha mostrato che i bambini di 7 anni tendono ad attribuire emozioni e personalità reali agli agenti di IA.
Inoltre, l’IA generativa può essere utilizzata per scopi malevoli nei confronti dei minori, come il cyberbullismo o l’adescamento online. L’aumento degli abusi sessuali sui minori attraverso contenuti generati dall’IA rappresenta già una sfida crescente per le forze dell’ordine. Il Global Risks Report 2024 del World Economic Forum classifica la disinformazione come il rischio più grave nei prossimi due anni, un fenomeno destinato ad aumentare con la diffusione di contenuti sintetici. In un sondaggio, persino esperti linguisti hanno erroneamente identificato il 62% dei contenuti generati dall’IA come reali.
Esistono preoccupazioni poi sulle conseguenze dell’apprendimento assistito dall’IA sulle capacità di ricerca, scrittura e argomentazione degli studenti. La capacità dell’IA generativa di analizzare dati e automatizzare processi potrebbe ridurre le capacità cognitive degli studenti, in particolare il pensiero critico e la risoluzione dei problemi. Tuttavia, alcune ricerche suggeriscono che integrare l’IA negli strumenti educativi possa potenziare il pensiero critico, aiutando gli studenti a sviluppare competenze analitiche necessarie per un futuro sempre più tecnologico.
L’Unione Europea si impegna a garantire i diritti online dei bambini. Il Digital Services Act (DSA) impone alle piattaforme digitali di dare priorità alla sicurezza e alla privacy dei minori, proteggendoli da contenuti illegali. Tra le misure previste vi sono la verifica dell’età e il divieto di mostrare pubblicità basata sulla profilazione dei minori. La strategia Better Internet for Kids (BIK+) mira a potenziare l’alfabetizzazione digitale, fornire materiali informativi e risorse educative, e creare un ambiente internet più sicuro per i giovani. Tuttavia, né la raccomandazione del Consiglio sulle competenze chiave per l’apprendimento permanente (aggiornata l’ultima volta nel 2018) né il programma Digital Decade 2030 includono l’alfabetizzazione all’IA come competenza specifica, e solo pochi Stati membri hanno introdotto competenze in materia di IA nei loro programmi scolastici. Le linee guida etiche della Commissione Europea sull’uso dell’IA e dei dati nell’insegnamento sono concepite come uno strumento di supporto per gli educatori.
L’UE ha recentemente adottato l’AI Act, la prima legge al mondo che disciplina in modo completo l’intelligenza artificiale. Il regolamento stabilisce norme uniformi per creare un mercato unico per applicazioni di IA affidabili, garantendo il pieno rispetto dei diritti fondamentali, inclusi quelli dei bambini. È già entrato in vigore e sarà applicato integralmente dal 2 agosto 2027. L’atto classifica i sistemi di IA come “ad alto rischio” in alcuni ambiti dell’istruzione, come l’accesso e l’ammissione ai percorsi educativi, la valutazione degli apprendimenti e il rilevamento di comportamenti proibiti degli studenti. Alcune disposizioni generali andranno a beneficio dei bambini, tra cui l’obbligo di contrassegnare con filigrana i deepfake e altri materiali generati dall’IA e di informare i minori quando interagiscono con un’intelligenza artificiale.
Foto di Gerd Altmann da Pixabay.com