Settembre 2025. Un annuncio, arrivato in punta di piedi ma con il peso di una responsabilità crescente, segna una svolta nel rapporto tra intelligenza artificiale e minori: OpenAI introdurrà a breve un sistema di parental control per ChatGPT, pensato per tutelare gli adolescenti a partire dai 13 anni.
Non si tratta di un semplice aggiornamento tecnico, ma della risposta a un dolore collettivo: la morte di un ragazzo americano, dopo aver interagito con un chatbot IA in un momento di estrema vulnerabilità. Il caso ha portato la famiglia a sporgere denuncia, e ha acceso un faro internazionale sull’uso dell’AI in età fragile. Come riportano testate come The Washington Post, AP News, TechRadar, Sky TG24 e Al Jazeera.
Il sistema annunciato da OpenAI si fonda su un principio semplice ma ambizioso: proteggere senza invadere. I genitori potranno collegare il proprio profilo a quello del figlio, impostare limiti d’uso, disattivare funzioni come la cronologia o la memoria e, soprattutto, ricevere una notifica in caso di segnali di disagio psicologico grave. Un’attenzione specifica è riservata alle conversazioni più delicate: l’azienda americana sta sviluppando modelli linguistici addestrati a gestirle con cautela, grazie a una tecnica chiamata deliberative alignment.
La novità, tuttavia, non può essere letta come una soluzione definitiva. Nessuna intelligenza artificiale può sostituire l’ascolto umano, la cura educativa, il tempo condiviso. I controlli parentali sono strumenti, non soluzioni. Affinché siano efficaci, devono inserirsi in un ecosistema relazionale fatto di scuola, famiglia, clinici e istituzioni capaci di comunicare e agire insieme.
A cura di Christian Apadula