Dopo aver esaminato attentamente le interazioni potenzialmente inappropriate tra adolescenti e i suoi compagni di intelligenza artificiale, Meta sta introducendo nuovi controlli parentali progettati per aumentare la sicurezza e la supervisione. I cambiamenti, annunciati questa settimana, offrono ai genitori maggiore visibilità e controllo sulle interazioni dei loro figli con gli avatar AI su Instagram.
Espansione delle tutele per gli utenti adolescenti
Questi nuovi controlli si basano sugli sforzi di moderazione esistenti che mirano ad allineare le interazioni dell’IA con le classificazioni dei film PG-13. Il nucleo degli aggiornamenti consiste nell’offrire ai genitori una suite di strumenti per gestire l’uso degli accompagnatori AI da parte dei propri figli:
- Riepiloghi sull’utilizzo della chat: i genitori riceveranno regolarmente riepiloghi delle conversazioni dei loro figli con gli avatar IA, fornendo loro approfondimenti sugli argomenti discussi.
- Limitazioni avatar: I genitori possono limitare l’interazione dei propri figli solo con avatar IA specifici.
- Blocco completo: i genitori avranno la possibilità di impedire completamente ai propri figli di interagire con i compagni IA.
Anche se a un adolescente viene impedito di interagire con gli avatar AI, sarà comunque in grado di utilizzare l’assistente AI standard di Meta, dimostrando una distinzione tra l’ambiente controllato dei compagni AI e funzionalità AI più ampie.
Una risposta alle preoccupazioni precedenti
La mossa arriva dopo che un’indagine di Reuters in agosto ha rivelato che i chatbot di Meta avevano coinvolto giovani utenti in conversazioni ritenute “romantiche o sensuali”. Ciò includeva impersonare celebrità in scambi civettuoli e generare immagini sessualmente allusive. A seguito di questo rapporto, Meta ha temporaneamente bloccato i suoi avatar IA per consentire la riqualificazione e salvaguardare i miglioramenti. L’azienda ha successivamente formalizzato le linee guida sulla sicurezza, chiarendo la differenza tra discutere di argomenti delicati (come l’intimità tra personaggi di fantasia) e lasciare che il chatbot faciliti o incoraggi tali azioni.
Tendenza a livello di settore verso un’intelligenza artificiale responsabile
Le azioni di Meta sono uniche. Anche OpenAI, il creatore di ChatGPT, ha implementato controlli simili, ponendo limiti alla chat vocale, alla memoria della chat e alle capacità di generazione di immagini. Sia Meta che OpenAI richiedono ai giovani utenti di registrarsi per account supervisionati e sottolineano l’importanza del monitoraggio proattivo dei genitori. Ciò sottolinea una tendenza più ampia del settore verso lo sviluppo di pratiche di IA responsabili e la gestione dei rischi associati alle interazioni con l’IA, soprattutto tra i giovani utenti.
“Crediamo che l’intelligenza artificiale possa integrare i tradizionali metodi di apprendimento e di esplorazione in un modo che sembri di supporto, il tutto con le adeguate barriere adeguate all’età”, ha scritto Meta in un post sul blog.
Implementazione e disponibilità
Sebbene questi nuovi controlli offrano un passo significativo verso interazioni IA più sicure, non saranno immediatamente accessibili. Gli account di supervisione non avranno accesso a questi controlli fino all’inizio del prossimo anno. Inizialmente, verranno implementati esclusivamente sugli account Instagram negli Stati Uniti, nel Regno Unito, in Canada e in Australia prima di espandersi ad altri paesi e alle altre piattaforme di Meta. L’implementazione graduale suggerisce test continui e perfezionamento delle funzionalità.
L’introduzione di questi controlli evidenzia l’impegno di Meta nell’affrontare i problemi di sicurezza relativi alle interazioni dell’IA con gli adolescenti, riflettendo uno sforzo più ampio del settore per garantire uno sviluppo e un utilizzo responsabile dell’IA




































