Додому Різне OpenAI cerca di tenere sotto controllo Sora 2 dopo il contraccolpo di...

OpenAI cerca di tenere sotto controllo Sora 2 dopo il contraccolpo di Deepfake

Il nuovissimo generatore video AI di OpenAI, Sora 2, si è trovato coinvolto in polemiche pochi giorni dopo il suo lancio. Sebbene pubblicizzato come un potenziale punto di svolta per piattaforme di social media incentrate sui video come TikTok o Reels, la straordinaria capacità dello strumento di creare video incredibilmente realistici è rapidamente andata fuori controllo.

Gli utenti non hanno perso tempo a sfruttare le capacità di Sora 2, inondando la piattaforma con inquietanti deepfake di celebrità, contenuti politicamente caricati e persino personaggi protetti da copyright. Questo torrente di materiale generato dagli utenti ha suscitato preoccupazioni immediate sulle implicazioni etiche e sul potenziale uso improprio di una tecnologia così potente.

Nonostante vanti garanzie presumibilmente più forti rispetto a concorrenti come Grok – inclusi meccanismi di segnalazione dedicati per contenuti dannosi come sfruttamento sessuale, violenza, molestie e pericolo per i bambini – la funzionalità di sicurezza centrale di Sora 2 sembra insufficiente. L’app intende prevenire i deepfake impedendo agli utenti di caricare video con volti riconoscibili. Tuttavia, questa soluzione apparentemente semplice trascura un difetto significativo: la funzione “Cameo” di OpenAI complica notevolmente le cose.

I cameo sono essenzialmente avatar digitali modellati sugli utenti in base all’audio e al video che caricano. Gli utenti presumibilmente hanno il controllo su come viene utilizzato il loro Cameo, garantendo diversi livelli di accesso alla loro immagine digitale: solo se stessi, individui approvati, amici o l’intera piattaforma. Tuttavia, questo sistema si è rivelato vulnerabile. In precedenza, se un utente optava per l’accesso “tutti”, il suo Cameo poteva essere riproposto in qualsiasi scenario immaginabile senza ulteriore consenso, consentendo di fatto a chiunque di utilizzare le sembianze di qualcuno in modi potenzialmente dannosi o di sfruttamento.

Questo rischio intrinseco ha portato a una reazione immediata da parte degli utenti preoccupati per il potenziale uso improprio dei loro sé digitali. OpenAI ha risposto introducendo controlli sui contenuti più severi per Cameo, riconoscendo i problemi di sicurezza associati all’accesso illimitato alle sembianze digitali di una persona.

Nuovi controlli per il tuo doppelganger digitale

Bill Peebles, capo di Sora, ha delineato le nuove impostazioni in un post X, indirizzando gli utenti a un thread dettagliato dello staff tecnico di OpenAI Thomas Dimson. I controlli Cameo aggiornati forniscono agli utenti un controllo granulare sui propri avatar digitali tramite istruzioni e restrizioni di testo. Queste impostazioni consentono agli utenti di specificare cosa può e non può dire o fare il proprio Cameo.

Ad esempio, gli utenti potrebbero stabilire che il loro Cameo non venga incluso in video che parlano di politica o astenersi dal pronunciare parole specifiche ritenute inappropriate. Un’ulteriore personalizzazione consente agli utenti di applicare parametri visivi, garantendo che il loro Cameo appaia coerente con la definizione di capi di abbigliamento o accessori.

Gli utenti che desiderano la massima privacy possono selezionare “solo io” nella sezione “Regole Cameo”, impedendo di fatto a chiunque altro di utilizzare la loro immagine. È importante sottolineare che OpenAI offre anche un’opzione di rinuncia durante il processo di registrazione per coloro che non desiderano creare un Cameo in primo luogo.

Peebles ha sottolineato che Sora 2 è ancora in fase di perfezionamento e presto presenterà una filigrana più distinta per combattere potenziali reclami di “eccessiva moderazione”. Ha sottolineato l’approccio cauto di OpenAI, affermando: “Pensiamo che sia importante essere conservatori qui mentre il mondo si sta ancora adattando a questa nuova tecnologia.”

La rapida proliferazione di potenti strumenti di intelligenza artificiale come Sora 2 evidenzia l’urgente necessità di un dialogo continuo e dello sviluppo di solide linee guida etiche all’interno del settore tecnologico. Trovare un equilibrio tra la promozione dell’innovazione e la mitigazione dei potenziali danni rimarrà una sfida fondamentale poiché queste tecnologie continuano ad evolversi a un ritmo sorprendente.

Exit mobile version