Новий генератор відео зі штучним інтелектом OpenAI, Sora 2, зіткнувся з негативною реакцією всього через кілька днів після його запуску. Хоча його рекламували як потенційно революційний інструмент для платформ обміну відео, таких як TikTok або Reels, неймовірна здатність інструменту швидко створювати реалістичні відео призвела до непередбачуваних наслідків.
Користувачі негайно почали використовувати можливості Sora 2, заповнивши платформу тривожними дипфейками знаменитостей, політично підтягнутим контентом і навіть захищеними авторським правом персонажами. Потік контенту, створеного користувачами, одразу викликав занепокоєння щодо етичних наслідків і можливого неправильного використання такої потужної технології.
Незважаючи на заяви про сильніший захист, ніж у конкурентів, таких як Grok, включаючи спеціальні механізми звітування про шкідливий вміст, такий як сексуальна експлуатація, насильство, переслідування та загроза дітям, центральна функція безпеки Sora 2 не відповідає вимогам. Додаток спрямований на запобігання глибоким фейкам, блокуючи користувачам можливість завантажувати відео з розпізнаваними обличчями. Однак цей, здавалося б, простий підхід ігнорує істотний недолік: власна функція OpenAI «Cameos» ускладнює ситуацію.
Камео — це, по суті, цифрові аватари, створені з аудіо- та відеовмісту користувачів. Користувачі нібито контролюють використання свого Cameo, надаючи різні рівні доступу до свого цифрового двійника: лише собі, схваленим особам, друзям або всій платформі. Однак ця система виявилася вразливою. Раніше, якщо користувач вибирав доступ «для всіх», його Cameo можна було перенаправляти на будь-який можливий сценарій без додаткової згоди, фактично дозволяючи будь-кому використовувати чуже зображення для потенційно шкідливих або експлуатаційних цілей.
Цей невід’ємний ризик одразу викликав критику з боку користувачів, стурбованих можливістю неправомірного використання їхніх цифрових зображень. OpenAI відповів посиленням контролю для Cameos, визнаючи проблеми безпеки, пов’язані з необмеженим доступом до цифрового зображення людини.
Нові налаштування для вашого Digital Twin
Білл Піблз, голова Sora, окреслив нові налаштування в дописі на X, вказуючи користувачам на докладний коментар технічного спеціаліста OpenAI Томаса Дісона. Оновлені налаштування Cameo дозволяють користувачам точно налаштовувати свої цифрові аватари за допомогою текстових підказок і обмежень.
Ці параметри дозволяють користувачам визначати, що їхній Cameo може, а що не може робити чи говорити.
Наприклад, користувач може вказати, що його Cameo не буде включено у відео про політику або не вимовляти певні слова, які він вважає недоречними. Подальше налаштування дозволяє встановлювати візуальні параметри, забезпечуючи незмінне відображення Cameo з певним одягом або аксесуарами.
Користувачі, які бажають отримати максимальну конфіденційність, можуть вибрати «Тільки я» в розділі «Правила Cameo», фактично запобігаючи будь-якому іншому користувачеві використовувати їх зображення. Важливо зазначити, що OpenAI також пропонує можливість відмови від Cameo на етапі реєстрації для тих, хто взагалі не хоче його створювати.
Піблз підкреслив, що Sora 2 все ще перебуває в стадії розробки і незабаром матиме більш чіткий водяний знак для боротьби зі скаргами на «надмірну модерацію». Він підкреслив обережний підхід OpenAI: «Ми вважаємо, що важливо бути консервативними в цій сфері, поки світ звикає до цієї нової технології».
Швидке поширення потужних інструментів штучного інтелекту, таких як Sora 2, підкреслює нагальну потребу в постійному діалозі та розробці жорстких етичних стандартів в ІТ-індустрії. Пошук балансу між сприянням інноваціям і пом’якшенням потенційної шкоди залишатиметься критичним викликом, оскільки ці технології продовжують розвиватися неймовірними темпами.


































