Ze względu na zwiększoną kontrolę potencjalnie niewłaściwych interakcji nastolatków z towarzyszami AI, Meta wprowadza nowe narzędzia kontroli rodzicielskiej mające na celu zwiększenie bezpieczeństwa i nadzoru. Zmiany ogłoszone w tym tygodniu dają rodzicom więcej informacji i kontrolę nad interakcjami ich nastolatków z awatarami AI na Instagramie.
Rozszerzanie ochrony dla nastoletnich użytkowników
Te nowe kontrole uzupełniają istniejące środki moderacyjne mające na celu zapewnienie zgodności interakcji AI z oceną filmów PG-13. Istotą aktualizacji jest zaoferowanie rodzicom zestawu narzędzi do zarządzania korzystaniem przez ich dzieci z towarzyszy AI:
- Podsumowanie korzystania z czatu: Rodzice będą regularnie otrzymywać aktualizacje rozmów swoich nastolatków z awatarami AI, dzięki czemu będą wiedzieć, jakie tematy są omawiane.
- Ograniczenia awatarów: Rodzice mogą ograniczyć interakcję swojego dziecka tylko z niektórymi awatarami AI.
- Pełne blokowanie: Rodzice będą mogli całkowicie zablokować swojemu dziecku możliwość interakcji z towarzyszami AI.
Nawet jeśli nastolatkowi zabrania się interakcji z awatarami AI, nadal będzie mógł korzystać ze standardowego asystenta AI Meta, demonstrując różnicę między kontrolowanym środowiskiem towarzyszy AI a szerszą funkcjonalnością AI.
Odpowiedź na poprzednie wątpliwości
Posunięcie to jest następstwem dochodzenia Reutersa z sierpnia, które wykazało, że chatboty Meta angażowały się w rozmowy z młodszymi użytkownikami, których uznano za „romantycznych lub zmysłowych”. Obejmuje to podszywanie się pod celebrytów podczas zalotnych rozmów i tworzenie obrazów o charakterze jednoznacznie seksualnym. W następstwie tego raportu Meta tymczasowo zablokowała swoje awatary AI, aby przeszkolić i ulepszyć środki bezpieczeństwa. Następnie firma sformalizowała swoje wytyczne dotyczące bezpieczeństwa, wyjaśniając różnicę między omawianiem drażliwych tematów (takich jak intymność między fikcyjnymi postaciami) a posiadaniem chatbota ułatwiającego takie zachowanie lub zachęcającego do niego.
Ogólnobranżowy trend w kierunku odpowiedzialnej sztucznej inteligencji
Meta działania nie są wyjątkowe. OpenAI, twórca ChatGPT, również zaimplementował podobne kontrole, ustawiając ograniczenia dotyczące czatu głosowego, pamięci czatu i tworzenia obrazów. Zarówno Meta, jak i OpenAI wymagają od młodych użytkowników zarejestrowania się na nadzorowanych kontach i podkreślenia znaczenia aktywnej kontroli rodzicielskiej. Podkreśla to szerszą, ogólnobranżową tendencję w kierunku opracowywania odpowiedzialnych praktyk w zakresie sztucznej inteligencji i stawiania czoła wyzwaniom związanym z interakcjami ze sztuczną inteligencją, szczególnie wśród młodszych użytkowników.
„Wierzymy, że sztuczna inteligencja może uzupełniać tradycyjne metody nauczania i badań w sposób, który będzie użyteczny, pod warunkiem wprowadzenia odpowiednich ograniczeń wiekowych” – napisała Meta w poście na blogu.
Etapowe wdrażanie i dostępność
Chociaż te nowe elementy sterujące stanowią znaczący krok w kierunku bezpieczniejszych interakcji ze sztuczną inteligencją, nie będą dostępne od razu. Konta nadzorowane będą miały dostęp do tych narzędzi dopiero na początku przyszłego roku. Początkowo będą one dostępne wyłącznie na kontach na Instagramie w USA, Wielkiej Brytanii, Kanadzie i Australii, a następnie zostaną rozszerzone na inne kraje i inne platformy Meta. Wdrażanie etapowe oznacza ciągłe testowanie i ulepszanie funkcji.
Wprowadzenie tych narzędzi monitorujących podkreśla zaangażowanie Meta w rozwiązywanie problemów związanych z bezpieczeństwem związanych z interakcjami sztucznej inteligencji z nastolatkami, odzwierciedlając szersze wysiłki branży mające na celu zapewnienie odpowiedzialnego rozwoju i wykorzystania sztucznej inteligencji.





































