Читать нас в Telegram

О планах разрешить генерацию эротики заявил генеральный директор OpenAI Сэм Альтман в сети X. По его словам, это станет частью реализации принципа “обращаться со взрослыми как со взрослыми”, который ляжет в основу новой политики компании. В декабре 2025 OpenAI планирует внедрить систему возрастной верификации, что даст пользователям старше 18 лет расширенные возможности. 

Однако пока компания не раскрывает подробностей о том, как будет проверять возраст или обеспечивать конфиденциальность и безопасность контента 18+. Тем не менее в сентябре OpenAI запустила систему автоматической идентификации: она ограничивает материалы для пользователей младше 18 лет. 

Альтман анонсировал и другие изменения: так, в ChatGPT можно будет настраивать личность ИИ-помощника, делая его более человечным и дружелюбным. 

Почему это важно?

С одной стороны, за этим решением стоит коммерческая логика. Несмотря на то, что OpenAI стала самой дорогой частной (т.е. акции которой не торгуются на фондовой бирже) компанией в мире, она все еще не показывает стабильную прибыль. Разрешение на генерацию взрослого контента позволит расширить аудиторию и увеличить доходы за счет роста подписок.  

С другой стороны, это ответ на потребности пользователей. Все больше людей обращаются к нейросетям как к собеседникам. Согласно британским и американским исследованиям, каждый пятый респондент использовал их как романтических партнеров.

Однако общение с ChatGPT в роли сексуального партнера создает несколько серьезных рисков. 

Во-первых, такой формат усилит психологическую привязанность пользователей к сервису и повысит их доверие к боту. Это может привести к тому, что люди начнут делиться с компанией все более чувствительными личными данными.

Во-вторых, существует опасность злоупотребления технологией. OpenAI потенциально может разрешить генерацию визуального эротического контента. Используя такие генерации как основу, злоумышленники смогут создавать реалистичные дипфейки с лицами реальных людей. Уровень реалистичности современных ИИ-видео и изображений уже достаточен для того, чтобы использовать их в целях мошенничества, шантажа и травли.

И, наконец, общение с ботом, обученным на согласие и поддержку, принципиально отличается от общения с реальными людьми — оно проще и менее многогранно. Это создает риск, что многие люди будут предпочитать «комфортное» общение с ИИ реальным отношениям. В результате число изолированных и социально дезадаптированных людей может увеличиться.