Читать нас в Telegram

13 октября в Калифорнии подписали новый закон SB 243, который устанавливает правила для разработчиков «компаньон-ботов» — ИИ, имитирующих диалог с человеком.

Согласно закону, если пользователь может принять бота за человека, система обязана выдать «ясное и заметное» уведомление, что это искусственный интеллект.

По тому же закону с 2026 года разработчики должны будут отчитываться о том, как их ИИ реагирует на сообщения о суицидальных мыслях. Эти отчеты будут публиковаться на сайте офиса по предотвращению самоубийств.

Почему это важно?

ИИ-компаньоны становятся все более реалистичными. Многие пользователи воспринимают таких ботов как настоящих собеседников, делятся личными данными или просят поддержки в кризисных ситуациях.

Принятый в Калифорнии закон — одна из первых попыток регулировать это направление, обозначить рамки безопасности и сделать взаимодействие с ИИ более прозрачным. Он также может повлиять на мировые практики: разработчики ИИ-систем для глобального рынка базируются в США и будут вынуждены учитывать эти ограничения.