13 октября в Калифорнии подписали новый закон SB 243, который устанавливает правила для разработчиков «компаньон-ботов» — ИИ, имитирующих диалог с человеком.
Согласно закону, если пользователь может принять бота за человека, система обязана выдать «ясное и заметное» уведомление, что это искусственный интеллект.
По тому же закону с 2026 года разработчики должны будут отчитываться о том, как их ИИ реагирует на сообщения о суицидальных мыслях. Эти отчеты будут публиковаться на сайте офиса по предотвращению самоубийств.
Почему это важно?
ИИ-компаньоны становятся все более реалистичными. Многие пользователи воспринимают таких ботов как настоящих собеседников, делятся личными данными или просят поддержки в кризисных ситуациях.
Принятый в Калифорнии закон — одна из первых попыток регулировать это направление, обозначить рамки безопасности и сделать взаимодействие с ИИ более прозрачным. Он также может повлиять на мировые практики: разработчики ИИ-систем для глобального рынка базируются в США и будут вынуждены учитывать эти ограничения.