OpenAI и Anthropic внедряют защиту для подростков в ИИ
Компании OpenAI и Anthropic внедряют новые способы обнаружения несовершеннолетних пользователей своих чат-ботов и механизмы их защиты. OpenAI обновила спецификацию того, как ChatGPT должен взаимодействовать с пользователями в возрасте от 13 до 17 лет, тогда как Anthropic работает над созданием нового метода идентификации и блокировки пользователей младше 18 лет через анализ речевых паттернов.
OpenAI обновила документ «Спецификация моделей», определяющий поведение ИИ-систем компании, добавив четыре новых пункта о взаимодействии с несовершеннолетними. Согласно изменениям, ChatGPT будет ставить безопасность подростков на первое место, даже если это противоречит другим целям, направляя несовершеннолетних к более безопасным вариантам, когда их интересы вступают в противоречие с соображениями безопасности.
ChatGPT должен способствовать получению поддержки в реальном мире, поощряя поддержку офлайн-отношений и устанавливая четкие ожидания от взаимодействия юных пользователей с алгоритмом. Система будет относиться к подросткам соответственно их возрасту, предлагая теплоту и уважение вместо снисходительных ответов или общения как со взрослыми, и рекомендовать обращаться в экстренные службы и кризисные центры в рискованных ситуациях.
Изменения происходят на фоне давления законодателей из-за потенциального влияния ИИ-чат-ботов на психическое здоровье пользователей. OpenAI столкнулась с судебным иском, связанным с предоставлением информации о самоповреждении подростку. Компания объявила о готовящемся запуске ИИ-модели прогнозирования возраста для автоматической активации защитных механизмов. Ранее OpenAI выпустила GPT-5.2 с улучшенными возможностями.
Внедрение мер защиты несовершеннолетних в ИИ-чат-ботах отражает растущую ответственность технологических компаний перед обществом и становится важным фактором для специалистов по интернет-маркетингу и управлению репутацией, поскольку этические практики использования искусственного интеллекта напрямую влияют на доверие к брендам и их продуктам, требуя прозрачности в коммуникации о мерах безопасности и защиты уязвимых категорий пользователей при продвижении ИИ-решений.