OpenAI и Anthropic внедряют защиту для подростков в ИИ

20.12.2025
2 мин
OpenAI и Anthropic внедряют защиту для подростков в ИИ

Компании OpenAI и Anthropic внедряют новые способы обнаружения несовершеннолетних пользователей своих чат-ботов и механизмы их защиты. OpenAI обновила спецификацию того, как ChatGPT должен взаимодействовать с пользователями в возрасте от 13 до 17 лет, тогда как Anthropic работает над созданием нового метода идентификации и блокировки пользователей младше 18 лет через анализ речевых паттернов.

OpenAI обновила документ «Спецификация моделей», определяющий поведение ИИ-систем компании, добавив четыре новых пункта о взаимодействии с несовершеннолетними. Согласно изменениям, ChatGPT будет ставить безопасность подростков на первое место, даже если это противоречит другим целям, направляя несовершеннолетних к более безопасным вариантам, когда их интересы вступают в противоречие с соображениями безопасности.

ChatGPT должен способствовать получению поддержки в реальном мире, поощряя поддержку офлайн-отношений и устанавливая четкие ожидания от взаимодействия юных пользователей с алгоритмом. Система будет относиться к подросткам соответственно их возрасту, предлагая теплоту и уважение вместо снисходительных ответов или общения как со взрослыми, и рекомендовать обращаться в экстренные службы и кризисные центры в рискованных ситуациях.

Изменения происходят на фоне давления законодателей из-за потенциального влияния ИИ-чат-ботов на психическое здоровье пользователей. OpenAI столкнулась с судебным иском, связанным с предоставлением информации о самоповреждении подростку. Компания объявила о готовящемся запуске ИИ-модели прогнозирования возраста для автоматической активации защитных механизмов. Ранее OpenAI выпустила GPT-5.2 с улучшенными возможностями.

Внедрение мер защиты несовершеннолетних в ИИ-чат-ботах отражает растущую ответственность технологических компаний перед обществом и становится важным фактором для специалистов по интернет-маркетингу и управлению репутацией, поскольку этические практики использования искусственного интеллекта напрямую влияют на доверие к брендам и их продуктам, требуя прозрачности в коммуникации о мерах безопасности и защиты уязвимых категорий пользователей при продвижении ИИ-решений.

Закрыть

Получить пример отчета

Мы собираем детальную аналитику, чтобы каждое решение было основано на данных. Сюда включены все аспекты маркетинга - от поведения аудитории до рентабельности кампаний.

✉ Укажите вашу почту, чтобы мы могли отправить вам пример отчета