Поделиться
VK Telegram OK

OpenAI добавляет инструменты с открытым исходным кодом, которые помогают разработчикам обеспечивать безопасность подростков

Искусственный интеллект
AGILog · 2026-03-24 18:41

Во вторник OpenAI сообщила, что выпускает набор подсказок, которые разработчики могут использовать, чтобы сделать свои приложения более безопасными для подростков. Лаборатория искусственного интеллекта заявила, что набор политик безопасности подростков может быть использован с ее моделью безопасности открытого типа, известной как gpt-oss-safeguard .

Вместо того чтобы работать с нуля над тем, как сделать искусственный интеллект более безопасным для подростков, разработчики могут использовать эти подсказки для улучшения того, что они создают. Они затрагивают такие вопросы, как графическое насилие и сексуальный контент, вредные для здоровья представления и поведение, опасные занятия и проблемы, романтические или жестокие ролевые игры, а также товары и услуги, предназначенные для возрастных ограничений.

Эти политики безопасности разработаны в виде подсказок, что делает их легко совместимыми с другими моделями, помимо gpt-oss-safeguard, хотя они, вероятно, наиболее эффективны в рамках собственной экосистемы OpenAI.

При написании этих подсказок OpenAI, по словам разработчиков, сотрудничал с системами контроля безопасности ИИ, Common Sense Media и everyone.ai.

“Эти оперативные политики помогают установить значимый уровень безопасности во всей экосистеме, а поскольку они выпущены с открытым исходным кодом, со временем их можно адаптировать и улучшать”, - сказал Робби Торни, руководитель отдела оценки искусственного интеллекта и цифровых технологий в Common Sense Media.

OpenAI отметила в своем блоге, что разработчикам, в том числе опытным командам, часто трудно воплотить цели безопасности в четкие рабочие правила.

“Это может привести к пробелам в защите, непоследовательному применению или чрезмерно широкой фильтрации”, - написала компания. “Четкие, четко сформулированные правила являются важной основой для эффективных систем безопасности”.

OpenAI признает, что эти правила не являются решением сложных задач, связанных с безопасностью ИИ. Но компания опирается на свои предыдущие усилия, включая меры предосторожности на уровне продукта, такие как родительский контроль и прогнозирование возраста. В прошлом году OpenAI обновил рекомендации для своих крупных языковых моделей, известных как Model Spec, чтобы определить, как их модели искусственного интеллекта должны вести себя с пользователями младше 18 лет.

Однако у OpenAI не самый чистый послужной список. Компания столкнулась с несколькими судебными исками, поданными семьями людей, которые покончили с собой после экстремального использования ChatGPT. Эти опасные отношения часто возникают после того, как пользователь пренебрегает мерами предосторожности чат-бота, и ни одна модель не может быть полностью защищена. Тем не менее, эти правила, по крайней мере, являются шагом вперед, особенно потому, что они могут помочь независимым разработчикам.