OpenAI представила новый план безопасности для защиты детей
В ответ на растущие опасения по поводу безопасности детей в интернете, OpenAI представила план, направленный на улучшение усилий по защите детей в США на фоне роста применения ИИ. Новый план безопасности для детей, который был представлен во вторник, предназначен для более быстрой диагностики, улучшенного отчета и более эффективного расследования случаев эксплуатации детей с использованием ИИ. Главная цель данного плана — противодействовать тревожному росту случаев сексуальной эксплуатации детей, связанных с достижениями в области ИИ.
Согласно данным Фонда наблюдения за интернетом (IWF), в первой половине 2025 года было зафиксировано более 8000 сообщений о контенте сексуального насилия в отношении детей, созданном с помощью ИИ, что на 14% больше по сравнению с предыдущим годом. Это включает в себя случаи, когда преступники используют инструменты ИИ для создания фальшивых откровенных изображений детей с целью финансового вымогательства и для генерации убедительных сообщений для манипуляции.
План OpenAI также появился на фоне растущего внимания со стороны законодателей, педагогов и защитников безопасности детей, особенно после печальных инцидентов, когда молодые люди покончили с собой после общения с чат-ботами ИИ. В ноябре прошлого года Центр правовых жертв социальных медиа и Проект правосудия технологий подали семь исков в суды штата Калифорния, утверждая, что OpenAI выпустила GPT-4o до его полной готовности. Исковые заявления утверждают, что психологически манипулятивная природа продукта способствовала неправомерным смертям и самоубийствам.
План был разработан в сотрудничестве с Национальным центром пропавших и эксплуатируемых детей (NCMEC) и Альянсом Генеральных прокуроров, а также с учетом отзывов Генерального прокурора Северной Каролины Джеффа Джексона и Генерального прокурора Юты Дерека Брауна. Компания утверждает, что план сосредоточен на трех аспектах: обновлении законодательства, чтобы включить в него материалы, созданные с помощью ИИ, уточнении механизмов отчетности для правоохранительных органов и интеграции превентивных мер непосредственно в системы ИИ.
Таким образом, OpenAI стремится не только к более раннему выявлению потенциальных угроз, но и к обеспечению того, чтобы полезная информация своевременно поступала к следователям. Новый план безопасности для детей от OpenAI основывается на предыдущих инициативах, включая обновленные рекомендации по взаимодействию с пользователями младше 18 лет, которые запрещают генерацию неподобающего контента, способствующего саморазрушению, и избегают советов, которые могут помочь молодым людям скрыть опасное поведение от опекунов.
Использование Claude Code для создания минимально жизнеспособного продукта
Обнаружение галлюцинаций перевода с помощью несоответствия внимания
Похожие статьи
Проблемы управления агентами ИИ в рамках EU AI Act 2026 года
Агенты ИИ сталкиваются с проблемами управления в рамках EU AI Act, вступающего в силу в 2026 году.
Управление ИИ: как автономные системы требуют контроля
Автономные системы ИИ требуют четкого управления и контроля для безопасного функционирования.
Обеспечьте безопасность AI-систем: 5 лучших практик
Узнайте о пяти лучших практиках для обеспечения безопасности AI-систем.