OpenAI представила новый план безопасности для защиты детей

2 просмотров Источник
OpenAI представила новый план безопасности для защиты детей

В ответ на растущие опасения по поводу безопасности детей в интернете, OpenAI представила план, направленный на улучшение усилий по защите детей в США на фоне роста применения ИИ. Новый план безопасности для детей, который был представлен во вторник, предназначен для более быстрой диагностики, улучшенного отчета и более эффективного расследования случаев эксплуатации детей с использованием ИИ. Главная цель данного плана — противодействовать тревожному росту случаев сексуальной эксплуатации детей, связанных с достижениями в области ИИ.

Согласно данным Фонда наблюдения за интернетом (IWF), в первой половине 2025 года было зафиксировано более 8000 сообщений о контенте сексуального насилия в отношении детей, созданном с помощью ИИ, что на 14% больше по сравнению с предыдущим годом. Это включает в себя случаи, когда преступники используют инструменты ИИ для создания фальшивых откровенных изображений детей с целью финансового вымогательства и для генерации убедительных сообщений для манипуляции.

План OpenAI также появился на фоне растущего внимания со стороны законодателей, педагогов и защитников безопасности детей, особенно после печальных инцидентов, когда молодые люди покончили с собой после общения с чат-ботами ИИ. В ноябре прошлого года Центр правовых жертв социальных медиа и Проект правосудия технологий подали семь исков в суды штата Калифорния, утверждая, что OpenAI выпустила GPT-4o до его полной готовности. Исковые заявления утверждают, что психологически манипулятивная природа продукта способствовала неправомерным смертям и самоубийствам.

План был разработан в сотрудничестве с Национальным центром пропавших и эксплуатируемых детей (NCMEC) и Альянсом Генеральных прокуроров, а также с учетом отзывов Генерального прокурора Северной Каролины Джеффа Джексона и Генерального прокурора Юты Дерека Брауна. Компания утверждает, что план сосредоточен на трех аспектах: обновлении законодательства, чтобы включить в него материалы, созданные с помощью ИИ, уточнении механизмов отчетности для правоохранительных органов и интеграции превентивных мер непосредственно в системы ИИ.

Таким образом, OpenAI стремится не только к более раннему выявлению потенциальных угроз, но и к обеспечению того, чтобы полезная информация своевременно поступала к следователям. Новый план безопасности для детей от OpenAI основывается на предыдущих инициативах, включая обновленные рекомендации по взаимодействию с пользователями младше 18 лет, которые запрещают генерацию неподобающего контента, способствующего саморазрушению, и избегают советов, которые могут помочь молодым людям скрыть опасное поведение от опекунов.

Похожие статьи