Расширяем исследования безопасности ИИ с институтом AISI в Великобритании

Источник
Расширяем исследования безопасности ИИ с институтом AISI в Великобритании

Расширяем исследования безопасности ИИ с институтом AISI в Великобритании

Подписано новое соглашение о взаимопонимании, расширяющее сотрудничество с Институтом безопасности ИИ Великобритании (AISI). Это партнерство сосредоточено на фундаментальных исследованиях безопасности для обеспечения безопасного развития и полезного применения искусственного интеллекта.

Основа сотрудничества

ИИ обладает потенциалом значительно улучшить жизнь человечества, помогая в лечении болезней, ускоряя научные открытия, способствуя экономическому росту и решению проблем изменения климата. Для достижения этих преимуществ безопасность и ответственность должны быть неотъемлемой частью развития. Оценка моделей ИИ на предмет различных потенциальных рисков является критически важной частью нашей стратегии безопасности, и внешние партнерства играют в этом ключевую роль.

С момента создания в ноябре 2023 года мы сотрудничаем с AISI для тестирования наших самых передовых моделей. Мы полностью поддерживаем цель AISI — предоставлять правительствам, промышленности и обществу научные данные о рисках, связанных с передовыми ИИ, а также возможные решения и меры по их смягчению.

Мы активно сотрудничаем с AISI для улучшения оценки моделей ИИ, работая над исследованиями безопасности для продвижения в этой области, включая недавние исследования по мониторингу цепочки рассуждений. На основе этого сотрудничества мы теперь расширяем наше партнерство, чтобы включить больше фундаментальных исследований в различных областях.

Детали партнерства

  • Обмен доступом к собственным моделям, данным и идеями для ускорения прогресса исследований
  • Совместные отчеты и публикации для распространения результатов в исследовательском сообществе
  • Совместные исследования по безопасности, объединяющие экспертизу наших команд
  • Технические обсуждения для решения сложных задач безопасности

Ключевые области исследований

Наше сотрудничество с AISI сосредоточено на критически важных областях, где экспертиза Google DeepMind может способствовать созданию более безопасных и защищенных систем ИИ:

  • Мониторинг процессов рассуждения ИИ: Мы разрабатываем методы отслеживания процессов рассуждения ИИ, известных как цепочка рассуждений (CoT). Это дополняет исследования интерпретируемости и улучшает наше понимание того, как системы ИИ генерируют ответы.
  • Понимание социальных и эмоциональных воздействий: Мы исследуем этические последствия социально-эмоционального несоответствия, когда модели ИИ могут не соответствовать благополучию человека, несмотря на правильное выполнение инструкций.
  • Оценка экономических систем: Мы оцениваем влияние ИИ на экономические системы, моделируя задачи в различных средах и прогнозируя такие факторы, как долгосрочное влияние на рынок труда.

Совместные усилия для пользы ИИ

Партнерство с AISI является частью нашей более широкой миссии по использованию преимуществ ИИ для человечества при минимизации рисков. Наша стратегия включает в себя исследования перспектив, комплексное обучение по безопасности, тщательное тестирование моделей и разработку улучшенных инструментов и структур для понимания и смягчения рисков.

Эффективное внутреннее управление является важным для безопасного развития ИИ, наряду с сотрудничеством с внешними экспертами, которые предоставляют новые идеи и разнообразную экспертизу. Совет по ответственности и безопасности Google DeepMind контролирует возникающие риски, проводит этические и безопасностные оценки и внедряет необходимые технические и политические меры. Мы также сотрудничаем с другими внешними экспертами, такими как Apollo Research, Vaultis и Dreadnode, для тщательного тестирования и оценки наших моделей, включая Gemini 3, нашу самую передовую и безопасную модель на сегодняшний день.

Кроме того, Google DeepMind является основателем Frontier Model Forum и Partnership on AI, сосредоточенных на безопасном развитии передовых моделей ИИ и увеличении сотрудничества по ключевым вопросам безопасности.

Мы ожидаем, что расширенное партнерство с AISI приведет к более надежным подходам к безопасности ИИ, принося пользу не только нашим организациям, но и всей индустрии и всем, кто взаимодействует с системами ИИ.

Похожие статьи