Расширяем исследования безопасности ИИ с институтом AISI в Великобритании
Расширяем исследования безопасности ИИ с институтом AISI в Великобритании
Подписано новое соглашение о взаимопонимании, расширяющее сотрудничество с Институтом безопасности ИИ Великобритании (AISI). Это партнерство сосредоточено на фундаментальных исследованиях безопасности для обеспечения безопасного развития и полезного применения искусственного интеллекта.
Основа сотрудничества
ИИ обладает потенциалом значительно улучшить жизнь человечества, помогая в лечении болезней, ускоряя научные открытия, способствуя экономическому росту и решению проблем изменения климата. Для достижения этих преимуществ безопасность и ответственность должны быть неотъемлемой частью развития. Оценка моделей ИИ на предмет различных потенциальных рисков является критически важной частью нашей стратегии безопасности, и внешние партнерства играют в этом ключевую роль.
С момента создания в ноябре 2023 года мы сотрудничаем с AISI для тестирования наших самых передовых моделей. Мы полностью поддерживаем цель AISI — предоставлять правительствам, промышленности и обществу научные данные о рисках, связанных с передовыми ИИ, а также возможные решения и меры по их смягчению.
Мы активно сотрудничаем с AISI для улучшения оценки моделей ИИ, работая над исследованиями безопасности для продвижения в этой области, включая недавние исследования по мониторингу цепочки рассуждений. На основе этого сотрудничества мы теперь расширяем наше партнерство, чтобы включить больше фундаментальных исследований в различных областях.
Детали партнерства
- Обмен доступом к собственным моделям, данным и идеями для ускорения прогресса исследований
- Совместные отчеты и публикации для распространения результатов в исследовательском сообществе
- Совместные исследования по безопасности, объединяющие экспертизу наших команд
- Технические обсуждения для решения сложных задач безопасности
Ключевые области исследований
Наше сотрудничество с AISI сосредоточено на критически важных областях, где экспертиза Google DeepMind может способствовать созданию более безопасных и защищенных систем ИИ:
- Мониторинг процессов рассуждения ИИ: Мы разрабатываем методы отслеживания процессов рассуждения ИИ, известных как цепочка рассуждений (CoT). Это дополняет исследования интерпретируемости и улучшает наше понимание того, как системы ИИ генерируют ответы.
- Понимание социальных и эмоциональных воздействий: Мы исследуем этические последствия социально-эмоционального несоответствия, когда модели ИИ могут не соответствовать благополучию человека, несмотря на правильное выполнение инструкций.
- Оценка экономических систем: Мы оцениваем влияние ИИ на экономические системы, моделируя задачи в различных средах и прогнозируя такие факторы, как долгосрочное влияние на рынок труда.
Совместные усилия для пользы ИИ
Партнерство с AISI является частью нашей более широкой миссии по использованию преимуществ ИИ для человечества при минимизации рисков. Наша стратегия включает в себя исследования перспектив, комплексное обучение по безопасности, тщательное тестирование моделей и разработку улучшенных инструментов и структур для понимания и смягчения рисков.
Эффективное внутреннее управление является важным для безопасного развития ИИ, наряду с сотрудничеством с внешними экспертами, которые предоставляют новые идеи и разнообразную экспертизу. Совет по ответственности и безопасности Google DeepMind контролирует возникающие риски, проводит этические и безопасностные оценки и внедряет необходимые технические и политические меры. Мы также сотрудничаем с другими внешними экспертами, такими как Apollo Research, Vaultis и Dreadnode, для тщательного тестирования и оценки наших моделей, включая Gemini 3, нашу самую передовую и безопасную модель на сегодняшний день.
Кроме того, Google DeepMind является основателем Frontier Model Forum и Partnership on AI, сосредоточенных на безопасном развитии передовых моделей ИИ и увеличении сотрудничества по ключевым вопросам безопасности.
Мы ожидаем, что расширенное партнерство с AISI приведет к более надежным подходам к безопасности ИИ, принося пользу не только нашим организациям, но и всей индустрии и всем, кто взаимодействует с системами ИИ.
Похожие статьи
Gemini Deep Think трансформирует научные исследования в 2026 году
Gemini Deep Think революционизирует научные исследования в 2026 году, решая задачи в математике, физике и компьютерных науках. Узнайте больше!