Изучаем, как ИИ влияет на доверие к онлайн-контенту

3 просмотров Источник
Изучаем, как ИИ влияет на доверие к онлайн-контенту

Современные социальные сети полны контента, который заставляет сомневаться в его подлинности. Искусственный интеллект (ИИ) создает глубокие фейки, угрожая доверию к новостям, выборам и брендам.

Сегодня Microsoft представила отчет "Media Integrity and Authentication: Status, Directions, and Futures", который анализирует методы аутентификации контента и их ограничения. Исследование направлено на помощь пользователям в принятии обоснованных решений о потребляемом контенте.

Авторы отчета утверждают, что ни одно решение не может полностью предотвратить цифровое мошенничество. Однако методы, такие как происхождение контента, водяные знаки и цифровые отпечатки, могут предоставить важную информацию о создании и изменениях контента.

Цели и задачи исследования

По словам Джессики Янг, директора по науке и технологии в Microsoft, главная цель отчета - создать дорожную карту для предоставления надежной информации о происхождении контента. Это особенно важно в условиях роста дезинформации и появления новых законов о происхождении медиа.

Проблемы аутентификации

Исследование подчеркивает, что недостаток информации о происхождении и истории контента может привести к обману. Увеличение осведомленности о высококачественных индикаторах контента становится критически важным.

Будущее медиа и технологии

Microsoft активно развивает технологии аутентификации медиа, начиная с 2019 года и сотрудничая с Коалицией за происхождение и подлинность контента (C2PA). Отчет предлагает пути улучшения доверия к медиа через "высокую уверенность в аутентификации".

Несмотря на существующие ограничения, такие как уязвимость традиционных устройств, исследование предлагает новые подходы к повышению надежности индикаторов аутентичности.

Похожие статьи