Исследование: Военные дипфейки заставляют людей сомневаться в реальности
Сотрудники Университетского колледжа Корка в Ирландии провели исследование военных дипфейков. Для этого они проанализировали 4869 твитов с обсуждением "подделок" в период с 1 января 2022 года по 1 августа того же года.
В ходе исследования было обнаружено множество изображений и видеороликов, обработанных искусственным интеллектом. Однако самым шокирующим моментом для аналитиков стал тот факт, что зачастую пользователи считали подделками реальные фото и видеоматериалы.
Мы обнаружили, что люди используют термин "дипфейк" в качестве шумового слова для нападок на других людей в Интернет. Подделки, как и предшествующие им термины "бот" или "фальшивые новости", становятся оружием против СМИ или информации, с которой пользователи просто не согласны.
Исследование показывает, как люди используют идею "дипфейков" и становятся гиперскептиками по отношению к реальным СМИ, особенно когда "дипфейки" и так слишком распространены.
Данные этого исследования показывают, что усилия по повышению осведомленности о фальшивках могут подорвать наше доверие к легитимным видео. Учитывая распространенность фальшивок в Интернете, это будет создавать все больше проблем для новостных медиакомпаний, которые должны быть осторожны в том, как они маркируют возможные фальшивки, чтобы не подорвать репутацию настоящих медиа.
На войне всегда очень мало правды. А современные технологии заставляют людей сомневаться практически в любом фото или видео, которые они видят. Что с этим делать — пока неясно.
- Создание порно-дипфейков в Великобритании может привести к тюремному заключению
- Deutsche Telekom показала концепт-смартфон без приложений, полностью полагающийся на ИИ
- США уже используют ИИ, чтобы решать, где сбрасывать бомбы