ua ru
Пожалуйста, заполните это поле
1

Железняк раскрывает тему "ИИ и фейки": главный риск — создание фейковых видео с политиками

Технологии 14:39 - 29 января 2024

Телефонные мошенники теперь могут использовать всего десять секунд аудио для имитации голосов близких в опасности

Мошеннические версии звезд используются для рекламы сомнительных продуктов в Интернете. Мошенники создают порнографический контент по изображениям реальных людей. И такое уж есть

Мошеннические версии звезд используются для рекламы сомнительных продуктов в Интернете. Мошенники создают порнографический контент по изображениям реальных людей. И такое уж есть

С развитием ИИ становится проще создавать реалистичный фейковый контент, радикально изменяющий наше восприятие реальности. К примеру, на TikTok появился вымышленный Том Круз в фиолетовом халате, который поет песню для настоящей Пэрис Хилтон с игрушечной собакой.

Детали

Но сразу это стали использовать мошенники.

Так телефонные мошенники теперь могут использовать всего десять секунд аудио для имитации голосов близких в опасности.

Мошеннические же версии Тома Хэнкса и Тейлор Свифт используются для рекламы сомнительных продуктов в интернете.

Ну и мошенники теперь могут использовать открытые источники, чтобы создавать ложные изображения или видео для шантажа, например создавая порнографический контент из изображений реальных людей. И такое уж есть.

Но главный риск – создание фейковых видео с политическими лидерами, делающими ложные заявления, что может повлиять на общественное мнение или международные отношения. Даже могут начать войну.

Вот пример использования топ-политика в фейковом видео с Риши Сунаком, правда в целях мошенничества.

С помощью искусственного интеллекта (ИИ) было создано фальшивое видео с Риши Сунаком, премьер-министром Великобритании.

Видео, опубликованное как реклама на Facebook, изображало Сунака, который вроде бы рекламирует схему быстрого обогащения, разработанную Илоном Маском. Это видео было частью серии из 143 подобных объявлений, обнаруженных компанией Fenimore Harper Communications.

Но видео очень реалистично и убедительно. И представьте, что это не было бы о деньгах, а например, объявления войны другой стране.

Ну и конечно, когда это используется для грязного пиара политиков.

Более жесткий пример из политики Словакии

В сентябре 2023 словацкий политик проиграл напряженную избирательную гонку после того, как было опубликовано несколько фальшивых аудиозаписей.

В одной из записей политик якобы признается в стратегии фальсификации выборов. Его голос – а текст придуман.

Эти аудиозаписи были распространены специально лишь за 48 часов до открытия избирательных участков, что сделало невозможным их опровержение в короткие сроки.

Потом уже установили, что это был фейк с помощью ИИ, но для этого уже было поздно.

Или пример из Великобритании

Поддельные аудиозаписи касались лидера Британской лейбористской партии Кира Стармера. На записях Стармер якобы грубо ругает своих сотрудников.

Аудио было опубликовано непосредственно перед последней конференцией оппозиционной партии перед всеобщими выборами.

Twitter-аккаунт, опубликовавший эти аудиозаписи, был известен распространением явных глубоких подделок в формате шуток. Аудио было настолько убедительным, что его начали шерить, как настоящее в других онлайн-платформах.

Вот такие примеры. Показывают, как поддельные аудиоматериалы могут использоваться для дискредитации политических оппонентов и влияния на избирательные результаты, особенно когда времени на их опровержение не хватает.

А теперь о deepfake и их эволюции на примере реалий Украины

Еще в марте 2022 года был взломан на короткое время эфир "Украина24" и русская запустила фейковое обращение Зеленского. Тогда еще мир не знал о ChatGPT (как и о развитии ИИ) и качество этого фейка было настолько низкое, что очевидно жгло всю идею. И при том, что у русских же неплохие ресурсы на это были.

А сейчас, посмотрит на deepfake диалога Безуглого и Залужного. При том, что это сделано явно just for fun, но качество поражающей картинки. Даже среди моих знакомых нашлись те, кто переспросили действительно ли он такой (ответ да, но именно это видео фейк)….

И именно эта разница и наглядно демонстрирует как сильно инструменты ИИ дают нам возможность уродовать реальность.

...P.S. Пока искал диалог, оказалось, что русня 2 месяца назад запустил уже более мощный и качественный deepfake об обращении Залужного. Поэтому это вопрос времени, когда это станет уже постоянным элементом ИПСО.

Что делать с этими фейками с помощью AI? Ответ во всем Мире – хз

Еще раньше как-то можно было распознать фейковое видео. Ну, там руки человека или циферблат часов был искривленной формы на видео. Но уже сейчас это почти незаметно. Многие исследователи на конференции NeurIPS считают, что AI-генерируемые медиа со временем станут вообще неотрезными.

Ну и есть конечно сервисы для проверки контента на то, сделан ли он на ИИ, но уже сейчас там много проблем с ошибочными положительными и отрицательными результатами. То есть их эффективность не высока.

Есть теория, что разные платформы типа YouTube или Instagram будут автоматически делать какие-то водяные знаки, как метод маркировки AI-генерируемого контента.

Сейчас правительство США сотрудничает с такими компаниями как OpenAI и Google для поддержки исследований в сфере водяного знака. Но, скорее всего, это не будет эффективно. Только в ручном режиме реально, что они будут удалять затем контент.

Ну и в целом в борьбе между теми, кто создает фейки и теми, кто пытается их обнаружить, преимущество сейчас на стороне фейкеров.

...В этом году у нас рекордное количество выборов по всему Миру, где власть так или иначе выбирает больше половины населения земли. Поэтому…думаю мы еще увидим всю мощь этого явления, как AI – фейки.

Человеческий труд дешевле: ИИ не может сейчас заменить большинство рабочих мест — Bloomberg.

Источник: yzheleznyak

Не пропустите интересное!

Подписывайтесь на наши каналы и читайте новости в удобном формате!

Главное за сегодня
Больше новостей