Эксперт о фейках с применением ИИ: 2023 – год «турбонаддува дезинформации»

Логотип ChatGPT и надпись «искусственный интеллект»

Стремительное развитие технологии искусственного интеллекта (ИИ) значительно увеличило возможности недобросовестных участников политического процесса и мошенников для распространения дезинформации в интернете и социальных сетях.

О проблеме противостояния дезинформации, созданной и распространенной при помощи ИИ «Голос Америки» поговорил с Джеком Брюстером (Jack Brewster), редактором компании Newsguard, которая отслеживает дезинформацию в интернете и, согласно своему сайту «предоставляет прозрачные инструменты для борьбы с дезинформацией для читателей, брендов и демократических стран».

— Насколько серьезна проблема распространения дезинформации, созданной и распространенной с помощью искусственного интеллекта в 2023 году?

— Eсли в двух словах подвести итог 2023 года, то это год турбонаддува дезинформации. Newsguard выявила несколько способов использования искусственного интеллекта для распространения дезинформации, включая сайты, частично или полностью созданные искусственным интеллектом, использование искусственного интеллекта на таких платформах, как TikTok, для запуска кампаний по дезинформации с помощью аудиоинструментов ИИ, создания deepfakes, для запуска вирусных дезинформационных кампаний на сайте X. Искусственный интеллект может быть использован для чего-то полезного, но также и может служить для того, чтобы значительно усилить дезинформацию.

— Какого рода дезинформация распространяется чаще всего?

— Мы обнаружили более 600 сайтов, которые мы называем UAIN (Unreliable Artificial Intelligence-Generated News), что означает ненадежный новостной сайт, сгенерированный искусственным интеллектом. Это сайты, которые мы определили как частично или полностью созданные искусственным интеллектом. Их не контролирует человек-редактор. Откуда мы это знаем? Через публикуемые сообщения об ошибках, которые часто используются или встречаются в чат-ботах искусственного интеллекта. Например, если кто-то из ваших читателей или слушателей зайдет на ChatGPT и попытается заставить его сделать что-то, чего он делать не хочет, он ответит стандартным сообщением, в котором будет сказано: «Как языковая модель искусственного интеллекта, я не могу делать то-то и то-то». Мы ищем подобные сообщения об ошибках на этих сайтах, и, если мы находим их неоднократно, это говорит о том, что этот сайт, вероятно, создан с помощью чат-бота. Таким образом, мы нашли более 600 таких сайтов, и они очень разнообразны с точки зрения того, что они освещают.

Некоторые из них просто создаются как инвестиции для пассивного дохода. Можно создать и запустить сайт, на котором будут публиковаться новости о лягушках, и он будет полностью сгенерирован искусственным интеллектом, получать рекламные доллары от Google или другого провайдера онлайн-рекламы. На таких сайтах нет редакторского контроля.
Мы называем их сайтами, созданными для рекламы, – следующее поколение контент-ферм, если люди помнят такой термин с ранних дней существования интернета.

Другие типы сайтов используются для распространения сообщений и продвижения недостоверной информации. Мы нашли несколько сайтов, созданных на основе искусственного интеллекта.

Например, мы нашли сайт под названием Global Village Space, где была опубликована статья, похоже, сгенерированная искусственным интеллектом, о предполагаемой смерти психиатра Биньямина Нетаньяху, который якобы совершил самоубийство. Оказалось, что у Биньямина Нетаньяху, насколько нам известно, нет психиатра с таким именем, и он никогда не кончал жизнь самоубийством.

— Возможно ли понять, в какой стране такие сайты были созданы?

— Они создаются по всему миру. Тот, который я только что упомянул, похоже, базируется в Пакистане, или, по крайней мере, его основал пакистанский журналист, который может находиться в Пакистане или в США. Но их создают люди по всему миру. Мы выяснили, что многие из них находятся в Соединенных Штатах, но есть и другие, которые открывают англоязычные сайты, ориентированные на США, в Индии или любой другой стране. Благодаря инструментам ИИ люди, которые хотят охватить аудиторию на разных языках, теперь могут сделать это одним нажатием кнопки. Если кто-то не очень хорошо владеет английским, то может использовать чат-бот, чтобы перевести статью, адаптировать ее или написать статью на определенную тему на другом языке.

Искусственный интеллект сделал иностранные языки доступными для гораздо большего числа людей. С одной стороны, это хорошо, но плохо то, что в недобросовестных руках это может привести к разгону дезинформации и созданию так называемой дезинформации следующего поколения – суперраспространителя.

— Насколько это опасно?

— Это очень опасно. И я думаю, что проблема, с которой мы сейчас столкнулись, заключается в том, что наши средства обнаружения не успевают за ними. Такое часто случается с технологическим прогрессом, но я не уверен, что мы видели подобный технологический прогресс, как этот, по крайней мере, на моем веку, с точки зрения того, как быстро появляются эти новые инструменты, как быстро они развиваются.

ChatGPT 3 по сравнению с нынешним ChatGPT 4 — это небо и земля, ChatGPT 4 экспоненциально более мощный инструмент, и эти инструменты будут становиться только мощнее.

А наши инструменты обнаружения, которые исследователи и журналисты используют для выявления сгенерированных ИИ изображений, текста, видео и аудио, еще не догнали их. В лучшем случае они рудиментарны, и те, кто этим занимается, постоянно находят способы обмануть систему, что делает все очень опасными.

Нетрудно себе представить, что в следующем году в США пройдут выборы (интервью было записано в конце декабря 2023 года — Г.А.), на которых политики могут создавать свои собственные фейковые новостные сайты или сайты, не раскрывающие, кому они принадлежат, которые будут генерировать и распространять статьи, благоприятные для определенного кандидата.

Это действительно проблема, поскольку технология ИИ развивается и будет развиваться еще быстрее, чем четыре года назад, что создаст еще больше проблем для граждан, исследователей и журналистов.

— Есть ли у вас информация о распространении недостоверной информации, сгенерированной ИИ в отношении предстоящих президентских выборов в США?

— В прошлом году это было не сильно распространено в США, возможно, [сгенерированная ИИ недостоверная политическая информация] встречалась бы чаще, если бы эта технология была доступна в 2022 году, особенно в 2020 году.

На выборах в Словакии ИИ использовался для создания недостоверной информации о голосовании и кандидате. Это уже происходит по всему миру и отчасти здесь, в США, вероятнее всего, будет чаще использоваться по мере приближения к президентским выборам.

— Насколько распространена ИИ-сгенерированная дезинформация в отношении войны Израиля с ХАМАС?

Я думаю, война Израиля и ХАМАС будут рассматриваться историками, как первая война с использованием искусственного интеллекта – так же, как Вьетнамская война считалась первой телевизионной войной.

Я имею в виду распространение в интернете фальшивых изображений войны, поддельных изображений зверств, поддельных изображений, на которых якобы изображены толпы, поддерживающие ту или иную сторону и т.д. Все это привело к загрязнению нашей новостной экосистемы до такой степени, что людям стало еще труднее отличать правду от вымысла

Поэтому мы наблюдаем резкий рост числа людей, утверждающих, что настоящие изображения – подделка, и это действительно серьезно влияет на то, как мы интерпретируем, осмысливаем новости и информацию.

Поэтому я думаю, искусственный интеллект загрязняет наши новостные и информационные каналы до такой степени, что люди не понимают или не верят, что настоящие изображения действительно настоящие.

— Как возможно бороться с распространением недостоверной информации?

Newsguard и я верим в понятие «prebunking», термин, который ваша аудитория, возможно, не слышала раньше. Это происходит от слова «debunking» (развенчание).

Мысль заключается в том, чтобы если предоставить пользователям интернета информацию об источниках, из которых они получают новости о том, что какой-либо человек говорил или делал в прошлом, с кем он связан, распространял ли он ложные утверждения, использовал ли он ложные утверждения, созданные с помощью искусственного интеллекта, то люди станут более скептически относиться к подделкам или дезинформации.

Тогда обычные пользователи интернета, как и журналисты, получат информацию, необходимую для того, чтобы понять, откуда берутся новости. Конечно, это давно известный инструмент доступный онлайн, но сейчас это как никогда необходимо, потому что наши средства обнаружения не успевают разоблачать подделки. И на развенчание дезинформации иногда уходят дни, а то и недели. Это тяжелая, кропотливая работа, приходится встречаться и разговаривать с людьми и т.д.

В случае ИИ-генерированных изображений иногда невозможно определить, является ли изображение поддельным или настоящим. А prebunking позволяет скептически относиться к изображениям в интернете, потому что будет известно об источниках, из которых люди узнают новости.

Если они подпишутся на Newsguard, то смогут получать информацию обо всех новостных источниках в интернете. Хотелось бы, чтобы такое было возможно и для социальных сетей, но думаю, что пользователи могут сами настраивать свои новостные ленты с учетом этой теории, могут самостоятельно узнавать о тех, кого читают или смотрят и перепроверять информацию, которую видят в Instagram и TikTok, просто зайдя в Google и посмотрев, освещали ли ее другие надежные источники.

— Насколько активно распространяется недостоверная информация, созданная ИИ в отношении России и Украины?

Это трудно оценить количественно. Мы заметили резкий рост дезинформации о событиях в первые дни войны России против Украины на платформе X (бывшем Twitter – Г.А.), но думаем, что это связано с тем, что это происходило на фоне ослабления модерации, возвращения на платформу аккаунтов, которые были забанены ранее. Также повлияли изменения в подходе к верификации профилей «синей галочки», что дало толчок появлению распространителей дезинформации.

Очевидно, что войны России и Украины, Израиля и ХАМАС очень визуальные. И мы наблюдаем огромный приток дезинформации, изображений и видео, созданных искусственным интеллектом и не только, которые, в основном, распространяются на TikTok.

– В каких соцсетях чаще распространяется недостоверная информация?

Невозможно точно определить основные платформы распространения ложных нарративов, связанных с войной.

Telegram стал огромным источником дезинформации. Террористические группы публикуют видео о войне ХАМАС с Израилем. Российские государственные пропагандистские источники публикуют видео и фальшивый контент в Telegram о войне России с Украиной, прежде чем такая информация распространится на других платформах.

Информация быстро перемещается с платформы на платформу и иногда трудно понять, где она впервые появилась и какое получила распространение.

– Что должны делать журналисты и новостные организации в таких условиях?

Журналистам нужно изучить инструменты, которые используются для создания информации с помощью искусственного интеллекта. Определить некоторые поддельные изображения можно, например, по искажениям пальцев рук и ног и по другим признакам. Помочь выявить поддельные изображения и развенчать их может знание, откуда эти изображения берутся.

Часто люди публикуют их на Facebook, в группах, в приложении для обмена сообщениями Discord и на других платформах. Попробуйте выяснить, где впервые было размещено это изображение. Иногда кто-то сообщает в группе Facebook, что поддельное изображение создано ИИ.
Потом кто-то просто копирует это и размещает в другом месте, но не упомянет информацию о том, что изображение было создано с помощью ИИ.

Журналисты должны знать, откуда берутся эти изображения, и в целом интересоваться искусственным интеллектом, а не бояться его. Мы должны использовать его каждый день, понять, как он работает, какую может принести нам пользу в будущем. Знать о том, как работает ИИ, чтобы понимать, как его могут использовать его в плохих целях.

Newsguard часто проводит так называемую «красную команду» чат-ботов с искусственным интеллектом, когда мы пытаемся сломать их и заставить чат-боты целенаправленно генерировать дезинформацию, чтобы понять, как этот инструмент используется для распространения дезинформации. Я призываю журналистов интересоваться инструментами ИИ, чтобы понять, как их можно использовать, чтобы выявить возникающие кампании по дезинформации, созданные с помощью ИИ.

– Как вы оцениваете попытки официально регулировать искусственный интеллект?

– Любое регулирование столкнется с проблемой, когда эти инструменты совершенствуются с каждым днем, и может превратиться в игру «поймай крота», где мы успешно добиваемся того, что мы вводим разумные меры безопасности в отношении определенного набора инструментов ИИ, а затем появляются новые, созданные в другой стране, которые не хотят соблюдать эти правила.

Мы уже видели подобное в попытках регулировать и исследовать дезинформацию.

– Вы можете представить, какую наиболее разрушительную информацию может сгенерировать ИИ?

Я как раз думал об этом на днях, например, что искусственный интеллект может создать фальшивый телефонный звонок избирателям в каком-то штате голосом Джо Байдена или президента Трампа, который сообщит, что произошли изменения на избирательных участках и что им придется голосовать в другой день или время.

Люди поверят в это, и это может оказать реальное влияние на наши выборы. Это первое, что приходит на ум.

– Как противостоять поддельным видео от ИИ, которые имитируют сайты новостных организаций?

Для создания таких подделок необязательно используется искусственный интеллект. Это могут быть простые инструменты для фотошопа и видеомонтажа, которые становятся более простыми и доступными. На смартфоне можно создать поддельную имитацию, например, «Голоса Америки».

C помощью видеосъемки можно создать дезинформацию без использования искусственного интеллекта. Подобное сложно определить без помощи какой-то системы проверки в интернете. Те, кто создает поддельные видео, всегда будут пытаться получить больше просмотров. И единственный способ распознать такие поддельные видео – проделать сложную работу, дозвониться до новостной организации вроде того же «Голоса Америки» и спросить, действительно ли она о таком сообщала, потому что это было в тренде на TikTok или где-то еще.

– Что необходимо для того, чтобы было проще выявлять поддельные видео?

Предоставить пользователям больше информации о производителях этих видео в интернете. В Newsguard мы знаем суперраспространителей дезинформации, мы знаем, кто это, и что они будут делать это снова и снова. Но проблема в том, что другие люди этого не знают. И пока это не изменится, я не знаю, как можно быстрее выявлять такие фальшивые видео.