Когда накануне праймериз в штате Нью-Гемпшире избирателям начали поступать автоматические звонки с сообщением якобы от президента Джо Байдена, кому-то это могло бы показаться простой предвыборной агитацией.
Байдена не было в бюллетене для праймериз штата, но демократы убеждали избирателей вписать туда его имя и тем самым поддержать действующего президента.
В аудиозаписи же голос, неотличимый от голоса Байдена, называл праймериз «набором чепухи» (одно из его любимых выражений) и призывал не участвовать в них, ведь «это только поможет республиканцам в их стремлении снова избрать Дональда Трампа».
СМОТРИТЕ ТАКЖЕ: В Нью-Гэмпшире расследуют робозвонки с фальшивой аудиозаписью голоса БайденаЭта запись оказалась реалистичной цифровой подделкой, имитирующей голос президента – сейчас это часто называют «дипфейком» (deep fake). Власти штата проводят расследование инцидента.
Дипфейк-звонки не смогли помешать Байдену победить на праймериз в Нью-Гемпшире среди демократов, однако такое использование аудиоматериалов продемонстрировало новую опасность для избирательной системы в США: молниеносно развившиеся за последние пару лет технологии генеративного искусственного интеллекта (Generative AI, ГИИ). Как правило, под этим термином понимают разнообразные ИИ-системы создания реалистичных изображений, аудио, видео и текстов. Наиболее известные ГИИ-продукты – ChatGPT, Stable Diffusion и им подобные. Далее в этом тексте будет использоваться аббревиатура ИИ для обозначения в первую очередь технологий генеративного ИИ.
СМОТРИТЕ ТАКЖЕ: Дипфейк с журналисткой «Голоса Америки» вызывает опасения по поводу развития ИИХотя ИИ пока не создает принципиально новых рисков для избирательного процесса, он способен заметно усилить существующие, говорится в недавней публикации Агентства по кибербезопасности и защите инфраструктуры США.
Эксперты по технологиям и дезинформации выражают обеспокоенность в это связи.
«Доступность этих систем [ИИ] имеет огромный потенциал для оказания влияния на выборы», – говорит Лорен Крапф (Lauren Krapf), одна из руководителей Центра по изучению роли технологий в обществе Антидиффамационной лиги (Anti-Defamation League).
Чего опасаются американские власти?
Такие технологии, как ИИ, «обладают повышенным потенциалом нанесения большего урона, поскольку злоумышленники, в том числе представители иностранных государств и киберпреступники, могут использовать эти возможности во вред», – говорится в отчете Агентства по кибербезопасности и защите инфраструктуры.
Немалое внимание уделяется способности этих технологий создавать реалистичные политические аудио- или видеоматериалы. У этих технологий также может быть и более банальный эффект, отмечает Агентство: они могут позволить злоумышленникам снизить расходы и увеличить масштабы производства и охвата аудитории.
Например, отмечает Агентство, они смогут использовать генеративный искусственный интеллект «для создания штаммов вредоносного ПО, способных обойти системы кибербезопасности». К тому же, говорится в отчете, ИИ позволит реализовать более эффективные распределенные атаки типа «отказ в обслуживании» (DDoS). Эти атаки, работающие по принципу отправки системам-жертвам огромных объемов «мусорных» данных, могут выводить из строя сайты, в том числе, связанные с выборами.
Новое исследование специалистов из Университета им. Джорджа Вашингтона (George Washington University) в Вашингтоне подтверждает серьезность и рост связанных с ИИ рисков.
Изучив данные о двух предыдущих «кибер-инцидентах» – автоматических алгоритмических атаках на финансовые рынки США в 2008 году и китайских кибератаках на американскую инфраструктуру в 2013 году – исследователи предсказали, что уже к лету 2024 года случаи активности злоумышленников с применением ИИ станут ежедневными.
Ученые также установили, что злоумышленникам достаточно использовать даже относительно простые ИИ-модели (GPT2 от OpenAI), чтобы искажать тексты в соцсетях, придавая им нужные заказчикам смысловые акценты.
Старая версия даже работает лучше, ведь у нее нет защитных механизмов, препятствующих созданию такого контента.
Возможные угрозы
Поскольку ИИ остается передовой технологией и развивается бешеными темпами, никто не может предвидеть всех способов её применения. Но у экспертов уже есть множество опасений.
В конце января 2024 года порнографические изображения американской поп-звезды Тейлор Свифт, сгенерированные с помощью ИИ, заполнили соцсети несмотря на то, что распространение таких материалов нарушает правила пользования соцсетевых платформ.
Это не новое явление. В 2019, по оценкам одной из компаний, более 90% распространяемых в онлайне дипфейков были порнографическими материалами, созданными без согласия женщин, добавленных в них при помощи ИИ.
Нина Янкович (Nina Jankowicz), вице-президент Центра информационной устойчивости (Centre for Information Resilience) и автор книги «Как быть женщиной в онлайне» («How to Be a Woman Online»), опасается, что подобные дипфейки могут использоваться против женщин-кандидатов во время избирательных кампаний.
«Это очень простой способ подорвать положение женщин в политике и в обществе», – говорит Янкович. Если когда-нибудь появится непристойное видео женщины-политика или публичной персоны, избирателям стоит относиться к нему с огромным скепсисом, считает эксперт.
Риски заключаются не только в изображениях и видео. Крапф из Антидиффамационной лиги говорит, что люди пользуются инструментами вроде ChatGPT не только для создания контента, но и для получения и обработки информации, в том числе о выборах.
«Происхождение этого контента, уровень авторитетности этой информации […] довольно непрозрачны», – говорит она.
Крапф опасается, что само существование ИИ создает риски – даже без его фактического применения. Теперь у каждого есть повод сомневаться во всем, что они видят в интернете.
Правдивость любого контента может быть поставлена под вопрос, считает эксперт.
Как защититься от дипфейков?
Законодатели на различных уровнях берутся за проблему ИИ. Уже пять штатов – Мичиган, Калифорния, Вашингтон, Миннесота и Техас – приняли законы, ограничивающие применения дипфейков во время избирательных кампаний и выборов. Закон в Миннесоте также запрещает порнографические дипфейки, наказание – штраф или тюремное заключение.
Подобные законопроекты о дипфейках были предложены или уже рассматриваются законодателями 26 штатов, сообщает американская организация «Гражданин Общества» («Public Citizen»).
Федерального закона, регулирующего создание и распространение дипфейков, пока не существует. В сентябре 2023 года двухпартийная группа сенаторов – демократы Эми Клобушар и Крис Кунс, а также республиканцы Джош Хоули и Сьюзан Коллинз – внесли в Сенат законопроект, предлагающий запретить применение искусственного интеллекта для создания изображений кандидатов на федеральные должности, вводящих избирателей в заблуждение с целью повлиять на выборы. На днях Клобушар, Хоули, а также демократ Дик Дурбин и республиканец Линдси Грэм предложили еще один законопроект, который позволил бы привлечь к ответственности в гражданских судах создателей порнографических дипфейков.
Технологические компании также утверждают, что принимают меры против дипфейков.
«Голос Америки» связался с компаниями Meta (соцсети Facebook и Instagram), YouTube и TikTok. Все они требуют от создателей контента предупреждать, если реалистичные изображения людей были созданы или значительно модифицированы при помощи ГИИ. Компания X (бывший Twitter) не ответила на запрос.
В середине января OpenAI, создатели ChatGPT и генератора изображений DALL-E, опубликовали собственную стратегию по обеспечению честности выборов.
«Мы работаем над тем, чтобы предугадывать и предотвращать соответствующие злоупотребления, в том числе, вводящие в заблуждение “дипфейки”, масштабные операции влияния или чат-ботов, выдающих себя за кандидатов», – сообщает компания.
Согласно утверждениям OpenAI, компания не допускает применения своих сервисов для влияния на общество с целью неучастия в выборах.
По словам компании, она также работает над более прозрачной индикацией происхождения изображения. Кроме того, если ChatGPT будут задавать вопросы о процедурах голосования, программа отправит их на сайт Национальной Ассоциации Секретарей Штатов, где размещается авторитетная информация о выборах.
Крапф из Антидиффамационной лиги надеется, что другие ИИ-компании также опубликуют свои стратегии.
Несмотря на ожидаемый всплеск случаев применения ИИ злоумышленниками, Нил Джонсон, один из исследователей в Университете им. Джорджа Вашингтона, видит поводы для оптимизма.
Будучи профессором физики, Джонсон решил подойти к проблеме ИИ и контента, пропагандирующего ненависть или распространяющего ложную информацию, с точки зрения физики.
Вместе с коллегами он изучил социальные сети не в качестве отдельных единиц, а как единую систему. При помощи математического анализа ученые создали карту всех платформ и взаимосвязей между ними.
По словам Джонсона, исследователи делятся своей картой с властями и компаниями, владеющими соцсетями, чтобы они смогли более эффективно модерировать контент и сдерживать распространение ненависти и других токсичных явлений.
Существование этой карты придает Джонсону оптимизм. Он сравнивает проблему с лечением болезни.
«Когда знаешь, где находятся проблемные клетки – говорит физик, – их можно удалить, лечить или наблюдать за ними».