Одной из причин авторы отчета видят в развитии технологий искусственного интеллекта, позволяющих правительствам более тонко и точно осуществлять интернет-цензуру, быстро отслеживать в социальных сетях признаки инакомыслия, выявлять и наказывать несогласных, а также эффективно распространять дезинформацию.
Авторы отчета изучили 70 стран, на которые приходится 88% мирового числа интернет-пользователей — это около 4,9 млрд человек. Согласно отчету, наихудшие в мире условия для свободы Интернета уже девятый год подряд отмечаются в Китае. На втором месте оказалась Мьянма.
Из стран СНГ и их соседей в рейтинг интернет-свобод вошли Грузия (11 позиция), Армения (16), Украина (31) Кыргызстан (36), Азербайджан (51), Казахстан (53), Беларусь (62), Узбекистан (64) и Россия (66).
В рекордных 55 из 70 охваченных исследованием стран люди сталкивались с правовыми последствиями выражения своего мнения в Интернете, а в 41 стране подвергались физическому давлению или даже были убиты за свои высказывания онлайн. В качестве примеров в отчете приводятся Мьянма и Иран, где авторитарные режимы «приводили в исполнение смертные приговоры в отношении лиц, осужденных за выражение мнений в Интернете». Упоминаются в этой связи также Беларусь и Никарагуа, где за высказывания в Интернете люди получали суровые тюремные сроки – «основная тактика диктаторов Александра Лукашенко и Даниэля Ортеги в их насильственных кампаниях с целью сохранения власти».
Авторы доклада также отмечают рост в использовании искусственного интеллекта для усиления цензуры наиболее технически развитыми авторитарными государствами. Законодательная база по меньшей мере 22 стран обязывает или стимулирует применение искусственного интеллекта для удаления неблагоприятных политических, социальных и религиозных высказываний, подчеркивается в документе.
Технологии ИИ также активнее используются в качестве эффективного инструмента дезинформации. В исследовании отмечается, что средства ИИ, способные генерировать текст, звук и изображения, постоянно совершенствуются, становясь более доступными и простыми в использовании. За последний год как минимум в 16 странах новые технологии использовались с целью посеять сомнения в обществе, очернить оппонентов или повлиять на общественные дискуссии.
В докладе приводится пример операции, известной как «Двойник», во время которой российские государственные или связанные государством структуры имитировали немецкие, американские, итальянские, британские и французские СМИ, распространяя ложные и конспирологические версии о европейских санкциях и украинских беженцах. В другом примере государственные СМИ Венесуэлы использовали социальные сети для производства и распространения видеороликов, в которых ведущие новостей несуществующего международного англоязычного канала распространяли проправительственные идеи.
Манипулируемый искусственным интеллектом контент использовался и для очернения оппонентов на выборах в США. Аккаунты, связанные с кампаниями бывшего президента Дональда Трампа и губернатора Флориды Рона Десантиса, претендующих на выдвижение от Республиканской партии на президентских выборах 2024 года, публиковали видеоролики с генерированным ИИ контентом, чтобы подорвать имидж друг друга. Аналогичным образом в феврале 2023 г. в социальных сетях быстро распространился сгенерированный ИИ манипулятивный видеоролик с трансфобными комментариями Джо Байдена. Предполагается, что он был создан с целью дискредитации Байдена среди избирателей, поддерживающих права трансгендеров.
Авторы доклада отмечают, что даже если недостоверность сгенерированной ИИ информации становится очевидной или быстро разоблачается, сам факт ее создания способен влиять на информационное пространство, подрывая доверие общества к демократическим процессам, подталкивая активистов и журналистов к самоцензуре и заглушая достоверные источники информации.
В исследовании отмечается, что многие компании, такие как OpenAI и Google, установили защитные барьеры, чтобы уменьшить случаи откровенно вредоносного применения своих чат-ботов, однако злоумышленники сумели преодолеть защитные механизмы и генерировать вредные, ложные, дискриминационные или оскорбительные тексты. По мнению авторов доклада, опасность дезинформационных кампаний с использованием ИИ будет возрастать по мере того, как злоумышленники будут разрабатывать новые способы обхода защитных механизмов.
«В последнее время было много надежд, что технологические компании смогут регулировать контент самостоятельно, - отметил в интервью русской службе «Голоса Америки» один из авторов доклада, аналитик по исследованиям в области технологий и демократии Freedom House Грант Бэйкер (Grant Baker).
«Мы выступаем за необходимость создания нормативно-правовой базы, регулирующей создание и использование ИИ, защищающей права человека в онлайн-пространстве и повышающей прозрачность разработки и использования таких систем». По мнению аналитика, такая правовая база может дать регуляторам и судебным органам возможность совместно с гражданским обществом осуществлять независимый надзор за разработками ИИ, чтобы снизить потенциальный ущерб от его применения.
Форум