Исследователь строит анти
Уилл Найт, Wired.com — 30 августа 2023 г., 13:51 UTC
В мае государственное российское СМИ Sputnik International опубликовало серию твитов, критикующих внешнюю политику США и администрацию Байдена. Каждый из них вызывал краткое, но хорошо продуманное опровержение со стороны учетной записи CounterCloud, иногда включая ссылку на соответствующую новость или авторскую статью. Это вызвало аналогичные реакции на твиты российского посольства и китайских новостных агентств, критикующих США.
Российская критика США далеко не является чем-то необычным, но ответная реакция CounterCloud заключалась в следующем: твиты, статьи и даже журналисты и новостные сайты были полностью созданы с помощью алгоритмов искусственного интеллекта, по словам человека, стоящего за проектом, который использует имя Неа Пау и говорит, что оно создано, чтобы подчеркнуть опасность массовой дезинформации ИИ. Paw не публиковал твиты и статьи CounterCloud публично, но предоставил их WIRED, а также подготовил видео с описанием проекта.
По утверждает, что является профессионалом в области кибербезопасности и предпочитает анонимность, поскольку некоторые люди могут счесть этот проект безответственным. По словам По, кампания CounterCloud, направленная против российского обмена сообщениями, была создана с использованием технологии генерации текста OpenAI, аналогичной той, что лежит в основе ChatGPT, и других легкодоступных инструментов искусственного интеллекта для создания фотографий и иллюстраций, общая стоимость которых составила около 400 долларов.
«Я не думаю, что для этого существует серебряная пуля, точно так же, как не существует серебряной пули для фишинговых атак, спама или социальной инженерии», — говорит По в электронном письме. Возможны меры по смягчению последствий, например, обучение пользователей внимательно следить за манипулятивным контентом, созданным ИИ, заставить генеративные системы ИИ пытаться блокировать неправомерное использование или оснастить браузеры инструментами обнаружения ИИ. «Но я думаю, что ни одна из этих вещей не является по-настоящему элегантной, дешевой или особенно эффективной», — говорит По.
В последние годы исследователи дезинформации предупреждают, что языковые модели искусственного интеллекта могут использоваться для создания высоко персонализированных пропагандистских кампаний, а также для усиления аккаунтов в социальных сетях, которые изощренно взаимодействуют с пользователями.
Рене ДиРеста, менеджер по техническим исследованиям Стэнфордской интернет-обсерватории, которая отслеживает информационные кампании, говорит, что статьи и профили журналистов, созданные в рамках проекта CounterCloud, достаточно убедительны.
«Помимо государственных деятелей, агентства по управлению социальными сетями и наемники, предлагающие услуги по оказанию влияния, без сомнения, подхватят эти инструменты и включат их в свои рабочие процессы», — говорит ДиРеста. Широкое распространение и распространение фейкового контента является непростой задачей, но этого можно добиться, платя влиятельным пользователям за то, чтобы они распространяли его, добавляет она.
Уже появились некоторые свидетельства проведения онлайн-кампаний по дезинформации с использованием искусственного интеллекта. Академические исследователи недавно обнаружили грубый ботнет, продвигающий криптовалюту, по-видимому, работающий на базе ChatGPT. Команда заявила, что это открытие предполагает, что ИИ, стоящий за чат-ботом, вероятно, уже используется для более сложных информационных кампаний.
Законные политические кампании также обратились к использованию ИИ в преддверии президентских выборов в США в 2024 году. В апреле Национальный комитет Республиканской партии выпустил видео с нападками на Джо Байдена, содержащее фальшивые изображения, созданные искусственным интеллектом. А в июне аккаунт в социальной сети, связанный с Роном Десантисом, включил изображения, созданные искусственным интеллектом, в видео, призванное дискредитировать Дональда Трампа. Федеральная избирательная комиссия заявила, что может ограничить использование дипфейков в политической рекламе.
Мика Массер, исследователь, изучавший дезинформационный потенциал языковых моделей искусственного интеллекта, ожидает, что основные политические кампании попытаются использовать языковые модели для создания рекламного контента, электронных писем по сбору средств или атакующей рекламы. «Сейчас наступил совершенно шаткий период, когда не совсем ясно, каковы нормы», — говорит он.
По словам Массера, большая часть текста, сгенерированного ИИ, остается довольно общей и легко распознаваемой. Но, по его словам, когда люди ловко обрабатывают созданный искусственным интеллектом контент, распространяющий дезинформацию, это может оказаться весьма эффективным, и практически невозможно остановить использование автоматических фильтров.