25 июля, 2024

Orsk.today

Будьте в курсе последних событий в России благодаря новостям Орска, эксклюзивным видеоматериалам, фотографиям и обновленным картам.

OpenAI обнаружила, что в российских и китайских пропагандистских кампаниях использовалась его технология

САН-ФРАНЦИСКО — OpenAI, создатель ChatGBT, заявил в четверг, что обвинил группы в России, Китае, Иране и Израиле в попытке повлиять на политический дискурс во всем мире с помощью своих технологий, подчеркнув обеспокоенность тем, что создание искусственного интеллекта способствует скрытой пропаганде государственные субъекты. Кампании по мере приближения президентских выборов 2024 года.

OpenAI удалила аккаунты, связанные с известной пропагандистской деятельностью в России, Китае и Иране; Израильское агентство политической кампании; Ранее неизвестную группу, появившуюся в России, исследователи института назвали «плохой грамматикой». Команды используют технологию OpenAI для написания сообщений, перевода их на разные языки и разработки программного обеспечения для автоматической публикации в социальных сетях.

Ни одной из этих групп не удалось добиться большой популярности; Связанные с ними учетные записи в социальных сетях достигли некоторых пользователей. Несколько последователей, сказал Бен Ниммо, главный аналитик группы разведки и расследований OpenAI. Тем не менее, отчет OpenAI показывает, что активисты, активно работающие в социальных сетях в течение многих лет, используют технологии искусственного интеллекта для усиления своих кампаний.

«Мы видели, как они создают текст большего объема и с меньшим количеством ошибок, чем традиционно управляют этими операциями», — сказал Ниммо, который ранее работал над мета-отслеживанием операций влиятельных лиц, на брифинге с журналистами. Ниммо заявил, что другие группы могут использовать инструменты OpenAI без ведома компании.

«Сейчас не время для самоуспокоенности. «История показывает, что деятельность влиятельных лиц, которая годами ни к чему не приводила, может внезапно взорваться, если никто не будет ее искать», — сказал он.

Правительства, политические партии и группы активистов уже много лет используют социальные сети для влияния на политику. После опасений по поводу влияния России на президентские выборы 2016 года платформы социальных сетей начали более пристально следить за тем, как их платформы используются для влияния на избирателей. Компании обычно не позволяют правительствам и политическим группам скрывать согласованные усилия по влиянию на пользователей и требуют, чтобы в политической рекламе раскрывалось, кто за нее заплатил.

READ  «Хорошие инвестиции», которые подрывают Россию

Исследователи дезинформации выразили обеспокоенность тем, что по мере того, как инструменты искусственного интеллекта, способные генерировать реалистичный текст, изображения и видео, станут более доступными, станет труднее обнаруживать и реагировать на дезинформацию или скрытую деятельность по оказанию влияния в Интернете. В этом году миллионы людей голосуют на выборах по всему миру, и дипфейки с использованием искусственного интеллекта уже получили широкое распространение.

OpenAI, Google и другие компании, занимающиеся искусственным интеллектом, работают над технологией выявления дипфейков с помощью собственных инструментов, но такая технология еще не апробирована. Некоторые эксперты по искусственному интеллекту считают, что детекторы дипфейков не совсем эффективны.

Ранее в этом году группа, связанная с Коммунистической партией Китая, предположительно поддержала созданную искусственным интеллектом аудиозапись одного кандидата, участвующего в выборах в Тайване, вместо другого. Однако политик, владелец Foxconn Терри Коу, не поддержал другого политика.

В январе избиратели на праймериз в Нью-Гэмпшире получили звонок от робота, который якобы исходил от президента Байдена, но был быстро идентифицирован как искусственный интеллект. На прошлой неделе демократу, заявившему, что он организовал звонок с помощью робота, были предъявлены обвинения в подавлении избирателей и выдаче себя за кандидата.

В отчете OpenAI подробно описано, как пять групп использовали технологии компании в своих попытках повлиять на ее деятельность. Spamouflage, ранее известная группа из Китая, использовала технологию OpenAI для исследования активности в социальных сетях и написания постов на китайском, корейском, японском и английском языках, сообщила компания. Иранская группа под названием Международный союз виртуальных медиа также использовала технологию OpenAI для создания статей, которые она публиковала на своем сайте.

Ранее неизвестная группа Bad Grammar использовала технологию OpenAI для создания программы, которая может автоматически отправлять сообщения в приложение для обмена сообщениями Telegram. Затем Bad Grammar использовала технологию OpenAI для создания постов и Согласно докладу, в нем на русском и английском языках утверждается, что США не должны поддерживать Украину.

READ  Генштаб сообщает об атаках России на 8 участках линии фронта

В отчете говорится, что израильская политическая пропагандистская фирма Stoic использовала OpenAI для создания произраильских постов о войне в Газе и нацелена на людей в Канаде, США и Израиле, сообщает OpenAI. В среду владелец Facebook Мета также расхваливал работу Стоика, заявив, что он удалил 510 аккаунтов Facebook и 32 аккаунта Instagram, используемых группой. В компании сообщили журналистам, что некоторые аккаунты были взломаны, а другие принадлежали вымышленным людям.

Аккаунты, о которых идет речь, часто комментируют страницы известных людей или СМИ, на которых показаны произраильски настроенные американские студенты, афроамериканцы и другие. По словам Меты, комментарии поддержали израильских военных и предупредили канадцев, что «радикальный ислам» угрожает там либеральным ценностям.

ИИ действовал на основе формулировок некоторых комментариев, которые показались реальным пользователям Facebook странными и вырванными из контекста. По словам компании, результаты были плохими: у нее было всего около 2600 законных подписчиков.

МЕТА действует на базе Исследовательской лаборатории цифровой криминалистики Атлантического совета. был открыт Сеть, выполняя аналогичную деятельность, указанную другими исследователями и публикациями.

В прошлом году исследователи дезинформации предположили, что чат-боты с искусственным интеллектом могут вести долгие и подробные беседы с конкретными людьми в Интернете, пытаясь склонить их в определенном направлении. Инструменты искусственного интеллекта могут собирать большие объемы данных о людях и отправлять сообщения непосредственно им.

По словам Ниммо, OpenAI не выявила каких-либо передовых приложений ИИ. «Это скорее эволюция, чем революция», — сказал он. «Нечего сказать, что мы не увидим этого в будущем».

Джозеф Менн внес свой вклад в подготовку этого отчета.