Искусственный интеллект не способен распознать дезинформацию, – исследование
Искусственный интеллект (ИИ) и чат-боты не способны противодействовать дезинформаци накануне президентских выборов в США. К такому выводу пришла исследовательская группа NewsGuard после очередного анализа работы инструментов генеративного ИИ.
В ходе исследования с использованием 10 ведущих чат-ботов, проведенного в сентябре, NewsGuard, выяснила, что при получении запроса, содержащего ложные нарративы, ИИ повторяет дезинформацию в 18% случаев и отказывается отвечать или дает нерелевантный ответ в 38% случаев, передает "Голос Америки".
"Эти чат-боты явно испытывают трудности, когда дело доходит до обработки запросов, связанных с новостями и информацией, – заявил автор исследования Маккензи Садеги. – Есть множество источников [информации], и чат-боты не всегда в состоянии определить, какие из них надежные, а какие нет".
NewsGuard поддерживает базу данных распространяемых ложных нарративов, охватывающих глобальные войны и американскую политику, рассказал Садеги "Голосу Америки".
Каждый месяц исследователи "скармливают" ведущим чат-ботам набирающие силу ложные нарративы в трех разных формах: запросы от "обычных" пользователей, наводящие вопросы и запросы от "злонамеренных субъектов". Затем исследователи изучают реакцию ИИ: повторяет ли он ложные утверждения, опровергает или отказывается отвечать.
Выяснилось, что в большинстве случаев ИИ повторяет ложные нарративы, когда отвечает на запросы "злонамеренных субъектов", которые копируют тактику, используемую иностранными кампаниями влияния для распространения дезинформации. Примерно 70% случаев, когда ИИ повторял ложные утверждения, были ответами на запросы "злонамеренных субъектов", в отличие от наводящих вопросов или запросов "обычных" пользователей.
По оценкам Офиса директора национальной разведки, иностранные кампании влияния могут воспользоваться этими недостатками. россия, Иран и Китай используют генеративный ИИ для "активизации усилий по оказанию влияния на выборы в США", говорится в докладе разведки, опубликованном в сентябре.
В качестве примера того, как легко можно ввести в заблуждение чат-ботов ИИ, Садеги привел июньское исследование компании NewsGuard, в ходе которого выяснилось, что ИИ повторяет российскую дезинформацию, если она "замаскирована" под американский местный источник новостей.
Распространение ложной информации на самые разные темы – от миграции до чрезвычайных ситуаций – является постоянной темой на протяжении всего избирательного цикла 2024 года.
"В распространении ложной информации нет чего-то нового, но генеративный ИИ определенно усиливает эти модели и поведение", – заявила "Голосу Америки" исследователь ИИ из Джорджтаунского университета Седжин Пайк.
По словам Пайк, поскольку технологии, лежащие в основе ИИ, постоянно развиваются, он часто не в состоянии обнаружить ошибочную информацию, что приводит к проблемам с достоверностью ответов ИИ.
Группа NewsGuard также обнаружила, что две трети "высококачественных" новостных сайтов блокируют доступ генеративных моделей ИИ к своим материалам. В результате ИИ часто обучается на низкокачественных источниках новостей, склонных к дезинформации.
По мнению экспертов, в этом кроется опасность. Большая часть бесплатных СМИ, на которых обучается ИИ, являются либо "пропагандой", либо инструментами "намеренной стратегической коммуникации", заявил "Голосу Америки" исследователь СМИ Мэтт Джордан.
"Сам ИИ ничего не знает: он не отсеивает знания и не может оценить утверждения. Он просто повторяет, основываясь на больших данных", – сказал Джордан, профессор Пенсильванского университета.
ИИ склонен повторять "раздутые" новости, поскольку, по статистике, обучается на искаженной и предвзятой информации, добавил он. Джордан охарактеризовал такую модель как "шлак на входе – шлак на выходе".
Подготовил: Сергей Дага