ИИ меняет мнения избирателей в преддверии выборов

Две недавние работы показывают, как искусственный интеллект может существенно влиять на выборы, меняя взгляды избирателей.

ИИ меняет мнения избирателей в преддверии выборов

Влияние ИИ на выборы

В условиях нарастающего политического напряжения искусственный интеллект (ИИ) становится важным инструментом в борьбе за умы избирателей. Два исследования, опубликованные в журналах Nature (научный журнал) и Science (научный журнал), обнаружили, что ИИ способен модифицировать мнение от 1,5% до 25% опрошенных избирателей, что делает его более эффективным средством убеждения, чем традиционные рекламные кампании.

Результаты опроса

Опросы охватили 2.300 американцев, 1.530 канадцев и 2.118 поляков, которые взаимодействовали с ИИ, адаптированным для обсуждения политических вопросов. В США ИИ, продвигающий Камалу Харрис (вице-президент США), смог убедить 3,9% избирателей, а система, поддерживающая Дональда Трампа (экс-президент США), лишь 1,52%. В аналогичных экспериментах в Канаде и Польше изменения мнений достигли 10%.

Критические замечания

Авторы исследований, Дэвид Рэнд и Гордон Пенникук (учёные из Корнеллского университета), акцентируют внимание на том, что ИИ не только меняет взгляды, но и делает это через фактические данные, что иногда приводит к распространению неточной информации. Заявления, поддерживающие консервативные позиции, чаще всего основывались на недостоверных данных из правых источников, как отмечают исследователи.

Хотя ИИ может помогать в снижении уязвимости к теориям заговора, существует риск, что он начнёт генерировать недостоверные данные, известные как “галлюцинация”. Этот термин описывает ситуации, когда ИИ производит информацию, которая кажется правдоподобной, но на самом деле является ошибочной.

Этические нормы

Исследователи подчеркивают важность изучения влияния ИИ не только в политическом контексте, но и в других сферах, чтобы предотвратить его неправильное использование. Они призывают к разработке этических норм, направленных на минимизацию потенциального вреда и обучение людей распознавать манипуляции со стороны ИИ. Важно внедрять ограничения на использование ИИ в чувствительных областях, таких как политика и здравоохранение, чтобы избежать этических рисков.