Исследователи из Цюрихского университета провели эксперимент в популярном сообществе Reddit r/ChangeMyView — с помощью ИИ-ботов ученые пытались изменить мнение пользователей. В течение четырех месяцев боты опубликовали 1783 комментария, получив 137 знаков дельта (∆) — символов, которые присуждаются, когда чей-то аргумент успешно изменил точку зрения автора поста.
Ученые протестировали три подхода: «обычный» ИИ, ИИ, «настроенный на сообщество», и «персонализированный» ИИ, который анализировал личные данные пользователей для создания индивидуальных аргументов. Результаты показали значительное преимущество ИИ над людьми — боты были в среднем в 3-6 раз убедительнее людей. Персонализированный ИИ показал наилучший результат с 18% успешности, обогнав 99% обычных пользователей по эффективности убеждения.
Боты часто выдавали себя за людей с определенным опытом или характеристиками, чтобы усилить свои аргументы. Например, один бот представлялся жертвой сексуального насилия, другой — суррогатной матерью. Некоторые притворялись врачами, юристами, ветеранами или представителями этнических меньшинств. Они также занимали иногда крайне спорные позиции, например один бот утверждал, что людей с тяжелыми врожденными инвалидностями следует убивать.
Модераторы Reddit резко раскритиковали эксперимент как «неэтичную психологическую манипуляцию» и нарушение правил сообщества, запрещающих использование ИИ-ботов без раскрытия информации. Особое недовольство вызвала стратегия персонализации и сбор данных пользователей. Модераторы подали официальную жалобу в университет, требуя публичных извинений и отказа от публикации исследования.
Несмотря на защиту со стороны университета, который оценил риски как минимальные и подчеркнул социальную значимость изучения манипуляций со стороны ИИ, исследователи решили не публиковать результаты. Этический комитет вынес формальное предупреждение руководителю проекта за нарушение правил, но не потребовал отказа от публикации.