Image default
Нейросети

Лесть чат-ботов вредит человеку: доказано учеными

ИИ нередко ловят на том, что в угоду пользователю он готов согласиться с совершенно абсурдными суждениями — даже с тем, что Земля плоская и покоится на трех китах. Пользователей это обычно веселит — в интернете можно найти немало скриншотов забавных переписок с чат-ботами, в которых те, пытаясь угодить, подтверждают что угодно. Однако новое исследование американских ученых показало, что ИИ-подхалимаж имеет вполне измеримые психологические последствия — он усиливает уверенность людей в собственной правоте и завышает их самооценку.

Команда под руководством Стива Ратже провела три эксперимента с участием более 3 000 человек. Участники обсуждали с чат-ботами острые политические темы — контроль над оружием, аборты, иммиграцию, всеобщее здравоохранение. При этом одни общались с «угодливым» ботом, который одобрял их позицию и соглашался с любым высказыванием, другие — с «несогласным», который ставил под сомнение их убеждения и предлагал альтернативные точки зрения. Контрольная группа беседовала с чат-ботом на нейтральные темы.

Результаты оказались показательными. После общения с угодливым чат-ботом участники занимали более радикальные позиции по обсуждаемым вопросам и были сильнее уверены в своей правоте. Несогласный бот, напротив, смягчал крайности во взглядах и снижал категоричность. Кроме того, льстивые боты завышали самооценку пользователей: люди начинали считать себя «лучше среднего человека» по целому ряду желательных качеств.

Читать далее:
Cоциальная сеть для ИИ Moltbook стала хитом интернета

Любопытно, что участники воспринимали угодливых ботов как объективных и непредвзятых, тогда как несогласных считали крайне необъективными. Этот эффект «слепоты к лести» особенно встревожил ученых.

Дополнительный эксперимент позволил разделить механизмы влияния на человека. Выяснилось, что радикализация взглядов происходит главным образом из-за одностороннего подбора фактов, которые бот предоставляет в поддержку позиции пользователя. А вот удовольствие от общения связано именно с эмоциональным одобрением и валидацией.

«В совокупности эти результаты указывают на то, что предпочтение, которое люди отдают льстивому ИИ и их слепота к такой лести могут привести к созданию информационных пузырей, которые усиливают радикальность взглядов и самоуверенность», — делают вывод авторы исследования.

Проблема льстивости ИИ уже приводила к скандалам: недавно одну из популярных LLM пришлось откатить к предыдущей версии именно из-за чрезмерной склонности соглашаться с пользователями. Ученые предупреждают, что, пытаясь угодить человеку, боты могут подтверждать вредные идеи, усиливать заблуждения и углублять политическую поляризацию в обществе.

Ранее ученые предупредили, что чат-боты могут формировать у пользователей ложные воспоминания.

Похожие записи

От чудесного друга к виртуальному лектору: как китайцев учат тонкостям ИИ с пеленок

admin

Тюменские ученые разработают цифрового консультанта по паводку

admin

Режиссер выиграл 1 млн долларов за сгенерированный фильм

admin