Войти в почту

Большие языковые модели оказались "уязвимы" для действия сильных эмоций

Российские ученые проследили за влиянием человеческих эмоций на решения, принимаемые нейросетями, и обнаружили, что гнев и другие сильные эмоциональные переживания оказывают значимое влияние на решения, принимаемые даже самыми "продвинутыми" большими языковыми моделями. Об этом сообщила пресс-служба Института искусственного интеллекта AIRI.

Российские ученые изучили, как эмоции влияют на работу ИИ
© unsplash
«Результаты исследования могут быть использованы для разработки продвинутых устойчивых мультиагентных систем ИИ, чью эмоциональность можно будет устанавливать для каждой сферы применения отдельно. Бизнес вряд ли оценит ситуацию, в которой ИИ-маркетолог увеличит персональную скидку клиента до 99%, потому тот в процессе обсуждения целенаправленно вызвал в системе глубокое чувство досады и несправедливости», — пояснил руководитель группы "ИИ в промышленности" Института AIRI Илья Макаров, чьи слова приводит пресс-служба вуза.

Исследователи, а также специалисты из Лаборатории искусственного интеллекта Сбера и Института системного программирования РАН совершили это открытие при изучении того, как различные проявления человеческих эмоций оказывают влияние на работу большого числа относительно просто устроенных и самых продвинутых систем искусственного интеллекта. В их число вошли многие популярные алгоритмы, в том числе GPT-4, LLaMA2, Gigachat и OpenChat.

Российские исследователи изучили то, сохраняют ли все эти системы ИИ ту эмоциональную предвзятость, которая может присутствовать в данных, используемых для их обучения, а также оценили то, насколько рационально эти алгоритмы действуют при решении различных этических дилемм и при принятии сложных решений. Для получения подобных сведений ученые проследили за тем, как большие языковые модели вели себя в различных экономических играх при использовании русскоязычных или англоязычных данных с сильной эмоциональной компонентой.

Анализ показал, что относительно простые системы ИИ начинали вести себя необъективным образом при игре в "Диктатора", "Дилемму заключенного" и прочие экономические игры при работе с сильно эмоционально окрашенными данными, а более мощные модели, такие как Claude Opus и GPT-4, чаще всего вели себя рациональным образом. Однако даже эти алгоритмы становились более "человечными" в том случае, если они подвергались действию особенно сильных эмоций, в том числе гнева.

Исследователи также обнаружили, что в кооперативных играх негативные эмоции чаще всего снижали готовность системы к сотрудничеству, тогда как страх влиял на их поведение непредсказуемым образом. Схожая картина перемен в работе систем ИИ под действием эмоций наблюдалась и при решении этических задач, что следует учитывать при разработке ИИ-продуктов, часто или постоянно сталкивающихся с подобными проблемами, подытожили ученые.