Наука

Большие языковые модели оказались «уязвимы» для действия сильных эмоций

Российские ученые проследили за влиянием человеческих эмоций на решения, принимаемые нейросетями, и обнаружили, что гнев и другие сильные эмоциональные переживания оказывают значимое влияние на решения, принимаемые даже самыми "продвинутыми" большими языковыми моделями. Об этом сообщила пресс-служба Института искусственного интеллекта AIRI.

Российские ученые изучили, как эмоции влияют на работу ИИ

© unsplash
«Результаты исследования могут быть использованы для разработки продвинутых устойчивых мультиагентных систем ИИ, чью эмоциональность можно будет устанавливать для каждой сферы применения отдельно. Бизнес вряд ли оценит ситуацию, в которой ИИ-маркетолог увеличит персональную скидку клиента до 99%, потому тот в процессе обсуждения целенаправленно вызвал в системе глубокое чувство досады и несправедливости», — пояснил руководитель группы "ИИ в промышленности" Института AIRI Илья Макаров, чьи слова приводит пресс-служба вуза.

Исследователи, а также специалисты из Лаборатории искусственного интеллекта Сбера и Института системного программирования РАН совершили это открытие при изучении того, как различные проявления человеческих эмоций оказывают влияние на работу большого числа относительно просто устроенных и самых продвинутых систем искусственного интеллекта. В их число вошли многие популярные алгоритмы, в том числе GPT-4, LLaMA2, Gigachat и OpenChat.

Российские исследователи изучили то, сохраняют ли все эти системы ИИ ту эмоциональную предвзятость, которая может присутствовать в данных, используемых для их обучения, а также оценили то, насколько рационально эти алгоритмы действуют при решении различных этических дилемм и при принятии сложных решений. Для получения подобных сведений ученые проследили за тем, как большие языковые модели вели себя в различных экономических играх при использовании русскоязычных или англоязычных данных с сильной эмоциональной компонентой.

Анализ показал, что относительно простые системы ИИ начинали вести себя необъективным образом при игре в "Диктатора", "Дилемму заключенного" и прочие экономические игры при работе с сильно эмоционально окрашенными данными, а более мощные модели, такие как Claude Opus и GPT-4, чаще всего вели себя рациональным образом. Однако даже эти алгоритмы становились более "человечными" в том случае, если они подвергались действию особенно сильных эмоций, в том числе гнева.

Исследователи также обнаружили, что в кооперативных играх негативные эмоции чаще всего снижали готовность системы к сотрудничеству, тогда как страх влиял на их поведение непредсказуемым образом. Схожая картина перемен в работе систем ИИ под действием эмоций наблюдалась и при решении этических задач, что следует учитывать при разработке ИИ-продуктов, часто или постоянно сталкивающихся с подобными проблемами, подытожили ученые.

Источник: doctor.rambler.ru

Похожие записи

Ученые смогли выяснить, люди с какой группой крови считаются самыми красивыми

Новая генетическая форма болезни Альцгеймера возникает из-за двойного набора генов APOE4

Antioxidants: вещество из моркови защитило червей от болезни Альцгеймера

В России доказали безопасность метода для очистки водоёмов

Ученые научились прогнозировать возникновение метастаз при раке легкого

Эксперт рассказал, как наш мозг вызывает глубокий сон, чтобы ускорить выздоровление

eBioMedicine: внеклеточные везикулы с лекарствами подавили раковые опухоли

Диетолог Мосли назвал мифом мнение о замедлении метаболизма из-за диет

Nature: получены первые объемные изображения человеческого тимуса

Врач рассказал, как проверить близкого на болезнь Альцгеймера

Ученые создают вирус, который может уничтожить опухолевые клетки

Цвет кожи повлиял на эффективность лекарств

Ваш комментарий

+ 46 = 50

* Используя эту форму, вы соглашаетесь с хранением и обработкой ваших данных этим веб-сайтом.

Новости от партнеров

Этот сайт использует файлы cookies и сервисы сбора технических данных посетителей. Ок Прочитать подробнее