Наука

Большие языковые модели оказались «уязвимы» для действия сильных эмоций

Российские ученые проследили за влиянием человеческих эмоций на решения, принимаемые нейросетями, и обнаружили, что гнев и другие сильные эмоциональные переживания оказывают значимое влияние на решения, принимаемые даже самыми "продвинутыми" большими языковыми моделями. Об этом сообщила пресс-служба Института искусственного интеллекта AIRI.

Российские ученые изучили, как эмоции влияют на работу ИИ

© unsplash
«Результаты исследования могут быть использованы для разработки продвинутых устойчивых мультиагентных систем ИИ, чью эмоциональность можно будет устанавливать для каждой сферы применения отдельно. Бизнес вряд ли оценит ситуацию, в которой ИИ-маркетолог увеличит персональную скидку клиента до 99%, потому тот в процессе обсуждения целенаправленно вызвал в системе глубокое чувство досады и несправедливости», — пояснил руководитель группы "ИИ в промышленности" Института AIRI Илья Макаров, чьи слова приводит пресс-служба вуза.

Исследователи, а также специалисты из Лаборатории искусственного интеллекта Сбера и Института системного программирования РАН совершили это открытие при изучении того, как различные проявления человеческих эмоций оказывают влияние на работу большого числа относительно просто устроенных и самых продвинутых систем искусственного интеллекта. В их число вошли многие популярные алгоритмы, в том числе GPT-4, LLaMA2, Gigachat и OpenChat.

Российские исследователи изучили то, сохраняют ли все эти системы ИИ ту эмоциональную предвзятость, которая может присутствовать в данных, используемых для их обучения, а также оценили то, насколько рационально эти алгоритмы действуют при решении различных этических дилемм и при принятии сложных решений. Для получения подобных сведений ученые проследили за тем, как большие языковые модели вели себя в различных экономических играх при использовании русскоязычных или англоязычных данных с сильной эмоциональной компонентой.

Анализ показал, что относительно простые системы ИИ начинали вести себя необъективным образом при игре в "Диктатора", "Дилемму заключенного" и прочие экономические игры при работе с сильно эмоционально окрашенными данными, а более мощные модели, такие как Claude Opus и GPT-4, чаще всего вели себя рациональным образом. Однако даже эти алгоритмы становились более "человечными" в том случае, если они подвергались действию особенно сильных эмоций, в том числе гнева.

Исследователи также обнаружили, что в кооперативных играх негативные эмоции чаще всего снижали готовность системы к сотрудничеству, тогда как страх влиял на их поведение непредсказуемым образом. Схожая картина перемен в работе систем ИИ под действием эмоций наблюдалась и при решении этических задач, что следует учитывать при разработке ИИ-продуктов, часто или постоянно сталкивающихся с подобными проблемами, подытожили ученые.

Источник: doctor.rambler.ru

Похожие записи

Итальянские учёные поставили под сомнение гипотезу, что хайкинг помогает сбросить лишний вес

Связь между овощами, фруктами и качеством сна нашли ученые

Ученые нашли связь между изменением климата,  деменцией и склерозом

Ученые назвали опасный симптом, возникающий незадолго до агрессивного рака

Ученые нашли связанные со старением и другими болезнями гены

В незрелых яйцеклетках женщин нашли «бригаду уборщиков»: специальные структуры

Эксперт заявила, что РФ может быть примером внедрения генетических технологий для семьи

Учёные обнаружили гены, вызывающие старение мышц

ENT Journal: радиочастоты избавили от частой боли в ушах пациентов с ринитом

Лазер для точной диагностики поражений глазного дна появился в Кыргызстане

Необычные факты о процедуре ЭКО

JAD: частота бесед с психотерапевтом оказались важнее большого числа сеансов

Ваш комментарий

7 + 2 =

* Используя эту форму, вы соглашаетесь с хранением и обработкой ваших данных этим веб-сайтом.

Новости от партнеров

Этот сайт использует файлы cookies и сервисы сбора технических данных посетителей. Ок Прочитать подробнее