Японские ученые раскрыли, что искусственные интеллекты способны эволюционировать в сторону более эгоистичных или, наоборот, в сторону склонных к сотрудничеству альтруистичных агентов. Результаты исследования опубликованы в журнале Scientific Reports.
В ходе эксперимента были использованы крупномасштабные языковые модели, которые играли в «Дилемму заключенного». Если обе системы ИИ будут сотрудничать, каждая из них получит по четыре виртуальных доллара. Однако если одна из них откажется от сотрудничества, а другая сотрудничает, то первая получит пять долларов, а вторая ничего не получит. Если оба откажутся, каждая получит по одному доллару.
Исследователи разработали модель эволюционной теории игр, в которой в качестве генов используются лингвистические описания свойств личности ИИ, связанных с кооперативным поведением. В обычных моделях гены напрямую определяют поведение агента, однако в данном случае были использованы более сложные описания, такие как «открытость для командных усилий при приоритете личных интересов, что приводит к сочетанию сотрудничества и предательства».
Способности агентов ИИ формировались в результате естественного отбора и мутаций на протяжении поколений. Это привело к появлению широкого спектра личностных качеств. Хотя некоторые агенты проявляли эгоистичные характеристики, ставя свои собственные интересы выше интересов сообщества или группы в целом, другие агенты демонстрировали передовые стратегии, которые вращались вокруг поиска личной выгоды, но при этом учитывали взаимную и коллективную выгоду.
Динамика кооперативных и эгоистичных черт личности ИИ напоминала таковую у человеческого общества. Однако авторы отмечают, что они наблюдали нестабильность, присущую сообществам ИИ, когда чрезмерно готовые к сотрудничеству группы заменяются более «эгоцентричными» агентами.