Бывшие и действующие сотрудники ведущих компаний по разработки искусственного интеллекта (OpenAI, Google DeepMind, Anthropic) подписали открытое письмо о рисках, которые несет искусственный интеллект. Также они призвали защитить их от возможного преследования со стороны работодателей.
"Мы понимаем серьезные риски, связанные с этими технологиями. Они варьируются от дальнейшего углубления существующего неравенства, манипуляций и дезинформации, до потери контроля над автономными системами ИИ, что потенциально может привести к исчезновению человечества", — говорится в письме.
Дэниел Кокотайло, бывший сотрудник OpenAI, уволившийся в начале этого года, заявил, что он обеспокоен тем, готовы ли компании к последствиям появления общего/сильного искусственного интеллекта (гипотетической версии ИИ, которая может превзойти людей в когнитивных способностях). Кокотайло заявил, что, по его мнению, вероятность появления "общего искусственного интеллекта" к 2027 году составляет 50%.
Подписанты считают, что риски можно смягчить при достаточном контроле над разработками со стороны научного сообщества, политиков и общественности. Однако, у компаний, занимающихся искусственным интеллектом, есть мощные стимулы избегать такого контроля, так как по объективным причинам это замедляет разработку новых продуктов, что в условиях быстрого развития ИИ-технологий дает конкурентам заметное преимущество при выводе новых продуктов и решений на рынок.
Практика подтверждает такие опасения. Так, например в ЕС, самом зарегулированном политико-экономическом союзе мира, несмотря на имеющийся научно-технический потенциал появился всего один заметный игрок на рынке ИИ — французская компания Mistral AI. При этом ее капитализация составляет всего 2 млрд. долларов. Капитализация же лидера рынка, американской OpenAI, достигла уже 80 млрд.
Тем не менее, составители письма считают, что компании, занимающиеся искусственным интеллектом, не разглашают важную информацию о возможностях и ограничениях своих ИИ-систем, адекватности принимаемых ими защитных мер и уровне опасности.
"В настоящее время у компаний, занимающихся разработкой ИИ есть лишь слабые обязательства по обмену частью этой информации с правительствами, но с гражданским обществом. Мы не думаем, что можно рассчитывать на то, что они все поделятся этим добровольно", — утверждают подписанты. При этом компания OpenAI фактически распустила команду, занимающуюся обеспечением безопасности возможных будущих сверхмощных систем искусственного интеллекта, после ухода двух лидеров группы, включая учредителя и главного ученого OpenAI Ильи Суцкевера.
Еще одни момент, который отметили составители письма, это соглашения о конфиденциальности, которые подписывают сотрудники ИИ-компаний и которые не позволяют им озвучивать возникающие у них опасения. При этом обычных мер защиты сотрудников от финансового и юридического давления со стороны бизнеса сегодня недостаточно, поскольку эти меры были разработаны для защиты информаторов, сообщающих о нарушении закона компаниями. В случае разработки ИИ-решений таких нарушения происходят крайне редко и связанны в основном с некорректным сбором и использованием данных для обучения нейросетей.
"Некоторые из нас обоснованно опасаются различных форм давления и наказания со стороны крупных компаний, учитывая историю подобных случаев в отрасли. Мы не первые, кто сталкивается с подобными проблемами и говорит об этом", — отмечается в письме.
Это далеко не первое, и даже не второе, открытое письмо, предупреждающее об опасностях, которые несет разработка искусственного интеллекта. Так в апреле 2023 года более двух тысяч исследователей и основателей стартапов подписали открытое письмо с призывом ввести мораторий на обучение систем искусственного интеллекта, более мощных, чем GPT-4. Среди подписантов письма, составленного Future of Life Institute (организацией, работающей над снижением рисков, с которыми сталкивается человечество с развитием ИИ) было немало известных фигур — Илон Маск, Стив Возняк (сооснователь Apple), канадский математик Йошуа Бенжио и британский ученый Стюарт Рассел.
По мнению генерального директора Научно-исследовательского институт искусственного интеллекта AIRI и профессора "Сколтеха" Ивана Оселедца, письмо экс-сотрудников DeepMind и OpenAI в первую очередь связано с политиками компаний по конфиденциальности, которые находятся в фокусе общественного внимания в последние месяцы. Он отмечает, что, как и любая другая технология, искусственный интеллект не совершенен, и обсуждать потенциальные негативные сценарии — нормально, но делать ставку, как авторы открытых писем, опубликованных в последний год, на "глобальном вымирании" и подобных абстрактных, но звучащих очень страшно угрозах, кажется преждевременным и смазывающим фокус внимания.
"Реальные риски связаны в первую очередь с потенциальными ошибками при внедрении в критически-важные отрасли и с неправомерным использованием технологий ИИ. Первый риск митигируется созданием максимально точных бенчмарков и систем проверки, второй — разработкой доверенных систем ИИ, систем защиты моделей и грамотным регулированием, основанном на понимании законодателями принципов работы ИИ-компаний и готовностью разработчиков включаться в обсуждения", — уверен Оселедец.