Наука и техника

Два ИИ впервые успешно пообщались словами и поняли друг друга

Команда из Женевского университета преуспела в моделировании искусственной нейронной сети, способной общаться словами. После изучения и выполнения задач ИИ смог предоставить их лингвистическое описание «родственной» нейросети, которая, в свою очередь, тоже выполнила их. Результаты опубликованы в журнале Nature Neuroscience, сообщает ТechХplore.

Два ИИ впервые успешно пообщались словами и поняли друг друга

© Naukatv.ru

Выполнение новой задачи без предварительной подготовки, исключительно на основе устных или письменных инструкций, является уникальной способностью человека. Более того, получив задачу, мы можем описать ее так, чтобы другой человек тоже мог ее воспроизвести. 

«В настоящее время диалоговые агенты, использующие ИИ, способны интегрировать лингвистическую информацию для создания текста или изображения. Но, насколько нам известно, они пока не были способны переводить устную или письменную инструкцию в сенсомоторное действие и тем более объяснять ее другому искусственному интеллекту, чтобы он мог его воспроизвести», — объясняет Александр Пуже, руководитель исследования, профессор кафедры фундаментальных нейронаук медицинского факультета Женевского университета.

Ему с коллегами удалось разработать модель с такой способностью — в основе лежит мозгоподобный искусственный интеллект, математически воспроизводящий работу живого человеческого мозга. Авторы использовали существующую модель S-Bert, в которой 300 миллионов «нейронов», она уже обучена понимать язык. Затем ее соединили с другой, более простой сети из нескольких тысяч.

Нейробиологи сначала обучили первую сеть повторять работу области Вернике — части нашего мозга, которая позволяет нам воспринимать и интерпретировать язык. На втором этапе сеть обучалась воспроизведению зоны Брока, которая после сигналов от зоны Вернике отвечает за произнесение слов. Весь процесс проводился на обычных компьютерах. Затем первой модели ИИ были даны письменные инструкции на английском языке. Например: указать место (слева или справа), где находится искомый сигнал; какую реакцию нужно проявить; выбрать наиболее яркий зрительный стимул из двух с небольшим контрастом.

«Как только эти задачи были освоены, первая сеть смогла описать их второй, чтобы та могла их воспроизвести. Насколько нам известно, это первый случай, когда два ИИ смогли поговорить друг с другом чисто лингвистически. Сеть, которую мы разработали, очень мала. Сейчас ничто не мешает разработать на этой основе гораздо более сложные нейросети, которые будут интегрированы в андроидов, способных понимать нас, но также и понимать друг друга», — говорит Александр Пуже.

Источник: news.rambler.ru

Похожие записи

На Землю обрушится шестибалльная магнитная буря

Пользователи теряют доступ к Apple ID из-за сбоя в сервисах компании

Названа главная опасность смартфонов

Ученые назвали лучшее место для наблюдения за НЛО

Xiaomi запустит линейку мощных Turbo-смартфонов

Смартфоны Xiaomi в 2023 году стали дороже, компания обороты сбавлять не хочет

В новых Apple Watch отключат функцию измерения кислорода в крови

Сбер представил юридического ИИ-помощника

«Страна.ua»: Telegram отключил украинских ботов, собирающих данные о технике РФ

Опубликован первый скриншот HarmonyOS Next, который лишится поддержки Android-приложений

В России могут заблокировать Discord: что об этом известно, есть ли аналоги

Apple начала блокировать Telegram

Ваш комментарий

− 9 = 1

* Используя эту форму, вы соглашаетесь с хранением и обработкой ваших данных этим веб-сайтом.

Новости от партнеров

Этот сайт использует файлы cookies и сервисы сбора технических данных посетителей. Ок Прочитать подробнее