Наука и техника

Два ИИ впервые успешно пообщались словами и поняли друг друга

Команда из Женевского университета преуспела в моделировании искусственной нейронной сети, способной общаться словами. После изучения и выполнения задач ИИ смог предоставить их лингвистическое описание «родственной» нейросети, которая, в свою очередь, тоже выполнила их. Результаты опубликованы в журнале Nature Neuroscience, сообщает ТechХplore.

Два ИИ впервые успешно пообщались словами и поняли друг друга

© Naukatv.ru

Выполнение новой задачи без предварительной подготовки, исключительно на основе устных или письменных инструкций, является уникальной способностью человека. Более того, получив задачу, мы можем описать ее так, чтобы другой человек тоже мог ее воспроизвести. 

«В настоящее время диалоговые агенты, использующие ИИ, способны интегрировать лингвистическую информацию для создания текста или изображения. Но, насколько нам известно, они пока не были способны переводить устную или письменную инструкцию в сенсомоторное действие и тем более объяснять ее другому искусственному интеллекту, чтобы он мог его воспроизвести», — объясняет Александр Пуже, руководитель исследования, профессор кафедры фундаментальных нейронаук медицинского факультета Женевского университета.

Ему с коллегами удалось разработать модель с такой способностью — в основе лежит мозгоподобный искусственный интеллект, математически воспроизводящий работу живого человеческого мозга. Авторы использовали существующую модель S-Bert, в которой 300 миллионов «нейронов», она уже обучена понимать язык. Затем ее соединили с другой, более простой сети из нескольких тысяч.

Нейробиологи сначала обучили первую сеть повторять работу области Вернике — части нашего мозга, которая позволяет нам воспринимать и интерпретировать язык. На втором этапе сеть обучалась воспроизведению зоны Брока, которая после сигналов от зоны Вернике отвечает за произнесение слов. Весь процесс проводился на обычных компьютерах. Затем первой модели ИИ были даны письменные инструкции на английском языке. Например: указать место (слева или справа), где находится искомый сигнал; какую реакцию нужно проявить; выбрать наиболее яркий зрительный стимул из двух с небольшим контрастом.

«Как только эти задачи были освоены, первая сеть смогла описать их второй, чтобы та могла их воспроизвести. Насколько нам известно, это первый случай, когда два ИИ смогли поговорить друг с другом чисто лингвистически. Сеть, которую мы разработали, очень мала. Сейчас ничто не мешает разработать на этой основе гораздо более сложные нейросети, которые будут интегрированы в андроидов, способных понимать нас, но также и понимать друг друга», — говорит Александр Пуже.

Источник: news.rambler.ru

Похожие записи

Nikkei: разработчик ChatGPT планирует открыть первый офис в Азии

Американские ученые установили роль горных лесов в борьбе с изменениями климата

Ученые показали лицо жившей 75 тысяч лет назад неандерталки

Предсказана катастрофическая жара во время Олимпиады 2024 года

Корабль Shenzhou-18 успешно вывели на околоземную орбиту

Обнаружена гибель галактик из-за черных дыр

Ученые объяснили, почему у людей нет третьего века

В Петербурге могут запустить роботов-дворников

В партии Зеленского предложили обложить украинцев налогом на iPhone

Технический эксперт Бязиев дал 5 советов для продления срока службы смартфона

iPhone научился предупреждать пользователей о нежелательной слежке

В Минцифры объяснили отключения 4G на северо-западе России

Ваш комментарий

− 1 = 1

* Используя эту форму, вы соглашаетесь с хранением и обработкой ваших данных этим веб-сайтом.

Новости от партнеров

Этот сайт использует файлы cookies и сервисы сбора технических данных посетителей. Ок Прочитать подробнее