Команда из Женевского университета преуспела в моделировании искусственной нейронной сети, способной общаться словами. После изучения и выполнения задач ИИ смог предоставить их лингвистическое описание «родственной» нейросети, которая, в свою очередь, тоже выполнила их. Результаты опубликованы в журнале Nature Neuroscience, сообщает ТechХplore.
Выполнение новой задачи без предварительной подготовки, исключительно на основе устных или письменных инструкций, является уникальной способностью человека. Более того, получив задачу, мы можем описать ее так, чтобы другой человек тоже мог ее воспроизвести.
«В настоящее время диалоговые агенты, использующие ИИ, способны интегрировать лингвистическую информацию для создания текста или изображения. Но, насколько нам известно, они пока не были способны переводить устную или письменную инструкцию в сенсомоторное действие и тем более объяснять ее другому искусственному интеллекту, чтобы он мог его воспроизвести», — объясняет Александр Пуже, руководитель исследования, профессор кафедры фундаментальных нейронаук медицинского факультета Женевского университета.
Ему с коллегами удалось разработать модель с такой способностью — в основе лежит мозгоподобный искусственный интеллект, математически воспроизводящий работу живого человеческого мозга. Авторы использовали существующую модель S-Bert, в которой 300 миллионов «нейронов», она уже обучена понимать язык. Затем ее соединили с другой, более простой сети из нескольких тысяч.
Нейробиологи сначала обучили первую сеть повторять работу области Вернике — части нашего мозга, которая позволяет нам воспринимать и интерпретировать язык. На втором этапе сеть обучалась воспроизведению зоны Брока, которая после сигналов от зоны Вернике отвечает за произнесение слов. Весь процесс проводился на обычных компьютерах. Затем первой модели ИИ были даны письменные инструкции на английском языке. Например: указать место (слева или справа), где находится искомый сигнал; какую реакцию нужно проявить; выбрать наиболее яркий зрительный стимул из двух с небольшим контрастом.
«Как только эти задачи были освоены, первая сеть смогла описать их второй, чтобы та могла их воспроизвести. Насколько нам известно, это первый случай, когда два ИИ смогли поговорить друг с другом чисто лингвистически. Сеть, которую мы разработали, очень мала. Сейчас ничто не мешает разработать на этой основе гораздо более сложные нейросети, которые будут интегрированы в андроидов, способных понимать нас, но также и понимать друг друга», — говорит Александр Пуже.