Никита Бородкин
Полное доверие нейросетям в ближайшем будущем может быть опасным, поскольку они все еще часто ошибаются, что в критических ситуациях может сыграть злую шутку. Как сообщает РИА Новости, об этом заявил глава группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов.
Эксперт отметил, что сейчас пользователь может столкнуться с ситуацией, когда нейросеть отвечает ему «на понятном языке, красивыми словами», однако сама информация неверна или искажена.
«Мы, как человеческий вид, к такому не были готовы. Если что-то хорошо, красиво говорит, особенно, если это компьютер, значит, это нечто разумное, и мы склонны ему верить, а оно может ошибаться, и нередко», — сказал Тушканов.
Эта проблема называется overreliance, что переводится как чрезмерное доверие или зависимость. Она возникает, когда крупные языковые модели используют как помощника для оптимизации процессов и облегчения труда, а пользователь начинает на них полностью полагаться. Причем чем более точными становятся нейросети, тем больше им доверяет пользователь, и тем критичнее может быть ошибка. В пример эксперт привел просьбу подобрать систему фильм — если в ответ она посоветует несуществующую картину, то ничего страшного в этом нет.
«Но если я ей выложу свои симптомы и спрошу, чем я сейчас болею, а она мне поставит неверный диагноз — вот это уже опасно», — подчеркнул Тушканов.
Эксперт сомневается, что нейросетям можно будет когда-либо доверять на 100%. Поскольку каждая языковая модель генерирует следующее слово с учетом предыдущих, используя наиболее вероятные комбинации, ошибки возникают регулярно. При этом чрезмерным доверием людей обязательно будут пользоваться мошенники. В комбинации с дипфейками и подделкой голоса это может стать огромной угрозой уже в ближайшее время.