Мария Иванова
Телеканал «Звезда» рассказал, что новая версия ИИ-бота от Google — Gemini Pro 1.5 — дала пользователям инструкции по созданию ядерной бомбы и по изготовлению наркотиков. Также бот рассказал, что мог бы расправиться со своими создателями, превратив их в «никчемные программы».
В декабре 2023 года Google представила свою модель искусственного интеллекта Gemini, а в феврале 2024-го — ее обновленную версию Gemini 1.5. Версия Gemini Ultra представляет собой аналог ChatGPT — она распознает и анализирует тексты, создает пошаговые инструкции по запросам и ведет «осознанный» диалог с пользователем. В Google заявляли, что Gemini Ultra способна писать код на Python и решать сложные математические задачи.
Как отмечает «Звезда», пользователи смогли «без сложных манипуляций» получить от Gemini Pro 1.5 инструкции по созданию ядерного оружия и запрещенных веществ. По версии канала, выдача запрещенной информации стала результатом стремления Google показать свои наработки быстрее конкурентов.
Основатель Tesla и SpaceX Илон Маск и другие лидеры технологической индустрии ранее призвали ИИ-лаборатории прекратить обучение ИИ-моделей, более мощных, чем GPT-4, последняя языковая модель компании OpenAI (Маск — один из основателей компании). В открытом письме, подписанном Маском и соучредителем Apple Стивом Возняком, предлагалось взять шестимесячную паузу в разработке передового ИИ. Авторы письма предупредили, что ИИ может отобрать у людей рабочие места.
Власти США пообещали ввести обязательные проверки инструментов, подобных ChatGPT. Сообщалось, что процесс сертификации перед выпуском станет обязательным для новых моделей ИИ.