Наука и техника

OpenAI согласилась сдавать свои будущие ИИ-модели властям США на проверку

OpenAI и Anthropic согласились предоставить властям США доступ к новым ИИ-моделям перед их публичным выпуском.

OpenAI согласилась сдавать свои будущие ИИ-модели властям США на проверку
© Ferra.ru

Эти компании подписали меморандумы с Институтом безопасности ИИ США, что позволит правительству проверять модели на потенциальные риски и предлагать улучшения безопасности.

Данное сотрудничество происходит на фоне обсуждений о регулировании искусственного интеллекта с целью сбалансировать безопасность и инновации.

Соглашения с OpenAI и Anthropic являются частью более широких усилий Белого дома по обеспечению регулирования ИИ.

Компании добровольно обязались инвестировать в исследования по кибербезопасности и разработке методов распознавания ИИ-сгенерированного контента.

Директор Института безопасности ИИ США, Элизабет Келли, назвала эти шаги важным этапом на пути к ответственному управлению развитием искусственного интеллекта.

Источник: news.rambler.ru

Похожие записи

Видео с клубникой под микроскопом произвело фурор в интернете

Windows 11 снижает производительность системы

Новый субфлагман Realme получит очень мощный процессор

Исследование: россияне стали почти вдвое чаще устанавливать Windows на продукцию Apple

Тайну «змеиного червя» на Аляске раскрыли ученые

Apple наконец-то добавит в iPad приложение, которое пользователи ждут с выхода первого поколения планшета

В Apple Vision Pro нашли необычную деталь

Европа объяснила Россией отказ от сотрудничества с Китаем по Луне

Глава Redmi показал на фото еще не представленный смартфон Xiaomi

Эксперт: потенциал Apple в сфере ИИ огромен

Microsoft обвиняет российских хакеров в краже исходного кода

Google объяснил новые меры безопасности в Кошельке

Ваш комментарий

− 1 = 1

* Используя эту форму, вы соглашаетесь с хранением и обработкой ваших данных этим веб-сайтом.

Новости от партнеров

Этот сайт использует файлы cookies и сервисы сбора технических данных посетителей. Ок Прочитать подробнее