Наука и техника

OpenAI согласилась сдавать свои будущие ИИ-модели властям США на проверку

OpenAI и Anthropic согласились предоставить властям США доступ к новым ИИ-моделям перед их публичным выпуском.

OpenAI согласилась сдавать свои будущие ИИ-модели властям США на проверку
© Ferra.ru

Эти компании подписали меморандумы с Институтом безопасности ИИ США, что позволит правительству проверять модели на потенциальные риски и предлагать улучшения безопасности.

Данное сотрудничество происходит на фоне обсуждений о регулировании искусственного интеллекта с целью сбалансировать безопасность и инновации.

Соглашения с OpenAI и Anthropic являются частью более широких усилий Белого дома по обеспечению регулирования ИИ.

Компании добровольно обязались инвестировать в исследования по кибербезопасности и разработке методов распознавания ИИ-сгенерированного контента.

Директор Института безопасности ИИ США, Элизабет Келли, назвала эти шаги важным этапом на пути к ответственному управлению развитием искусственного интеллекта.

Источник: news.rambler.ru

Похожие записи

NASA показало, что случилось с марсоходом за 12 лет на Марсе

NASA: разработана виртуальная модель космоса из 4 млн изображений

В Ставрополе разработали робота для сбора урожая в теплицах

Впервые полностью расшифрован геном кофейного дерева сорта арабика

Совершен прорыв в создании сверхбыстрой зарядки

Разработана передовая технология для исследования планет

Обломки сбитого американским истребителем НЛО увезла полиция

Следы самых ранних землетрясений в истории Земли нашли в Южной Африке

Почему Apple Vision Pro трескаются пополам?

Спустя 13 лет Snapchat наконец-то запустил iPad-версию приложения

17 лет первому iPhone. Как им он был по сравнению с iPhone 15

Лучший смартфон за 6 тысяч рублей: Xiaomi Redmi A3 против Realme Note 50

Ваш комментарий

84 − = 79

* Используя эту форму, вы соглашаетесь с хранением и обработкой ваших данных этим веб-сайтом.

Новости от партнеров

Этот сайт использует файлы cookies и сервисы сбора технических данных посетителей. Ок Прочитать подробнее