Американский интернет-гигант Amazon, через свое подразделение Amazon Web Services (AWS), активно развивает собственную инфраструктуру для облачных услуг, стремясь к независимости от компонентов и программного обеспечения Nvidia. В следующем месяце компания планирует представить новые ИИ-ускорители Trainium 2, способные справляться с обучением больших языковых моделей, то есть нейросетей. Об этом сообщает Financial Times (TM).
Уже сейчас ускорители Amazon из семейства Inferentia обходятся на 40% дешевле решений Nvidia при генерировании ответов ИИ-сервисов. Это может иметь решающее значение при выборе вычислительной платформы, особенно учитывая, что капитальные расходы Amazon в этом направлении могут достичь $75 млрд в текущем году.
Эксперты отмечают, что крупные провайдеры облачных услуг стремятся формировать собственную вертикально интегрированную структуру используемых чипов, что позволяет снизить расходы, поднять прибыль и усилить контроль над доступностью чипов и развитием бизнеса. Собственные чипы также позволяют Amazon снизить потребление электроэнергии и повысить КПД центров обработки данных.
Представители TechInsights сравнивают чипы Nvidia с автомобилями с кузовом типа «универсал», в то время как решения Amazon напоминают более компактные хэтчбеки, настроенные на выполнение узкого спектра задач. Amazon не раскрывает данные о тестировании быстродействия своих ускорителей, но ожидается, что чипы Trainium 2 превзойдут своих предшественников в четыре раза по уровню быстродействия.
Появление альтернатив решениям Nvidia уже может быть высоко оценено клиентами AWS, включая стартап Anthropic, Databricks, Deutsche Telekom, Ricoh и Stockmark.