Microsoft обяви второто поколение на своя AI чип – Maia 200. Новината бе съобщена в понеделник, 26 януари. Чипът е създаден специално за „inference“. Това е процесът на бързо обслужване на заявки към големи AI модели в реална среда.

Компанията планира да интегрира чипа в инфраструктурата на Azure. Целта е по-евтино и по-бързо предоставяне на услуги като Copilot.

Какво представлява Maia 200

Новият ускорител е насочен към изпълнението на модели след тяхното обучение. Това е етапът, в който потребителите задават въпроси и получават отговори. За облачните доставчици това е една от най-скъпите операции.

Според официалните данни, Maia 200 е изграден по 3-нанометров процес на TSMC. Той използва специализирани ядра за формати с по-ниска точност (FP8 и FP4). Това позволява по-бърза обработка на данните.

Microsoft разкри ключови параметри за паметта:

  • 216GB HBM3e памет със скорост 7 TB/s.
  • 272MB вградена SRAM памет (on-chip).

Компанията твърди, че Maia 200 постига над 10 petaFLOPS при FP4 и над 5 petaFLOPS при FP8. Обещанието е за 30% по-добра производителност за долар спрямо сегашния хардуер.

Локации и внедряване

Microsoft заяви, че чипът се интегрира лесно в Azure. Първоначалните внедрявания са в региони на САЩ.

Изданието GeekWire съобщи на 26 януари, че Maia 200 вече работи в център за данни близо до Де Мойн, Айова. Планирано е и второ внедряване близо до Финикс, Аризона.

Защо е нужен собствен чип

Основният мотив е цената на AI услугите. Разходите при „inference“ се трупат от скъп хардуер, енергия и охлаждане. Собственият чип позволява оптимизация.

Microsoft посочва, че Maia 200 ще обслужва различни модели. Това включва и „най-новите GPT-5.2 модели на OpenAI“. Чипът ще поддържа платформи като Microsoft Foundry и Microsoft 365 Copilot.

Конкуренция и анализи

В своя блог Microsoft сравнява Maia 200 директно с конкурентите. Компанията твърди, че има предимство пред третото поколение Amazon Trainium и седмото поколение Google TPU.

„Независимото потвърждение на такива сравнения е трудно, защото резултатите зависят от конкретните натоварвания и софтуерната оптимизация“, отбелязва Forbes в анализ от неделя, 1 февруари.

Следващите седмици ще покажат дали новият хардуер ще доведе до реално намаляване на цените за клиентите на Azure. Битката за AI капацитет вече се води и на ниво силиций.