Obecnie rynek akceleratorów AI dominuje NVIDIA, oferująca na szeroką skalę akceleratory B200 i B300. Jednocześnie sektor ulega coraz większej specjalizacji, niektóre firmy zajmujące się tworzeniem modeli AI zaczęły projektować własne akceleratory, dostosowane do potrzeb i specyfiki swoich modeli. Przykładem jest Microsoft, który wprowadza obecnie akceleratory Azure Maia 200, mające konkurować m.in. z układami TPU od Google i Amazon Trainium.
Akceleratory Microsoft Azure Maia 200 zapewniają czterokrotnie wyższą wydajność FP4 w porównaniu z 3. generacją układów Amazon Trainium oraz oferują wydajność FP8 przewyższającą 7. generację chipów TPU od Google.
Akceleratory Microsoft Azure Maia 200 zostały wyprodukowane w procesie technologicznym TSMC N3P (3 nm). Każdy chip zawiera ponad 100 miliardów tranzystorów, a jego parametr TDP określono na 880 W. Układy wykorzystują pamięć SRAM zintegrowaną bezpośrednio w strukturę krzemową chipu o pojemności 272 MB, a także współpracują z pamięcią HBM3E o pojemności 216 GB i przepustowości 7 TB/s. Chip Maia 200 został zoptymalizowany do obliczeń w niskiej precyzji, oferując 10 145 teraFLOPS w precyzji FP4 oraz 5 072 teraFLOPS w precyzji FP8. W przypadku obliczeń w formacie BF16 osiąga 1 268 teraFLOPS. W praktyce oznacza to, że pojedynczy układ Maia 200 jest w stanie obsłużyć obecnie największe modele AI, pozostawiając jednocześnie rezerwę mocy obliczeniowej na jeszcze większe modele w przyszłości.
W dużych centrach obliczeń AI kluczową rolę odgrywa komunikacja między chipami i węzłami. W jednym węźle znajdują się cztery chipy Maia 200, połączone bezpośrednimi, nieprzełączanymi łączami. Podsystem pamięci Maia 200 opiera się na wąskich typach danych, specjalizowanym silniku DMA, pamięci SRAM zintegrowanej bezpośrednio na chipie oraz wyspecjalizowanej strukturze NoC (Network-on-Chip) do przesyłania danych o wysokiej przepustowości. Dzięki temu większa część wag i danych modelu może być utrzymywana lokalnie, co redukuje liczbę urządzeń potrzebnych do uruchomienia modelu. W odróżnieniu od NVIDIA w generacji akceleratorów Vera Rubin, Microsoft wykorzystał w połączeniach między węzłami powszechny standard Ethernet. Mowa o połączeniach o przepustowości 400 Gb/s, realizowanych przez 28 łączy sieciowych. Połączenia te korzystają także ze ściśle zintegrowanej karty sieciowej (NIC) oraz niestandardowej warstwy transportowej dla danych.
Maia 200
7. generacji
Intel i NVIDIA budują niestandardowe procesory Xeon z technologią NVLink dla infrastruktury AI
Te same protokoły komunikacyjne są używane zarówno w sieciach wewnątrz-rackowych, jak i między-rackowych, przy wykorzystaniu protokołu transportowego Maia AI, co umożliwia płynne skalowanie węzłów, szaf rackowych i klastrów akceleratorów przy minimalnej liczbie przeskoków sieciowych. Taka zunifikowana architektura upraszcza oprogramowanie, zwiększa elastyczność obciążeń oraz zachowuje spójną wydajność. Przyczynia się to do obniżenia kosztów utrzymania infrastruktury, co przekłada się na niższy wskaźnik TCO w skali całej serwerowni AI. Dodatkowo same układy Maia 200 oferują o 30% lepszy stosunek wydajności do kosztów w porównaniu z dotychczas stosowanymi systemami. Ponadto Microsoft podkreśla, że dzięki zaawansowanemu środowisku symulacyjnemu pierwsze węzły Maia 200 mogły zostać uruchomione już w ciągu kilku dni od dostarczenia pierwszych chipów, a czas od powstania pierwszego fizycznego układu do pełnego wdrożenia w centrum danych został skrócony do mniej niż połowy w porównaniu z innymi podobnymi projektami chipów i centrów AI.
Chipy Maia 200 będą wykorzystywane przede wszystkim wewnątrz infrastruktury Microsoftu, do generowania danych syntetycznych oraz uczenia ze wzmocnieniem, w celu usprawnienia kolejnej generacji własnych modeli. Modele te będą wdrażane m.in. w Microsoft Foundry (platforma AI do budowania i uruchamiania modeli w Azure) oraz w Microsoft 365 Copilot i powiązanych usługach. Obecnie węzły z układami Maia 200 są wdrażane w regionie US Central, a kolejnym etapem będzie uruchomienie infrastruktury w regionie US West 3 w pobliżu Phoenix w Arizonie. W dalszej perspektywie planowane są wdrożenia w kolejnych regionach. Jednocześnie Microsoft zachęca środowiska naukowe, deweloperów i szeroko pojęte laboratoria AI do eksperymentowania z modelami i obciążeniami przy użyciu nowego Maia SDK, które obejmuje: kompilator Triton, wsparcie dla PyTorch, niskopoziomowe programowanie w NPL, symulator Maia oraz kalkulator kosztów, umożliwiające wczesną optymalizację efektywności obliczeniowej.
Źródło: Microsoft
![Microsoft Maia 200 - premiera akceleratorów AI zbudowanych do interferencji z dużymi modelami, która powalczy z TPU od Google [2]](https://www.europesays.com/pl/wp-content/uploads/2026/01/1769500629_246_26_microsoft_maia_200_premiera_akceleratorow_ai_zbudowanych_do_interferencji_z_duzymi_modelami_ktora.jpeg)
![Microsoft Maia 200 - premiera akceleratorów AI zbudowanych do interferencji z dużymi modelami, która powalczy z TPU od Google [3]](https://www.europesays.com/pl/wp-content/uploads/2026/01/1769500630_379_26_microsoft_maia_200_premiera_akceleratorow_ai_zbudowanych_do_interferencji_z_duzymi_modelami_ktora.jpeg)