ما را دنبال کنید:

معرفی Trainium3؛ قدرتمندترین چیپ اختصاصی AWS برای آموزش مدل‌های هوش مصنوعی در ۲۰۲۵

22 بازدید

AWS در رویداد re:Invent 2025 نسل جدید سرورهای Trn3 UltraServers با چیپ ۳ نانومتری Trainium3 را معرفی کرد؛ سرورهایی با ۳۶۲ PFLOPs توان FP8 و ۲۰.۷ ترابایت HBM3e.

مقدمه

در جریان رویداد AWS re:Invent 2025، سرویس‌های وب آمازون (AWS) نسل تازه‌ای از زیرساخت‌های اختصاصی هوش مصنوعی شامل چیپ ۳ نانومتری Trainium3 و سرورهای فوق‌متراکم Trn3 UltraServers را وارد مرحله عرضه عمومی (GA) کرد.

این معرفی یکی از مهم‌ترین تحولات بازار دیتاسنتر و محاسبات هوش مصنوعی در سال ۲۰۲۵ به شمار می‌رود، زیرا AWS با این معماری جدید تلاش دارد:

  • هزینه آموزش مدل‌های بزرگ AI را کاهش دهد،

  • بهره‌وری انرژی را بهبود دهد،

  • و زیرساختی با چگالی محاسباتی بی‌سابقه ارائه کند.

نسل جدید سخت‌افزار AWS برای AI؛ چرا مهم است؟

در سال‌های اخیر، AWS استراتژی مشخصی را دنبال کرده است:

  • کاهش وابستگی به GPUهای گران‌قیمت،

  • توسعه مجموعه‌ای از چیپ‌های اختصاصی مانند Trainium، Inferentia و Graviton،

  • کاهش هزینه پردازش AI در سطح سازمانی.

Trainium3 مهم‌ترین قدم این مسیر است؛ چیپی که AWS را وارد رقابت مستقیم با NVIDIA برای آموزش مدل‌های بزرگ LLM، مدولار، مولتی‌مودال و مدل‌های MoE کرده است.

مشخصات فنی Trainium3؛ معماری ۳ نانومتری با تمرکز بر FP8

۱) قدرت پردازشی ۲.۵۲ PFLOPs FP8 در هر چیپ
هر چیپ Trainium3 قادر است ۲.۵۲ پتافلپس FP8 محاسبه ارائه دهد. این عدد جهشی بزرگ نسبت به Trainium2 است و نشان‌دهنده تمرکز AWS روی فرمت‌های عددی سبک‌تر (FP8) برای آموزش مدل‌های بزرگ است.

۲) حافظه HBM3e با ظرفیت ۱۴۴ گیگابایت
هر چیپ مجهز به ۱۴۴ گیگابایت حافظه HBM3e است و پهنای باند آن به ۴.۹ ترابایت بر ثانیه می‌رسد. این ظرفیت و پهنای باند برای مدل‌های LLM بالای ۱۰۰ میلیارد پارامتر حیاتی است.

Trn3 UltraServers؛ غول محاسباتی جدید دیتاسنترهای AI

قدرت پردازشی: ۳۶۲ PFLOPs در یک سیستم واحد
یک UltraServer می‌تواند تا ۱۴۴ چیپ Trainium3 را در خود جای دهد، که مجموعاً برابر با ۳۶۲ PFLOPs توان FP8 است؛ یکی از بالاترین توان‌های محاسباتی ثبت‌شده برای یک سرور تک شاسی.

حافظه کل: ۲۰.۷ ترابایت HBM3e
این سرور مجموعاً بیش از ۲۰.۷ ترابایت حافظه HBM3e ارائه می‌دهد و امکان اجرای مدل‌های LLM فوق‌بزرگ بدون نیاز به جداسازی لایه‌ها یا pipeline parallelism روی یک نود واحد فراهم می‌شود.

پهنای باند مجموع: ۷۰۶ TB/s
پهنای باند کل حافظه سرور به ۷۰۶ ترابایت بر ثانیه می‌رسد، که برای workloadهای پیچیده مانند:

  • multimodal LLMs،

  • video generation،

  • diffusion models،

  • MoE با routing سنگین

کاملاً حیاتی است.

NeuronSwitch‑v1 — شبکه بین‌چیپی با تأخیر زیر ۱۰ میکروثانیه
 AWS یک fabric اختصاصی به نام NeuronSwitch-v1 ایجاد کرده که:

  • پهنای باند بین چیپ‌ها را دو برابر می‌کند،

  • تأخیر را به کمتر از ۱۰ میکروثانیه می‌رساند،

  • امکان اتصال ۱۴۴ چیپ را بدون bottleneck فراهم می‌کند.

این قابلیت مستقیماً رقابت با NVLink و NVSwitch را هدف گرفته است.

بهبودهای نسل جدید نسبت به Trn2 UltraServers

طبق داده‌های رسمی AWS:

  • ۴.۴ برابر توان FP8 بیشتر،

  • ۴ برابر پهنای باند حافظه بیشتر،

  • ۴ برابر بهبود در Performance per Watt،

که منجر به بهینه‌سازی مصرف انرژی و کاهش هزینه تمام‌شده آموزش مدل‌ها می‌شود.

مزایا برای دیتاسنترها، ارائه‌دهندگان سرویس ابری و شرکت‌های AI

  1. TCO کمتر نسبت به GPUهای کلاس H100/H200
    Trainium3 با هدف کاهش Total Cost of Ownership طراحی شده است: قیمت تمام‌شده کمتر، مصرف برق پایین‌تر و تراکم بیشتر در رک.

  2. تراکم بالا = فضای کمتر در دیتاسنتر
    با ۱۴۴ چیپ در یک سرور، امکان اجرای workloadهای سنگین در فضای کوچک فراهم می‌شود. نتیجه: CAPEX و OPEX کمتر و خنک‌سازی ساده‌تر.

  3. مناسب برای Training و Inference
    Trn3 UltraServers برای آموزش و سرویس‌دهی مدل‌های بزرگ کاملاً بهینه‌سازی شده‌اند.

  4. سازگاری نرم‌افزاری بدون تغییر کد
    سیستم AWS Neuron SDK از PyTorch، TensorFlow، JAX، HuggingFace و LLM frameworks پشتیبانی کامل دارد.

جمع‌بندی

معرفی Trainium3 و Trn3 UltraServers در re:Invent 2025 نه تنها یک محصول جدید AWS نیست، بلکه تحولی در معماری دیتاسنترهای هوش مصنوعی محسوب می‌شود.

قدرت FP8 بسیار بالا، حافظه عظیم، تراکم بی‌سابقه، fabric بین‌چیپی جدید و مصرف انرژی بهینه‌شده، این سرورها را به یکی از جدی‌ترین جایگزین‌های GPU در سال ۲۰۲۵ تبدیل کرده است.

برای شرکت‌های فعال در دیتاسنتر، خدمات ابری و ایجاد زیرساخت AI، آشنایی دقیق با این نسل جدید می‌تواند مزیت رقابتی واقعی ایجاد کند.

مرتبط پست

دیدگاه ها بسته هستند