AWS در رویداد re:Invent 2025 نسل جدید سرورهای Trn3 UltraServers با چیپ ۳ نانومتری Trainium3 را معرفی کرد؛ سرورهایی با ۳۶۲ PFLOPs توان FP8 و ۲۰.۷ ترابایت HBM3e.
مقدمه
در جریان رویداد AWS re:Invent 2025، سرویسهای وب آمازون (AWS) نسل تازهای از زیرساختهای اختصاصی هوش مصنوعی شامل چیپ ۳ نانومتری Trainium3 و سرورهای فوقمتراکم Trn3 UltraServers را وارد مرحله عرضه عمومی (GA) کرد.
این معرفی یکی از مهمترین تحولات بازار دیتاسنتر و محاسبات هوش مصنوعی در سال ۲۰۲۵ به شمار میرود، زیرا AWS با این معماری جدید تلاش دارد:
-
هزینه آموزش مدلهای بزرگ AI را کاهش دهد،
-
بهرهوری انرژی را بهبود دهد،
-
و زیرساختی با چگالی محاسباتی بیسابقه ارائه کند.
نسل جدید سختافزار AWS برای AI؛ چرا مهم است؟
در سالهای اخیر، AWS استراتژی مشخصی را دنبال کرده است:
-
کاهش وابستگی به GPUهای گرانقیمت،
-
توسعه مجموعهای از چیپهای اختصاصی مانند Trainium، Inferentia و Graviton،
-
کاهش هزینه پردازش AI در سطح سازمانی.
Trainium3 مهمترین قدم این مسیر است؛ چیپی که AWS را وارد رقابت مستقیم با NVIDIA برای آموزش مدلهای بزرگ LLM، مدولار، مولتیمودال و مدلهای MoE کرده است.
مشخصات فنی Trainium3؛ معماری ۳ نانومتری با تمرکز بر FP8
۱) قدرت پردازشی ۲.۵۲ PFLOPs FP8 در هر چیپ
هر چیپ Trainium3 قادر است ۲.۵۲ پتافلپس FP8 محاسبه ارائه دهد. این عدد جهشی بزرگ نسبت به Trainium2 است و نشاندهنده تمرکز AWS روی فرمتهای عددی سبکتر (FP8) برای آموزش مدلهای بزرگ است.
۲) حافظه HBM3e با ظرفیت ۱۴۴ گیگابایت
هر چیپ مجهز به ۱۴۴ گیگابایت حافظه HBM3e است و پهنای باند آن به ۴.۹ ترابایت بر ثانیه میرسد. این ظرفیت و پهنای باند برای مدلهای LLM بالای ۱۰۰ میلیارد پارامتر حیاتی است.
Trn3 UltraServers؛ غول محاسباتی جدید دیتاسنترهای AI
قدرت پردازشی: ۳۶۲ PFLOPs در یک سیستم واحد
یک UltraServer میتواند تا ۱۴۴ چیپ Trainium3 را در خود جای دهد، که مجموعاً برابر با ۳۶۲ PFLOPs توان FP8 است؛ یکی از بالاترین توانهای محاسباتی ثبتشده برای یک سرور تک شاسی.
حافظه کل: ۲۰.۷ ترابایت HBM3e
این سرور مجموعاً بیش از ۲۰.۷ ترابایت حافظه HBM3e ارائه میدهد و امکان اجرای مدلهای LLM فوقبزرگ بدون نیاز به جداسازی لایهها یا pipeline parallelism روی یک نود واحد فراهم میشود.
پهنای باند مجموع: ۷۰۶ TB/s
پهنای باند کل حافظه سرور به ۷۰۶ ترابایت بر ثانیه میرسد، که برای workloadهای پیچیده مانند:
-
multimodal LLMs،
-
video generation،
-
diffusion models،
-
MoE با routing سنگین
کاملاً حیاتی است.
NeuronSwitch‑v1 — شبکه بینچیپی با تأخیر زیر ۱۰ میکروثانیه
AWS یک fabric اختصاصی به نام NeuronSwitch-v1 ایجاد کرده که:
-
پهنای باند بین چیپها را دو برابر میکند،
-
تأخیر را به کمتر از ۱۰ میکروثانیه میرساند،
-
امکان اتصال ۱۴۴ چیپ را بدون bottleneck فراهم میکند.
این قابلیت مستقیماً رقابت با NVLink و NVSwitch را هدف گرفته است.
بهبودهای نسل جدید نسبت به Trn2 UltraServers
طبق دادههای رسمی AWS:
-
۴.۴ برابر توان FP8 بیشتر،
-
۴ برابر پهنای باند حافظه بیشتر،
-
۴ برابر بهبود در Performance per Watt،
که منجر به بهینهسازی مصرف انرژی و کاهش هزینه تمامشده آموزش مدلها میشود.
مزایا برای دیتاسنترها، ارائهدهندگان سرویس ابری و شرکتهای AI
-
TCO کمتر نسبت به GPUهای کلاس H100/H200
Trainium3 با هدف کاهش Total Cost of Ownership طراحی شده است: قیمت تمامشده کمتر، مصرف برق پایینتر و تراکم بیشتر در رک. -
تراکم بالا = فضای کمتر در دیتاسنتر
با ۱۴۴ چیپ در یک سرور، امکان اجرای workloadهای سنگین در فضای کوچک فراهم میشود. نتیجه: CAPEX و OPEX کمتر و خنکسازی سادهتر. -
مناسب برای Training و Inference
Trn3 UltraServers برای آموزش و سرویسدهی مدلهای بزرگ کاملاً بهینهسازی شدهاند. -
سازگاری نرمافزاری بدون تغییر کد
سیستم AWS Neuron SDK از PyTorch، TensorFlow، JAX، HuggingFace و LLM frameworks پشتیبانی کامل دارد.
جمعبندی
معرفی Trainium3 و Trn3 UltraServers در re:Invent 2025 نه تنها یک محصول جدید AWS نیست، بلکه تحولی در معماری دیتاسنترهای هوش مصنوعی محسوب میشود.
قدرت FP8 بسیار بالا، حافظه عظیم، تراکم بیسابقه، fabric بینچیپی جدید و مصرف انرژی بهینهشده، این سرورها را به یکی از جدیترین جایگزینهای GPU در سال ۲۰۲۵ تبدیل کرده است.
برای شرکتهای فعال در دیتاسنتر، خدمات ابری و ایجاد زیرساخت AI، آشنایی دقیق با این نسل جدید میتواند مزیت رقابتی واقعی ایجاد کند.







دیدگاه ها بسته هستند