亞馬遜AWS發表Inferentia 2晶片,加速大規模模型推理
賓士EQE SUV
加速
加速
AWS
能
推理
晶片
效能
亞馬遜
競爭
模型
記憶體
分散式
大規模
加速器
記憶體
記憶體
規模
記憶
記憶體
加
的
2024-12-26 07:13
31
亞馬遜AWS發表Inferentia 2晶片,將運算效能提高三倍,加速器總記憶體提高四分之一。 Inferentia 2支援分散式推理,最多可支援1750億個參數,成為大規模模型推理的有力競爭者。
Prev:CATL ha Yutong ofirma peteî marco de cooperación estratégica diez años
Next:Amazon AWS releases Inferentia 2 chip to accelerate large-scale model reasoning
News
Exclusive
Data
Account