Amazon AWS rilascia il chip Inferentia 2 per accelerare l'inferenza di modelli su larga scala

2024-12-26 07:13
 31
Amazon AWS rilascia il chip Inferentia 2, che triplica le prestazioni di elaborazione e aumenta di un quarto la memoria totale dell'acceleratore. Inferentia 2 supporta il ragionamento distribuito e può supportare fino a 175 miliardi di parametri, rendendolo un forte concorrente per il ragionamento su modelli su larga scala.