Internet

Ampere collabora con Qualcomm per lanciare un server AI basato su Arm

Ampere e Qualcomm non sono partner ovvi. Entrambi, infatti, offrono chip basati su Arm per l'esecuzione di server di data center (anche se il mercato più grande di Qualcomm rimane mobile). Ma come hanno annunciato oggi le due aziende, ora stanno unendo le forze per offrire un server focalizzato sull'AI che utilizza le CPU di Ampere e i chip di inferenza AI Cloud AI 100 Ultra di Qualcomm per eseguire - non addestrare - modelli.

Come ogni altro produttore di chip, Ampere sta cercando di trarre profitto dal boom dell'AI. Tuttavia, il focus dell'azienda è sempre stato su chip per server veloci ed efficienti dal punto di vista energetico, quindi mentre può utilizzare l'IP Arm per aggiungere alcune di queste funzionalità ai suoi chip, non è necessariamente una competenza fondamentale. Ecco perché Ampere ha deciso di collaborare con Qualcomm (e SuperMicro per integrare le due soluzioni), ha detto il CTO di Arm Jeff Wittich.

“L'idea qui è che mentre ti mostrerò delle ottime prestazioni per le CPU di Ampere in esecuzione di inferenza AI solo sulle CPU, se vuoi scalare a modelli ancora più grandi - ad esempio modelli multi-parametri da diverse centinaia di miliardi, come tutte le altre carichi di lavoro, l'AI non è una misura per tutti,” Wittich ha detto a TechCrunch. “Abbiamo lavorato con Qualcomm su questa soluzione, combinando le nostre super efficienti CPU di Ampere per svolgere molte delle attività generali che stai eseguendo insieme all'inferenza, e quindi utilizzando le loro schede davvero efficienti, abbiamo una soluzione a livello di server.”

Crediti immagine: Ampere

Per quanto riguarda la collaborazione con Qualcomm, Wittich ha detto che Ampere voleva mettere insieme soluzioni d'eccellenza.

“[R]eally good collaboration that we’ve had with Qualcomm here,” he said. “This is one of the things that we’ve been working on, I think we share a lot of really similar interests, which is why I think that this is really compelling. They’re building really, really efficient solutions and a lot of different parts of the market. We’re building really, really efficient solutions on the server CPU side.”

Il partenariato con Qualcomm fa parte dell'aggiornamento annuale del piano di Ampere. Parte di questo piano è il nuovo chip AmpereOne a 256 core, costruito utilizzando un processo moderno a 3nm. Quei nuovi chip non sono ancora completamente disponibili, ma Wittich dice che sono pronti alla fabbrica e dovrebbero essere lanciati entro la fine di quest'anno.

Oltre ai core aggiuntivi, la caratteristica distintiva di questa nuova generazione di chip AmpereOne è la RAM DDR5 a 12 canali, che consente ai clienti di data center di Ampere di regolare meglio l'accesso alla memoria degli utenti in base alle loro esigenze.

La presentazione delle vendite non è solo prestazioni, ma anche consumo energetico e costo per l'esecuzione di questi chip nel data center. Questo è particolarmente vero quando si tratta di inferenza AI, dove Ampere ama confrontare le sue prestazioni con le GPU A10 di Nvidia.

Crediti immagine: Ampere

Vale la pena notare che Ampere non sta mettendo fine a nessuno dei suoi chip esistenti a favore di questi nuovi. Wittich ha sottolineato che anche questi vecchi chip hanno ancora molteplici casi d'uso.

Oggi Ampere ha annunciato anche un altro partenariato. L'azienda sta collaborando con NETINT per costruire una soluzione comune che abbina le CPU di Ampere ai chip di elaborazione video di NETINT. Questo nuovo server sarà in grado di trascodificare 360 canali video live in parallelo, utilizzando anche il modello di conversione del discorso in testo Whisper di OpenAI per sottotitolare 40 flussi.

“Abbiamo iniziato su questa strada sei anni fa perché è chiaro che è la strada giusta,” ha detto la CEO di Ampere Renee James nell'annuncio odierno. “Il basso consumo era sinonimo di bassa prestazione. Ampere ha dimostrato che non è vero. Abbiamo aperto la frontiera dell'efficienza del computing e abbiamo fornito prestazioni superiori alle CPU legacy in un involucro di computing efficiente.”

Related Articles

Back to top button Back to top button