• AMD lansează cipuri AI MI400 și sistemul Helios pentru calcul la scară mare în centre de date, scrie CNBC.
  • OpenAI și alți clienți adoptă cipurile AMD, care concurează cu Nvidia prin performanță și costuri mai mici.
  • AMD mizează pe creșterea pieței AI, estimată la peste 500 miliarde dolari până în 2028.

AMD anunță cipurile AI de generație următoare, seria Instinct MI400, care se vor livra anul viitor. Cipurile pot fi integrate într-un sistem complet de server numit Helios, ce permite conectarea a mii de cipuri într-un mod unificat și funcționează ca un singur sistem de scară la nivel de rack, potrivit CNBC.

CEO-ul AMD explică că Helios este primul suport rack conceput să opereze ca un sistem unitar, iar această arhitectură este crucială pentru clienții care au nevoie de putere masivă de calcul AI, precum furnizorii de cloud și dezvoltatorii de modele lingvistice mari.

Care e sprijinul OpenAI?

CEO-ul OpenAI, Sam Altman, susține public adoptarea cipurilor AMD și declară că specificațiile MI400 sunt impresionante.

Titlurile zilei

Averile miliardarilor cresc accelerat
CE URMEAZĂ PE BVB?
Memecoins exploatează tragedia lui Charlie Kirk
Aurul scade cu 0,5% la 3.671 dolari pe uncie
DRUID AI OBȚINE 32 MIL. DOLARI FINANȚARE

OpenAI, un client important Nvidia, oferă feedback AMD pentru dezvoltarea cipurilor MI400. Această colaborare indică interesul unor mari jucători AI pentru alternative la Nvidia, pentru a susține nevoile tot mai mari de putere de calcul în aplicațiile AI generative.

Care sunt avantajele AMD?

Tehnologia de scară a AMD permite noilor sale cipuri să rivalizeze cu cele de la Nvidia, în special cu seria Blackwell, care include configurații complexe de GPU-uri interconectate.

AMD intenționează să concureze la preț, oferind cipuri care consumă mai puțină energie și sunt mai accesibile, subcotând Nvidia.

În plus, noile cipuri AMD beneficiază de mai multă memorie rapidă, permit rularea modelelor AI mari pe un singur GPU, iar performanța lor este comparabilă cu cele mai recente produse Nvidia.

Care sunt planurile de viitor?

AMD începe deja livrările cipului MI355X, disponibil pentru închiriere prin furnizorii de cloud din trimestrul al treilea.

Mari clienți precum OpenAI, Tesla, Meta și Oracle adoptă sau intenționează să adopte cipurile AMD pentru centrele lor de date AI.

Oracle plănuiește să utilizeze peste 131.000 de cipuri MI355X în clusterele sale. Companiile mari și guvernele investesc masiv în infrastructura AI, iar AMD estimează că piața cipurilor AI depășește 500 de miliarde de dolari până în 2028.

Care e strategia AMD?

Deși AMD nu anunță prețurile exacte, compania susține că cipurile sale sunt mai eficiente din punct de vedere energetic și oferă un cost total de operare mai mic comparativ cu Nvidia.

Strategia AMD include integrarea GPU-urilor cu procesoarele și chipurile de rețea achiziționate de la Pensando, pentru a crea sisteme rack integrate și folosește tehnologii de rețea open-source, spre deosebire de soluțiile proprietare Nvidia.

Care sunt perspectivele pe piața AI?

În prezent, Nvidia domină piața GPU-urilor pentru centre de date AI, cu peste 90% din această piață. Cu toate acestea, AMD își crește cota, cu vânzări de aproximativ 5 miliarde de dolari în 2024 și o creștere estimată de 60% pentru 2025.