Konfrontieren von NVLink?Technologiegiganten wie Intel, AMD, Microsoft und Broadcom formen UALINK
Acht Tech -Giganten, darunter Intel, Google, Microsoft und Meta, errichten eine neue Branchengruppe namens Ualink Promotion Group, um die Entwicklung von Komponenten zu leiten, die AI -Beschleuniger -Chips innerhalb von Rechenzentren verbinden.
Das UALINK -Promotionsteam wurde am Donnerstag angekündigt, und seine Mitglieder umfassen auch AMD, HP Enterprise, Broadcom und Cisco.Die Gruppe hat einen neuen Branchenstandard für die Verbindung einer zunehmenden Anzahl von AI -Beschleunigungschips auf Servern vorgeschlagen.In einem breiten Sinne ist ein KI-Beschleuniger ein Chip aus einer GPU zu einer maßgeschneiderten Lösung zur Beschleunigung des Trainings, der Feinabstimmung und des Betriebs von KI-Modellen.
"Die Branche benötigt einen offenen Standard, der schnell vorangetrieben werden kann, sodass mehrere Unternehmen das gesamte Ökosystem in einem offenen Format einen Mehrwert bieten können.""Die Branche benötigt einen Standard, der es ermöglicht, dass die Innovation schnell erfolgen, ohne von einem einzelnen Unternehmen eingeschränkt zu werden", sagte Forrest Norrod, General Manager von AMD Data Center Solutions, in einem Briefing am Mittwoch
Die erste Version des vorgeschlagenen Standards, UALINK 1.0 , bis zu 1024 AI -Beschleuniger wird nur in einem einzelnen Computerpod angeschlossen.(Die Gruppe definiert POD als einen oder mehrere Racks in einem Server.) UALINK 1.0 basiert auf "offenen Standards" und enthält die Infinite -Architektur von AMD.Es ermöglicht eine direkte Belastung und Speicherung des zusätzlichen Speichers zwischen KI -Beschleunigern und verbessert die Geschwindigkeit insgesamt und reduziert die Datenübertragungslatenz im Vergleich zu vorhandenen Interconnect -Spezifikationen.
Die Gruppe erklärte, dass sie im dritten Quartal eine Allianz, die Ualink -Allianz, schaffen wird, um die zukünftige Entwicklung von Ualink -Standards zu überwachen.UALINK 1.0 wird Unternehmen zur Verfügung gestellt, die sich der Allianz im gleichen Zeitraum anschließen, mit einer höheren Bandbreiten -Update -Spezifikation für UALINK 1.1.Es ist geplant, im vierten Quartal von 2024 auf den Markt gebracht zu werden.
Die erste Menge von Ualink -Produkten wird "in den kommenden Jahren" auf den Markt gebracht, sagte Norrod.
NVIDIA, der bisher größte KI -Beschleunigungshersteller mit einem geschätzten Marktanteil von 80% bis 95%, fehlt eindeutig in der Liste der Mitglieder der Gruppe.Nvidia lehnte es ab, dies zu kommentieren.Es ist jedoch nicht schwer zu erkennen, warum dieser ChIP -Hersteller nicht daran interessiert ist, Spezifikationen auf der Grundlage der Wettbewerbstechnologie zu unterstützen.
Erstens bietet Nvidia seine eigene proprietäre Interconnect -Technologie für GPUs auf seinen Rechenzentrumsservern an.Das Unternehmen ist möglicherweise nicht bereit, Standards auf der Grundlage der Wettbewerbstechnologie zu unterstützen.
Dann kommt die Tatsache, dass Nvidia aus einer Position von immenser Stärke und Einfluss aus arbeitet.
Im jüngsten Geschäftsquartal von NVIDIA (Q1 2025) stieg der Umsatz von Rechenzentren, einschließlich des KI -Chip -Umsatzes, im Vergleich zum Vorjahreszeitraum um über 400%.Wenn Nvidia seine derzeitige Entwicklung fortsetzt, wird es Apple in diesem Jahr irgendwann übertreffen, um das wertvollste Unternehmen der Welt zu werden.
Wenn Nvidia nicht teilnehmen will, muss es daher nicht teilnehmen.
Was Amazon Web Services (AWS) betrifft, der der einzige öffentliche Cloud-Riese ist, der nicht zu UALINK beigetragen hat, ist möglicherweise im Warten-und-See-Modus, da es die verschiedenen internen Beschleuniger-Hardware-Bemühungen verringert.Es könnte auch AWS sein, der sich auf die Kontrolle über den Cloud -Service -Markt stützt und keine strategische Bedeutung für die gegensätzliche NVIDIA erfolgt, was den größten Teil seiner GPUs seinen Kunden zur Verfügung stellte.
AWS hat nicht auf die Kommentaranfrage von TechCrunch geantwortet.
Tatsächlich scheinen die größten Nutznießer von Ualink - abgesehen von AMD und Intel - Microsoft, Meta und Google zu sein, die Milliarden von Dollar für den Kauf von NVIDIA -GPUs ausgegeben haben, um ihre Wolken zu fahren und ihre wachsenden KI -Modelle auszubilden.Jeder möchte einen Lieferanten loswerden, den er im KI -Hardware -Ökosystem als übermäßig dominant ansieht.
Google verfügt über benutzerdefinierte Chips, TPU und Axion zum Training und Ausführen von KI -Modellen.Amazon hat mehrere KI -Chipfamilien.Microsoft trat letztes Jahr in den Wettbewerb zwischen Maia und Cobalt bei.Meta verbessert seine Beschleunigungsserie.
In der Zwischenzeit planen Microsoft und sein enger Partner Openai Berichten zufolge, mindestens 100 Milliarden US -Dollar für einen Supercomputer auszugeben, um KI -Modelle auszubilden, die mit zukünftigen Cobalt- und Maia -Chips ausgestattet sein werden.Diese Chips brauchen etwas, um sie miteinander zu verbinden - vielleicht wird es Ualink sein.