Der KI-Supercomputer von Google setzt neue Maßstäbe für Geschwindigkeit und Leistung

Der KI-Supercomputer von Google setzt neue Maßstäbe für Geschwindigkeit und Leistung

Laut Google übertrifft ihr künstlicher Intelligenz-Supercomputer TPU (Tensor Processing Unit) den A100-Chip von NVIDIA sowohl in der Geschwindigkeit als auch in der Umweltfreundlichkeit.

Google hat kürzlich Details über seine KI bekannt gegeben Modelltrainings-Supercomputer und behaupten, dass ihre Systeme schneller und energieeffizienter seien als vergleichbare von NVIDIA angebotene. Für mehr als 90 % seiner KI-Trainingsaktivitäten hat Google einen speziellen Chip namens Tensor Processing Unit (TPU) entwickelt. Der Prozess des KI-Trainings umfasst die Eingabe von Daten durch Modelle, um deren Leistung bei Aufgaben wie der Generierung von Bildern oder der Beantwortung von Anfragen in natürlicher Sprache zu verbessern.

Google hat kürzlich ein Forschungspapier veröffentlicht, in dem die vierte Generation seiner Tensorverarbeitung detailliert beschrieben wird Einheit (TPU)-Chip. Google hat auch beschrieben, wie es mehr als viertausend firmeneigene Chips zu einem Supercomputer verbunden hat, indem es seine firmeneigenen optischen Schalter nutzte, um Verbindungen zwischen verschiedenen Geräten herzustellen.

Der Wettbewerb um die Verbesserung der Verbindungen zwischen Maschinen ist gewachsen entscheidend für Unternehmen, die KI-Supercomputer herstellen. Dies liegt daran, dass große Sprachmodelle, das Rückgrat von Technologien wie Googles Bard oder OpenAIs ChatGPT, erheblich gewachsen sind und zu groß geworden sind, um auf einen einzigen Chip zu passen.

Laut Google sind seine Supercomputer darauf ausgelegt, dies zu ermöglichen Einfache Neukonfiguration von Verbindungen zwischen Chips in Echtzeit. Diese Funktion hilft, potenzielle Probleme zu vermeiden und ermöglicht schnelle und effiziente Leistungsverbesserungen.

Überzeugen Sie sich selbst, wie sich die neuen TPU v4-Chips von Google im Vergleich zu den A100-Chips von NVIDIA schlagen

Im Bild:Die Benchmark-Ergebnisse von MLPerf Training v1.0 zeigen, dass Googles TPU v4 alle Nicht-Google-Einreichungen hinsichtlich der Geschwindigkeit übertrifft, einschließlich der von NVIDIA, unabhängig von der Systemgröße. Der Vergleich wird basierend auf der gesamten Trainingszeit normalisiert und die Ergebnisse zeigen, dass höhere Balken eine bessere Leistung darstellen.

„Obwohl Google erst kürzlich Informationen über seinen Supercomputer veröffentlicht hat, hat Google das System bereits in Betrieb genommen Die Organisation seit 2020. Der obige Vergleich ist ein Beweis dafür, denn dieser Vergleich wurde im Juli 2021 durchgeführt.“

Lesen Sie auch: Google Quantum Supremacy: Erklärt

Was Sagt Google das?

Google hat berichtet, dass sein Supercomputer für Systeme vergleichbarer Größe ausfällt führt ein System auf Basis des A100-Chips von NVIDIA aus, der im gleichen Zeitraum wie die TPU der vierten Generation verfügbar war. Laut Google ist sein Supercomputer 1,9-mal energieeffizienter und bis zu 1,7-mal schneller als das mit NVIDIAs A100-Chips gebaute NVIDIA-System.

Das Unternehmen gab außerdem an, dass es seinen Supercomputer der 4. Generation nicht direkt verglichen habe Tensor Processing Unit (TPU) mit NVIDIAs neuestem Flaggschiff-H100-Chip. Dies ist auf die Verwendung aktualisierter Technologie beim H100 und dessen Einführung nach Googles TPU zurückzuführen.

Weitere aktuelle technische Neuigkeiten, Listicles, Anleitungen zur Fehlerbehebung sowie Tipps und Tricks im Zusammenhang mit Windows, Android, iOS und anderen macOS, folgen Sie uns auf , und Pinterest.

Lesen: 3

yodax