Zum Inhalt springen
Advertisements

Google hat neue Informationen zu seinem Tensor Processing Unit (TPU) v4 veröffentlicht, einem selbst entwickelten Chip, der in den Supercomputern des Unternehmens zum Einsatz kommt.

Google behauptet, dass die Leistung des TPU v4 im Vergleich zur Vorgängerversion v3 um den Faktor 10 verbessert wurde und die Energieeffizienz erhöht wurde. Im Vergleich zu anderen aktuellen ML-Domain-Specific-Accelerators (DSA) soll der TPU v4 zwei- bis dreimal effizienter sein und weniger CO2 emittieren.

Ein Achtel eines TPU v4-Pods aus dem weltweit größten öffentlich verfügbaren ML-Cluster von Google.
Advertisements

Google verwendet TPUs hauptsächlich für das Training künstlicher Intelligenz und behauptet, dass mehr als 90 Prozent aller Arbeiten in diesem Bereich von TPUs berechnet werden. Das Unternehmen hat in einer wissenschaftlichen Abhandlung beschrieben, wie mehr als 4000 TPUs zu einem Supercomputer verschaltet werden können. Zur Verbindung der einzelnen Chips verwendet Google selbst entwickelte proprietäre optische Schalter. Weitere Informationen finden sich in der Ankündigung des Unternehmens.

Tensor Processing Units (TPUs)

Tensor Processing Units (TPUs) sind speziell für das Training und Inferenz von künstlichen neuronalen Netzen (KNNs) entwickelte Chips von Google. Sie sind Teil der Cloud-Plattform des Unternehmens und sollen die Leistung von KI-Anwendungen beschleunigen. TPUs können für Deep Learning-Modelle verwendet werden, um komplexe Aufgaben wie Bild- und Spracherkennung, Übersetzung, natürliche Sprachverarbeitung und mehr zu bewältigen.

Quelle: Google

Advertisements

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Advertisements