120-Teraflop-Architektur

Unter den Forschungseinrichtungen waren auch das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) sowie das Max-Planck-Institut für Intelligente Systeme.
Die Präsentation fand im Rahmen der Computer Vision and Pattern Recognition Conference in Honolulu Ende Juli statt und war für die über 150 Besucher eines der Highlights der Veranstaltung.
Die Tesla-V100-GPUs basieren auf der NVIDIA-Volta-Architektur, die Huang im Mai auf der GPU Technology Conference (GTC) im Silicon Valley vorgestellt hat.
Volta wurde entwickelt, um massive Fortschritte in den Bereichen künstliche Intelligenz und High Performance Computing zu ermöglichen. Die Architektur ist mit 21 Milliarden Transistoren ausgestattet und liefert eine Deep-Learning-Leistung von 120 Teraflops.