Facebook überarbeitet KI-Hardware und stellt Pläne ins Netz
(Bild: Facebook)
Facebook setzt in verschiedenen Bereichen auf maschinelles Lernen: So wird die Technologie beispielsweise bei Übersetzungen oder für die Erkennung von Objekten auf Fotos eingesetzt. Die entsprechende Server-Hardware für diesen Einsatzweck baut das soziale Netzwerk selbst. Die neueste Version nennt sich Big Basin v2 und soll eine Leistungssteigerung von 66 Prozent pro eingesetzter GPU-Einheit bringen.
Die Performance-Steigerung verdankt Big Basin v2 vor allem dem Einsatz der neuesten Tesla-V100-GPU von Nvidia. Außerdem wurde der PCIe-Datendurchsatz verdoppelt. Die Pläne der Hardware hat Facebook im Rahmen des Open-Compute-Projects (OCP) im Web veröffentlicht. Interessierte Parteien können die Spezifikationen von Big Basin v2 über den OCP-Marktplatz herunterladen.
Open-Compute-Project: Facebook setzt auf offene Server-Hardware
Das Open-Compute-Project geht auf eine Idee von Facebooks ehemaligen Infrastrukturchef Jonathan Heiliger zurück. Er überzeugte das Unternehmen, dass es auf Dauer effizienter sei, die Pläne für Server und andere wichtige Komponenten eines Rechenzentrums öffentlich zu machen. Mittlerweile gehören neben Facebook auch Intel, Nokia, Apple, Microsoft, Google, Rackspace, Dell, Cisco, Juniper, Lenovo und viele weitere Unternehmen aus der Tech- und der Finanzbranche zum Open-Compute-Project und beteiligen sich in unterschiedlichem Maße an der Weiterentwicklung offener Server-Hardware.
Ebenfalls interessant: