Machine-Learning-Frameworks: Pytorch überflügelt Tensorflow in der Forschung
Im Markt der Machine-Learning-Frameworks spitzt sich die Nutzungssituation auf Tensorflow und Pytorch zu. Andere Frameworks spielen praktisch keine Rolle mehr.
Nach Untersuchungen des KI-Magazins The Gradient kann sich dabei Facebooks Machine-Learning-Framework Pytorch immer deutlicher gegen Googles Tensorflow durchsetzen – soweit es die Nutzung in der Forschung betrifft. Um diese Feststellung treffen zu können, hat sich The Gradient die vergangenen KI-Konferenzen und deren Einreichungen angesehen.
Facebooks Pytorch setzt sich unter Forschern mehr und mehr durch
Hier zeigte sich ein starker Anstieg an Einreichungen, die auf Pytorch basieren, gegenüber einer rückläufigen Zahl an Tensorflow-Papieren. Auch die absolute Mehrheit der Einreichungen auf allen wichtigen Konferenzen beruhe inzwischen auf Pytorch, so The Gradient. Damit habe sich das Blatt im Verlauf nur eines Jahres komplett gewendet.
Dabei sei die Pytorch-Dominanz nicht nur auf Spezialkonferenzen, etwa zu Bild- und Sprachverarbeitung, sondern auch bei allen anderen Themen der Machine-Learning-Implementation auszumachen. Insgesamt führe nicht nur die Zunahme der Pytorch-Einreichungen zu einer Mehrheit gegenüber Tensorflow, vielmehr seien sogar die dedizierten Tensorflow-Einreichungen im Vergleich zum Vorjahr in absoluten Zahlen gesunken.
Tensorflow bleibt Platzhirsch in der industriellen Anwendung
Außerhalb des Einsatzes in der Forschung dominiert nach den Erkenntnissen des Gradient nach wie vor Googles Tensorflow im Machine Learning. Wenn Unternehmen Trainings mit Big Data absolvieren, komme dabei in der Regel Googles Frameworks zum Einsatz.
Dies habe viel mit der Flexibilität der Implementation und vor allem der Performance des Frameworks zu tun. Hier zeige sich das unterschiedliche Anforderungsprofil zwischen Forschung und Industrie besonders deutlich.
Während es einem Forscher weitaus wichtiger sei, sein Machine-Learning-Modell schnell ändern und neu rechnen lassen zu können, käme es in der Produktion vor allem auf die schnelle Abwicklung einmal definierter Prozesse an.
Die Unterschiede in den Anforderungsprofilen
Pytorch erfreue sich unter Forschern vor allem deshalb großer Beliebtheit, weil es schnelle Implementationen erlaube. So sei es einfacher zu handhaben und auch im Betrieb einfacher zu manipulieren. Zudem sei der Lernaufwand bis zum ersten Start eines Projekts geringer. In der Forschung werde Machine Learning zudem typischerweise auf lokalen Rechnern oder kleinen Netzwerken erprobt.
In der Industrie hingegen spielten diese Faktoren praktisch keine Rolle. Hier kämen anderen spezifischen Vorteilen viel größere Bedeutung zu. So sei etwa Tensorflow für die Google Cloud optimiert und könne darin deutliche Performance-Vorteile bieten.
Eben dieser Punkt schrecke Forscher teils von Tensorflow ab, denn diese wollten nicht, dass Google den kompletten vertikalen Prozess des Machine Learning in eigenen Händen behielte. Zudem fördere das die Bereitschaft anderer Wettbewerber wie Microsoft, Amazon oder Nvidia die einzige verbleibende Alternative, eben Pytorch zu unterstützen.
Machine Learning revolutioniert sich selber
Unabhängig vom derzeitigen Ergebnis bleibt die Frage nach der Dominanz von Tensorflow oder Pytorch schon mittelfristig bedeutungslos. Denn der gesamte Themenkomplex des Machine Learning bewegt sich mit so hoher Geschwindigkeit nach vorne, dass nicht abgeschätzt werden kann, ob sich momentane Trends verstetigen oder verflüchtigen werden. Was klar ist, ist, dass Machine Learning in fünf Jahren drastisch anders aussehen wird als heute.
Was soll diese ständigen „sei“ und „könne“? Seid ihr euch selbst nicht sicher, was ihr schreibt? Total beknackte zu lesen. Entweder führt ihr eine Quelle an und schreibt dazu, da sagt einer, dass es so ist. Oder ihr habt es selbst nachgeprüft. In beiden Fällen ist es kein „sei“ oder „könne“. Lernt deutsch, wenn ihr schreiben wollt.
Formal korrektes Zitieren ist offenbar nicht jedermanns Sache. Deswegen werde ich es aber dennoch weiterhin tun.