Die exponentiellen Fünf: Was die Dominanz der Tech-Riesen bedenklich macht
Seit einiger Zeit intensiviert sich die Debatte zur Markmacht der dominierenden fünf Technologiegiganten Apple, Amazon, Facebook, Alphabet (inklusive Google) und Microsoft. Die Positionen lassen sich grob in zwei Lager einteilen: Vertreter des ersten Lagers zeigen sich unbesorgt. Sie verweisen auf den intensiven Konkurrenzkampf, der aktuell zwischen den Konzernen herrscht. Sie argumentieren, dass historisch immer wieder zeitweilig scheinbar unbesiegbare Unternehmen von agileren und innovativeren Firmen in die Schranken verwiesen wurden, und sie sind überzeugt, dass sich die Geschichte auch dieses Mal wiederholen wird.
Im anderen Lager ist man dagegen beunruhigt. Man geht davon aus, dass die besagten Firmen für sehr lange Zeit marktbeherrschende Stellungen in immer mehr Bereichen für sich reklamieren werden. Die Fähigkeiten, enorme Mengen an Daten zu gewinnen und auszuwerten, beeinträchtige den Wettbewerb und sei nicht im Interesse der Allgemeinheit, so die Haltung der Kritiker.
Beide Seiten besitzen stichhaltige Argumente. Seit jeher sind Menschen immer wieder fälschlicherweise der Illusion aufgesessen, dass ein regelmäßig wiederkehrendes Phänomen ausgerechnet zu ihrem jeweiligen Moment nicht mehr auftreten würde. Andererseits kann es sich freilich auch als Irrtum erweisen, eine über einen längeren Zeitraum in einem bestimmten Kontext auftretende Dynamik als Quasi-Naturgesetz anzusehen. Zwar wird in 500 Jahren mit an Sicherheit grenzender Wahrscheinlichkeit keiner der heute den Ton angebenden Konzerne mehr existieren. Aber was ist mit 100 Jahren? Oder 50? Oder 25? Es kann keineswegs ausgeschlossen werden, dass sie in 25 Jahren noch bestehen und massiv mehr Macht besitzen als heute.
Der technische Fortschritt beschleunigt sich
Wie viel Zeit sind 25 Jahre? An sich nicht viel. 1992 fühlt sich noch nicht so weit in der Vergangenheit an, nimmt man die Geschichte der Menschheit und eigene Erinnerungen als Maßstab. Blickt man jedoch allein auf Informationstechnologie, so ist heute nichts mehr so wie zu Beginn der neunziger Jahre. Ich lehne mich nicht weit aus dem Fenster, wenn ich behaupte, dass sich aus technologischer Sicht seitdem weitaus mehr verändert hat als zwischen 1967 und 1992. Verantwortlich hierfür ist die exponentielle Charakteristik des technischen Fortschritts.
In einem älteren Text beschrieb ich, wie es die atemberaubende und sich stetig beschleunigende Geschwindigkeit des Fortschritts ist, die unsere heutige Zeit speziell macht. So gesehen ist 2017 einzigartig, genau wie jeder andere Zeitraum einzigartig ist: in Bezug auf die Beschleunigung des durch technologische Innovation ausgelösten Wandels. Seit der Erfindung des Computerchips war Moore’s Law für diese Entwicklung maßgeblich verantwortlich. Künftig werden künstliche Intelligenz und Quantum Computing zu den Triebkräften einer weiteren Acceleration gehören. Die immer kürzeren Technologie-Übernahmezyklen spiegeln diesen Trend wider. Elektrizität, Fernsehen und Radio benötigten vom Zeitpunkt ihrer initialen Verfügbarkeit aus betrachtet deutlich länger, um eine vollständige oder signifikante Marktpenetration zu erreichen, als jüngere Erfindungen wie Internet, Smartphones oder Social Media (siehe Nachtrag am Ende dieses Textes).
Ray Kurzweil, einer der Vordenker der Singularität, rechnet damit, dass der technologische Fortschritt im 21. Jahrhundert ein Niveau erreicht, das nicht 100 Jahren, sondern eher 20.000 Jahren entspricht. Was abstrakt klingt und sich als Aussage durch offensichtliche Nicht-Messbarkeit einer genauen Prüfung entzieht, ist im Grunde trotzdem korrekt: Das Tempo des technischen Fortschritts beschleunigt sich andauernd und es folgt tendenziell einer exponentiellen Kurve statt einer linearen.
Was in 25 Jahren passieren kann
Die nächsten 25 Jahre werden deshalb mehr technologische Neuerungen mit sich bringen als jede 25-Jahres-Periode zuvor. Vielleicht handelt es sich nur um eine geringfügige Beschleunigung. Vielleicht kommt es aber auch zu regelrechten tektonischen Umwälzungen. Jederzeit könnten sogenannte „Tipping Points” erreicht werden, an denen seit längerer Zeit unter Druck stehende Systeme, Strukturen und Geschäftsmodelle (etwa Printmedien oder der stationäre Handel) schlagartig kollabieren. Es lässt sich argumentieren, dass wir bislang nur das Vorgeplänkel der digitalen Epoche gesehen haben. Denn wie der Autor Douglas Rushkoff es gerne beschreibt, basieren Wirtschaft und Gesellschaft noch immer auf dem „Betriebssystem” des Industriezeitalters.
Ich kann nicht seriös prognostizieren, wie sich die zunehmende Exponentialität auf die Fähigkeit von Startups und Marktneulingen auswirkt, dem Establishment gefährlich zu werden (ohne dass sie umgehend vom Establishment aufgekauft werden). Doch Fakt ist, dass die Exponentialität und das zunehmende Tempo des technischen Fortschritts die Rahmenbedingungen für Wettbewerb beeinflussen und das Ziehen von Parallelen aus der Vergangenheit schwierig machen.
Google wurde im Jahr 1998 gegründet. In nicht-exponentiellen Jahren gerechnet und mit Blick auf das Erreichte (siehe: „List of Google Products”) könnte man konstatieren, dass das Unternehmen eigentlich eher 50 oder gar 100 Jahre auf dem Buckel hat. Und noch immer weist es keine Anzeichen dafür auf, bald von einem Newcomer vom Thron gestoßen zu werden.
Einzigartige vertikale Diversifizierung der Tech-Giganten
In einer aktuellen Kolumne hebt TechCrunch-Kolumnist Jon Evans eine Besonderheit im Agieren der heutigen Technologie-Schwergewichte hervor, die sie von marktführenden Unternehmen der Vergangenheit abheben: Alle fünf Anbieter scheinen einen größeren Anteil ihrer Ressourcen und Brainpower dafür einzusetzen, um Geld auszugeben, anstatt um Geld zu verdienen. Tatsächlich pumpen die Giganten enorme Mittel in experimentelle Produkte abseits des Kerngeschäfts, in „Moonshots” und in Services, von denen über viele Jahre kein Gewinn erwartet wird. Zwar garantiert ein derartiges Diversifizierungskonzept nach dem Gießkannenprinzip nicht, dass die nächste Cash Cow gefunden wird. Aber es erhöht die Wahrscheinlichkeit. Dass die fünf Firmen von Quartal zu Quartal vortreffliche Zahlen vorweisen und selbst Alphabet nicht mehr ganz so extrem allein von seinem Werbegeschäft abhängig ist wie in der Vergangenheit, ist ein Indiz, dass diese Strategie erst einmal funktioniert. Zumal die Früchte der Saat bislang zumeist noch gar nicht geerntet wurden.
Natürlich kann der Ansatz schief gehen. Die Tech-Riesen sind nicht unverwundbar oder unfehlbar. Die Wahrscheinlichkeit, dass alle Fünf gleichermaßen die nächsten Jahrzehnte überstehen, würde ich maximal im einstelligen Prozentbereich ansiedeln. Ein oder zwei dieser Firmen werden sich wohl verkalkulieren und dem „Innovator’s Dilemma” zum Opfer fallen. Doch das zunehmende Tempo des Fortschritts, die kritische Rolle von künstlicher Intelligenz und Daten für im Prinzip jedes zukünftige Produkt und jeden zukünftigen Service sowie die historisch hochgradig ungewöhnliche Möglichkeit der fünf genannten Unternehmen, Milliarden abseits vom Kerngeschäft zu investieren und nahezu jedes beliebige Vertical ein- oder übernehmen zu können, schaffen eine Umgebung, die es in dieser Form noch nie gegeben hat. Aus diesem Grund halte ich es für richtig, sich kritisch mit der Dominanz dieser Anbieter und den Konsequenzen ihres Erfolgs in einer exponentiellen Welt auseinanderzusetzen. Wer Befürchtungen mit dem Verweis auf normale historische Zyklen wegwischt, der macht es sich zu einfach.
Nachtrag 31.05.: Eine aktuelle Analyse von Technology Review stellt die Behauptung des sich beschleunigenden Fortschritts in Frage. Diesen Schluss zieht die Redaktion unter anderem aufgrund einer Analyse der Zeit, die verging, bis 50 Prozent aller Haushalte mit verschiedenen neuen Technologien ausgestattet waren.
Es handelt sich hier um eine interessante, den Branchenkonsens in Frage stellende Antithese. Allerdings wäre es vorschnell, deshalb das Phänomen des exponentiellen Fortschritts abzuschreiben. Folgende Gedanken habe ich dazu:
- Sind 50 Prozent der Haushalte als Schlüsselmetrik ausreichend? Wären nicht 7o oder 80 Prozent besser?
- Ist es sinnvoll, vom ersten Tag der Verfügbarkeit aus zu messen, oder sollte man als Stichtag den Beginn einer breiten Markteinführung wählen, und dann vergleichen? Radio und Fernseher wurden sofort für den Endkonsumenten positioniert. Computer oder Mobilfunkgeräte dagegen waren zu Beginn Spezialwerkzeuge mit stark begrenzten Nischenzielgruppen und entsprechend hohen Preisen, bevor sie als Consumer Products positioniert wurden.
- Qualitative Aspekte werden ausgeklammert. Zwar brachten Radio und TV-Geräte in ihrer jeweiligen Anfangsphasen enorme Veränderungen mit sich. Aber das mit dem Internet verbundene Smartphone repräsentiert eine Vervielfachung dieses Effekts; qualitativ erweitert es die Möglichkeiten für Anwender exponentiell im Vergleich zu früheren Technologien, die klar abgegrenzte Einsatzbereiche besaßen.
- Vielleicht ist es falsch, für die Bewertung des Tempos des Fortschritts allein Consumer-Technologie heranzuziehen?
- Der von Technology Review gezogene Vergleich der Etablierung verschiedener Technologien umfasst das 20. Jahrhundert. Mit Blick auf die gesamte Menschheitsgeschichte ist auch das kein langer Zeitraum. Das „Big Picture” eines sich nach der Aufklärung und seit der Industrialisierung plötzlich rasant beschleunigenden technischen Fortschritts verändert sich nicht. Es ist wichtig, den untersuchten Zeithorizont nicht zu eng zu fassen, um das Gesamtbild erkennen zu können.
Weitere Kolumnen der Serie Weigerts World findet ihr hier. Ihr könnt die vom Autor täglich kuratierten News zur Netzwirtschaft abonnieren oder seinen wöchentlichen E-Mail-Newsletter mit englischsprachigen Leseempfehlungen beziehen.