Sponsored Post Was ist das?

4 Gründe, warum Data-Science-Projekte häufig scheitern

Dataprojekte: Häufiges Scheitern

Dataprojekte scheitern erschreckend oft. (Foto: Dataiku)

Anzeige

Data-Science-Teams unterscheiden sich nicht so sehr von anderen Teams, könnte man meinen. Aber warum gehen so viele Projekte schief?

Dataiku
Dataiku

Dataiku entwickelt eine kollaborative Data-Science-Plattform, die die erfolgreiche Projekt-Zusammenarbeit zwischen Business-Usern, Data-Scientists und Data-Engineers ermöglicht.

Eine schnelle Google-Suche nach „Warum scheitern Data-Science-Projekte“ macht zwei Dinge sofort deutlich:

  • Man ist nicht der Einzige, der sich diese Frage stellt!
  • Die aufgeführten Gründe sind die, die man eigentlich immer erwarten würde, wenn ein Team in einem Unternehmen scheitert: Ziele wurden falsch gesetzt oder die Kommunikation zwischen den Teams ist nicht wirklich gut.

Woran liegt es, dass Data-Science-Teams besonders anfällig für Fehlschläge zu sein scheinen? Eine Gartner-Umfrage beziffert die meisten Datenprojekte auf eine Fehlschlagsquote von fast 85 Prozent – was darauf hindeutet, dass das Problem tief liegen muss.

In diesem Beitrag werden einige der wichtigsten Ursachen, die zum Scheitern führen, überblicksmäßig untersucht.

Um einen tieferen Einblick in die Materie (sowie Vorschläge zur Lösung) zu erhalten, kannst du dir das Whitepaper
„6 Schlüsselherausforderungen für den Aufbau eines erfolgreichen Data-Teams“ ansehen.

1. Der Schlüssel ist die Kommunikation

In erster Linie ist schlechte Kommunikation die Ursache für das Versagen von Datenprojekten. Wenn etwa die Projektabsichten nicht mit den Zielen der Führungskräfte übereinstimmen und keine Bemühungen angestellt werden, verschiedene Erwartungshaltungen im Unternehmen miteinander zu vereinbaren, besteht kaum eine Chance, das Projekt erfolgreich durchzuführen.

Neben manchmal überhöhten Erwartungen und nicht koordinierten Zielen und Absichten gibt es aber auch das gegenteilige Problem: Obwohl „Big Data“ eines der größten Schlagwörter der 2010er-Jahre ist, wird Datenwissenschaft zu oft noch als etwas gesehen, das einfach nur gemacht wird, um dem Trend nicht hinterherzuhinken.

2. Wachstum, aber zu welchen Kosten?

Bereits in einem Blog-Post auf der Dataiku-Website wurde es erwähnt: Das Portal Glassdoor hat den Datenwissenschaftler als den besten Job in den USA bezeichnet. In diesem Zusammenhang ist auch das immense Wachstum hervorzuheben, das in den letzten Jahren in datenbezogenen Branchen stattgefunden hat. Linkedin veröffentlichte kürzlich eine Studie, die zwischen 2012 und 2017 ein fast zehnfaches Wachstum bei der Zahl der Arbeitsplätze für maschinelles Lernen und ein sechsfaches Wachstum bei der Zahl der Arbeitsplätze für Informatiker zeigte.

Der Einstellungsprozess neuer Mitarbeiter und die Zusammenstellung von Teams stellen die ersten Hürden dar, die gemeistert werden müssen. Es mag verlockend sein, vor allem promovierte Experten für den Datenbereich einzusetzen. Aber: Sich ergänzende Fähigkeiten und individuelle Perspektiven bieten viele Chancen, die ungenutzt bleiben, wenn die Teams zu homogen sind.

3. Technologische Probleme

Ein weiterer wesentlicher Schwachpunkt bei Datenprojekten ist der Einsatz von Technologien, die für das jeweilige Projekt unzweckmäßig sind. Hadoop beispielsweise ist nur unter bestimmten Umständen nützlich, abhängig von der Menge der gespeicherten Daten, den Arten der Datenstrukturen und dem Verwendungszweck der Daten. Wer trotz schlechten Fits darauf setzt, statt beispielsweise auf ein SQL-BI-Tool zurückzugreifen, schadet sich also letztlich selbst. Dasselbe gilt für Programmiersprachen und andere Entscheidungen zur Dateninfrastruktur.

Darüber hinaus beginnen viele Data-Teams, Modelle zu bilden, obwohl sie die Todsünde der Datenanalyse begangen haben – die Verwendung unsauberer Daten.

Verunreinigte Daten

Ausrutscher mit bösen Folgen: Verunreinigte Daten. (Foto: Dataiku)

Kaggle führte kürzlich eine Umfrage durch, bei der beinahe die Hälfte der Befragten angab, dass eine erhebliche Barriere bei der Arbeit verschmutzte Daten seien. Modelle, die mit schmutzigen Daten trainiert wurden, können keine aussagekräftigen Erkenntnisse liefern – und so ist die unsachgemäße Bereinigung von Daten ein fast todsicherer Garant für ein gescheitertes Datenprojekt.

4. Alle Straßen führen zu o16n

Letztendlich laufen all diese Schwierigkeiten zu einem großen Problem zusammen: Zu oft werden Datenteams gebildet und gebeten, Aufgaben auszuführen, ohne ein Ziel der Operationalisierung (o16n) im Sinn zu haben. Wenn Daten nur zum Selbstzweck analysiert werden, ohne dass dem ein konkreter Business-Value zugeschrieben ist, wird niemand jemals in der Lage sein, sie wirklich zu nutzen.

Es liegt also an den Unternehmen, sicherzustellen, dass sie ihre Teams nicht zum Scheitern bringen. Die Mühe lohnt, denn der Bereich Datenwissenschaft wird noch weiter wachsen.

 

Scheitern von Datascience-Projekten

Tiefere Einblicke liefert das Whitepaper. (Bild: Dataiku)

Schau dir das Dataiku-Whitepaper zum Thema an und erhalte einen tieferen Einblick in die Frage, warum Data-Science Projekte scheitern.

Hier erhältst du dein Exemplar!