Mit Whisper lassen sich eingesprochene Texte sogar auf mäßig leistungsstarken Rechnern transkribieren. Erst auf Multi-Prozessor-Umgebungen spielt das System natürlich seine Stärken aus.
Dabei ist Whisper auch in der Lage, deutsche Audiodateien zu verarbeiten. In englischer Sprache funktioniert das natürlich besser, denn zwei Drittel der genannten 680.000 Stunden an Trainingsdaten liegen in dieser Sprache vor.
Whisper erweist sich als robustes Spracherkennungs-Tool
Die riesigen Mengen an Trainingsdaten hatte Whisper-Entwickler OpenAI vor allem deshalb eingesetzt, um der Spracherkennung eine verbesserte Robustheit gegenüber Akzenten, Hintergrundgeräuschen und Fachsprache zu verpassen. Außerdem ist deshalb die Transkription in mehrere Sprachen sowie die Übersetzung aus diesen Sprachen ins Englische möglich.
Damit unterscheidet sich Whisper deutlich von den üblicherweise wesentlich kleineren Audio-Text-Trainingsdatensätzen anderer Modelle. So ist das System zwar langsamer, aber robuster als diese Modelle. Zudem soll es laut OpenAI 50 Prozent weniger Fehler machen.
Whisper kann in fünf verschiedenen Größen auf Github heruntergeladen werden. Die Trainings-Parameter umfassen zwischen 39 Millionen bis über 1,5 Milliarden. Nur die größte Modellversion kann mit anderen Sprachen umgehen. Alle anderen Versionen laufen ausschließlich in englischer Sprache.