Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

News

Baqend: Das Startup, das das Internet schneller machen will

(Foto: Shutterstock / Apatsara)

Das Unternehmen Baqend hat ein unbescheidenes Ziel: Es will die Ladezeiten von Websites um bis zu 250 Prozent verbessern. Bei Startups@Reeperbahn überzeugte es damit nicht nur die Jury. 

Publikumswirksam sind hochkomplexe technische Lösungen meistens nicht. Weil alles, was im Hintergrund einer Website passiert, für den Laien schwierig zu verstehen ist, müssen Tech-Startups ihre Idee oft stark herunterbrechen, um ihr Geschäftsmodell für jeden verständlich zu machen.

Wie gut das funktionieren kann, bewies am Mittwoch das Startup Baqend. Das Hamburger Unternehmen verspricht ganz unbescheiden, das Internet schneller zu machen. Bei dem Startups@Reeperbahn-Wettbewerb, der mit einem Medienpreis von 100.000 Euro dotiert ist, hatten es die Gründer bis ins Finale geschafft. Gemeinsam mit vier anderen Unternehmen kämpften sie um den Hauptpreis.

Die Baqend-Gründer im Mentoring-Gespräch mit t3n-CEO Andy Lenz (Foto: Hamburg Startups).
Die Baqend-Gründer im Mentoring-Gespräch mit t3n-CEO Andy Lenz (Foto: Hamburg Startups).

Baqend überzeugte sowohl Jury als auch Publikum

Baqend verspricht 250 Prozent schnellere Ladezeiten für Websites. Um dieses Ziel zu erreichen, haben Gründer Felix Gessert und seine Mitstreiter ein System gebaut, das auf der Grundlage von Backend-Caching funktioniert. Durch ihr System soll der Zugriff auf die Datenbank-Server in vielen Fällen unnötig sein. Stattdessen wird auf den schnellen Zwischenspeicher, den Cache, zugegriffen. Die Baqend-Gründer versprechen zudem, sich um die Infrastruktur ihrer Kunden zu kümmern, also ein klassisches Backend-as-a-Service-Modell.

Was das bringen kann, hat schon das „Höhle der Löwen“-Startup Towell erfahren. Es konnte auf der Basis von Baqend auch bei den höchsten Zugriffszahlen – zwischenzeitlich klickten 50.000 Nutzer gleichzeitig auf den Shop – seine Website stabil halten.

Trotz des komplizierten Themas schaffte es Gründer Felix Gessert, sein Produkt am Mittwoch einfach zu beschreiben: In seinem Pitch ging er weniger auf die technischen Details denn auf die Vorteile seiner Idee ein. Schon 100 Millisekunden schnelleres Laden kann laut einer Amazon-Untersuchung zu einem Prozent mehr Umsatz führen (mehr Details hier).

Mit seiner Präsentation überzeugte er sowohl Zuschauer als auch Jury: Baqend erhielt den Publikumspreis, eine Reise zum SXSW-Festival 2017, und den Medienpreis. Das Startup setzte sich gegen die vier anderen Finalisten Sponsoo, Horse Analytics, Uberchord und Spherie durch.

Finde einen Job, den du liebst

Bitte beachte unsere Community-Richtlinien

13 Reaktionen
Ben

Der Vergleichstest hinkt. 3 der 4 Wettbewerber sind Enterpriselösungen die nur Sandboxes online zur Verfügung stellen. Der Rest wird OnPrem gemacht. Wenn Ihr gegen ne Testumgebung nur Faktor 3 schneller seid ist die Frage wer hier wirklich das schnellste System hat.

Antworten
Felix Gessert

Nein, alle getesteten Systeme kommen aus dem Free Tier. Kannst du hier ansehen und ausführen: http://benchmark.baqend.com/ Web Performance hängt auch sehr viel mehr an der Effizienz der Kommunikation als an den Kapazitäten des Backends, das wird erst bei Skalierbarkeits-Tests relevant.

Antworten
Michael Reiserer

Die Vergleiche hinken doch signifikant - ApiOmat beispielsweise dient großen Unternehmen wie Berlitz oder mobilcom debitel als Mobile Backend Service und steht in der Enterprise Version nicht öffentlich zum Test zur Verfügung. Ich vermute daher, dass die ApiOmat Vergleichswerte aus der öffentlichen ApiOmat Variante in einem nicht kostenpflichtigen Account stammen - und dort natürlich nur eingeschränkte Ressourcen zur Verfügung stehen. Darüberhinaus ist dieser kostenfreie Standard Account nicht für global genutzte Applikationen gedacht und die Infrastruktur explizit nicht global ausgerollt, da hier typischerweise andere Szenarien abgebildet werden.

Antworten
Felix Gessert

Hi. Das sollte auch überhaupt kein Bashing von Apiomat sein. Wir wissen, dass ihr einen anderen Fokus setzt. Den Benchmark könnt ihr übrigens überprüfen: http://benchmark.baqend.com/ Von den getesteten Systemen sind Eure Latenzen mit die stabilsten. Es gäbe auf Protokollebene durchaus einige Optimierungen, die Euch schneller machen würden. Wenn ihr daran Interesse habt, können wir uns gerne austauschen. Der wichtigste Unterschied bleibt schlicht und einfach, dass wir mit Baqend Web Caches und CDNs nutzen und damit die Performance des Backends - egal ob Sandbox oder Enterprise On-premise Solution - in den Hintergrund tritt und die Ladezeiten von Webseiten verbessert werden. So wie wir Eure Plattform verstehen liegt Euer Fokus jedoch eher auf nativen mobilen Anwendungen als auf Web, richtig?

Antworten
Karl Marx

Ich benutze redis, memCache und Co, wie sollte das nochmal 250% raushohlen?
Was ist jetzt daran das neue?

Antworten
Felix Gessert

Hi, das Neue ist, dass wir nicht allein im Server cachen, sondern überall im Web: im Browser Cache, in Corporate Proxies, in ISP Interception Proxies, in CDNs und in Reverse Proxies. Das funktioniert normalerweise nur für statische Daten, da HTTP-Caching auf Expirationszeiten (TTLs) basiert, die, wenn sie einmal gesetzt sind, nicht wieder geändert werden können. Für Baqend haben wir ein Verfahren entwickelt, das selbst hochdynamische Daten cacht und aktuell hält. Die wesentliche Idee ist, dass man durch Stream Processing die Invalidierung von CDNs hinbekommt und durch eine neue Bloomfilter-basierte Datenstruktur auch alle client-seitigen Caches erreichen kann. Details kann man z.B. hier in diesen Slides sehen: http://www.slideshare.net/felixgessert/talk-cache-sketches-using-bloom-filters-and-web-caching-against-slow-load-times

Die Algorithmen dahinter sind keine "Secret Sauce", sondern von uns wissenschaftlich publiziert. Der wesentliche Effekt für Baqend Cloud ist, dass wir nicht nur Backend/Server performant machen, sondern die Auslieferung der Daten (JSON, Bilder, HTML, etc.) an Webseiten und Apps die auf uns gebaut sind. Die Verbesserung ist deshalb so groß, weil eine durchschnittliche Seite über HTTP-Requests macht [1] und die Seitenladezeit linear von der Netzwerklatenz abhängt [2] - und die wird durch Web Caching stark verkleinert.

[1] http://httparchive.org/trends.php
[2] https://hpbn.co/primer-on-web-performance/#latency-as-a-performance-bottleneck

Antworten
Sebastian

Wie reduziere ich die Ladezeit um 250 %? :)
100 % fände ich schon schnell ...
Sorry- konnte nicht widerstehen.

Viele Grüße

Sebastian

Antworten
Lisa Hegemann

Wer will denn nicht 250 Prozent bessere Ladezeit? ;) Haste natürlich recht, ist geändert.

Viele Grüße
Lisa

Antworten
Felix Gessert

Memcache ist ein super System für Backend-Caching. Eine Webseite macht es allerdings nur marginal schneller, denn die Latenz von HTTP-Zugriffen verbessert es nicht - es sei denn die Datenbank ist gerade lastbedingt der Bottleneck. Bei Baqend z.B. cachen wir auch im Backend (mit Redis) aber die Performance kommt daher, dass wir zusätzlich massiv Web Caching nutzen.

Antworten
Rene Woerz

An sich eine super Sache. Ich frage mich nur ob das heut zu Tage wirklich Abnehmer findet. Developer können die bekannten Techniken mit etwas know how selbst anwenden und verringern damit schon massiv die Ladezeiten. Wer heut zu Tage (beispielsweise) sein SCSS nicht minified kompiliert oder bei großen Libraries auf CDNs verzichtet ist selbst schuld. Wenn man etwas auf die kleinen Dinge bei der Entwicklung achtet und nicht gerade auf dem billigsten vServer gehostet wird, fährt man eine gute Linie und braucht diesen Service nicht. Die Leute sind nicht mehr mit einem 56k Modem unterwegs. Nur (m)eine Meinung.

Felix Gessert

Das Spannende dabei ist, dass es sich um Techniken handelt, die man als Entwickler *nicht* einfach anwenden kann. Ein paar Details dazu sind oben in einem Kommentar von mir, aber im Kern ist der Unterschied, dass wir mit Baqend selbst dynamische Daten cachen und beschleunigen. Dafür sind Algorithmen und CDN-Infrastrukturen nötig, die kein anderer Wettbewerber verwendet. Dass Entwickler state-of-the-art Optimierung wie Minifizierung, Konkatentieren, asynchrones Laden, Above-the-Fold Optimierung, etc. machen, davon gehen wir aus. Wenn man dann darüber hinaus Baqend verwendet, sind zusätzliche, drastische Beschleunigungen möglich (siehe z.B. http://www.slideshare.net/felixgessert/talk-cache-sketches-using-bloom-filters-and-web-caching-against-slow-load-times ).

Bezüglich "Die Leute sind nicht mehr mit einem 56k Modem unterwegs" ist das hier eine interessante Ressource: https://hpbn.co/primer-on-web-performance/#latency-as-a-performance-bottleneck Die Ladezeit wird ab ca. 5 MBit Bandbreite nicht mehr durch höhere Datenraten besser. Wenn man aber die Latenz verringert (das was wir durch kohärentes Web Caching tuen), dann nimmt die Ladezeit linear ab.

Hier kann man den Unterschied z.B. live sehen: http://s.codepen.io/baqend/debug/3010e4601789ea4d77673140d8e06245

Rene Woerz

Durchaus sehr interessant. Ich muss zugeben, dass ich den Slideshare vorher nicht kannte und mein Kommentar komplett auf die magere Aussage " Stattdessen wird auf den schnellen Zwischenspeicher, den Cache, zugegriffen" in diesem Artikel gestützt habe. Die technischen Hintergründe sind durchaus faszinierend auch wenn ich die Bloom Filter Folie nicht wirklich nachvollziehen konnte.

Melde dich mit deinem t3n-Account an oder fülle die unteren Felder aus.

Abbrechen