Anzeige
Anzeige
Software & Entwicklung
Artikel merken

Hip oder Hype?: Web 2.0

Das Web 2.0 ist in aller Munde, doch während Web-Begeisterte darunter die Weiterentwicklung des Internets und seiner Anwendungen verstehen, vermuten Kritiker dahinter nur Aufgewärmtes aus der New-Economy-Ära. Die einen verweisen auf die neuen Möglichkeiten, andere wittern die Gefahr einer neuen Spekulationsblase. Was steckt wirklich hinter dem Web 2.0?

13 Min. Lesezeit
Anzeige
Anzeige

Nach dem Platzen der New-Economy-Blase war der Traum vom schnellen Geld für viele ausgeträumt und der Glaube an das Web war getrübt durch die vielen Pleiten der Web-Startups. Nur eine Hand voll Firmen hatte es geschafft, ein erfolgreiches Geschäftsmodell zu entwickeln, das allein auf dem Web basiert. Doch heute, nur wenige Jahre nach dem Dotcom-Crash, ist wieder eine ähnliche Web-Euphorie zu beobachten. Eingemottete Ideen werden ausgegraben und alte Hasen gehen auf Einkaufstour, zum Teil für schwindelerregende Summen wie beim Kauf von YouTube durch Google. Nicht allein deswegen wird das Entstehen einer neuen Blase vermutet. Für die Skeptiker ist das Web 2.0 der Inbegriff für viel heiße Luft, die auch diese Blase zum Platzen bringen wird. Die Antwort, ob das Web 2.0 wirklich existiert und was darunter verstanden werden kann, wird in einem gerade erschienenen Buch ausführlich behandelt [1]. Einige der im Buch vorgestellten Aspekte des Web 2.0 werden in diesem Artikel dargestellt.

We have come a long way

Anzeige
Anzeige

Während Dotcom-Anleger und die vielen Entlassenen nach dem Crash ihre Wunden leckten, breitete sich das Web immer weiter aus. So wird bei genauerem Hinsehen deutlich, dass sich das Web und sein Umfeld seit den frühen Irrungen und Wirrungen geändert haben und ganz andere Voraussetzungen für die Verwirklichung der alten Ideen bestehen. Wer zu Zeiten der New Economy eine Pizza über das Web bestellen wollte, musste sich in der Regel zunächst über ein Modem einwählen, für jede Einwahl Geld bezahlen und sich mit dieser langsamen und teuren Verbindung durch den Bestellvorgang navigieren. Die Experimentierfreudigen nutzten diese Dienste damals allein deshalb, weil es sie gab, nicht weil sie einen tatsächlichen Nutzen boten. Heute aber sind wir Dank DSL-Flatrate jederzeit schnell und günstig online.

Die Pioniere des Webs sind zum Teil deshalb gescheitert, weil die Rahmenbedingungen für das Web noch nicht stimmten, insbesondere für die Nutzung durch die breite Masse. Im Jahr 2000 konnte die Nachfrage nach DSL nicht einmal annähernd befriedigt werden und die zuvor eingeführten Flatrates waren alle vom Markt verschwunden. Erst durch die verbesserte Verfügbarkeit von günstigen Breitbandzugängen sind manche Webapplikationen überhaupt erst sinnvoll zu nutzen, sei es der Verkauf von digitaler Musik bei iTunes oder das digitale Flickr-Fotoalbum.

Anzeige
Anzeige

Für den kommerziellen Erfolg einer Webanwendung ist eine ausreichende Anzahl von Benutzern notwendig, die einen Dienst sinnvoll anwenden kann. Mit den sinkenden Preisen haben immer mehr Benutzer mehr Zeit im Netz verbracht und das Web ist nach den „Early Adaptors“ auch bei der „Early Majority“ angekommen. Je mehr Zeit im Web verbracht wurde, desto mehr Erfahrungen wurden gesammelt, was wiederum dem Vertrauen in Webapplikationen zugutekam.

Anzeige
Anzeige

Viele werden sich noch an das Zögern erinnern, als das erste Mal eine Kreditkartennummer in ein Web-Formular einzugeben war.

Nicht nur die Benutzer wurden erwachsen, auch die Geschäftsmodelle veränderten sich. Neben den reinen Internetfirmen, die zum Teil große Gewinne erzielen konnten, entdeckten die Old-Economy-Firmen das Web für sich und eroberten neue Märkte oder konnten zumindest Einsparpotenziale durch das Web identifizieren. Das Web erlaubt ganz andere Vorgehensweisen, denn anstatt allein für die Masse zu produzieren und zu werben, können nun zusätzlich viele Nischen bedient werden. Für sich gesehen wären diese Nischen wenig attraktiv, doch zusammengenommen machen die Nischen einen bedeutenden Teil des Marktes aus, der noch nicht einmal vollständig erobert wurde. Dieser Markt wird als „Long Tail“ bezeichnet, und er wird von fast allen Größen der Web-Wirtschaft in irgendeiner Weise bedient [2].

Anzeige
Anzeige

Lohnte es sich vor einigen Jahren zum Beispiel für die Plattenfirmen nicht, alte Werke erneut auf CD herauszubringen, weil die Anzahl potenzieller Käufer zu klein gewesen wäre, kann heute ein digitaler Download angeboten werden, der weder eine Investition in CD-Produktion noch Platz im Händlerregal erfordert. Auch wenn dieses eine Werk nur wenige Male verkauft wird, gibt es Millionen von diesen Alt-Werken, die zusammen einen beachtlichen Erlös bringen, der zuvor nicht erzielt werden konnte. Googles AdWords- und AdSense-System funktioniert genau auf diese Weise: Lohnte sich die Bannerwerbung mit Streuverlusten für Anbieter von Nischenprodukten in der Vergangenheit nicht, kann Werbung heute gezielt auf Suchanfragen und Webseiteninhalte geschaltet werden. Für die Anbieter der Inhalte bedeutet dies gleichzeitig, dass sie einen einfachen Weg zur Monetarisierung gefunden haben, für den der Aufwand ansonsten zu hoch gewesen wäre [3].

Auch für die Entwickler von Anwendungen wurde einiges einfacher: Der Sieg des Microsoft Internet Explorers im Browser-Krieg hat dazu geführt, dass die Entwicklung und das Testen für verschiedene Versionen von Netscapes Navigator und Microsofts Internet Explorer auf einen Browser reduziert wurden. Gleichzeitig sind die Einstiegskosten für Firmen dramatisch gesunken: Die Kosten für ein professionelles Content Management System und dessen Anpassungen lagen Ende der 90er Jahre noch im sechsstelligen Bereich, heute können Open-Source-Lösungen genutzt werden, deren Anpassung nur noch einen Bruchteil kostet.

Wie schlimm die Erfahrungen durch das Zerplatzen der Dotcom-Blase auch gewesen sein mögen, es ist nicht von der Hand zu weisen, dass das Umfeld des Webs heute ein anderes ist. Doch reichen diese Veränderungen aus, um von einem Web 2.0 zu sprechen?

Anzeige
Anzeige

Web 2.0, 1.5, 3.11 oder Web Social Edition?

Der im Umfeld des Verlegers Tim O’Reilly entstandene Begriff „Web 2.0“ sorgt seit seiner Popularisierung für Verwirrung. Mit einer Software-Versionsnummer wird in der Regel verbunden, dass ein Produktmanager oder ein Entwickler Funktionen und Fehlerbereinigungen für ein Release gebündelt hat und mit der Versionsnummer die Wichtigkeit dieser Funktionen kennzeichnet. Für das Web gibt es weder einen Produktmanager, noch kamen die Funktionalitäten, die dem Web 2.0 zugeordnet werden, alle gleichzeitig in einem Release daher. Zum Teil gab es sie schon zu Zeiten der New Economy – allein deswegen wollen sich viele Kritiker nicht mit dem Web-2.0-Gedanken anfreunden. Auch gibt es keine klare Definition, was nun Web 2.0 ist und was nicht, selbst wenn Tim O’Reilly einen ausführlichen Artikel dazu geschrieben hat [4]. Als Konsequenz daraus kann jeder den Begriff verwenden wie er will und diese Beliebigkeit hat dem Gedanken des Web 2.0 nicht gerade zum Vorteil gereicht. Nicht überall, wo Web 2.0 drauf steht, ist auch wirklich Web 2.0 drin.

Ganz abwegig ist die Verwendung einer Versionsnummer für das Web allerdings nicht. So wird die Version 2.0 einer Software nur dann entwickelt, wenn die erste Version einigermaßen erfolgreich war. Kaum jemand wird bestreiten, dass die erste Version des Webs erfolgreich war. Nur erforderte das Web 1.0 den Benutzer 2.0 und den Zugang 2.0, was nicht in ausreichendem Maß gewährleistet war, sodass nicht alle Features genutzt wurden. Auch ist eine Version 2.0 in der Regel durch Fehlerbereinigungen und wichtige neue Funktionalitäten gekennzeichnet. Das trifft ebenso auf die derzeitige Ausprägung des Webs zu, denn wenn auch zum Teil alte Konzepte aufgewärmt wurden, sind sie doch an die heutigen Gegebenheiten angepasst.

Dass der Begriff „Web 2.0“ es überhaupt geschafft hat, so lange Gesprächsthema zu bleiben, spricht außerdem dafür, dass er nicht ganz falsch gewählt sein, selbst wenn O’Reillys Reputation sicherlich nicht ganz unschuldig an der Popularität ist. Letztlich steckt dahinter auch das Verlangen, einen Begriff für die Weiterentwicklung des Webs zu haben, um die Veränderungen „begreifen“ zu können.

Anzeige
Anzeige

We are the Media: Blogs & Co

Es ist nicht sofort zu begreifen, warum das Modell des Publizierens für jedermann in Form von kostenlosen Homepages inzwischen zum Friedhof für Katzenbilderseiten verkommen ist, während gleichzeitig das sehr ähnliche Modell der heutigen Blogs auf den Seiten traditioneller Medien eine hohe Qualität erreicht. Es gibt viele Gründe: Die einfach zu benutzende Technik mag einer sein [5]. Doch schon vor Jahren war es möglich, eine Homepage ohne jegliche HTML-Kenntnisse zu erstellen, wie die Millionen Leichen privater Homepages beweisen. Es haperte vor allem an der Weiterpflege. Die Autoren verloren irgendwann das Interesse, wohingegen fast jede Blog-Software zum kontinuierlichen Schreiben einlädt.

Hierfür ist die mitgelieferte Informationsarchitektur verantwortlich, die die Blogs von den damaligen Homepages unterscheidet: Eine Blogging-Software schreibt die chronologische Organisation der Inhalte vor. So kann sofort mit dem Schreiben begonnen werden, wohingegen das frühere Homepage-Modell erforderte, dass die neuen Inhalte logisch in die vorhandenen eingebettet wurden, was das spontane Niederschreiben behinderte. Die chronologische Organisation ist den meisten Menschen vertraut, wer selbst auch kein Tagebuch geführt hat, der kennt zumindest die Logik dahinter und für das gerade Erlebte ist diese Informationsarchitektur gut geeignet. So sehen viele Blogger ihre Blogs auch als Mittel zur Reflexion und setzen somit eine lange Tradition der Textverwendung fort [6].

Darüber hinaus bieten die meisten Blogging-Softwareprodukte Funktionen, die den Leser eines Blogs durch Kommentarfunktionen einbinden. Anstatt in einem Gästebuch einen allgemeinen Gruß an den Homepage-Autor zu richten, kann nun vereinfacht und direkt auf einen Beitrag Bezug genommen werden. Viele Blogs verwenden zudem die Trackback-Funktion, bei der ein eingehender Link von einem Blog zu einem anderen automatisch erkannt und in dem entsprechenden Beitrag angezeigt wird; dadurch wird die Vernetzung der Blogs vereinfacht. Jeder Blogeintrag hat zudem einen eigenen URL und ist somit einfach von einer anderen Seite aus zu verlinken. Was relativ primitiv klingt, hat in der Realität eine große Auswirkung:

Anzeige
Anzeige

Gibt es in der Blogosphäre etwas Interessantes, so kann es sich angesichts der Trackbacks und Verlinkungsmöglichkeiten wie ein Feuer schnell ausbreiten. Gleichzeitig sorgen die Verlinkung sowie die bereits für Suchmaschinen optimierte Ausgabe der Blog-Systeme dafür, dass die Blogs häufig sehr gut in den Suchmaschinen platziert sind.

Die heutige Verbreitung des Publizierens für jedermann in der Form von Blogs ist nicht allein mit der vorgegebenen Informationsarchitektur zu erklären. Auch hier haben die bereits genannten Gründe Einfluss: So haben die damaligen langsamen und teuren Modem-Zugänge nicht gerade zu spontaner Kreativität eingeladen. Und war eine langsame Verbindung bei Texten vielleicht noch akzeptabel, bedeutete sie für Bilder und Audio- und Videodateien das Aus. Eine Bilder-Community wie Flickr wäre (und ist) zu Zeiten der New Economy an den Einstiegshürden für die Benutzer zugrunde gegangen. Heute ist es dank DSL kein Problem mehr, auch große Videodateien ins Netz zu stellen oder aus dem Netz zu laden.

Auch die drastisch gefallenen Produktionskosten müssen in Betracht gezogen werden. Die frühen Digitalkameras waren teuer, eine Webcam besaßen nur wenige, und zum Erstellen eines Podcasts war neben viel Zeit auch teure Software notwendig. Heute wird die für Blogs und Podcasts benötigte Hard- und Software bei einigen Rechnermodellen bereits mitgeliefert: Mit jedem Discount-PC ist ein neuer potenzieller Herausgeber zumindest mit den geeigneten technischen Mitteln ausgestattet. Ob jeder das will und kann, steht auf einem anderen Blatt.

Anzeige
Anzeige

Schon jetzt allerdings bieten Blogs den traditionellen Medien die Stirn. Die gute Platzierung von Blog-Inhalten in den Suchmaschinen hat dazu geführt, dass Blogs häufig vor den Angeboten der traditionellen Medien in den Suchergebnissen auftauchen. Hinzu kommt, dass Journalisten in der Regel Generalisten sind, denen nun eine große Anzahl Experten gegenüber sitzt, die den Journalisten quasi auf die Finger schaut oder ihnen sozusagen das Futter für die Berichterstattung liefert [7]. Immer öfter „schwappen“ Themen der Blogs in die Redaktionen der etablierten Medien. Auch wenn der Durchschnittsbürger noch nichts von Blogs gehört hat, so ist seine Tageszeitung bereits durch Blogs beeinflusst.

Wie sozial ist Soziale Software?

Ungeachtet des Einflusses auf die etablierten Medien sind in der Blogosphäre Netze entstanden, in denen O’Reilly zufolge „laut nachgedacht“ wird und in denen gemeinschaftlich bessere Lösungen gefunden werden. Die „Wisdom of Crowds“, wie sie der amerikanische Autor James Surowiecki nennt, tritt unter bestimmten Bedingungen zutage, wenn Menschen zusammenkommen. Sie führt in der Regel zu besseren Resultaten als die Einzelnen im Durchschnitt zu liefern imstande wären [8]. Das betrifft nicht allein die Blogs, als „Soziale Software“ wird jede Art von Software bezeichnet, die es den Benutzern ermöglicht, einfacher oder überhaupt zusammenzuarbeiten, zu kommunizieren oder andere Dinge miteinander zu tun. Wikis, Flickr, YouTube oder del.icio.us, aber auch Applikationen aus Deutschland wie Lycos IQ leben davon, dass die Benutzer Inhalte beitragen, organisieren und bewerten. Aus den Daten Einzelner werden durch die Masse bessere Daten, sei es durch das so genannte „Taggen“ von Informationen zur späteren Erschließung durch einen selbst oder durch andere, sei es durch das Bereitstellen des eigenen Wissens.

Warum stellen die Benutzer ihre Zeit so uneigennützig zur Verfügung? Zum Teil haben Benutzer einen direkten Nutzen durch die Verwendung von Sozialer Software wie dem Social-Bookmarking-System del.icio.us: Abgesehen von der einfachen Benutzerschnittstelle wird das Anlegen von Bookmarks durch die Vorschläge erleichtert, die aus den Bookmarks anderer Benutzer für den gleichen Link generiert werden. Die Bookmarks können einfach importiert und exportiert werden und selbst das Bereitstellen auf der eigenen Website ist dank API relativ einfach. Darüber hinaus haben die Benutzer das Gefühl, dass sie etwas Sinnvolles tun und zudem kommt schnell ein Gemeinschaftsgefühl auf.

Anzeige
Anzeige

Open-Source-Programmierer arbeiten zusammen gegen Software-Monopolisten, Wikipedia-Autoren arbeiten gemeinsam daran, Wissen für jeden verfügbar zu machen, Flickr-Fotografen bieten einen kostenlosen Blick in Kunst, Regionen und Alltägliches. Dieses Gemeinschaftsgefühl wird nicht selten ergänzt durch Aufmerksamkeit, die einem selbst als Gegenleistung für das Eingebrachte zuteil wird [9]. So spricht man im Zusammenhang mit YouTube schon nicht mehr von den Warhol’schen 15 Minuten, sondern von de YouTube’schen 15-MegaByte Ruhm, in Anlehnung an die Dateigröße der Videos. Aufmerksamkeit ist ein knappes Gut. Wie attraktiv diese Währung ist, zeigen die vielen privaten Videos, die jeden Tag auf den YouTube-Servern landen.

Während die Bemühungen der Benutzer in der Regel mit Aufmerksamkeit und Gemeinschaftsgefühl vergolten werden, versuchen die meist kommerziellen Anbieter, mit den Inhalten Geld zu verdienen. Die Benutzer erstellen die Inhalte und verwirklichen sich damit selbst, der Betreiber verdient durch die Einblendung von Werbung und das Verkaufen von zusätzlichen Funktionen. Das, was manche als AAL-Prinzip bezeichnen (andere arbeiten lassen), ist wie viele andere Aspekte des Web 2.0 nicht neu; auch Geocities, Tripod & Co haben auf diese Weise versucht, Geld zu verdienen. Ob YouTube für sich gesehen angesichts der hohen Kosten jemals profitabel werden kann, ist fraglich. Aber allein die Aufmerksamkeit, die Benutzer der YouTube-Site und den privaten Videos widmen, war Google 1,6 Milliarden Dollar wert.

Von HTML zu OOP

Aus privaten Homepages wurden Blogs und Audio-/Video-Podcasts, gleichzeitig haben sich auch die eingesetzten Technologien weiterentwickelt. Dabei stammen die Technologien, die heute mit dem Web 2.0 in Verbindung gebracht werden, zum Teil aus der Ära der New Economy. Die Idee der RSS-Feeds zum Beispiel stammt aus den Zeiten, als der Netscape-Browser populär war. An Ajax ist vor allem der Name neu, denn JavaScript und XML gab es schon vorher. Lediglich die Entscheidung in der Browserschlacht hat dafür gesorgt, dass es genug Sicherheit für die Entwickler gab, die zur Verfügung stehenden Möglichkeiten auszureizen.

Gleichzeitig ist aus den vielen HTML-Fricklern mit selbst angeeignetem Wissen – auf die die Informatiker in der Regel eher geringschätzig herabschauten – ein professioneller Berufsstand geworden, der mehr kann als das bloße Verschieben von Bits und Bytes. Dementsprechend haben sich auch die Entwicklungswerkzeuge der Webentwickler professionalisiert, Ruby on Rails sei hier als Beispiel genannt [10]. Webapplikationen können heute schneller entwickelt werden, Gestaltungsregeln haben für mehr Kohärenz in der Benutzerführung von einem Anbieter zum anderen gesorgt und Best Practices in der Entwicklung von Webapplikationen haben dazu geführt, dass das Rad nicht jedes Mal neu erfunden werden muss. Anstatt komplizierte Schnittstellen zwischen Applikationen definieren zu müssen, haben sich Standards durchgesetzt. Offene APIs laden zum „Mixen“ der Daten verschiedener Dienste in ein Mashup ein. Google Maps war der Anfang, aufbauend auf diese API können neue Dienste erstellt werden, die wiederum für Nischen interessant sind und auch innerhalb dieser Nischen monetarisiert werden können.

Das Web nach 2.0

Kaum war der Begriff „Web 2.0“ populär, wurden die Rufe nach der nächsten Evolutionsstufe des Internets laut. Wer schon mit der Versionsnummer 2.0 Probleme hatte, wird sich auch wenig für ein Web 3.0 begeistern können und angesichts der Diskussionen um den Begriff „Web 2.0“ werden wir das Benennen der Webgenerationen wahrscheinlich den zukünftigen Historikern überlassen müssen.

Wir stehen immer noch ganz am Anfang einer Entwicklung, die sich wie in anderen Industrien auch durch Unsicherheiten und Fehler auszeichnet. Glaubten die Web-Pioniere Mitte der 90er Jahre daran, dass wir uns bald in virtuellen Welten tummeln würden, die dem von William Gibson beschriebenen Cyberspace ähnelten, erblicken erst jetzt mit Second Life & Co die ersten 3D-Welten das Tageslicht. In der Zwischenzeit war von VRML sowie von anderen 3D-Erweiterungen des Webs wenig zu hören. Auch der Begriff „Cyberspace“ wird heute nur noch selten verwendet und noch gibt es eine Grenze zwischen dem jetzigen Web und dem proprietären Grid von Second Life. Es ist zu erwarten, dass diese Grenze verschwimmen wird, sobald auch diese Welt einfacher zu bedienen und der Nutzen einer solchen Welt für die breite Masse erkennbar ist.
In den kommenden Monaten scheint dafür ein anderes altes Versprechen der New Economy wahr zu werden, denn das Web wird mobil. Wie damals sind die Zugangskosten momentan zwar noch zu hoch, aber die Zugangsgeschwindigkeiten sollten angesichts von UMTS bald steigen. Die Endgeräte gehen jedenfalls eindeutig in diese Richtung. Local Search ist seit Jahren ein Thema bei den Suchmaschinen und die Verbindung von Local mit Mobile Search könnte einen neuen Evolutionsschritt des Webs bringen – Die Mobilnetzbetreiber sollten aber aus den Fehlern der New Economy lernen.

Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Schreib den ersten Kommentar!
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige