Web 2.0: Unterschied zwischen den Versionen

Aus Social-Media-ABC
Zur Navigation springen Zur Suche springen
(Die Seite wurde neu angelegt: „Der Verleger Tim O’Reilly griff den 2003/2004 in den Medien umhergeisternden Begriff „Web 2.0“ als Titel für eine Konferenz und einen Aufsatz auf. …“)
 
Zeile 1: Zeile 1:
Der Verleger [[Tim O’Reilly]] griff den 2003/2004 in den Medien umhergeisternden Begriff „[[Web 2.0]]“ als Titel für eine Konferenz und einen Aufsatz auf. Als Synonym für das Mitmach-Web oder [[Social Web]] erfuhr der Begriff eine rasante Verbreitung.  
Der Verleger [[Tim O’Reilly]] griff den 2003/2004 in den Medien umhergeisternden Begriff „[[Web 2.0]]“ als Titel für eine Konferenz und einen Aufsatz auf. Als Synonym für das Mitmach-Web oder [[Social Web]] erfuhr der Begriff eine rasante Verbreitung.  


==Weblinks==
Quelle:  http://www.oreilly.de/artikel/web20_trans.html
 
 
 
Der Begriff Web 2.0 wurde erstmals von Tim O´Reilly in den Jahren 2003/2004 definiert.
 
Das Zerplatzen der Dot-Com-Blase im Herbst 2001 stellte einen Wendepunkt für das World Wide Web dar. Viele Leute hielten das Web damals für überbewertet, aber Seifenblasen und konsequente Marktbereinigung gehören im allgemeinen zu jeder technologischen Revolution. üblicherweise signalisiert eine Marktbereinigung, dass eine aufstrebende Technologie bereit ist, ihren Platz auf der großen Bühne der Wirtschaftlichkeit einzunehmen. Die Blender und Angeber werden vor die Tür gesetzt, die wirklichen Erfolgsstories zeigen ihre Stärken und es bildet sich bei vielen ein Verständnis dafür, was die Einen vom Anderen unterscheidet.
 
Das Konzept "Web 2.0" begann mit einem Brainstorming zwischen O'Reilly und MediaLive International. Dale Dougherty, Web-Pionier und Vizepräsident von O'Reilly, merkte an, dass das Web nicht etwa zusammengebrochen, sondern wichtiger als jemals zuvor sei. Interessante neue Anwendungsmöglichkeiten und Seiten tauchten mit erstaunlicher Regelmäßigkeit auf und die überlebenden Firmen schienen einige wichtige Dinge gemeinsam zu haben. Könnte es sein, dass der Dot-Com-Kollaps einen derartigen Wendepunkt markiert hatte, dass man diese Dinge nun mit einem Schlagwort wie "Web 2.0" bezeichnen durfte? Wir einigten uns darauf und damit war die "Web 2.0 Konferenz" geboren.
 
Eineinhalb Jahre später hat sich der Begriff "Web 2.0" in der Tat durchgesetzt, Google findet hierzu inzwischen 9,5 Millionen Treffer. Aber es existiert immer noch große Uneinigkeit darüber, was "Web 2.0" nun genau bedeutet. Einige halten es für ein bedeutungsloses Schlagwort aus dem Marketing, Andere akzeptieren es als neue allgemeingültige Einstellung.
 
Dieser Artikel ist ein Versuch zu erklären, was genau wir unter "Web 2.0" verstehen.
 
Das Web als Plattform
 
Wie viele andere wichtige Konzepte, hat Web 2.0 keine genauen Begrenzungen, sondern vielmehr ein Gravitationszentrum. Man kann Web 2.0 als eine Ansammlung von Prinzipien und Praktiken visualisieren, die ein regelrechtes Sonnensystem von Seiten zusammenhalten, die einige oder alle dieser Prinzipien in unterschiedlicher Entfernung vom Zentrum demonstrieren.
 
Zum Beispiel nannten John Battelle und ich (Tim O'Reilly) auf der ersten Web-2.0-Konferenz im Oktober 2004 eine erste Liste von Prinzipien im Rahmen unserer Eröffnungsrede. Das erste dieser Prinzipien war "Das Web als Plattform". Natürlich war das auch schon ein Schlagwort des Web-1.0-Favoriten Netscape, der nach einem heißen Kampf mit Microsoft in den Flammen unterging. Zudem waren zwei unserer Web 1.0 Beispiele, nämlich DoubleClick und Akamai, Pioniere im Bestreben, das Web als Plattform zu verwenden. In der Tat handelte es sich bei Werbediensten um die ersten weitverbreiteten Web Services (und um die ersten weitverbreiteten "Mashups", um einen anderen Begriff zu nutzen, der kürzlich in Umlauf gekommen ist). Jede Bannerwerbung stellt eine nahtlose Kooperation zwischen zwei Webseiten dar, die eine integrierte Seite für einen Leser auf einem anderen Computer ausliefert. Akamai verwendet sogar das Netzwerk selbst als Plattform und stellt auf einem tiefer gelegenen Level transparentes Caching und ein CDN (Content Delivery Network) zur Verfügung, sodass Bandbreitenstaus verringert werden.
 
Nichtsdestotrotz stellen diese Pioniere gute Gegenbeispiele dar, da später hinzugekommene Dienste ihre Lösungen für dasselbe Problem weitergedacht und dabei größeres Verständnis für das Wesen der neuen Plattform gezeigt haben. Sowohl DoubleClick als auch Akamai waren in gewissem Sinne auch Web 2.0 Pioniere, aber man kann auch erkennen, welche größeren Möglichkeiten sich ergeben, wenn man einige zusätzliche Designvorlagen von Web 2.0 hinzuzieht.
 
Netscape vs. Google
 
Wenn Netscape der Fahnenträger von Web 1.0 war, dann ist höchstwahrscheinlich Google der Fahnenträger für Web 2.0, und wenn auch nur weil ihre jeweiligen Börsengänge wahre Großereignisse in der entsprechenden ära darstellten. Also starten wir mit einem Vergleich dieser beiden Unternehmen und ihrer jeweiligen Positionierung.
 
Netscape gestaltete "das Web als Plattform" mittels Begriffen aus dem alten Software-Denkmuster: Ihr wichtigstes Produkt war der Web Browser, eine Desktop-Anwendung, und ihre Strategie war es, ihre Dominanz im Browsermarkt zur Einrichtung eines Marktes für hochpreisige Serverprodukte zu nutzen. Die Kontrolle über Standards für die Darstellung von Inhalten und Applikationen im Browser sollte Netscape, so weit die Theorie, dieselbe Marktmacht verleihen, die Microsoft im PC-Markt innehatte. So wie die "pferdelose Kutsche" das Auto als Erweiterung von etwas Bekanntem beschrieb, warb Netscape mit einem "Webtop" als Desktop-Ersatz und plante, diesen vor allem durch Informationsservices und Anwendungen von Firmen populär zu machen, die dafür natürlich Netscape-Server-Produkte kaufen sollten. Am Ende wurden sowohl Browser als auch Webserver Massenwaren und die Web-Dienste selbst wurden wertvoll.
 
Im Gegensatz dazu begann Google sein Dasein als native Web-Anwendung, die niemals verpackt und verkauft, sondern als Service angeboten wurde, dessen Nutzer direkt oder indirekt für die Inanspruchnahme bezahlten. Keine der von der altgedienten Softwareindustrie bekannten Eigenschaften lässt sich bei Google finden. Keine geplanten Releases, stattdessen kontinuierliche Verbesserung. Keine Lizenzierung oder Verkauf, nur die reine Benutzung. Keine Portierung auf diverse Plattformen, um Benutzern den Einsatz auf dem jeweils gewünschten Equipment zu ermöglichen, stattdessen eine hoch skalierbare Anzahl gewöhnlicher PCs mit Open-Source-Betriebssystemen und eigenentwickelten Programmen, die niemals jemand außerhalb der Firma zu sehen bekommen muss.
 
Google benötigt vor allem Kompetenzen in einem Bereich, den Netscape niemals brauchte: Datenbank-Management. Google ist nicht nur eine Ansammlung von Software-Tools, es ist eine spezialisierte Datenbank. Ohne die Daten sind die Tools nutzlos, ohne die Software sind die Daten nicht handhabbar. Softwarelizenzierung und die Kontrolle über APIs - ein Hebel der Macht in der vorherigen ära - sind irrelevant geworden, da die Software niemals ausgeliefert, sondern nur ausgeführt werden muss. Zudem ist die Software ohne die Möglichkeit des effizienten Sammeln und Management der Daten von sehr geringem Nutzen. Man kann also sagen, der Wert der Software verhält sich proportional zu Ausmaß und Dynamik der Daten, die sie verwalten soll.
 
Google's Service ist kein Server - auch wenn viele Server an der Auslieferung des Service beteiligt sind -, noch handelt es sich um einen Browser - auch wenn der User einen Browser zur Nutzung des Service verwendet. Der Suchdienst, Google's Flaggschiff, muss die Daten nicht einmal bereitstellen, die seine Nutzer finden sollen. ähnlich zu einem Telefongespräch, an dem nicht nur die beiden Endgeräte, sondern auch das dazwischen liegende Netzwerk beteiligt ist, agiert Google im Raum zwischen Browser, Suchmaschine und Zielserver als Vermittler zwischen dem User und der Online-Welt.
 
Obwohl sowohl Google als auch Netscape als Softwarefirmen bezeichnet werden können, gehört Netscape doch eindeutig zu der Kategorie Firmen, die ihren Start während der Software-Revolution in den 80ern hatten, wie auch Lotus, Microsoft, Oracle und SAP. Google hingegen reiht sich in die Riege der Internet-Dienstleister ein, zu Firmen wie eBay, Amazon, Napster und - genau - DoubleClick und Akamai.
 
DoubleClick vs. Overture und AdSense
 
Wie auch Google ist DoubleClick ein Kind der Internet-ära. DoubleClick stellt Software als Service bereit, besitzt Kernkompetenzen im Datenmanagement und war, wie bereits oben erwähnt, ein Pionier im Bereich Web Services, lange bevor sie unter diesem Namen bekannt wurden. Allerdings war DoubleClick durch sein Geschäftsmodell stark begrenzt. Man glaubte an die Ansicht der 90er Jahre, dass es beim Web um Verbreitung, nicht um Beteiligung geht; dass die Werbetreibenden, nicht die Endnutzer, das Sagen haben sollten; dass es auf die Größe ankommt und das Internet immer stärker von wenigen Topseiten dominiert wird, die von MediaMetrix und anderen Werbe-Scoring-Firmen ermittelt werden.
 
Als Ergebnis spricht DoubleClick auf seiner Webseite stolz von "über 2000 erfolgreichen Implementationen" ihrer Software. Yahoo Search Marketing (vormals Overture) und Google Ad Sense hingegen beliefern bereits Hunderttausende von Werbetreibenden.
 
Der Erfolg von Overture und Google resultiert aus einem hohen Verständnis dessen, was Chris Anderson einmal als "The Long Tail" bezeichnete, die kollektive Macht vieler kleiner Seiten, die den Hauptbestandteil des Webs bilden. Die Angebote von DoubleClick erfordern formelle Verträge, sodass ihre Zielgruppe auf wenige tausend große Webseiten beschränkt wird. Overture und Google erkannten, wie man Werbung im Prinzip auf jeder Webseite plazieren könnte. Darüber hinaus mieden sie anbieterfreundliche Formate wie Banner und Popups, stattdessen nutzen sie kontextsensitive, anwenderfreundliche und weniger aufdringliche Textwerbung.
 
Das Fazit für Web 2.0: Kunden-Selbstbedienung und algorithmisches Datenmanagement zu Nutze machen, um jeden Winkel des Web zu erreichen, nicht nur die schmale Spitze, sondern auch die breite Masse ("The Long Tail").
 
Es überrascht nicht, dass andere Web 2.0 Erfolgsstories dasselbe Verhalten aufweisen. eBay ermöglicht gelegentliche Transaktionen mit geringem Wert zwischen einzelnen Personen und tritt dabei als automatischer Vermittler auf. Napster (inzwischen aus rechtlichen Gründen abgeschaltet) errichtete sein Netzwerk nicht um eine zentrale Musikdatenbank herum, sondern als System, in dem jeder Client zugleich zum Server wurde, sodass das Netzwerk stetig wuchs
 
Akamai vs. BitTorrent
 
Wie auch DoubleClick ist Akamai darauf spezialisiert, mit der schmalen Spitze, nicht der breiten Masse Geschäfte zu machen. Akamai dient vor allem den vielen Menschen in allen Ecken des Web und verbessert deren Zugriffsgeschwindigkeiten auf häufig abgerufene Webinhalte, kassiert aber von den Anbietern dieser zentralen Seiten.
 
BitTorrent und andere Pioniere des P2P-Bereichs wählen den radikalen Weg zur Dezentralisierung des Internet. Jeder Client ist auch Server und Dateien werden in Fragmente aufgeteilt, die von verschiedenen Orten bezogen werden können, sodass das Netzwerk der Downloader auf transparente Weise anderen Nutzern Bandbreite und Daten zur Verfügung stellt. Je beliebter eine Datei ist, desto besser kann sie angeboten werden, da dementsprechend viele User Bandbreite und Fragmente für diese Datei bereitstellen.
 
BitTorrent zeigt somit als Schlüsselprinzip für Web 2.0: Ein Dienst wird umso besser, je mehr Leute ihn nutzen. Während Akamai zur Verbesserung des Service mehr Hardware zur Verfügung stellen muss, steuert jeder BitTorrent-User automatische seine Ressourcen zum Netzwerk bei. Es existiert also eine implizite "Architektur der Partizipation", oder auch eine "eingebaute Ethik der Kooperation", in der der Dienst selbst als intelligenter Vermittler auftritt, der die Enden des Netzwerks verbindet, die Ressourcen der User bündelt und ihnen wieder zur Verfügung stellt.
 
Die Nutzung kollektiver Intelligenz
 
Das zentrale Prinzip hinter dem Erfolg der Giganten aus der Web 1.0 ära, die überlebt haben um nun die Web 2.0 ära anzuführen, scheint zu sein, dass sie sich die Stärke des Web zu Eigen gemacht haben, die kollektive Intelligenz zu nutzen:
 
Hyperlinks bilden die Grundlage des Web. Wenn Nutzer neue Inhalte und Seiten online stellen, werden sie durch die Verlinkung von anderen Nutzern in die Struktur des Web einbezogen. ähnlich den Synapsen im Gehirn, deren Assoziation durch Wiederholung und Intensität stärker wird, wächst das Netz der Verbindungen auf natürliche Weise als Output der kollektiven Aktivitäten aller Web-User.
Yahoo, die erste große Internet-Erfolgsstory, begann als Katalog oder Verzeichnis von Links, eine Aggregation der besten Ideen von abertausenden Web-Nutzern. Obwohl Yahoo inzwischen viele Arten von Inhalten bereitstellt, bleibt sein Kern dennoch die Rolle eines Portals zu den gesammelten Werken der Internet-Gemeinde.
Der Durchbruch für Google, der das Unternehmen schnell zum unumstrittenen Marktführer bei den Suchmaschinen werden ließ, war PageRank, eine Methode, die die Linkstruktur des WWW mehr als die Eigenschaften der Dokumente selbst nutzte, um bessere Suchergebnisse zu liefern.
eBay's Produkt ist die gemeinschaftliche Aktivität aller Beteiligten. Wie das Web selbst wächst eBay auf natürliche Weise durch intensive Nutzung, und die Rolle des Unternehmens beschränkt sich dabei auf die Bereitstellung des Rahmens, in dem die Nutzung stattfinden kann. Darüber hinaus liegen eBay's Vorteile gegenüber der Konkurrenz vor allem in der kritischen Masse von Käufern und Verkäufern begründet, die jeden neuen Markteinsteiger weniger attraktiv erscheinen lässt.
Amazon verkauft die gleichen Produkte wie seine Konkurrenten (z.B. barnesandnoble.com) und erhält dieselben Produktbeschreibungen, Coverbilder und redaktionellen Inhalte von seinen Lieferanten. Jedoch hat Amazon aus dem Engagement seiner User eine Wissenschaft gemacht und besitzt um Größenordnungen mehr Nutzerbewertungen, bietet Möglichkeiten zur Teilnahme in verschiedenster Weise auf nahezu allen Seiten an, und, vermutlich am bedeutendsten, nutzt die Useraktivität zur Produktion besserer Suchresultate. Während die Suche von barnesandnoble.com häufig mit firmeneigenen oder gesponserten Resultaten beginnt, starten die Ergebnisse bei Amazon mit den "beliebtesten" Produkten, einem in Echtzeit berechneten Maßstab, der nicht nur die Verkaufsmenge, sondern auch auf andere Faktoren berücksichtigt, was in Amazon-internen Kreisen als "Flow" der Produkte bekannt ist. Aufgrund der wesentlich höheren Nutzerbeteiligung ist es kaum verwunderlich, dass auch die Verkaufszahlen die der Konkurrenten deutlich übertreffen.
Inzwischen hinterlassen immer häufiger Firmen, die diese Erkenntnisse aufgenommen und z.T. ausgebaut haben, ihre Zeichen im Web:
 
Wikipedia, eine Online-Enzyklopädie basierend auf der ungewöhnlichen Idee, dass jeder Eintrag von jedem Internet-User bearbeitet werden kann, stellt ein radikales Experiment mit Vertrauen dar, welches eine Maxime von Eric Raymond anwendet (die ursprünglich im Kontext von Open Source Software aufgestellt wurde): "Mit genügend wachsamen Augen werden alle Bugs sichtbar." Die Wikipedia wird bereits unter den Top-100-Webseiten geführt und viele glauben, dass sie in Kürze unter den Top 10 zu finden sein wird. Dies stellt eine tiefgreifende Veränderung in der Dynamik der Inhaltsgenerierung dar.
Seiten wie del.icio.us und Flickr, zwei Firmen die seit kurzem große Aufmerksamkeit genießen, haben ein Konzept vorangetrieben, dass im Allgemeinen als "Folksonomy" (im Gegensatz zur Taxonomy) bezeichnet wird, einer Art kollaborativer Kategorisierung von Seiten mit frei wählbaren Keywords, oft auch als "Tags" bezeichnet. Taggen erlaubt vielseitige, häufig überlappende Assoziierung, die der Arbeitsweise des Gehirns viel näher kommt als sture Kategorisierung. So kann ein Foto einer Puppe bei Flickr sowohl mit "Puppe" als auch mit "hübsch" getagged sein und erlaubt somit durch User-Aktivitäten die Wiederauffindung entlang logischer Wege.
Kollaborative Spam-Filter-Produkte wie Cloudmark sammeln die individuellen Einstufungen in Spam und Ham von E-Mail-Nutzern und bieten so ein System, das auf der Analyse der Nachrichten selbst beruht.
Es ist eine Binsenweisheit, dass die großen Erfolgsstories des Internet ihre Produkte nicht bewerben. Ihre Anziehungskraft beziehen sie nur aus der Mundpropaganda. Man könnte daraus fast den Schluss ziehen, dass ein Produkt, welches auf sonstige Werbung angewiesen ist, nicht zu Web 2.0 gezählt werden kann.
Sehr viele Bestandteile der Internet-Infrastruktur, z.B. Linux, Apache, MySQL, Perl, PHP und Python, basieren auf der Produktionsmethodik von Open Source, und sind somit selbst Ausprägungen von durch das Netz ermöglichter kollektiver Intelligenz. SourceForge beinhaltet zur Zeit über 100.000 Open Source Projekte. Jeder kann ein Projekt hinzufügen, jeder kann Code herunterladen und benutzen, und neue Projekte rücken ins Zentrum der Aufmerksamkeit durch User, die sie zum Laufen bringen. Es ist ein biologischer übernahmeprozess, nahezu ausschließlich basierend auf Mundpropaganda.
Das Fazit für Web 2.0: Netzwerk-Effekte durch Nutzerbeteiligung sind der Schlüssel zur Marktdominanz in der Web 2.0 ära.
 
Bloggen und die Weisheit des Volkes
 
Eines der meistgenannten Features der Web 2.0 ära ist die Erscheinung des Blogging. Persönliche Homepages gibt es bereits seit den Anfangstagen des Web, persönliche Tagebücher und tägliche Meinungskolumnen sogar noch länger, warum also wird um das Bloggen so viel Aufheben gemacht?
 
Im Grunde ist ein Blog nur eine persönliche Homepage in der Form eines Tagebuchs. Eines der Dinge, die den feinen Unterschied ausmachen, ist eine Technologie namens RSS. RSS ist der bemerkenswerteste Fortschritt in der grundlegenden Architektur des Web seit ein paar Hacker erkannten, dass CGI zur Erstellung datenbank-basierender Webseiten genutzt werden kann. RSS erlaubt es, eine Seite nicht nur zu verlinken, sondern sie zu abonnieren und bei jeder änderung informiert zu werden. Rich Skrenta nannte dies das "inkrementelle Web", andere nennen es das "Live Web".
 
Nun wurden dynamische Webseiten (also datenbank-gestützte Seiten mit dynamisch generiertem Inhalt) vor über 10 Jahren erfunden. Die Neuerung des "Live Web" ist aber nun, dass nicht nur die Inhalte, sondern auch die Links dynamisch sind. Ein Link zu einem Weblog zeigt auf eine sich ständig verändernde Seite, mit sogenannten "Permalinks" für jeden individuellen Eintrag und Benachrichtigungen bei jeder änderung. Ein RSS-Feed ist also ein wesentlich mächtigerer Link als z.B. ein Lesezeichen oder ein einfacher Link zu einer einzelnen Seite.
 
Aufgrund von RSS sind Webbrowser nicht mehr die einzigen Hilfsmittel, um eine Webseite anzuzeigen. Während einige RSS-Sammler, wie z.B. Bloglines, webbasiert sind, arbeiten andere als Desktop-Clients, und wiederum andere erlauben den Zugriff auf die aktuellen Inhalte per portablem Gerät.
 
RSS wird inzwischen nicht nur zur Anzeige neuer Blogeinträge benutzt, sondern auch für viele weitere Datenupdates, z.B. Aktienkurse und Wetterdaten. Dies ist im Prinzip eine Rückkehr zu den Wurzeln: RSS wurde 1997 erfunden, als Zusammenschluss von Dave Winer's "Really Simple Syndication" (welches von vorne herein für Blogs gedacht war) und Netscape's "Rich Site Summary" (welches Usern erlauben sollte, ihre Homepages mit regelmäßigen Updates zu füttern). Netscape verlor das Interesse und die Technologie wurde von Winer's Unternehmen "Userland" fortgeführt. In der derzeitigen Menge der Anwendungen finden wir daher das Erbe beider Gründer.
 
RSS ist jedoch nicht das einzige Feature, welches Blogs von normalen Webseiten unterscheidet. Tom Coates bemerkte zur Signifikanz von Permalinks: "Es mag wie eine triviale Funktionalität aussehen, aber es war im Endeffekt das Instrument, welches Weblogs von einem Werkzeug zur einfachen Publikation in ein dialogorientiertes System sich überlappender Communities wandelte. Zum ersten Mal war es relativ simpel, direkt auf einen speziellen Beitrag auf einer fremden Seite zu verweisen und sich darüber zu unterhalten. Eine Diskussion entstand, ein Chat entstand. Und am Ende entstanden sogar Freundschaften oder wurden gefestigt. Die Permalinks waren der erste - und erfolgreichste - Versuch, Brücken zwischen den Weblogs zu errichten."
 
Auf gewisse Weise integriert die Kombination aus RSS und Permalinks viele Features von NNTP, dem Network News Protocol des Usenet, in das Webprotokoll HTTP. Die "Blogosphäre" kann als neues P2P-äquivalent zu Usenet und Bulletin-Boards angesehen werden, den beliebtesten Kommunikationsmitteln des frühen Internet. Die Leute können ihre Seiten nicht nur gegenseitig abonnieren oder einzelne Passagen verlinken, sondern auch mittels einer Methode namens "Trackback" sehen, wer ihre Seiten verlinkt und mit umgekehrten Links oder Kommentaren reagieren.
 
Interessanterweise waren Zwei-Wege-Links das erklärte Ziel früher Hypertextsysteme wie Xanadu. Puristen haben Trackbacks als Schritt in diese Richtung gefeiert, aber Trackbacks sind keine Zwei-Wege-Links, sondern vielmehr echt symmetrische Ein-Weg-Links, die nur den Effekt von Zwei-Wege-Links erzeugen. Der Unterschied mag subtil erscheinen, ist in der Praxis jedoch enorm. Systemen des "Social Networking", wie z.B. Friendster, Orkut oder LinkedIn, die die Bestätigung des Empfängers erfordern, um eine Verbindung herzustellen, fehlt die Skalierbarkeit des Webs. Wie Catherine Fake, Mitbegründerin des Flickr Fotoservice anmerkte, beruht Aufmerksamkeit nur im Zufall auf Gegenseitigkeit. (Daher erlaubt Flickr seinen Usern das Erstellen sogenannter Watchlists - jeder User kann die Fotoreihen eines anderen per RSS abonnieren. Der andere Nutzer wird von dem Abonnement in Kenntnis gesetzt, muss die Verbindung aber nicht bestätigen.)
 
Wenn wir die Nutzung kollektiver Intelligenz als essentiellen Teil von Web 2.0 betrachten, die das Web in eine Art globales Gehirn verwandelt, stellt die Blogosphäre das äquivalent zur ständigen geistigen Aktivität im Vorderhirn dar, die Stimme, die wir alle in unseren Köpfen hören. Es reflektiert i.d.R. nicht die tiefere Struktur des Gehirns, welcher wir uns häufig unbewusst sind, sondern repräsentiert die bewussten Gedanken. Und als Reflexion bewusster Gedanken und Aufmerksamkeit, hat die Blogosphäre einen wichtigen Effekt.
 
Zum einen, weil Suchmaschinen Linkstrukturen nutzen, um nützliche Seiten herauszufiltern. Blogger haben somit als überaus produktive und häufige Linker eine überproportionale Bedeutung bei der Gestaltung von Suchmaschinen-Ergebnissen. Zum anderen referenziert sich die Blog-Community in hohem Maße selbst, sodass Blogger, die anderen Bloggern Beachtung schenken, ihre Sichtbarkeit und Macht erhöhen können. Der "Hallraum", den viele Kritiker beklagen, dient somit als Verstärker.
 
Wenn es ein bloßer Verstärker wäre, wäre Bloggen recht uninteressant. Aber ähnlich zu Wikipedia, nutzt das Bloggen die kollektive Intelligenz als eine Art Filter. Was James Suriowecki "die Weisheit der Masse" nennt, kommt hier ins Spiel, und so wie PageRank bessere Suchresultate liefert als die Analyse jedes einzelnen Dokumentes, markiert die kollektive Aufmerksamkeit der Blogosphäre den Wert der Beiträge.
 
Während manche Mainstream-Medien einzelne Blogs als Konkurrenten ansehen, ist das wirklich spannende der Wettbewerb mit der Blogosphäre als Ganzes. Dies ist nicht nur ein Wettbewerb zwischen Seiten, sondern zwischen zwei verschiedenen Geschäftsmodellen. Die Welt des Web 2.0 ist auch eine Welt dessen, was Dan Gillmor "wir, die Medien" nennt, eine Welt in der das "ehemalige Publikum", nicht ein paar wenige Leute im Hintergrund, entscheiden was wichtig ist und was nicht.
 
Die Daten als nächstes "Intel Inside"
 
Jede bedeutende Internet-Anwendung besitzt heutzutage eine spezialisierte Datenbank: Google (web crawl), Yahoo (directory und web crawl), Amazon's Produktdatenbank, eBay's Produkt- und Verkäuferdatenbank, MapQuest's Kartendatenbank, Napster's verteilte Songdatenbank. Wie Hal Varian in einer persönlichen Unterhaltung im letzten Jahr anmerkte, "SQL ist das neue HTML". Datenbankmanagement ist eine Kernkompetenz von Web 2.0 Firmen, so sehr dass wir diese Anwendungen z.T. eher als "Infoware" denn als bloße Software bezeichnen.
 
Dies führt zu einer Schlüsselfrage: Wem gehören diese Daten?
 
In der Internet-ära konnte man bereits einige Fälle beobachten, wo die Kontrolle über Datenbanken zur Marktkontrolle und großen finanziellen Einnahmen geführt hat. Das Monopol für die Registrierung von Domainnamen, ursprünglich von der US-Regierung an die Firma Network Solutions gewährt (welche später von VeriSign gekauft wurde), war eine der ersten großen Geldquellen des Internet. Während sich darüber streiten lässt, ob Geschäftsvorteile durch die Kontrolle von Software APIs in den Zeiten des Internet schwieriger zu erreichen sind, sind die Vorteile der Kontrolle wichtiger Datenquellen unstrittig, vor allem wenn ihre Erstellung teuer ist oder sie empfänglich für immer größer werdende Rückflüsse durch Netzwerkeffekte sind.
 
Ein Blick auf die Copyright-Hinweise am Ende jeder Karte von MapQuest (z.B. maps.yahoo.com) zeigt stets die Zeile "Maps copyright NavTeq, TeleAtlas" oder (beim neuen Satellitenbild-Service) "Images copyright Digital Globe". Diese Firmen tätigten substantielle Investments in ihre Datenbanken (NavTeq allein spricht von 750 Millionen Dollar für den Aufbau ihrer Adress-Datenbanken; Digital Globe bezahlte rund 500 Millionen für den eigenen Satelliten zur Verbesserung Ihrer regierungsunabhängigen Bilder). NavTeq ging sogar so weit, Intel's bekanntes "Intel Inside"-Logo zu imitieren: Autos mit Navigationssystemen tragen den Aufdruck "NavTeq Onboard". Daten sind in der Tat das "Intel Inside" dieser Anwendungen, die alleinige Einkommensquelle in Systemen, deren Software-Infrastruktur größtenteils Open Source oder auf andere Weise öffentlich ist.
 
Der derzeit heiß umkämpfte Markt der Kartendienste zeigt, wie die Missachtung der Bedeutung von Kerndaten einer Applikation die Wettbewerbsposition schwächen kann. MapQuest war 1995 der erste Anbieter eines Kartendienstes, aber als später Yahoo, Microsoft und schließlich Google hinzukamen, konnten sie leicht eine vergleichbare Anwendung bereitstellen, indem sie ganz einfach dieselben Daten lizenzierten.
 
Ganz anders die Position von Amazon. Genau wie seine Mitbewerber, z.B. Barnesandnoble, bezog Amazon die ursprüngliche Datenbasis vom ISBN Registrar R.R. Bowker. Aber im Gegensatz zu MapQuest erweiterte Amazon diese Basis unaufhörlich, fügte Cover, Inhaltsverzeichnisse, Indizes und Samples hinzu. Darüber hinaus, und wohl noch bedeutsamer, machten sie sich die Käuferbeteiligung zunutze, sodass heute (nach zehn Jahren) Amazon, und nicht Bowker, die wichtigste Quelle für bibliographische Daten zu Büchern darstellt, eine Referenz für Schüler, Studenten, Bibliothekare und natürlich Käufer.
 
Amazon führte außerdem ein eigenes, proprietäres Identifikationssystem ein, die ASIN. Diese ist gleich der ISBN für Produkte, die mit einer solchen versehen wurden, und stattet alle anderen Produkte mit einer Nummer aus einem äquivalenten Namensraum aus. Im Endeffekt hat sich Amazon seine Datenzulieferer einverleibt und erweitert.
 
Man stelle sich nun vor, MapQuest hätte seine Nutzer zur Erhöhung des Informationsgehaltes seiner Karten eingesetzt, indem sie Kommentare und Hinweise hinzugefügt hätten. Der Markteintritt wäre für Mitbewerber, die nur die Basisdaten lizenzieren könnten, ungleich schwieriger geworden.
 
Die kürzlich erfolgte Einführung von Google Maps bietet ein gutes Anschauungsbeispiel für den Wettbewerb zwischen Anwendungsverkäufern und ihren Datenzulieferern. Google's einfach gehaltenes Programmierungsmodell hat dazu geführt, dass viele sogenannter Mashups entstanden sind, die Google Maps mit anderen, über das Internet verfügbaren Datenquellen verknüpfen. Paul Rademacher's housingmaps.com, welches Google Maps mit dem Immobilienmarkt von Craigslist verbindet, ist eines der prominentesten Beispiele für ein solches Mashup.
 
Zur Zeit sind viele Mashups noch innovative Experimente einiger Hacker, aber bald schon werden unternehmerische Aktivitäten in diesem Bereich folgen. Und bereits jetzt ist zu beobachten, dass zumindest für einen Teil der Entwickler Google die Rolle des bevorzugten Datenzulieferers von NavTeq übernommen hat. Es ist zu erwarten, dass man in den nächsten Jahren in zunehmendem Maße Marktkämpfe zwischen den Datenlieferanten und den Anwendungsentwicklern sehen wird, da beide Parteien realisieren, wie wichtig bestimmte Arten von Daten für die Erstellung erfolgreicher Web 2.0 Dienste sind.
 
Das Rennen um die wichtigsten Daten hat begonnen, vor allem um geographische, persönliche, terminliche - man denke an öffentliche Veranstaltungen etc. - und produktspezifische. In vielen Fällen, in denen die Erstellung der Daten signifikante Kosten verursacht, mag sich die Gelegenheit für ein Vorgehen á la "Intel Inside" ergeben, mit einer einzelnen Quelle für die Daten. In anderen Fällen wird die Firma zum Gewinner, die zuerst durch Nutzeraggregation eine kritische Masse erreicht und die aggregierten Daten in einen Systemdienst umwandelt.
 
Zum Beispiel können auf dem Gebiet der persönlichen Daten Paypal, Amazon's 1-Click sowie die Millionen Nutzer von Kommunikationssystemen legitime Wettbewerber bei der Erstellung einer netzwerkweiten Identitätsdatenbank darstellen. Diesbezüglich könnte Google's kürzlich erfolgter Versuch, Handynummern als Identifikator für Gmail-Accounts zu verwenden, als Schritt in Richtung Einverleibung und Erweiterung des Telefonnetzes angesehen werden. Inzwischen erkunden Startups wie Sxip das Potential verbundener Identitäten in Bezug auf eine Art "distributed 1-click", welches ein nahtloses Identitäts-Subsystem für Web 2.0 werden könnte. Im Bereich terminlicher Daten ist EVDB ein Versuch zur Generierung des weltgrößten geshareten Kalenders via Wiki-artiger Architektur.
 
Während die Entscheidung über den Erfolg eine jeden dieser Startups und Ansätze noch aussteht, ist es bereits klar absehbar, dass Standards und Lösungen in diesen Bereichen, die bestimmte Klassen von Daten in verlässliche Subsysteme des "Betriebssystems Internet" umwandeln, die nächste Generation von Anwendungen prägen.
 
Ein weiterer Punkt sollte in Bezug auf Daten angesprochen werden, nämlich die Bedenken der Nutzer bzgl. ihrer Privatsphäre und ihre Rechte an den eigenen Daten. In vielen der frühen Webanwendungen wird dem Copyright nur wenig Bedeutung beigemessen. Zum Beispiel erhebt Amazon Anspruch jede veröffentlichte Beurteilung, aber aufgrund mangelnder Durchsetzung können die Leute ein- und dieselbe Beurteilung auch an anderer Stelle posten. Da die Firmen allerdings nun zu erkennen beginnen, dass die Kontrolle über Datenbestände die Quelle ihrer Geschäftsvorteile bildet, werden wir womöglich verstärkte Versuche erleben, diese Kontrolle zu erlangen.
 
So wie das Aufkommen proprietärer Software zur Entwicklung freier Software führte, erwarten wir das Erscheinen freier Datenbestände als Reaktion auf proprietäre Datenbanken. Man sieht bereits erste Anzeichen dieser Gegenbewegung bei Wikipedia, den Creative Commons und in Software-Projekten wie Greasemonkey, die Nutzern die Kontrolle darüber gestatten, wie Daten auf ihrem Computer dargestellt werden sollen.
 
Abschaffung des Software-Lebenszyklus
 
Wie bereits im Vergleich Google vs. Netscape erwähnt besitzt Software aus der Internet-ära die charakteristische Eigenschaft, dass sie als Service, und nicht als Produkt ausgeliefert wird. Diese Tatsache führt zu einer Reihe fundamentaler änderungen im Geschäftsmodell eines solchen Unternehmens:
 
1. Betriebsabläufe werden zur Kernkompetenz. Google's und Yahoo's Fachkompetenz in Sachen Produktentwicklung muss eine ebensolche Kompetenz im täglichen Betriebsablauf gegenüberstehen. Der übergang von der Software als Artefakt zur Software als Dienstleistung ist derart grundlegend, dass die Software ihre Leistungsfähigkeit schnell verliert, wenn sie nicht täglich gepflegt wird. Google muss das Web kontinuierlich durchsuchen, sein Verzeichnis aktualisieren, Link-Spam und andere Versuche der Beeinflussung ausfiltern, sowie ständig und dynamisch auf Millionen asynchroner Nutzerabfragen antworten und gleichzeitig zum Kontext passende Werbefelder einblenden.
 
Es ist kein Zufall, dass Google's Systemadministration, Netzwerk und Load-Balancing-Techniken ein evtl. sogar besser gehütetes Geheimnis darstellen als die Suchalgorithmen. Google's Erfolg bei der Automatisierung dieser Prozesse ist ein Schlüsselelement ihres Kostenvorteils gegenüber der Konkurrenz.
 
Es ist ebenfalls kein Zufall, dass Skriptsprachen wie Perl, PHP, Python und Ruby bei Firmen aus dem Bereich Web 2.0 eine so große Rolle spielen. Perl wurde bekanntermaßen von Hassan Schroeder, Sun's erstem Webmaster, als "Klebeband des Internet" bezeichnet. Dynamische Sprachen (oft auch Skriptsprachen genannt und von den Software-Ingenieuren der vorhergehenden Zeitspanne müde belächelt) sind die Werkzeuge der Wahl für System- und Netzwerk-Administratoren genauso wie für Anwendungsentwickler, deren dynamische Systeme ständige Anpassung erfordern.
 
2. Nutzer müssen, in Anlehnung an Praktiken aus der Open-Source-Entwicklung, als Mitentwickler angesehen werden (auch wenn die fragliche Software wohl nie unter einer solchen Lizenz freigegeben werden soll). Der Open-Source-Grundgedanke "veröffentliche früh und oft" wurde in eine noch extremere Variante überführt, das "ewige Beta", in dem ein veröffentlichtes Produkt mit monatlichen, wöchentlichen oder gar täglichen Updates offen weiterentwickelt wird. Dienste wie Gmail, Google Maps, Flickr, del.icio.us und viele mehr werden wohl für Jahre ein "Beta"-Logo tragen.
 
Echtzeit-Beobachtung des Nutzerverhaltens um festzustellen, ob und wie neue Features genutzt werden, wird somit ebenfalls zur Kernkompetenz. Ein Entwickler eines großen Onlinedienstes sagte dazu: "Wir veröffentlichen zwei oder drei neue Features pro Tag auf bestimmten Teilen der Seite. Wenn die Leute sie nicht nutzen, nehmen wir sie wieder raus. Und wenn die Leute sie mögen, weiten wir sie auf die gesamte Seite aus.
 
Cal Henderson, Hauptentwickler von Flickr, enthüllte kürzlich, dass neue Versionen manchmal innerhalb von einer halben Stunde veröffentlicht werden. Dies ist natürlich ein völlig anderes Auslieferungsmodell! Obwohl nicht alle Webanwendungen derart häufig Releases ausliefern wie Flickr, haben doch fast alle von ihnen einen Entwicklungszyklus, der sich völlig von den aus der PC- oder Client-Server-ära bekannten unterscheidet. Dies ist auch der Grund, warum ein Editorial von ZDNet vor kurzem feststellte, das Microsoft niemals Google schlagen wird: "Microsoft's Geschäftsmodell beruht darauf, dass jeder seine Computer-Umgebung alle zwei bis drei Jahre erneuert. Google's hingegen beruht darauf, dass jeder täglich nachschaut, was es in seiner Computer-Umgebung Neues gibt.
 
Während Microsoft enorme Fähigkeiten gezeigt hat wenn es darum ging, von seinen Konkurrenten zu lernen und sie schließlich zu übertreffen, steht es außer Frage, dass die Konkurrenz nun Microsoft (und natürlich auch jede andere etablierte Softwarefirma) zwingt, eine andere Form von Unternehmen zu werden. Native Web-2.0-Firmen genießen allerdings den natürlichen Vorteil, dass sie zuvor keine alten Muster, Geschäftsmodelle und Einnahmequellen loswerden müssen.
 
Lightweight Programming Models
 
Als die Idee der Web Services bekannt wurde, stürzten sich große Firmen mit einem ganzen Haufen komplexer Web Services ins Getümmel, die der Kreation hochverfügbarer Programmierumgebungen für verteilte Anwendungen dienen sollten.
 
Aber so wie das Web Erfolg erlangte, indem es viel von der Theorie des Hypertext wieder verwarf und stattdessen einen Pragmatismus des idealen Designs einsetzte, wurde RSS aufgrund seiner Einfachheit der vermutlich am weitesten verbreitete Web Service, während die komplexen Dienste der Unternehmen noch auf ihre Verbreitung warten.
 
In vergleichbarer Weise werden Amazon's Web Services in zwei Varianten angeboten: Eine unter strenger Einhaltung der Formalien von SOAP, die andere nutzt dagegen die einfache Verbreitung von XML über HTTP mittels eines leichtgewichtigeren Ansatzes, bekannt als REST (Representational State Transfer). Während wenige, hochwertige B2B-Verbindungen (z.B. zwischen Amazon und großen Vertriebspartnern wie Toys'R'Us) die SOAP-Variante verwenden, wählen 95 Prozent der sonstigen Nutzer den REST-Service.
 
Dieser Wunsch nach Simplizität kann auch bei anderen "organischen" Web Services beobachtet werden, Google Maps ist hier ein gutes Beispiel. Das dort verwandte AJAX-Interface (Asynchronous Javascript And XML) wurde schnell von einigen "Hackern" entschlüsselt und zur Erstellung neuartiger Services mithilfe der bereitgestellten Daten eingesetzt.
 
Auf Kartendienste basierende Web Services waren schon seit einiger Zeit verfügbar, sowohl von GIS-Anbietern wie ESRI als auch von MapQuest und Microsoft (MapPoint), aber Google Maps war die Sensation schlechthin aufgrund seiner Einfachheit. Während Experimente mit den anderen Diensten einen formalen Vertrag zwischen den Parteien voraussetzten, konnte jedermann die Daten von Google Maps nehmen und sie kreativ weiterverarbeiten.
 
Hieraus lernen wir folgende bemerkenswerte Grundsätze:
 
1. Unterstütze LPMs (Lightweight Programming Models), die lose gekoppelte Systeme ermöglichen. Die Komplexität des von großen Unternehmen geförderten Dienstangebots ist auf enge Kopplung ausgelegt. Während dies in einigen Fällen sicherlich notwendig ist, können viele der interessantesten Anwendungen in der Tat lose gekoppelt bleiben, teilweise sogar bruchstückhaft. Die Mentalität von Web 2.0 ist grundverschieden zur Denkweise der traditionellen IT.
2. Kooperiere ohne zu koordinieren. Bei einfachen Web Services wie RSS und den REST-basierten geht es darum, Daten zu verteilen oder auszutauschen und nicht darum zu kontrollieren, was am anderen Ende der Leitung mit ihnen geschieht. Diese Idee war bereits grundlegend für das Internet an sich, in Anlehnung an das bekannte "Ende-zu-Ende"-Prinzip.
3. Gestalte mit Blick auf "Hackability" und "Remixability". Systeme wie das Web, RSS und AJAX haben alle eines gemeinsam: Die Barrieren zur Wiederverwendung sind extrem gering. Eine Menge nützlicher Software ist sogar völlig quelloffen, und selbst wenn sie das nicht ist, gibt es wenige Mittel im Hinblick auf den Schutz geistigen Eigentums. Webbrowser sorgen mit ihrer Funktion zur Quelltextansicht dafür, dass jeder jede Webseite kopieren kann. RSS erlaubt es dem Benutzer, jederzeit die von ihm gewünschten Inhalte abzurufen, nichts davon geschieht auf Geheiß des Informationsanbieters. Die erfolgreichsten Web Services sind die, die sich leicht in Richtungen weiterentwickeln lassen, an die der ursprüngliche Erfinder gar nicht gedacht hat. Der Ausdruck "einige Rechte vorbehalten", erstmals von den Creative Commons als Kontrast zum bekannten "alle Rechte vorbehalten" verwandt, zeigt die Richtung an, in die es gehen wird.
Innovation durch Zusammenbau
 
LPMs und offene Kooperation werden begleitet von LBMs (Lightweight Business Models). Ein neuer Dienst wie housingmaps.com entstand einfach durch die Verknüpfung zweier bereits existierender Dienste. Housingmaps.com hat (noch) kein Geschäftsmodell - aber für viele der kleineren Services bieten Google AdSense und Co. das Snap-In-äquivalent eines Ertragsmodells.
 
Dies ist ein schönes Beispiel für ein weiteres Prinzip von Web 2.0, das da heißt: Innovation durch Zusammenbau. Wenn die grundlegenden Komponenten reichlich vorhanden sind, lässt sich weiterer Nutzen generieren, indem man sie einfach auf neue und effektive Weise zusammensetzt. So wie die PC-Revolution Innovationen durch den Zusammenbau von Hardware-Komponenten ermöglichte, woraus Firmen wie Dell auf erfolgreiche Weise eine regelrechte Wissenschaft machten und andere Firmen weit hinter sich ließen, deren Geschäftsmodell Innovation durch Produktentwicklung vorsah, so glauben wir auch, dass Web 2.0 es Firmen ermöglichen wird, erfolgreicher zu sein als andere, indem sie die Dienste anderer auf innovative Art und Weise verbinden und nutzbar machen.
 
Software über die Grenzen einzelner Geräte hinaus
 
Ein weiteres erwähnenswertes Feature von Web 2.0 ist die Tatsache, dass es nicht länger auf die PC-Plattform beschränkt ist. In seiner Abschiedsnachricht an Microsoft betont der langjährige Microsoft-Entwickler Dave Stutz: "Nützliche Software, die über die Grenzen einzelner Geräte hinaus geschrieben wurde, wird die hohen Margen für lange Zeit beherrschen."
 
Natürlich kann zunächst jede Webanwendung als geräteunabhängig angesehen werden. Immerhin sind selbst an der simpelsten Webanwendung mindestens zwei Computer beteiligt: Auf dem einen läuft der Webserver, auf dem anderen der Browser. Und wie bereits gesagt erweitert die Entwicklung des Web zu einer Plattform diese Idee hin zu synthetischen Anwendungen, die aus verschiedenen Diensten von völlig unterschiedlichen Computern bestehen.
 
Aber wie in so vielen Bereichen des Web 2.0, bei denen die "2.0-heit" nichts vollkommen Neues, sondern vielmehr eine vollständigere Realisierung des wahren Potentials der Web-Plattform ist, gibt uns auch dieser Ausdruck einen entscheidenden Einblick in die Designprinzipien für Dienste und Anwendungen der neuen Plattform.
 
Heutzutage stellt iTunes hierfür das beste Beispiel dar. Diese Anwendung schafft den nahtlosen übergang vom mobilen Endgerät zu einem gewatigen Web-Backend, mit dem PC als lokalem Cache und Kontrollstation. Es gab auch früher schon viele Versuche, Web-Inhalte auf mobile Endgeräte zu bringen, aber die iPod/iTunes-Kombination ist die erste dieser Anwendungen, die sich von Grund auf über mehrere Gerätetypen erstrecken sollte. TiVo ist ein weiteres gutes Beispiel.
 
iTunes und TiVo weisen auch viele weitere der Kernprinzipien von Web 2.0 auf. Sie sind keine Webanwendungen per se, jedoch setzen sie das Web äußerst wirksam ein, als nahezu unsichtbaren, integrierten Bestandteil ihrer Infrastruktur. Datenmanagement ist natürlich das Herz ihres Angebotes. Sie sind Dienste, keine verpackten Produkte (obwohl iTunes als solches benutzt werden kann, wenn man es nur zum Management lokaler Daten einsetzt). Darüber hinaus zeigen sowohl iTunes als auch TiVo aufkeimende Nutzung kollektiver Intelligenz, obwohl dies in beiden Fällen mit den Interessen des Rechteverwertungsgesellschaften (IP-Lobby) kollidiert. Es gibt zwar bei iTunes bislang nur wenige Möglichkeiten der Beteiligung, die kürzlich erfolgte Hinzunahme von Podcasting wird dies aber substantiell ändern.
 
Dies ist der Bereich von Web 2.0, in dem wir einige der größten änderungen erwarten, da mehr und mehr Gerätetypen an die neue Plattform angebunden werden. Welche Arten von Anwendungen werden möglich, wenn unsere Telefone und Autos nicht nur Daten konsumieren, sondern auch bereitstellen? Verkehrsanzeigen in Echtzeit, Flash Mobs und Bürger-Journalismus sind nur die ersten Anzeichen für das Leistungsvermögen der neuen Plattform.
 
Benutzerführung (Rich User Experiences)
 
Bereits seit Pei Wei's Browser "Viola" (1992) wurde das Web zur Auslieferung von Applets und anderen Arten von aktiven Inhalten im Browser genutzt. Bei der Einführung von Java im Jahre 1995 bildeten die Applets die Kernanwendung, der "Rest" wurde um sie herum gebaut. JavaScript und DynamicHTML wurden als leichtgewichtigere Ansätze hinzugefügt, um clientseitige Programmierung und bessere Benutzerführung, genannt RUEs (Rich User Experiences), zu ermöglichen. Einige Jahre zuvor prägte Macromedia den Ausdruck "Rich Internet Applications" um hervorzuheben, dass Flash nicht nur Multimedia-Inhalte ausliefern, sondern auch GUI-artige Anwendungsoberflächen ermöglicht.
 
Allerdings wurde das wahre Potential des Web in Bezug auf die Bereitstellung vollwertiger Anwendungen dem Mainstream erst mit Gmail bekannt, dicht gefolgt von Google Maps. Beides sind webbasierte Anwendungen, die sich hinsichtlich Interface und Interaktionsmöglichkeiten kaum von einem Desktop-Programm unterscheiden. Die dabei von Google verwandte Technologie wurde "AJAX" getauft, ursprünglich von Jesse James Garrett von der Webdesign-Firma Adaptive Path. Er schrieb:
 
"Ajax ist keine einzelne Technologie. Ajax beinhaltet mehrere Technologien, jede mit ihrer ganz besonderen Daseinsberechtigung, die auf neue und mächtige Weise miteinander verbunden wurden. Im einzelnen handelt es sich um:
 
standardgerechte Präsentation mit XHTML und CSS
dynamische Anzeigen und Interaktivität mittels des Document Object Models (DOM)
Datenaustausch und -manipulation mit XML und XSLT
asynchrone Datenabfrage unter Verwendung von XMLHttpRequest
und schließlich JavaScript, das all dies zusammenbringt"
Ajax ist mittlerweile eine Schlüsselkomponente von Web-2.0-Anwendungen wie Flickr (inzwischen Teil von Yahoo), basecamp und backpack von 37signals sowie Google's Gmail und Orkut. Wir erleben hier eine nie dagewesene Innovation im Bereich der User Interfaces, da Webentwickler nun endlich in der Lage sind, Applikationen mit der Mächtigkeit lokaler, PC-basierter Anwendungen zu erstellen.
 
Interessanterweise gibt es viele der nun näher erkundeten Möglichkeiten schon seit Jahren. In den späten 90ern dachten Microsoft und Netscape bereits intensiv über all dies nach, die Realisierung scheiterte aber an ihren Streitigkeiten über die Standards. Dies machte browserunabhängige Programme nahezu unmöglich. Als Microsoft den Kampf schließlich gewonnen hatte und es einen de-facto-Standardbrowser gab, wurde die Verwirklichung der Ideen möglich. Und obwohl Firefox wieder mehr Wettbewerb in den Browsermarkt gebracht hat, gibt es zumindest bis dato keinen ähnlich forschrittshemmenden Kampf wie in den 90ern.
 
Wir erwarten in den nächsten Jahren viele neue Webanwendungen, sowohl völlig neu erdachte als auch Reimplementierungen von Desktop-Programmen. Jeder Plattformwechsel bringt auch die Möglichkeit eines Führungswechsels bei den dominierenden Anwendungen mit sich.
 
Gmail bietet bereits einige sehr interessante Innovationen im Bereich E-Mail, indem es die Stärken des Web (Ortsunahängigkeit, tiefgreifende Datenbankfähigkeiten, Durchsuchbarkeit) mit einer Benutzerschnittstelle kombiniert, die in Sachen Usability an bekannte PC-Interfaces heranreicht. Währenddessen gehen die konventionellen Mailklienten das Problem von der anderen Seite an, indem sie Instant Messaging, Buddylists und Statusicons hinzufügen. Wie weit sind wir noch entfernt vom "vollkommenen" Kommunikationsprogramm, welches das Beste aus E-Mail, IM und Handy vereint, indem u.a. die Sprachfunktionen per VoIP zu den Anwendungen hinzugefügt werden? Das Rennen hat begonnen.
 
Das Adressbuch der Zukunft wird lokale Adressbücher von PC oder Telefon nur noch als Zwischenspeicher für die jeweils explizit benötigten Kontakte verwenden, während im Hintergrund ein webbasierter Synchronisierungsprozess jede Nachricht, E-Mail-Adresse und Telefonnummer speichert. Daraus entsteht ein eigenes soziales Netzwerk, das jederzeit auch mit heuristischen Abfragen zu Rate gezogen werden kann, wenn die gewünschten Daten im lokalen Cache nicht vorhanden sind.
 
Eine Textverarbeitung des Web 2.0 wird kollaboratives Schreiben á la Wiki unterstützen, nicht nur Standalone-Dokumente. Ebenso müssten die von gewöhnlichen Textverarbeitungen bekannten Formatierungsmöglichkeiten gegeben sein. Writely ist ein gutes Beispiel hierfür, auch wenn sich seine Verbreitung bislang eher in Grenzen hält.
 
Das Web 2.0 muss nicht auf PC-Anwendungen beschränkt bleiben. Salesforce.com zeigt, wie das Web auch für klassische Unternehmenssoftware genutzt werden kann, z.B. für das Customer Relationship Management.
 
Die Chance für neue Markteinsteiger liegt darin, das gesamte Potential von Web 2.0 auszuschöpfen. Erfolgreiche Unternehmen erstellen Anwendungen, die von ihren Benutzern lernen, um einen entscheidenden Vorteil zu haben. Nicht nur in der Benutzeroberfläche, sondern vor allem im Wert der gemeinschaftlich erzeugten Daten.
 
 
Quelle: http://www.oreilly.de/artikel/web20_trans.html

Version vom 8. November 2011, 02:03 Uhr

Der Verleger Tim O’Reilly griff den 2003/2004 in den Medien umhergeisternden Begriff „Web 2.0“ als Titel für eine Konferenz und einen Aufsatz auf. Als Synonym für das Mitmach-Web oder Social Web erfuhr der Begriff eine rasante Verbreitung.

Quelle: http://www.oreilly.de/artikel/web20_trans.html


Der Begriff Web 2.0 wurde erstmals von Tim O´Reilly in den Jahren 2003/2004 definiert.

Das Zerplatzen der Dot-Com-Blase im Herbst 2001 stellte einen Wendepunkt für das World Wide Web dar. Viele Leute hielten das Web damals für überbewertet, aber Seifenblasen und konsequente Marktbereinigung gehören im allgemeinen zu jeder technologischen Revolution. üblicherweise signalisiert eine Marktbereinigung, dass eine aufstrebende Technologie bereit ist, ihren Platz auf der großen Bühne der Wirtschaftlichkeit einzunehmen. Die Blender und Angeber werden vor die Tür gesetzt, die wirklichen Erfolgsstories zeigen ihre Stärken und es bildet sich bei vielen ein Verständnis dafür, was die Einen vom Anderen unterscheidet.

Das Konzept "Web 2.0" begann mit einem Brainstorming zwischen O'Reilly und MediaLive International. Dale Dougherty, Web-Pionier und Vizepräsident von O'Reilly, merkte an, dass das Web nicht etwa zusammengebrochen, sondern wichtiger als jemals zuvor sei. Interessante neue Anwendungsmöglichkeiten und Seiten tauchten mit erstaunlicher Regelmäßigkeit auf und die überlebenden Firmen schienen einige wichtige Dinge gemeinsam zu haben. Könnte es sein, dass der Dot-Com-Kollaps einen derartigen Wendepunkt markiert hatte, dass man diese Dinge nun mit einem Schlagwort wie "Web 2.0" bezeichnen durfte? Wir einigten uns darauf und damit war die "Web 2.0 Konferenz" geboren.

Eineinhalb Jahre später hat sich der Begriff "Web 2.0" in der Tat durchgesetzt, Google findet hierzu inzwischen 9,5 Millionen Treffer. Aber es existiert immer noch große Uneinigkeit darüber, was "Web 2.0" nun genau bedeutet. Einige halten es für ein bedeutungsloses Schlagwort aus dem Marketing, Andere akzeptieren es als neue allgemeingültige Einstellung.

Dieser Artikel ist ein Versuch zu erklären, was genau wir unter "Web 2.0" verstehen.

Das Web als Plattform

Wie viele andere wichtige Konzepte, hat Web 2.0 keine genauen Begrenzungen, sondern vielmehr ein Gravitationszentrum. Man kann Web 2.0 als eine Ansammlung von Prinzipien und Praktiken visualisieren, die ein regelrechtes Sonnensystem von Seiten zusammenhalten, die einige oder alle dieser Prinzipien in unterschiedlicher Entfernung vom Zentrum demonstrieren.

Zum Beispiel nannten John Battelle und ich (Tim O'Reilly) auf der ersten Web-2.0-Konferenz im Oktober 2004 eine erste Liste von Prinzipien im Rahmen unserer Eröffnungsrede. Das erste dieser Prinzipien war "Das Web als Plattform". Natürlich war das auch schon ein Schlagwort des Web-1.0-Favoriten Netscape, der nach einem heißen Kampf mit Microsoft in den Flammen unterging. Zudem waren zwei unserer Web 1.0 Beispiele, nämlich DoubleClick und Akamai, Pioniere im Bestreben, das Web als Plattform zu verwenden. In der Tat handelte es sich bei Werbediensten um die ersten weitverbreiteten Web Services (und um die ersten weitverbreiteten "Mashups", um einen anderen Begriff zu nutzen, der kürzlich in Umlauf gekommen ist). Jede Bannerwerbung stellt eine nahtlose Kooperation zwischen zwei Webseiten dar, die eine integrierte Seite für einen Leser auf einem anderen Computer ausliefert. Akamai verwendet sogar das Netzwerk selbst als Plattform und stellt auf einem tiefer gelegenen Level transparentes Caching und ein CDN (Content Delivery Network) zur Verfügung, sodass Bandbreitenstaus verringert werden.

Nichtsdestotrotz stellen diese Pioniere gute Gegenbeispiele dar, da später hinzugekommene Dienste ihre Lösungen für dasselbe Problem weitergedacht und dabei größeres Verständnis für das Wesen der neuen Plattform gezeigt haben. Sowohl DoubleClick als auch Akamai waren in gewissem Sinne auch Web 2.0 Pioniere, aber man kann auch erkennen, welche größeren Möglichkeiten sich ergeben, wenn man einige zusätzliche Designvorlagen von Web 2.0 hinzuzieht.

Netscape vs. Google

Wenn Netscape der Fahnenträger von Web 1.0 war, dann ist höchstwahrscheinlich Google der Fahnenträger für Web 2.0, und wenn auch nur weil ihre jeweiligen Börsengänge wahre Großereignisse in der entsprechenden ära darstellten. Also starten wir mit einem Vergleich dieser beiden Unternehmen und ihrer jeweiligen Positionierung.

Netscape gestaltete "das Web als Plattform" mittels Begriffen aus dem alten Software-Denkmuster: Ihr wichtigstes Produkt war der Web Browser, eine Desktop-Anwendung, und ihre Strategie war es, ihre Dominanz im Browsermarkt zur Einrichtung eines Marktes für hochpreisige Serverprodukte zu nutzen. Die Kontrolle über Standards für die Darstellung von Inhalten und Applikationen im Browser sollte Netscape, so weit die Theorie, dieselbe Marktmacht verleihen, die Microsoft im PC-Markt innehatte. So wie die "pferdelose Kutsche" das Auto als Erweiterung von etwas Bekanntem beschrieb, warb Netscape mit einem "Webtop" als Desktop-Ersatz und plante, diesen vor allem durch Informationsservices und Anwendungen von Firmen populär zu machen, die dafür natürlich Netscape-Server-Produkte kaufen sollten. Am Ende wurden sowohl Browser als auch Webserver Massenwaren und die Web-Dienste selbst wurden wertvoll.

Im Gegensatz dazu begann Google sein Dasein als native Web-Anwendung, die niemals verpackt und verkauft, sondern als Service angeboten wurde, dessen Nutzer direkt oder indirekt für die Inanspruchnahme bezahlten. Keine der von der altgedienten Softwareindustrie bekannten Eigenschaften lässt sich bei Google finden. Keine geplanten Releases, stattdessen kontinuierliche Verbesserung. Keine Lizenzierung oder Verkauf, nur die reine Benutzung. Keine Portierung auf diverse Plattformen, um Benutzern den Einsatz auf dem jeweils gewünschten Equipment zu ermöglichen, stattdessen eine hoch skalierbare Anzahl gewöhnlicher PCs mit Open-Source-Betriebssystemen und eigenentwickelten Programmen, die niemals jemand außerhalb der Firma zu sehen bekommen muss.

Google benötigt vor allem Kompetenzen in einem Bereich, den Netscape niemals brauchte: Datenbank-Management. Google ist nicht nur eine Ansammlung von Software-Tools, es ist eine spezialisierte Datenbank. Ohne die Daten sind die Tools nutzlos, ohne die Software sind die Daten nicht handhabbar. Softwarelizenzierung und die Kontrolle über APIs - ein Hebel der Macht in der vorherigen ära - sind irrelevant geworden, da die Software niemals ausgeliefert, sondern nur ausgeführt werden muss. Zudem ist die Software ohne die Möglichkeit des effizienten Sammeln und Management der Daten von sehr geringem Nutzen. Man kann also sagen, der Wert der Software verhält sich proportional zu Ausmaß und Dynamik der Daten, die sie verwalten soll.

Google's Service ist kein Server - auch wenn viele Server an der Auslieferung des Service beteiligt sind -, noch handelt es sich um einen Browser - auch wenn der User einen Browser zur Nutzung des Service verwendet. Der Suchdienst, Google's Flaggschiff, muss die Daten nicht einmal bereitstellen, die seine Nutzer finden sollen. ähnlich zu einem Telefongespräch, an dem nicht nur die beiden Endgeräte, sondern auch das dazwischen liegende Netzwerk beteiligt ist, agiert Google im Raum zwischen Browser, Suchmaschine und Zielserver als Vermittler zwischen dem User und der Online-Welt.

Obwohl sowohl Google als auch Netscape als Softwarefirmen bezeichnet werden können, gehört Netscape doch eindeutig zu der Kategorie Firmen, die ihren Start während der Software-Revolution in den 80ern hatten, wie auch Lotus, Microsoft, Oracle und SAP. Google hingegen reiht sich in die Riege der Internet-Dienstleister ein, zu Firmen wie eBay, Amazon, Napster und - genau - DoubleClick und Akamai.

DoubleClick vs. Overture und AdSense

Wie auch Google ist DoubleClick ein Kind der Internet-ära. DoubleClick stellt Software als Service bereit, besitzt Kernkompetenzen im Datenmanagement und war, wie bereits oben erwähnt, ein Pionier im Bereich Web Services, lange bevor sie unter diesem Namen bekannt wurden. Allerdings war DoubleClick durch sein Geschäftsmodell stark begrenzt. Man glaubte an die Ansicht der 90er Jahre, dass es beim Web um Verbreitung, nicht um Beteiligung geht; dass die Werbetreibenden, nicht die Endnutzer, das Sagen haben sollten; dass es auf die Größe ankommt und das Internet immer stärker von wenigen Topseiten dominiert wird, die von MediaMetrix und anderen Werbe-Scoring-Firmen ermittelt werden.

Als Ergebnis spricht DoubleClick auf seiner Webseite stolz von "über 2000 erfolgreichen Implementationen" ihrer Software. Yahoo Search Marketing (vormals Overture) und Google Ad Sense hingegen beliefern bereits Hunderttausende von Werbetreibenden.

Der Erfolg von Overture und Google resultiert aus einem hohen Verständnis dessen, was Chris Anderson einmal als "The Long Tail" bezeichnete, die kollektive Macht vieler kleiner Seiten, die den Hauptbestandteil des Webs bilden. Die Angebote von DoubleClick erfordern formelle Verträge, sodass ihre Zielgruppe auf wenige tausend große Webseiten beschränkt wird. Overture und Google erkannten, wie man Werbung im Prinzip auf jeder Webseite plazieren könnte. Darüber hinaus mieden sie anbieterfreundliche Formate wie Banner und Popups, stattdessen nutzen sie kontextsensitive, anwenderfreundliche und weniger aufdringliche Textwerbung.

Das Fazit für Web 2.0: Kunden-Selbstbedienung und algorithmisches Datenmanagement zu Nutze machen, um jeden Winkel des Web zu erreichen, nicht nur die schmale Spitze, sondern auch die breite Masse ("The Long Tail").

Es überrascht nicht, dass andere Web 2.0 Erfolgsstories dasselbe Verhalten aufweisen. eBay ermöglicht gelegentliche Transaktionen mit geringem Wert zwischen einzelnen Personen und tritt dabei als automatischer Vermittler auf. Napster (inzwischen aus rechtlichen Gründen abgeschaltet) errichtete sein Netzwerk nicht um eine zentrale Musikdatenbank herum, sondern als System, in dem jeder Client zugleich zum Server wurde, sodass das Netzwerk stetig wuchs

Akamai vs. BitTorrent

Wie auch DoubleClick ist Akamai darauf spezialisiert, mit der schmalen Spitze, nicht der breiten Masse Geschäfte zu machen. Akamai dient vor allem den vielen Menschen in allen Ecken des Web und verbessert deren Zugriffsgeschwindigkeiten auf häufig abgerufene Webinhalte, kassiert aber von den Anbietern dieser zentralen Seiten.

BitTorrent und andere Pioniere des P2P-Bereichs wählen den radikalen Weg zur Dezentralisierung des Internet. Jeder Client ist auch Server und Dateien werden in Fragmente aufgeteilt, die von verschiedenen Orten bezogen werden können, sodass das Netzwerk der Downloader auf transparente Weise anderen Nutzern Bandbreite und Daten zur Verfügung stellt. Je beliebter eine Datei ist, desto besser kann sie angeboten werden, da dementsprechend viele User Bandbreite und Fragmente für diese Datei bereitstellen.

BitTorrent zeigt somit als Schlüsselprinzip für Web 2.0: Ein Dienst wird umso besser, je mehr Leute ihn nutzen. Während Akamai zur Verbesserung des Service mehr Hardware zur Verfügung stellen muss, steuert jeder BitTorrent-User automatische seine Ressourcen zum Netzwerk bei. Es existiert also eine implizite "Architektur der Partizipation", oder auch eine "eingebaute Ethik der Kooperation", in der der Dienst selbst als intelligenter Vermittler auftritt, der die Enden des Netzwerks verbindet, die Ressourcen der User bündelt und ihnen wieder zur Verfügung stellt.

Die Nutzung kollektiver Intelligenz

Das zentrale Prinzip hinter dem Erfolg der Giganten aus der Web 1.0 ära, die überlebt haben um nun die Web 2.0 ära anzuführen, scheint zu sein, dass sie sich die Stärke des Web zu Eigen gemacht haben, die kollektive Intelligenz zu nutzen:

Hyperlinks bilden die Grundlage des Web. Wenn Nutzer neue Inhalte und Seiten online stellen, werden sie durch die Verlinkung von anderen Nutzern in die Struktur des Web einbezogen. ähnlich den Synapsen im Gehirn, deren Assoziation durch Wiederholung und Intensität stärker wird, wächst das Netz der Verbindungen auf natürliche Weise als Output der kollektiven Aktivitäten aller Web-User. Yahoo, die erste große Internet-Erfolgsstory, begann als Katalog oder Verzeichnis von Links, eine Aggregation der besten Ideen von abertausenden Web-Nutzern. Obwohl Yahoo inzwischen viele Arten von Inhalten bereitstellt, bleibt sein Kern dennoch die Rolle eines Portals zu den gesammelten Werken der Internet-Gemeinde. Der Durchbruch für Google, der das Unternehmen schnell zum unumstrittenen Marktführer bei den Suchmaschinen werden ließ, war PageRank, eine Methode, die die Linkstruktur des WWW mehr als die Eigenschaften der Dokumente selbst nutzte, um bessere Suchergebnisse zu liefern. eBay's Produkt ist die gemeinschaftliche Aktivität aller Beteiligten. Wie das Web selbst wächst eBay auf natürliche Weise durch intensive Nutzung, und die Rolle des Unternehmens beschränkt sich dabei auf die Bereitstellung des Rahmens, in dem die Nutzung stattfinden kann. Darüber hinaus liegen eBay's Vorteile gegenüber der Konkurrenz vor allem in der kritischen Masse von Käufern und Verkäufern begründet, die jeden neuen Markteinsteiger weniger attraktiv erscheinen lässt. Amazon verkauft die gleichen Produkte wie seine Konkurrenten (z.B. barnesandnoble.com) und erhält dieselben Produktbeschreibungen, Coverbilder und redaktionellen Inhalte von seinen Lieferanten. Jedoch hat Amazon aus dem Engagement seiner User eine Wissenschaft gemacht und besitzt um Größenordnungen mehr Nutzerbewertungen, bietet Möglichkeiten zur Teilnahme in verschiedenster Weise auf nahezu allen Seiten an, und, vermutlich am bedeutendsten, nutzt die Useraktivität zur Produktion besserer Suchresultate. Während die Suche von barnesandnoble.com häufig mit firmeneigenen oder gesponserten Resultaten beginnt, starten die Ergebnisse bei Amazon mit den "beliebtesten" Produkten, einem in Echtzeit berechneten Maßstab, der nicht nur die Verkaufsmenge, sondern auch auf andere Faktoren berücksichtigt, was in Amazon-internen Kreisen als "Flow" der Produkte bekannt ist. Aufgrund der wesentlich höheren Nutzerbeteiligung ist es kaum verwunderlich, dass auch die Verkaufszahlen die der Konkurrenten deutlich übertreffen. Inzwischen hinterlassen immer häufiger Firmen, die diese Erkenntnisse aufgenommen und z.T. ausgebaut haben, ihre Zeichen im Web:

Wikipedia, eine Online-Enzyklopädie basierend auf der ungewöhnlichen Idee, dass jeder Eintrag von jedem Internet-User bearbeitet werden kann, stellt ein radikales Experiment mit Vertrauen dar, welches eine Maxime von Eric Raymond anwendet (die ursprünglich im Kontext von Open Source Software aufgestellt wurde): "Mit genügend wachsamen Augen werden alle Bugs sichtbar." Die Wikipedia wird bereits unter den Top-100-Webseiten geführt und viele glauben, dass sie in Kürze unter den Top 10 zu finden sein wird. Dies stellt eine tiefgreifende Veränderung in der Dynamik der Inhaltsgenerierung dar. Seiten wie del.icio.us und Flickr, zwei Firmen die seit kurzem große Aufmerksamkeit genießen, haben ein Konzept vorangetrieben, dass im Allgemeinen als "Folksonomy" (im Gegensatz zur Taxonomy) bezeichnet wird, einer Art kollaborativer Kategorisierung von Seiten mit frei wählbaren Keywords, oft auch als "Tags" bezeichnet. Taggen erlaubt vielseitige, häufig überlappende Assoziierung, die der Arbeitsweise des Gehirns viel näher kommt als sture Kategorisierung. So kann ein Foto einer Puppe bei Flickr sowohl mit "Puppe" als auch mit "hübsch" getagged sein und erlaubt somit durch User-Aktivitäten die Wiederauffindung entlang logischer Wege. Kollaborative Spam-Filter-Produkte wie Cloudmark sammeln die individuellen Einstufungen in Spam und Ham von E-Mail-Nutzern und bieten so ein System, das auf der Analyse der Nachrichten selbst beruht. Es ist eine Binsenweisheit, dass die großen Erfolgsstories des Internet ihre Produkte nicht bewerben. Ihre Anziehungskraft beziehen sie nur aus der Mundpropaganda. Man könnte daraus fast den Schluss ziehen, dass ein Produkt, welches auf sonstige Werbung angewiesen ist, nicht zu Web 2.0 gezählt werden kann. Sehr viele Bestandteile der Internet-Infrastruktur, z.B. Linux, Apache, MySQL, Perl, PHP und Python, basieren auf der Produktionsmethodik von Open Source, und sind somit selbst Ausprägungen von durch das Netz ermöglichter kollektiver Intelligenz. SourceForge beinhaltet zur Zeit über 100.000 Open Source Projekte. Jeder kann ein Projekt hinzufügen, jeder kann Code herunterladen und benutzen, und neue Projekte rücken ins Zentrum der Aufmerksamkeit durch User, die sie zum Laufen bringen. Es ist ein biologischer übernahmeprozess, nahezu ausschließlich basierend auf Mundpropaganda. Das Fazit für Web 2.0: Netzwerk-Effekte durch Nutzerbeteiligung sind der Schlüssel zur Marktdominanz in der Web 2.0 ära.

Bloggen und die Weisheit des Volkes

Eines der meistgenannten Features der Web 2.0 ära ist die Erscheinung des Blogging. Persönliche Homepages gibt es bereits seit den Anfangstagen des Web, persönliche Tagebücher und tägliche Meinungskolumnen sogar noch länger, warum also wird um das Bloggen so viel Aufheben gemacht?

Im Grunde ist ein Blog nur eine persönliche Homepage in der Form eines Tagebuchs. Eines der Dinge, die den feinen Unterschied ausmachen, ist eine Technologie namens RSS. RSS ist der bemerkenswerteste Fortschritt in der grundlegenden Architektur des Web seit ein paar Hacker erkannten, dass CGI zur Erstellung datenbank-basierender Webseiten genutzt werden kann. RSS erlaubt es, eine Seite nicht nur zu verlinken, sondern sie zu abonnieren und bei jeder änderung informiert zu werden. Rich Skrenta nannte dies das "inkrementelle Web", andere nennen es das "Live Web".

Nun wurden dynamische Webseiten (also datenbank-gestützte Seiten mit dynamisch generiertem Inhalt) vor über 10 Jahren erfunden. Die Neuerung des "Live Web" ist aber nun, dass nicht nur die Inhalte, sondern auch die Links dynamisch sind. Ein Link zu einem Weblog zeigt auf eine sich ständig verändernde Seite, mit sogenannten "Permalinks" für jeden individuellen Eintrag und Benachrichtigungen bei jeder änderung. Ein RSS-Feed ist also ein wesentlich mächtigerer Link als z.B. ein Lesezeichen oder ein einfacher Link zu einer einzelnen Seite.

Aufgrund von RSS sind Webbrowser nicht mehr die einzigen Hilfsmittel, um eine Webseite anzuzeigen. Während einige RSS-Sammler, wie z.B. Bloglines, webbasiert sind, arbeiten andere als Desktop-Clients, und wiederum andere erlauben den Zugriff auf die aktuellen Inhalte per portablem Gerät.

RSS wird inzwischen nicht nur zur Anzeige neuer Blogeinträge benutzt, sondern auch für viele weitere Datenupdates, z.B. Aktienkurse und Wetterdaten. Dies ist im Prinzip eine Rückkehr zu den Wurzeln: RSS wurde 1997 erfunden, als Zusammenschluss von Dave Winer's "Really Simple Syndication" (welches von vorne herein für Blogs gedacht war) und Netscape's "Rich Site Summary" (welches Usern erlauben sollte, ihre Homepages mit regelmäßigen Updates zu füttern). Netscape verlor das Interesse und die Technologie wurde von Winer's Unternehmen "Userland" fortgeführt. In der derzeitigen Menge der Anwendungen finden wir daher das Erbe beider Gründer.

RSS ist jedoch nicht das einzige Feature, welches Blogs von normalen Webseiten unterscheidet. Tom Coates bemerkte zur Signifikanz von Permalinks: "Es mag wie eine triviale Funktionalität aussehen, aber es war im Endeffekt das Instrument, welches Weblogs von einem Werkzeug zur einfachen Publikation in ein dialogorientiertes System sich überlappender Communities wandelte. Zum ersten Mal war es relativ simpel, direkt auf einen speziellen Beitrag auf einer fremden Seite zu verweisen und sich darüber zu unterhalten. Eine Diskussion entstand, ein Chat entstand. Und am Ende entstanden sogar Freundschaften oder wurden gefestigt. Die Permalinks waren der erste - und erfolgreichste - Versuch, Brücken zwischen den Weblogs zu errichten."

Auf gewisse Weise integriert die Kombination aus RSS und Permalinks viele Features von NNTP, dem Network News Protocol des Usenet, in das Webprotokoll HTTP. Die "Blogosphäre" kann als neues P2P-äquivalent zu Usenet und Bulletin-Boards angesehen werden, den beliebtesten Kommunikationsmitteln des frühen Internet. Die Leute können ihre Seiten nicht nur gegenseitig abonnieren oder einzelne Passagen verlinken, sondern auch mittels einer Methode namens "Trackback" sehen, wer ihre Seiten verlinkt und mit umgekehrten Links oder Kommentaren reagieren.

Interessanterweise waren Zwei-Wege-Links das erklärte Ziel früher Hypertextsysteme wie Xanadu. Puristen haben Trackbacks als Schritt in diese Richtung gefeiert, aber Trackbacks sind keine Zwei-Wege-Links, sondern vielmehr echt symmetrische Ein-Weg-Links, die nur den Effekt von Zwei-Wege-Links erzeugen. Der Unterschied mag subtil erscheinen, ist in der Praxis jedoch enorm. Systemen des "Social Networking", wie z.B. Friendster, Orkut oder LinkedIn, die die Bestätigung des Empfängers erfordern, um eine Verbindung herzustellen, fehlt die Skalierbarkeit des Webs. Wie Catherine Fake, Mitbegründerin des Flickr Fotoservice anmerkte, beruht Aufmerksamkeit nur im Zufall auf Gegenseitigkeit. (Daher erlaubt Flickr seinen Usern das Erstellen sogenannter Watchlists - jeder User kann die Fotoreihen eines anderen per RSS abonnieren. Der andere Nutzer wird von dem Abonnement in Kenntnis gesetzt, muss die Verbindung aber nicht bestätigen.)

Wenn wir die Nutzung kollektiver Intelligenz als essentiellen Teil von Web 2.0 betrachten, die das Web in eine Art globales Gehirn verwandelt, stellt die Blogosphäre das äquivalent zur ständigen geistigen Aktivität im Vorderhirn dar, die Stimme, die wir alle in unseren Köpfen hören. Es reflektiert i.d.R. nicht die tiefere Struktur des Gehirns, welcher wir uns häufig unbewusst sind, sondern repräsentiert die bewussten Gedanken. Und als Reflexion bewusster Gedanken und Aufmerksamkeit, hat die Blogosphäre einen wichtigen Effekt.

Zum einen, weil Suchmaschinen Linkstrukturen nutzen, um nützliche Seiten herauszufiltern. Blogger haben somit als überaus produktive und häufige Linker eine überproportionale Bedeutung bei der Gestaltung von Suchmaschinen-Ergebnissen. Zum anderen referenziert sich die Blog-Community in hohem Maße selbst, sodass Blogger, die anderen Bloggern Beachtung schenken, ihre Sichtbarkeit und Macht erhöhen können. Der "Hallraum", den viele Kritiker beklagen, dient somit als Verstärker.

Wenn es ein bloßer Verstärker wäre, wäre Bloggen recht uninteressant. Aber ähnlich zu Wikipedia, nutzt das Bloggen die kollektive Intelligenz als eine Art Filter. Was James Suriowecki "die Weisheit der Masse" nennt, kommt hier ins Spiel, und so wie PageRank bessere Suchresultate liefert als die Analyse jedes einzelnen Dokumentes, markiert die kollektive Aufmerksamkeit der Blogosphäre den Wert der Beiträge.

Während manche Mainstream-Medien einzelne Blogs als Konkurrenten ansehen, ist das wirklich spannende der Wettbewerb mit der Blogosphäre als Ganzes. Dies ist nicht nur ein Wettbewerb zwischen Seiten, sondern zwischen zwei verschiedenen Geschäftsmodellen. Die Welt des Web 2.0 ist auch eine Welt dessen, was Dan Gillmor "wir, die Medien" nennt, eine Welt in der das "ehemalige Publikum", nicht ein paar wenige Leute im Hintergrund, entscheiden was wichtig ist und was nicht.

Die Daten als nächstes "Intel Inside"

Jede bedeutende Internet-Anwendung besitzt heutzutage eine spezialisierte Datenbank: Google (web crawl), Yahoo (directory und web crawl), Amazon's Produktdatenbank, eBay's Produkt- und Verkäuferdatenbank, MapQuest's Kartendatenbank, Napster's verteilte Songdatenbank. Wie Hal Varian in einer persönlichen Unterhaltung im letzten Jahr anmerkte, "SQL ist das neue HTML". Datenbankmanagement ist eine Kernkompetenz von Web 2.0 Firmen, so sehr dass wir diese Anwendungen z.T. eher als "Infoware" denn als bloße Software bezeichnen.

Dies führt zu einer Schlüsselfrage: Wem gehören diese Daten?

In der Internet-ära konnte man bereits einige Fälle beobachten, wo die Kontrolle über Datenbanken zur Marktkontrolle und großen finanziellen Einnahmen geführt hat. Das Monopol für die Registrierung von Domainnamen, ursprünglich von der US-Regierung an die Firma Network Solutions gewährt (welche später von VeriSign gekauft wurde), war eine der ersten großen Geldquellen des Internet. Während sich darüber streiten lässt, ob Geschäftsvorteile durch die Kontrolle von Software APIs in den Zeiten des Internet schwieriger zu erreichen sind, sind die Vorteile der Kontrolle wichtiger Datenquellen unstrittig, vor allem wenn ihre Erstellung teuer ist oder sie empfänglich für immer größer werdende Rückflüsse durch Netzwerkeffekte sind.

Ein Blick auf die Copyright-Hinweise am Ende jeder Karte von MapQuest (z.B. maps.yahoo.com) zeigt stets die Zeile "Maps copyright NavTeq, TeleAtlas" oder (beim neuen Satellitenbild-Service) "Images copyright Digital Globe". Diese Firmen tätigten substantielle Investments in ihre Datenbanken (NavTeq allein spricht von 750 Millionen Dollar für den Aufbau ihrer Adress-Datenbanken; Digital Globe bezahlte rund 500 Millionen für den eigenen Satelliten zur Verbesserung Ihrer regierungsunabhängigen Bilder). NavTeq ging sogar so weit, Intel's bekanntes "Intel Inside"-Logo zu imitieren: Autos mit Navigationssystemen tragen den Aufdruck "NavTeq Onboard". Daten sind in der Tat das "Intel Inside" dieser Anwendungen, die alleinige Einkommensquelle in Systemen, deren Software-Infrastruktur größtenteils Open Source oder auf andere Weise öffentlich ist.

Der derzeit heiß umkämpfte Markt der Kartendienste zeigt, wie die Missachtung der Bedeutung von Kerndaten einer Applikation die Wettbewerbsposition schwächen kann. MapQuest war 1995 der erste Anbieter eines Kartendienstes, aber als später Yahoo, Microsoft und schließlich Google hinzukamen, konnten sie leicht eine vergleichbare Anwendung bereitstellen, indem sie ganz einfach dieselben Daten lizenzierten.

Ganz anders die Position von Amazon. Genau wie seine Mitbewerber, z.B. Barnesandnoble, bezog Amazon die ursprüngliche Datenbasis vom ISBN Registrar R.R. Bowker. Aber im Gegensatz zu MapQuest erweiterte Amazon diese Basis unaufhörlich, fügte Cover, Inhaltsverzeichnisse, Indizes und Samples hinzu. Darüber hinaus, und wohl noch bedeutsamer, machten sie sich die Käuferbeteiligung zunutze, sodass heute (nach zehn Jahren) Amazon, und nicht Bowker, die wichtigste Quelle für bibliographische Daten zu Büchern darstellt, eine Referenz für Schüler, Studenten, Bibliothekare und natürlich Käufer.

Amazon führte außerdem ein eigenes, proprietäres Identifikationssystem ein, die ASIN. Diese ist gleich der ISBN für Produkte, die mit einer solchen versehen wurden, und stattet alle anderen Produkte mit einer Nummer aus einem äquivalenten Namensraum aus. Im Endeffekt hat sich Amazon seine Datenzulieferer einverleibt und erweitert.

Man stelle sich nun vor, MapQuest hätte seine Nutzer zur Erhöhung des Informationsgehaltes seiner Karten eingesetzt, indem sie Kommentare und Hinweise hinzugefügt hätten. Der Markteintritt wäre für Mitbewerber, die nur die Basisdaten lizenzieren könnten, ungleich schwieriger geworden.

Die kürzlich erfolgte Einführung von Google Maps bietet ein gutes Anschauungsbeispiel für den Wettbewerb zwischen Anwendungsverkäufern und ihren Datenzulieferern. Google's einfach gehaltenes Programmierungsmodell hat dazu geführt, dass viele sogenannter Mashups entstanden sind, die Google Maps mit anderen, über das Internet verfügbaren Datenquellen verknüpfen. Paul Rademacher's housingmaps.com, welches Google Maps mit dem Immobilienmarkt von Craigslist verbindet, ist eines der prominentesten Beispiele für ein solches Mashup.

Zur Zeit sind viele Mashups noch innovative Experimente einiger Hacker, aber bald schon werden unternehmerische Aktivitäten in diesem Bereich folgen. Und bereits jetzt ist zu beobachten, dass zumindest für einen Teil der Entwickler Google die Rolle des bevorzugten Datenzulieferers von NavTeq übernommen hat. Es ist zu erwarten, dass man in den nächsten Jahren in zunehmendem Maße Marktkämpfe zwischen den Datenlieferanten und den Anwendungsentwicklern sehen wird, da beide Parteien realisieren, wie wichtig bestimmte Arten von Daten für die Erstellung erfolgreicher Web 2.0 Dienste sind.

Das Rennen um die wichtigsten Daten hat begonnen, vor allem um geographische, persönliche, terminliche - man denke an öffentliche Veranstaltungen etc. - und produktspezifische. In vielen Fällen, in denen die Erstellung der Daten signifikante Kosten verursacht, mag sich die Gelegenheit für ein Vorgehen á la "Intel Inside" ergeben, mit einer einzelnen Quelle für die Daten. In anderen Fällen wird die Firma zum Gewinner, die zuerst durch Nutzeraggregation eine kritische Masse erreicht und die aggregierten Daten in einen Systemdienst umwandelt.

Zum Beispiel können auf dem Gebiet der persönlichen Daten Paypal, Amazon's 1-Click sowie die Millionen Nutzer von Kommunikationssystemen legitime Wettbewerber bei der Erstellung einer netzwerkweiten Identitätsdatenbank darstellen. Diesbezüglich könnte Google's kürzlich erfolgter Versuch, Handynummern als Identifikator für Gmail-Accounts zu verwenden, als Schritt in Richtung Einverleibung und Erweiterung des Telefonnetzes angesehen werden. Inzwischen erkunden Startups wie Sxip das Potential verbundener Identitäten in Bezug auf eine Art "distributed 1-click", welches ein nahtloses Identitäts-Subsystem für Web 2.0 werden könnte. Im Bereich terminlicher Daten ist EVDB ein Versuch zur Generierung des weltgrößten geshareten Kalenders via Wiki-artiger Architektur.

Während die Entscheidung über den Erfolg eine jeden dieser Startups und Ansätze noch aussteht, ist es bereits klar absehbar, dass Standards und Lösungen in diesen Bereichen, die bestimmte Klassen von Daten in verlässliche Subsysteme des "Betriebssystems Internet" umwandeln, die nächste Generation von Anwendungen prägen.

Ein weiterer Punkt sollte in Bezug auf Daten angesprochen werden, nämlich die Bedenken der Nutzer bzgl. ihrer Privatsphäre und ihre Rechte an den eigenen Daten. In vielen der frühen Webanwendungen wird dem Copyright nur wenig Bedeutung beigemessen. Zum Beispiel erhebt Amazon Anspruch jede veröffentlichte Beurteilung, aber aufgrund mangelnder Durchsetzung können die Leute ein- und dieselbe Beurteilung auch an anderer Stelle posten. Da die Firmen allerdings nun zu erkennen beginnen, dass die Kontrolle über Datenbestände die Quelle ihrer Geschäftsvorteile bildet, werden wir womöglich verstärkte Versuche erleben, diese Kontrolle zu erlangen.

So wie das Aufkommen proprietärer Software zur Entwicklung freier Software führte, erwarten wir das Erscheinen freier Datenbestände als Reaktion auf proprietäre Datenbanken. Man sieht bereits erste Anzeichen dieser Gegenbewegung bei Wikipedia, den Creative Commons und in Software-Projekten wie Greasemonkey, die Nutzern die Kontrolle darüber gestatten, wie Daten auf ihrem Computer dargestellt werden sollen.

Abschaffung des Software-Lebenszyklus

Wie bereits im Vergleich Google vs. Netscape erwähnt besitzt Software aus der Internet-ära die charakteristische Eigenschaft, dass sie als Service, und nicht als Produkt ausgeliefert wird. Diese Tatsache führt zu einer Reihe fundamentaler änderungen im Geschäftsmodell eines solchen Unternehmens:

1. Betriebsabläufe werden zur Kernkompetenz. Google's und Yahoo's Fachkompetenz in Sachen Produktentwicklung muss eine ebensolche Kompetenz im täglichen Betriebsablauf gegenüberstehen. Der übergang von der Software als Artefakt zur Software als Dienstleistung ist derart grundlegend, dass die Software ihre Leistungsfähigkeit schnell verliert, wenn sie nicht täglich gepflegt wird. Google muss das Web kontinuierlich durchsuchen, sein Verzeichnis aktualisieren, Link-Spam und andere Versuche der Beeinflussung ausfiltern, sowie ständig und dynamisch auf Millionen asynchroner Nutzerabfragen antworten und gleichzeitig zum Kontext passende Werbefelder einblenden.

Es ist kein Zufall, dass Google's Systemadministration, Netzwerk und Load-Balancing-Techniken ein evtl. sogar besser gehütetes Geheimnis darstellen als die Suchalgorithmen. Google's Erfolg bei der Automatisierung dieser Prozesse ist ein Schlüsselelement ihres Kostenvorteils gegenüber der Konkurrenz.

Es ist ebenfalls kein Zufall, dass Skriptsprachen wie Perl, PHP, Python und Ruby bei Firmen aus dem Bereich Web 2.0 eine so große Rolle spielen. Perl wurde bekanntermaßen von Hassan Schroeder, Sun's erstem Webmaster, als "Klebeband des Internet" bezeichnet. Dynamische Sprachen (oft auch Skriptsprachen genannt und von den Software-Ingenieuren der vorhergehenden Zeitspanne müde belächelt) sind die Werkzeuge der Wahl für System- und Netzwerk-Administratoren genauso wie für Anwendungsentwickler, deren dynamische Systeme ständige Anpassung erfordern.

2. Nutzer müssen, in Anlehnung an Praktiken aus der Open-Source-Entwicklung, als Mitentwickler angesehen werden (auch wenn die fragliche Software wohl nie unter einer solchen Lizenz freigegeben werden soll). Der Open-Source-Grundgedanke "veröffentliche früh und oft" wurde in eine noch extremere Variante überführt, das "ewige Beta", in dem ein veröffentlichtes Produkt mit monatlichen, wöchentlichen oder gar täglichen Updates offen weiterentwickelt wird. Dienste wie Gmail, Google Maps, Flickr, del.icio.us und viele mehr werden wohl für Jahre ein "Beta"-Logo tragen.

Echtzeit-Beobachtung des Nutzerverhaltens um festzustellen, ob und wie neue Features genutzt werden, wird somit ebenfalls zur Kernkompetenz. Ein Entwickler eines großen Onlinedienstes sagte dazu: "Wir veröffentlichen zwei oder drei neue Features pro Tag auf bestimmten Teilen der Seite. Wenn die Leute sie nicht nutzen, nehmen wir sie wieder raus. Und wenn die Leute sie mögen, weiten wir sie auf die gesamte Seite aus.

Cal Henderson, Hauptentwickler von Flickr, enthüllte kürzlich, dass neue Versionen manchmal innerhalb von einer halben Stunde veröffentlicht werden. Dies ist natürlich ein völlig anderes Auslieferungsmodell! Obwohl nicht alle Webanwendungen derart häufig Releases ausliefern wie Flickr, haben doch fast alle von ihnen einen Entwicklungszyklus, der sich völlig von den aus der PC- oder Client-Server-ära bekannten unterscheidet. Dies ist auch der Grund, warum ein Editorial von ZDNet vor kurzem feststellte, das Microsoft niemals Google schlagen wird: "Microsoft's Geschäftsmodell beruht darauf, dass jeder seine Computer-Umgebung alle zwei bis drei Jahre erneuert. Google's hingegen beruht darauf, dass jeder täglich nachschaut, was es in seiner Computer-Umgebung Neues gibt.

Während Microsoft enorme Fähigkeiten gezeigt hat wenn es darum ging, von seinen Konkurrenten zu lernen und sie schließlich zu übertreffen, steht es außer Frage, dass die Konkurrenz nun Microsoft (und natürlich auch jede andere etablierte Softwarefirma) zwingt, eine andere Form von Unternehmen zu werden. Native Web-2.0-Firmen genießen allerdings den natürlichen Vorteil, dass sie zuvor keine alten Muster, Geschäftsmodelle und Einnahmequellen loswerden müssen.

Lightweight Programming Models

Als die Idee der Web Services bekannt wurde, stürzten sich große Firmen mit einem ganzen Haufen komplexer Web Services ins Getümmel, die der Kreation hochverfügbarer Programmierumgebungen für verteilte Anwendungen dienen sollten.

Aber so wie das Web Erfolg erlangte, indem es viel von der Theorie des Hypertext wieder verwarf und stattdessen einen Pragmatismus des idealen Designs einsetzte, wurde RSS aufgrund seiner Einfachheit der vermutlich am weitesten verbreitete Web Service, während die komplexen Dienste der Unternehmen noch auf ihre Verbreitung warten.

In vergleichbarer Weise werden Amazon's Web Services in zwei Varianten angeboten: Eine unter strenger Einhaltung der Formalien von SOAP, die andere nutzt dagegen die einfache Verbreitung von XML über HTTP mittels eines leichtgewichtigeren Ansatzes, bekannt als REST (Representational State Transfer). Während wenige, hochwertige B2B-Verbindungen (z.B. zwischen Amazon und großen Vertriebspartnern wie Toys'R'Us) die SOAP-Variante verwenden, wählen 95 Prozent der sonstigen Nutzer den REST-Service.

Dieser Wunsch nach Simplizität kann auch bei anderen "organischen" Web Services beobachtet werden, Google Maps ist hier ein gutes Beispiel. Das dort verwandte AJAX-Interface (Asynchronous Javascript And XML) wurde schnell von einigen "Hackern" entschlüsselt und zur Erstellung neuartiger Services mithilfe der bereitgestellten Daten eingesetzt.

Auf Kartendienste basierende Web Services waren schon seit einiger Zeit verfügbar, sowohl von GIS-Anbietern wie ESRI als auch von MapQuest und Microsoft (MapPoint), aber Google Maps war die Sensation schlechthin aufgrund seiner Einfachheit. Während Experimente mit den anderen Diensten einen formalen Vertrag zwischen den Parteien voraussetzten, konnte jedermann die Daten von Google Maps nehmen und sie kreativ weiterverarbeiten.

Hieraus lernen wir folgende bemerkenswerte Grundsätze:

1. Unterstütze LPMs (Lightweight Programming Models), die lose gekoppelte Systeme ermöglichen. Die Komplexität des von großen Unternehmen geförderten Dienstangebots ist auf enge Kopplung ausgelegt. Während dies in einigen Fällen sicherlich notwendig ist, können viele der interessantesten Anwendungen in der Tat lose gekoppelt bleiben, teilweise sogar bruchstückhaft. Die Mentalität von Web 2.0 ist grundverschieden zur Denkweise der traditionellen IT. 2. Kooperiere ohne zu koordinieren. Bei einfachen Web Services wie RSS und den REST-basierten geht es darum, Daten zu verteilen oder auszutauschen und nicht darum zu kontrollieren, was am anderen Ende der Leitung mit ihnen geschieht. Diese Idee war bereits grundlegend für das Internet an sich, in Anlehnung an das bekannte "Ende-zu-Ende"-Prinzip. 3. Gestalte mit Blick auf "Hackability" und "Remixability". Systeme wie das Web, RSS und AJAX haben alle eines gemeinsam: Die Barrieren zur Wiederverwendung sind extrem gering. Eine Menge nützlicher Software ist sogar völlig quelloffen, und selbst wenn sie das nicht ist, gibt es wenige Mittel im Hinblick auf den Schutz geistigen Eigentums. Webbrowser sorgen mit ihrer Funktion zur Quelltextansicht dafür, dass jeder jede Webseite kopieren kann. RSS erlaubt es dem Benutzer, jederzeit die von ihm gewünschten Inhalte abzurufen, nichts davon geschieht auf Geheiß des Informationsanbieters. Die erfolgreichsten Web Services sind die, die sich leicht in Richtungen weiterentwickeln lassen, an die der ursprüngliche Erfinder gar nicht gedacht hat. Der Ausdruck "einige Rechte vorbehalten", erstmals von den Creative Commons als Kontrast zum bekannten "alle Rechte vorbehalten" verwandt, zeigt die Richtung an, in die es gehen wird. Innovation durch Zusammenbau

LPMs und offene Kooperation werden begleitet von LBMs (Lightweight Business Models). Ein neuer Dienst wie housingmaps.com entstand einfach durch die Verknüpfung zweier bereits existierender Dienste. Housingmaps.com hat (noch) kein Geschäftsmodell - aber für viele der kleineren Services bieten Google AdSense und Co. das Snap-In-äquivalent eines Ertragsmodells.

Dies ist ein schönes Beispiel für ein weiteres Prinzip von Web 2.0, das da heißt: Innovation durch Zusammenbau. Wenn die grundlegenden Komponenten reichlich vorhanden sind, lässt sich weiterer Nutzen generieren, indem man sie einfach auf neue und effektive Weise zusammensetzt. So wie die PC-Revolution Innovationen durch den Zusammenbau von Hardware-Komponenten ermöglichte, woraus Firmen wie Dell auf erfolgreiche Weise eine regelrechte Wissenschaft machten und andere Firmen weit hinter sich ließen, deren Geschäftsmodell Innovation durch Produktentwicklung vorsah, so glauben wir auch, dass Web 2.0 es Firmen ermöglichen wird, erfolgreicher zu sein als andere, indem sie die Dienste anderer auf innovative Art und Weise verbinden und nutzbar machen.

Software über die Grenzen einzelner Geräte hinaus

Ein weiteres erwähnenswertes Feature von Web 2.0 ist die Tatsache, dass es nicht länger auf die PC-Plattform beschränkt ist. In seiner Abschiedsnachricht an Microsoft betont der langjährige Microsoft-Entwickler Dave Stutz: "Nützliche Software, die über die Grenzen einzelner Geräte hinaus geschrieben wurde, wird die hohen Margen für lange Zeit beherrschen."

Natürlich kann zunächst jede Webanwendung als geräteunabhängig angesehen werden. Immerhin sind selbst an der simpelsten Webanwendung mindestens zwei Computer beteiligt: Auf dem einen läuft der Webserver, auf dem anderen der Browser. Und wie bereits gesagt erweitert die Entwicklung des Web zu einer Plattform diese Idee hin zu synthetischen Anwendungen, die aus verschiedenen Diensten von völlig unterschiedlichen Computern bestehen.

Aber wie in so vielen Bereichen des Web 2.0, bei denen die "2.0-heit" nichts vollkommen Neues, sondern vielmehr eine vollständigere Realisierung des wahren Potentials der Web-Plattform ist, gibt uns auch dieser Ausdruck einen entscheidenden Einblick in die Designprinzipien für Dienste und Anwendungen der neuen Plattform.

Heutzutage stellt iTunes hierfür das beste Beispiel dar. Diese Anwendung schafft den nahtlosen übergang vom mobilen Endgerät zu einem gewatigen Web-Backend, mit dem PC als lokalem Cache und Kontrollstation. Es gab auch früher schon viele Versuche, Web-Inhalte auf mobile Endgeräte zu bringen, aber die iPod/iTunes-Kombination ist die erste dieser Anwendungen, die sich von Grund auf über mehrere Gerätetypen erstrecken sollte. TiVo ist ein weiteres gutes Beispiel.

iTunes und TiVo weisen auch viele weitere der Kernprinzipien von Web 2.0 auf. Sie sind keine Webanwendungen per se, jedoch setzen sie das Web äußerst wirksam ein, als nahezu unsichtbaren, integrierten Bestandteil ihrer Infrastruktur. Datenmanagement ist natürlich das Herz ihres Angebotes. Sie sind Dienste, keine verpackten Produkte (obwohl iTunes als solches benutzt werden kann, wenn man es nur zum Management lokaler Daten einsetzt). Darüber hinaus zeigen sowohl iTunes als auch TiVo aufkeimende Nutzung kollektiver Intelligenz, obwohl dies in beiden Fällen mit den Interessen des Rechteverwertungsgesellschaften (IP-Lobby) kollidiert. Es gibt zwar bei iTunes bislang nur wenige Möglichkeiten der Beteiligung, die kürzlich erfolgte Hinzunahme von Podcasting wird dies aber substantiell ändern.

Dies ist der Bereich von Web 2.0, in dem wir einige der größten änderungen erwarten, da mehr und mehr Gerätetypen an die neue Plattform angebunden werden. Welche Arten von Anwendungen werden möglich, wenn unsere Telefone und Autos nicht nur Daten konsumieren, sondern auch bereitstellen? Verkehrsanzeigen in Echtzeit, Flash Mobs und Bürger-Journalismus sind nur die ersten Anzeichen für das Leistungsvermögen der neuen Plattform.

Benutzerführung (Rich User Experiences)

Bereits seit Pei Wei's Browser "Viola" (1992) wurde das Web zur Auslieferung von Applets und anderen Arten von aktiven Inhalten im Browser genutzt. Bei der Einführung von Java im Jahre 1995 bildeten die Applets die Kernanwendung, der "Rest" wurde um sie herum gebaut. JavaScript und DynamicHTML wurden als leichtgewichtigere Ansätze hinzugefügt, um clientseitige Programmierung und bessere Benutzerführung, genannt RUEs (Rich User Experiences), zu ermöglichen. Einige Jahre zuvor prägte Macromedia den Ausdruck "Rich Internet Applications" um hervorzuheben, dass Flash nicht nur Multimedia-Inhalte ausliefern, sondern auch GUI-artige Anwendungsoberflächen ermöglicht.

Allerdings wurde das wahre Potential des Web in Bezug auf die Bereitstellung vollwertiger Anwendungen dem Mainstream erst mit Gmail bekannt, dicht gefolgt von Google Maps. Beides sind webbasierte Anwendungen, die sich hinsichtlich Interface und Interaktionsmöglichkeiten kaum von einem Desktop-Programm unterscheiden. Die dabei von Google verwandte Technologie wurde "AJAX" getauft, ursprünglich von Jesse James Garrett von der Webdesign-Firma Adaptive Path. Er schrieb:

"Ajax ist keine einzelne Technologie. Ajax beinhaltet mehrere Technologien, jede mit ihrer ganz besonderen Daseinsberechtigung, die auf neue und mächtige Weise miteinander verbunden wurden. Im einzelnen handelt es sich um:

standardgerechte Präsentation mit XHTML und CSS dynamische Anzeigen und Interaktivität mittels des Document Object Models (DOM) Datenaustausch und -manipulation mit XML und XSLT asynchrone Datenabfrage unter Verwendung von XMLHttpRequest und schließlich JavaScript, das all dies zusammenbringt" Ajax ist mittlerweile eine Schlüsselkomponente von Web-2.0-Anwendungen wie Flickr (inzwischen Teil von Yahoo), basecamp und backpack von 37signals sowie Google's Gmail und Orkut. Wir erleben hier eine nie dagewesene Innovation im Bereich der User Interfaces, da Webentwickler nun endlich in der Lage sind, Applikationen mit der Mächtigkeit lokaler, PC-basierter Anwendungen zu erstellen.

Interessanterweise gibt es viele der nun näher erkundeten Möglichkeiten schon seit Jahren. In den späten 90ern dachten Microsoft und Netscape bereits intensiv über all dies nach, die Realisierung scheiterte aber an ihren Streitigkeiten über die Standards. Dies machte browserunabhängige Programme nahezu unmöglich. Als Microsoft den Kampf schließlich gewonnen hatte und es einen de-facto-Standardbrowser gab, wurde die Verwirklichung der Ideen möglich. Und obwohl Firefox wieder mehr Wettbewerb in den Browsermarkt gebracht hat, gibt es zumindest bis dato keinen ähnlich forschrittshemmenden Kampf wie in den 90ern.

Wir erwarten in den nächsten Jahren viele neue Webanwendungen, sowohl völlig neu erdachte als auch Reimplementierungen von Desktop-Programmen. Jeder Plattformwechsel bringt auch die Möglichkeit eines Führungswechsels bei den dominierenden Anwendungen mit sich.

Gmail bietet bereits einige sehr interessante Innovationen im Bereich E-Mail, indem es die Stärken des Web (Ortsunahängigkeit, tiefgreifende Datenbankfähigkeiten, Durchsuchbarkeit) mit einer Benutzerschnittstelle kombiniert, die in Sachen Usability an bekannte PC-Interfaces heranreicht. Währenddessen gehen die konventionellen Mailklienten das Problem von der anderen Seite an, indem sie Instant Messaging, Buddylists und Statusicons hinzufügen. Wie weit sind wir noch entfernt vom "vollkommenen" Kommunikationsprogramm, welches das Beste aus E-Mail, IM und Handy vereint, indem u.a. die Sprachfunktionen per VoIP zu den Anwendungen hinzugefügt werden? Das Rennen hat begonnen.

Das Adressbuch der Zukunft wird lokale Adressbücher von PC oder Telefon nur noch als Zwischenspeicher für die jeweils explizit benötigten Kontakte verwenden, während im Hintergrund ein webbasierter Synchronisierungsprozess jede Nachricht, E-Mail-Adresse und Telefonnummer speichert. Daraus entsteht ein eigenes soziales Netzwerk, das jederzeit auch mit heuristischen Abfragen zu Rate gezogen werden kann, wenn die gewünschten Daten im lokalen Cache nicht vorhanden sind.

Eine Textverarbeitung des Web 2.0 wird kollaboratives Schreiben á la Wiki unterstützen, nicht nur Standalone-Dokumente. Ebenso müssten die von gewöhnlichen Textverarbeitungen bekannten Formatierungsmöglichkeiten gegeben sein. Writely ist ein gutes Beispiel hierfür, auch wenn sich seine Verbreitung bislang eher in Grenzen hält.

Das Web 2.0 muss nicht auf PC-Anwendungen beschränkt bleiben. Salesforce.com zeigt, wie das Web auch für klassische Unternehmenssoftware genutzt werden kann, z.B. für das Customer Relationship Management.

Die Chance für neue Markteinsteiger liegt darin, das gesamte Potential von Web 2.0 auszuschöpfen. Erfolgreiche Unternehmen erstellen Anwendungen, die von ihren Benutzern lernen, um einen entscheidenden Vorteil zu haben. Nicht nur in der Benutzeroberfläche, sondern vor allem im Wert der gemeinschaftlich erzeugten Daten.


Quelle: http://www.oreilly.de/artikel/web20_trans.html