Strict Standards: Non-static method OOArticle::getArticleById() should not be called statically, assuming $this from incompatible context in /var/www/web132/html/web2007/redaxo/include/classes/class.article.inc.php(455) : eval()'d code on line 44

Strict Standards: Non-static method OORedaxo::convertGeneratedArray() should not be called statically, assuming $this from incompatible context in /var/www/web132/html/web2007/redaxo/include/classes/class.ooarticle.inc.php on line 41
1

Einleitung - Von der Unmöglichkeit Web 2.0 zu definieren

„Web 2.0 ist ein Name, dem wir einen tief sitzenden, langfristigen Trend anhängen: Alles wird miteinander verknüpft. Das Internet wird zu einem Kleber, der alles verbindet, was wir anfassen.1“ Soweit Tim O´Reilly, der Inhaber des gleichnamigen Computerbuchverlages, Ende 2006 eher metaphorisch über Web 2.0.

Wie bei unzähligen Definitionsversuchen zuvor zeigte sich auch hier, dass der Begriff Web 2.0 am ehesten als eine vage Vorstellung eines veränderten Internets zu begreifen ist, der dabei kaum logisch sowie trennscharf darzulegen ist. Gerade das breite, zugleich auch sehr unterschiedliche Presse-Echo in der zweiten Hälfte des Jahres 2006 machte deutlich, dass das Internet in fast allen Lebensbereichen an Bedeutung gewonnen hat. Es ist dabei für viele Menschen ganz selbstverständlich ein Ort der Kommunikation, der Information, der Selbstdarstellung, des Konsums sowie der Unterhaltung geworden. Ein Versuch das Internet in wenigen Zeilen zu erläutern ist daher kaum mehr möglich, denn gerade innerhalb der letzten fünf Jahre hat sich bezüglich des Internets viel verändert.

Viele Artikel die sich im Laufe des Jahres 2006 mit Web 2.0 befassten, suggerierten es gäbe ein vermeintlich neues, vielleicht sogar besseres Internet. Anfangs wurde das Thema Web 2.0 nur in online-affinen Teilöffentlichkeiten diskutiert. Deren Artikel waren durch eine gewisse Stringenz und vergleichbare Internet-Ideologien der Autoren gekennzeichnet. So ist es rückblickend wenig überraschend, dass die Ideen eines Web 2.0 bis zum Sommer 2006 in vieler Hinsicht noch fassbarer als Anfang 2007 erschienen. Ein Diskurs über die Veränderungen des Internets fand zuvor lediglich in Nischen- und Fachmedien statt, die sich in immer mehr Artikeln mit diesem Thema auseinandersetzten. So erschien bereits im Dezember 2005 in der Zeitschrift De:Bug ein breit angelegtes Web 2.0-Spezial, welches bereits viele interessante Ansätze und Perspektiven aufwies2.

Insbesondere die Ausführungen der Autorin Mercedes Bunz erschienen einleuchtend. „Das Web2.0 (ist) ein Paradigma. Es geht darum, dass die User die Daten selbst in die Hand nehmen und diese Daten, hochgradig untereinander vernetzt, eine neue Qualität erreichen.3

Es folgte das Sommerloch 2006 und plötzlich zierte selbst das Cover der Wochenzeitschrift Spiegel ein Web 2.0-Titel: „Du bist das Netz!4“ In den folgenden Monaten machte dieses Thema fortan in fast allen Medien die Runde. So entstand die paradoxe Situation, dass unzählige Autoren ein neues Netz für sich entdeckten ohne es jedoch wirklich beschreiben zu können. Der vage Begriff Web 2.0 hatte sich zu einer Marke entwickelt, die zur Beschreibung vieler aktueller Entwicklungen des Internets genutzt wurde.5 Hierbei wurden fast alle signifikanten Neuerungen, die sich in den letzten Jahren mehr und zum Teil auch weniger erfolgreich durchgesetzt hatten, arglos unter Web 2.0 subsumiert.

Festzuhalten bleibt, dass die breite Medienresonanz sowie die steigende Zahl an wissenschaftlichen Publikationen zum Web 2.0 definitiv zeigt, das es an der Zeit ist, das Internet neu zu thematisieren. Das Internet hatte sich nach dem Zusammenbruch der New Economy im Jahr 2001, abseits von öffentlichen oder wissenschaftlichen Diskursen, weiter entwickelt und dabei viele Nutzer gewonnen. In vieler Hinsicht kann davon gesprochen werden, dass das Internet heutzutage zweifelsfrei ein Massenmedium ist.6 Viele jüngere Anwendungen zeichnen sich dadurch aus, dass sie im Browser integriert und dabei intuitiv bedienbar sind.7

So können sich auch neue Nutzer vermeintlich schnell im Netz zurechtfinden. Die Suchmaschine Google sowie das Internet-Lexikon Wikipedia ermöglichen es innerhalb weniger Sekunden spezifische Informationen zu gewinnen. Dank Google können auch Internetneulinge die vermeintlich richtigen Seiten im unübersichtlichen Cyberspace finden. Gerade Wikipedia festigte mit der Vielzahl an nutzergenerierten Einträgen den Mythos, dass die User das Netz zurück erobert hätten. In einer Gesellschaft in der zuvor Experten das Wissen bestimmten, hatten sich die Weltbürger ein Herz gefasst und mit Wikipedia die weltgrößte Enzyklopädie geschaffen.

Verfolgte man die Artikel über Weblogs, so vermochten die ehemals trägen Rezipienten über Nacht die vermeintlichen Produzenten der Zukunft geworden zu sein, die ganz nebenbei revolutionäre Beiträge publizierten. Diese seien ohnehin authentischer, schneller und voller Insiderwissen. Man konnte fast annehmen, im Web 2.0 hätte ein kollektives Lean-Forward eingesetzt. Einleuchtend mag insbesondere die Argumentation über den Wegfall der Zugangsbarrieren für die Produktion und Publikation von Inhalten sein. Für die Produktion sind insbesondere die Aspekte der Digitalisierung und der freien Software zu nennen. Ist das Ausgangsmaterial digital, bedarf es keiner unbezahlbaren Technik mehr und dank Open Source ist auch keine teure Software notwendig. Ein aktueller PC und ein Onlineanschluss bietet die notwendige technische Infrastruktur für den „Produzenten der Zukunft.“

Anzuführen wäre weiterhin, dass die Veröffentlichung eines Weblog-Eintrages unabhängig von redaktionellen Prozessen und Regeln möglich ist. Der Fakt, dass ein Weblog-Eintrag theoretisch an jedem Online-Rechner der Welt verfasst und gelesen werden kann, sagt allerdings wenig über seine tatsächliche Reichweite oder seine Qualität aus. Daher bedarf es bezüglich der nutzergenerierten Inhalte einer differenzierteren Betrachtung, die insbesondere auf die Formate Wiki und Weblog sowie deren Inhalte eingeht.

Die Entwicklungen des Internet verstehe ich hierbei als eine hochkomplexe sowie dynamische Evolution, die sich nicht analog zur Nomenklatur der Software-Welt in einer neuen Versions-Nummer festhalten lässt.8 Daher möchte ich bewusst von der Definition des Begriffes Web 2.0 absehen, denn eine trennscharfe Unterscheidung zwischen einem Web 1.0 und einem Web 2.0 ist nicht möglich, da das Netz in seiner Gesamtheit zu betrachten ist. Vielmehr bleibt festzuhalten, dass sich das Internet 2007 zwar deutlich von dem im Jahr 2001 oder gar 1991 unterscheidet, es daher folgerichtig ist die Differenzen heraus zu arbeiten. Es ist allerdings zweitrangig, ob man dem Netz einen neuen Namen oder eine neue Versionsnummer gibt, der zugleich suggeriert es gäbe ein Web 1.0 und ein Web 2.0.

Vielmehr werden die Rahmenbedingungen des gesamten Webs von vielen Produzenten und Rezipienten in einem komplexen Wechselverhältnis permanent neu ausgehandelt. Die Emanzipation des Users stellt eine entscheidende Zäsur in der Mediengeschichte und die Theorie von Öffentlichkeit dar. Für das Internet kann dabei nicht mehr anschaulich zwischen den Produzenten und Rezipienten der Technologien und Inhalte unterschieden werden kann. Diese Unterscheidung ist im Gegensatz dazu jedoch auch weiterhin für die klassischen Massenmedien möglich. Um nicht in einer Endlosschleife Argumente, die für und auch gegen den Begriff Web 2.0 sprechen über zwanzig Seiten oder mehr abzuwägen, habe ich mich dafür entschieden, dieser Arbeit einen eher deskriptiven Charakter zu geben, wobei aus meiner Perspektive wesentliche Entwicklungen in drei Kapiteln aufgezeigt werden. Die Ausarbeitung trägt dabei den kurzen Titel „Status Quo- Web 2.007“ Hierbei sollen auch wesentliche Aspekte, die in der Regel mit Web 2.0 in Verbindung gebracht werden, aufgegriffen werden. Mir ist durchaus bewusst, dass diese Arbeit den Rahmen einer normalen Seminarausarbeitung sprengt. Da mir allerdings auch eine umfassende Abhandlung am Herzen lag, musste ich mich für diese aufwändigere Variante entschieden.

Einführend möchte ich auf die Zugangsbedingungen zum Internet eingehen, sowie kurz aufzeigen wie dieses bislang genutzt wird. Im darauf folgendem Kapitel wird der Hauptaugenmerk auf die nutzergenerierten Inhalte gelegt, die immer mehr an Bedeutung gewinnen. Hierbei soll insbesondere auf die folgenden Fragen eingegangen werden: Wie funktionieren Wikis und Weblogs? Wie kann mit diesen relativ neuen Formaten umgegangen werden? Welche Auswirkungen hat diese Erweiterung der publizistischen Sphäre für die klassischen Massenmedien?

Weiterhin widmet sich die Arbeit im Kapitel vier den Sozialen Netzwerkportalen, die insbesondere im Jahr 2006 viele Nutzer generieren konnten. Hierbei soll insbesondere die These, dass die so genannte soziale Rückeroberung des Internets in vieler Hinsicht ein Ende der Privatsphäre bedeutet, untersucht werden. Als Beispiele sollen hierfür die populären Portale studiVZ und MySpace herangezogen werden um so erste Ansatzpunkte für eine strukturierte sowie kritische Auseinandersetzung mit diesen Social-Networking-Anwendungen zu ermöglichen. Bezüglich der einzelnen Kapitel habe ich mich bewusst dafür entschieden, wichtige Fakten und Thesen einführend voranzustellen um so eine gewisse Übersichtlichkeit zu ermöglichen, sowie wesentliche Aspekte für die Lektüre der Abschnitte aufzuzeigen.

1 Tim O´Reilly im Interview mit Spiegel Online: Christian Stöcker, 3D-Drucker werden unser Leben verändern, 30.Nov.2006, http://www.spiegel.de/netzwelt/web/0,1518,451248,00.html, letzter Zugriff: 11.04.2007.
2 Diverse Autoren: De:Bug-Elektronische Lebensaspekte, Nr. 98, 12.2005, S.40-49.
3 Mercedes Bunz, Wie ich Web 2.0 wurde ohne es zu wissen, In: De:Bug-Elektronische Lebensaspekte, Nr. 98, 12.2005, S.42.
4 Dossier: Web 2.0 - das neue Internet, In: DER SPIEGEL (29/2006)- 17.07.2006, S.60-69.
5 Der folgende Artikel war der Ausgangspunkt für den Web 2.0-Diskurs: Tim O'Reilly, What Is Web 2.0 - Design Patterns and Business Models for the Next Generation of Software, 30.09.2005, http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html, letzter Zugriff 30.01.2007.
6 Vgl. hierzu die Ausführungen unter 2.1.,S.8-13.
7 Dies wird vielfach als Rich User Experience bezeichnet. Heutzutage sind vielfältige Anwendungen innerhalb einer userfreundlichen Oberfläche des Browsers möglich, für die zuvor zusätzliche Software notwendig war. Ein Beispiel wäre gmail von Google. Die Webmailanwendung verwendet, Durch die Anwendung der AJAX-Technologie können dem Nutzer viele Funktionalitäten bereitstellt werden, die zuvor nur in einem zusätzlichen Mailprogramm denkbar waren.
8 Vgl. Tom Alby,Web 2.0 - Konzepte, Anwendungen, Technologien, Hanser Fachbuchverlag, 1. Auflage, München 2007, S.17-19.