Vorwort
Ich bin nicht davon ausgegangen, dass die Schilderung meiner Ansichten derartige Ausmaße annimmt. Das zeigt aber, wie schwerwiegend und kontrovers dieses Thema doch eigentlich ist und wie sehr es mich beschäftigt. Daher gibt es auch kein TL;DR, denn ich bin der Meinung, dass ich alles interessant genug geschrieben habe, um die Aufmerksamkeit all derjenigen aufrecht erhalten zu können, von denen ich ein qualifiziertes Feedback erwarten kann.
Das Leitmotiv lautet:
Ich finde das Web heute nicht mehr schön.
Und ich möchte zugleich zum besseren Verständnis ergänzen: Es geht mir hierbei nicht um die historisch berühmt gewordene Vergewaltigung der HTML-Semantik, wie sie vor 15 Jahren entweder zugunsten einer besseren Darstellung in Browsern, die dank ihrer weiten Verbreitung auch ihre Schwächen weit verbreiteten oder durch fragwürdige WYSIWYG-Philosophie verbreitende HTML-Editoren, geschehen ist. Ich finde es angenehm, dass die Rückbesinnung auf schönes (d.h. semantisch korrektes) Markup erfolgreich war.
Was mir am Web heute nicht mehr gefällt, sind zum größten Teil all die sonstigen technischen Veränderungen und Neuerungen, die die Web-2.0-Avantgarde mit sich gebracht hat. Und wenn ich durch einige meiner abbonierten, sich intensiv mit der Frage nach dem Nutzen/Komfort-Verhältnis gegenwärtiger Konzepte der digitalen Kommunikation beschäftigenden Blogs lese, bemerke ich, dass ich nicht der einzige bin, der dahingehend seine Zweifel hegt.
Lasst mich etwas ausholen
Ich vertrete folgende These: Je einfacher die Zielidee eines Konzepts, desto höher ist seine Gefahr zur Entartung. Es folgt ein kleiner Ausflug in die Welt der E-Mails: User A verfasst Text, sagt ›Fertig!‹, User B bekommt Text. Das ist an sich eine einfache Aufgabe. Das konnten wir schon vorm digitalen Zeitalter, im 19. Jahrhundert mithilfe von Stromimpulsen. Lasst uns einen Telegraphisten von damals in die Gegenwart holen und uns darüber amüsieren, dass ihm beim Anblick des Header-Overheads und des HTML-Markups unserer E-Mails sofort alle Haare ausfallen … und danach vielleicht auch sein zentrales Pumporgan. Was er zu Lebzeiten nicht mehr erfahren wird: Wir können es uns doch leisten, wir haben schließlich Bandbreite. Nun mag der ein oder andere meinen: Ob eine Mail nun 500 Bytes oder 8 KBytes belegt, kann doch egal sein. Ich hab ausreichend Speicher und ob ich 50,1 oder 50,4 Millisekunden (Latenz plus Übertragungsdauer) auf den Empfang warte, ist ebenso unerheblich. Doch spätestens wenn wir von einem Mailserver in professionellem Umfeld z.B. in einem kleinen Betrieb reden, dann ist es schon erheblich, ob ein Speicher schon nach drei Monaten oder erst nach vier Jahren voll ist … oder eine Datensicherung zehn Minuten oder über zweieinhalb Stunden dauert.
Es geht mir aber nicht allein um Performance und Traffic und ökonomischem Umgang mit Ressourcen. Die ganzen Metadaten einer E-Mail waren ursprünglich mal so kurz und knapp und einfach, dass man sie problemlos zusammen mit der E-Mail auf dem Sichtgerät anzeigen konnte: From, To, Subject, Date usw. Mittlerweile müssen die Header geparst werden, das Wichtigste wird angezeigt, weniger Wichtiges irgendwo in einem Informationsdialogfenster im MUA versteckt und einiges fällt unter den Tisch. Wir sind also an einem Punkt angekommen, an dem wir die relevanten Informationen aus den uns gesendeten Daten herausfischen müssen und MUAs zu fuzzy-logischen Interpretern geworden sind, weil wir unsere Informationen in immer weitere Wrapper der Komplexität einbinden.
Im Web geht’s weiter … sehr viel weiter
HTTP ist eigentlich ein geniales Protokoll. Es gibt eine Handvoll Anweisungen, mit
GET holt man sich eine Datei oder besser gesagt: Der Browser holt sich mit
GET eine idealerweise mittels HTML ausgezeichnete Datei, interpretiert diese und stellt den Inhalt dar. Mehr braucht man zur Informationsgewinnung im Web prinzipiell auch nicht. Doch die Praxis sieht mittlerweile ähnlich aus wie bei der E-Mail.
Dazu kommt: Heutzutage lädt ein Browser nicht mehr nur ein einziges Dokument, sondern außerdem: Bilder, Stylesheets, Skripte, Schriften, Flash und alles, was notwendig ist, damit die angefragte Information genau so angeboten wird und funktioniert, wie der Anbieter/Entwickler/Webdesigner dies beim Endbenutzer wünscht. Für den Erhalt der angefragten Informationen tatsächlich notwendig ist dabei oft nur ein einziger Request, nämlich der erste auf das eigentliche HTML-Dokument. Stattdessen werden heute mitunter Requests im zwei- oder gar dreistelligen Bereich zum Webserver gefeuert. Und all das, weil man das Wetter von morgen wissen wollte, was sich durchaus innerhalb eines halben KByte Information darstellen ließe.
Verzichtet man auf alles, was das Web im letzten Jahrzehnt zu einer Eierlegende-Wollmilchsau-Technologie gemacht hat, ist man mittlerweile, nun ja, aufgeschmissen. Ein Browser ist auch schon lange nicht mehr der kleine, einfache HTML-Betrachter, sondern eine Parallelwelt neben dem Betriebssystem. Idealerweise braucht er mittlerweile sogar GPU-Unterstützung.
Bitte versteht mich nicht falsch. Ich bin nicht zwingend ein Gegner von neuen oder mittlerweile längst etablierten Web-Technologien. Einige verfolgen durchaus noble Ziele. Ich liebe CSS für die ästhetische Aufbereitung von HTML und Bilder sind im Web ebenfalls durchaus nützlich und angebracht und es ist auch lächerlich, nach zwanzig Jahren noch über die Einführung von
<img> zu lästern. Aber oftmals machen wir uns von einigen Techniken regelrecht abhängig. Das gilt insbesondere für JS, Ajax und Flash … und sogar für Cookies. Möchte man aber das Web in seiner ursprünglichen Form nutzen, ist man aufgeschmissen.
Zu allem Übel kommt jetzt demnächst auch noch die Verwirklichung von HTTP 2.0, deren Proposals bislang lediglich auf Performance-Steigerung gebürstet sind. Das Problem an der Wurzel wird damit nicht beseitigt. Wozu auch? Die meisten sehen gar keins.
Nur der Philosophie wegen auf den ganzen, neuen Komfort verzichten?
Natürlich leisten die Möglichkeiten von jQuery und anderen JS-Bibliotheken und nachträglich nachgeladenen Inhalten einen gewissen Beitrag zur Usability im Web. Das ist ansich nichts Schlechtes. Aber hat denn jedes Skript immer gute Absichten? Vielleicht möchte ich nicht, dass mein Browser bei fast jeder Seite noch einen Request an einen Google-Server schickt, weil jQuery und Fonts dort zur Benutzung bereitstehen und der Seitenbetreiber dies nicht lokal bei sich hostet. Vielleicht möchte ich nicht, dass jede Seite ohne Nachfrage Cookies bei mir ablegt, um mich später wiederzuerkennen. Vielleicht möchte ich keine bunten Flash-Animationen, die mich auf kostengünstige Urlaube, Technikgeräte oder Schnellrestaurantangebote hinweisen.
Über all dies muss man sich Gedanken machen. Oder zumindest macht man dies, wenn man weiß, was alles unter der Haube des Browser-Frontends vor sich geht und ein bisschen darauf Wert legt, wohin man seine Informationen überall hinsendet und was man dafür zurückbekommt. Bricht man alle Vorgänge auf das eigentliche Vorhaben ›Informationsaustausch‹ herunter, erscheint das alles doch ziemlich überflüssig.
Vor einigen Jahren war das zum Teil noch einfacher, zumindest was JS angeht: Ein Skript wurde im Idealfall gerade mal für Eye Candy oder triviale, nicht die eigentlich Funktionsweise behindernde Geschichten eingesetzt. Eine globale Deaktivierung hatte daher nicht so weitreichende Konsequenzen wie heute. Auch das nachträgliche Nachladen von Inhalten durch Skripte war weitaus weniger verbreitet. Mittlerweile gibt es Seiten, die nur eine ganz grobe, informationslose Struktur (ähnlich einem leeren Blatt Papier) und erst anschließend über Ajax die eigentlich gewünschten Informationen laden. Pluspunkt jedoch an dieser Stelle: Vollkommen auf Flash basierende Websites sind längst auf dem absteigenden Ast (außer vielleicht bei Webmaster4you).
Zum ausbrechenden Lemming werden
Wie geht es jetzt also weiter? Ich werde jedenfalls demnächst mehr Zeit in die Suche nach APIs investieren, die genau die Informationen liefern, die ich wünsche und meine eigenen Clients bauen, d.h. einen Rückschritt in die Zeit wagen, als es für diverse Internetdienste noch dedizierte Software gab. Für Nachrichten und Blogs bin ich bereits dazu übergegangen, dass ich XML-Feeds über HTML-Seiten bevorzuge. Zwar wittern auch hier schon einige Seitenbetreiber die Morgenluft des Verpestens der Feeds mittels Werbung, aber das sind bislang Einzelfälle. Anonsten bleibt nach wie vor nur das Tweaken von Browsern und Black- und Whitelist-Verfeinerung von Browser-Erweiterungen wie NoScript und Adblock plus.
Nachwort
Teilweise inspiriert und in meinen Thesen deutlich unterstützt sah ich mich durch zwei Texte von Meillo, der das ganze Thema noch auf die gesellschaftliche Ebene (Ausstoßung, weil man sich gegen unnötige, bloatige oder unschöne Technologien weigert) erweitert – lesenswert!