Ich finde das Web heute nicht mehr schön

  • Vorwort

    Ich bin nicht davon ausgegangen, dass die Schilderung meiner Ansichten derartige Ausmaße annimmt. Das zeigt aber, wie schwerwiegend und kontrovers dieses Thema doch eigentlich ist und wie sehr es mich beschäftigt. Daher gibt es auch kein TL;DR, denn ich bin der Meinung, dass ich alles interessant genug geschrieben habe, um die Aufmerksamkeit all derjenigen aufrecht erhalten zu können, von denen ich ein qualifiziertes Feedback erwarten kann.

    Das Leitmotiv lautet:
    Ich finde das Web heute nicht mehr schön.

    Und ich möchte zugleich zum besseren Verständnis ergänzen: Es geht mir hierbei nicht um die historisch berühmt gewordene Vergewaltigung der HTML-Semantik, wie sie vor 15 Jahren entweder zugunsten einer besseren Darstellung in Browsern, die dank ihrer weiten Verbreitung auch ihre Schwächen weit verbreiteten oder durch fragwürdige WYSIWYG-Philosophie verbreitende HTML-Editoren, geschehen ist.      Ich finde es angenehm, dass die Rückbesinnung auf schönes (d.h. semantisch korrektes) Markup erfolgreich war.

    Was mir am Web heute nicht mehr gefällt, sind zum größten Teil all die sonstigen technischen Veränderungen und Neuerungen, die die Web-2.0-Avantgarde mit sich gebracht hat. Und wenn ich durch einige meiner abbonierten, sich intensiv mit der Frage nach dem Nutzen/Komfort-Verhältnis gegenwärtiger Konzepte der digitalen Kommunikation beschäftigenden Blogs lese, bemerke ich, dass ich nicht der einzige bin, der dahingehend seine Zweifel hegt.

    Lasst mich etwas ausholen

    Ich vertrete folgende These: Je einfacher die Zielidee eines Konzepts, desto höher ist seine Gefahr zur Entartung. Es folgt ein kleiner Ausflug in die Welt der E-Mails: User A verfasst Text, sagt ›Fertig!‹, User B bekommt Text. Das ist an sich eine einfache Aufgabe. Das konnten wir schon vorm digitalen Zeitalter, im 19. Jahrhundert mithilfe von Stromimpulsen. Lasst uns einen Telegraphisten von damals in die Gegenwart holen und uns darüber amüsieren, dass ihm beim Anblick des Header-Overheads und des HTML-Markups unserer E-Mails sofort alle Haare ausfallen … und danach vielleicht auch sein zentrales Pumporgan. Was er zu Lebzeiten nicht mehr erfahren wird: Wir können es uns doch leisten, wir haben schließlich Bandbreite. Nun mag der ein oder andere meinen: Ob eine Mail nun 500 Bytes oder 8 KBytes belegt, kann doch egal sein. Ich hab ausreichend Speicher und ob ich 50,1 oder 50,4 Millisekunden (Latenz plus Übertragungsdauer) auf den Empfang warte, ist ebenso unerheblich. Doch spätestens wenn wir von einem Mailserver in professionellem Umfeld z.B. in einem kleinen Betrieb reden, dann ist es schon erheblich, ob ein Speicher schon nach drei Monaten oder erst nach vier Jahren voll ist … oder eine Datensicherung zehn Minuten oder über zweieinhalb Stunden dauert.

    Es geht mir aber nicht allein um Performance und Traffic und ökonomischem Umgang mit Ressourcen. Die ganzen Metadaten einer E-Mail waren ursprünglich mal so kurz und knapp und einfach, dass man sie problemlos zusammen mit der E-Mail auf dem Sichtgerät anzeigen konnte: From, To, Subject, Date usw. Mittlerweile müssen die Header geparst werden, das Wichtigste wird angezeigt, weniger Wichtiges irgendwo in einem Informationsdialogfenster im MUA versteckt und einiges fällt unter den Tisch. Wir sind also an einem Punkt angekommen, an dem wir die relevanten Informationen aus den uns gesendeten Daten herausfischen müssen und MUAs zu fuzzy-logischen Interpretern geworden sind, weil wir unsere Informationen in immer weitere Wrapper der Komplexität einbinden.

    Im Web geht’s weiter … sehr viel weiter

    HTTP ist eigentlich ein geniales Protokoll. Es gibt eine Handvoll Anweisungen, mit GET holt man sich eine Datei oder besser gesagt: Der Browser holt sich mit GET eine idealerweise mittels HTML ausgezeichnete Datei, interpretiert diese und stellt den Inhalt dar. Mehr braucht man zur Informationsgewinnung im Web prinzipiell auch nicht. Doch die Praxis sieht mittlerweile ähnlich aus wie bei der E-Mail.

    Dazu kommt: Heutzutage lädt ein Browser nicht mehr nur ein einziges Dokument, sondern außerdem: Bilder, Stylesheets, Skripte, Schriften, Flash und alles, was notwendig ist, damit die angefragte Information genau so angeboten wird und funktioniert, wie der Anbieter/Entwickler/Webdesigner dies beim Endbenutzer wünscht. Für den Erhalt der angefragten Informationen tatsächlich notwendig ist dabei oft nur ein einziger Request, nämlich der erste auf das eigentliche HTML-Dokument. Stattdessen werden heute mitunter Requests im zwei- oder gar dreistelligen Bereich zum Webserver gefeuert. Und all das, weil man das Wetter von morgen wissen wollte, was sich durchaus innerhalb eines halben KByte Information darstellen ließe.

    Verzichtet man auf alles, was das Web im letzten Jahrzehnt zu einer Eierlegende-Wollmilchsau-Technologie gemacht hat, ist man mittlerweile, nun ja, aufgeschmissen. Ein Browser ist auch schon lange nicht mehr der kleine, einfache HTML-Betrachter, sondern eine Parallelwelt neben dem Betriebssystem. Idealerweise braucht er mittlerweile sogar GPU-Unterstützung.

    Bitte versteht mich nicht falsch. Ich bin nicht zwingend ein Gegner von neuen oder mittlerweile längst etablierten Web-Technologien. Einige verfolgen durchaus noble Ziele. Ich liebe CSS für die ästhetische Aufbereitung von HTML und Bilder sind im Web ebenfalls durchaus nützlich und angebracht und es ist auch lächerlich, nach zwanzig Jahren noch über die Einführung von <img> zu lästern. Aber oftmals machen wir uns von einigen Techniken regelrecht abhängig. Das gilt insbesondere für JS, Ajax und Flash … und sogar für Cookies. Möchte man aber das Web in seiner ursprünglichen Form nutzen, ist man aufgeschmissen.

    Zu allem Übel kommt jetzt demnächst auch noch die Verwirklichung von HTTP 2.0, deren Proposals bislang lediglich auf Performance-Steigerung gebürstet sind. Das Problem an der Wurzel wird damit nicht beseitigt. Wozu auch? Die meisten sehen gar keins.

    Nur der Philosophie wegen auf den ganzen, neuen Komfort verzichten?

    Natürlich leisten die Möglichkeiten von jQuery und anderen JS-Bibliotheken und nachträglich nachgeladenen Inhalten einen gewissen Beitrag zur Usability im Web. Das ist ansich nichts Schlechtes. Aber hat denn jedes Skript immer gute Absichten? Vielleicht möchte ich nicht, dass mein Browser bei fast jeder Seite noch einen Request an einen Google-Server schickt, weil jQuery und Fonts dort zur Benutzung bereitstehen und der Seitenbetreiber dies nicht lokal bei sich hostet. Vielleicht möchte ich nicht, dass jede Seite ohne Nachfrage Cookies bei mir ablegt, um mich später wiederzuerkennen. Vielleicht möchte ich keine bunten Flash-Animationen, die mich auf kostengünstige Urlaube, Technikgeräte oder Schnellrestaurantangebote hinweisen.

    Über all dies muss man sich Gedanken machen. Oder zumindest macht man dies, wenn man weiß, was alles unter der Haube des Browser-Frontends vor sich geht und ein bisschen darauf Wert legt, wohin man seine Informationen überall hinsendet und was man dafür zurückbekommt. Bricht man alle Vorgänge auf das eigentliche Vorhaben ›Informationsaustausch‹ herunter, erscheint das alles doch ziemlich überflüssig.

    Vor einigen Jahren war das zum Teil noch einfacher, zumindest was JS angeht: Ein Skript wurde im Idealfall gerade mal für Eye Candy oder triviale, nicht die eigentlich Funktionsweise behindernde Geschichten eingesetzt. Eine globale Deaktivierung hatte daher nicht so weitreichende Konsequenzen wie heute. Auch das nachträgliche Nachladen von Inhalten durch Skripte war weitaus weniger verbreitet. Mittlerweile gibt es Seiten, die nur eine ganz grobe, informationslose Struktur (ähnlich einem leeren Blatt Papier) und erst anschließend über Ajax die eigentlich gewünschten Informationen laden. Pluspunkt jedoch an dieser Stelle: Vollkommen auf Flash basierende Websites sind längst auf dem absteigenden Ast (außer vielleicht bei Webmaster4you).

    Zum ausbrechenden Lemming werden

    Wie geht es jetzt also weiter? Ich werde jedenfalls demnächst mehr Zeit in die Suche nach APIs investieren, die genau die Informationen liefern, die ich wünsche und meine eigenen Clients bauen, d.h. einen Rückschritt in die Zeit wagen, als es für diverse Internetdienste noch dedizierte Software gab. Für Nachrichten und Blogs bin ich bereits dazu übergegangen, dass ich XML-Feeds über HTML-Seiten bevorzuge. Zwar wittern auch hier schon einige Seitenbetreiber die Morgenluft des Verpestens der Feeds mittels Werbung, aber das sind bislang Einzelfälle. Anonsten bleibt nach wie vor nur das Tweaken von Browsern und Black- und Whitelist-Verfeinerung von Browser-Erweiterungen wie NoScript und Adblock plus.

    Nachwort

    Teilweise inspiriert und in meinen Thesen deutlich unterstützt sah ich mich durch zwei Texte von Meillo, der das ganze Thema noch auf die gesellschaftliche Ebene (Ausstoßung, weil man sich gegen unnötige, bloatige oder unschöne Technologien weigert) erweitert – lesenswert!

    • • • – • – – • – –

  • zugegebenermaßen ist aber auch die code-vergewaltigung ala css html und sowas meer als verbesserungswürdig.

    Spoiler anzeigen

    wenn ihr mich fragt, bin ich für ein rollback auf die webstandards von 2005, das war kein getrolle, sondern mein vollkommender ernst.

    tYLfrPk.png
    Desktop 1: Selbstbau 2022 - Intel Core i9-12900K - AMD Radeon RX 7900 XTX - 64GB RAM - 4TB SSD - Arch Linux
    Desktop 2: Apple Mac Pro Early 2009 - 2x Intel Xeon X5690 - AMD Radeon RX 560 - 64GB RAM - 2TB SSD - macOS 15 Sequoia
    Notebook 1: Lenovo ThinkPad X13 G4 - AMD Ryzen 7 7840U - AMD Radeon 780M - 32GB RAM - 2TB SSD - Arch Linux
    Notebook 2: Apple MacBook Air Late 2020 - M1 Prozessor - 16GB RAM - 512GB SSD - macOS 15 Sequoia
    Homeserver: Intel Core i7-7700K - 64GB RAM - 10TB SSD, 80TB HDD - Arch Linux

    Meine IBM/Lenovo ThinkPads:

    Spoiler anzeigen

    Lenovo X13 G4 Yoga - i7-1345U - 16GB RAM - 256GB SSD - LTE - Windows 11 Enterprise
    Lenovo X390 Yoga - i7-8565U - 16GB RAM - 256GB SSD - LTE - Windows 10 Enterprise
    Lenovo Thinkpad T470 - i5-7300U - 32GB RAM - 2TB SSD - Arch Linux
    Lenovo X230 - i5-3320M - 16GB RAM - 128GB SSD - UMTS - Arch Linux
    Lenovo T400 - P8600 - 4GB RAM - 320GB SSD - UMTS - Windows 7
    Lenovo X200s - SL9600 - 8GB RAM - 128GB SSD - UMTS - Windows 7
    IBM T43 - Pentium M 2,26 GHz - 2GB RAM - 80GB HDD - Windows XP
    IBM T23 - Pentium iii 1 GHz - 256MB RAM - 10GB HDD - Windows 2000
    IBM 380XD - Pentium MMX 233 MHz - 96MB RAM - 3GB HDD - Windows 98SE
    IBM 760EL - Pentium 120 MHz - 32MB RAM - 2GB HDD - Windows 95C
    IBM 701CS - 486er - XXMB RAM - XXXXMB HDD - Windows 95

  • Haushalte mit einer 400 KBit-Leitung werden den Programmierern danken, dessen Webseite schlank gehalten ist.

    Ich hab die persönliche Erfahrung mit 400 KBit. Auf manchen Webseiten fühlt man sich ins Modemzeitalter zurückversetzt. Nächstes Jahr, wenn die in unseren Dorf die Dachstromständer wegmachen, soll angeblich Glasfaserkabel mit in jeden Haushalt kommen...

  • Das was heute AJAXifizierte Webseiten sind war früher eben eher Flash oder Java-Appletts *schauder*, aber aus Raider wurde auch mal Twix, und?
    okay da hat der Browser eine swf oder jar gezogen, statt x-fach css und diverse js, es sind wirklich mehr requests geworden, da stimm ich überein.

    Aber mal kontrovers dagegen gefragt: Warum willst du denn prinzipiell alles in Frage stellen? Ich hatte auch mal ne bekannte, die bei sich mit NoScript prinzipiell alles überall geblockt hat, mit der Konsequenz dass der ganze Krams vorn und hinten nicht mehr funktioniert hat, somit war auch nix gewonnen (außer dass man mehraufwand hat, bevor man im endeffekt doch wieder alles mögliche temporär zulässt).

  • Aber mal kontrovers dagegen gefragt: Warum willst du denn prinzipiell alles in Frage stellen?

    Ich sehe da drei hauptsächliche Punkte:

    Sicherheit

    Viele Techniken werden zu Lasten der Sicherheit oder Privatsphäre des Users missbraucht, z.B. JS und Cookies zum Wiedererkennen des Besuchers oder Auswertung des Nutzungsverhaltens. Nahezu jede nicht-triviale Website setzt heute Cookies ein, obwohl dies eigentlich nicht notwendig ist. Es werden Skripte benutzt, die nur zum Ziel haben, in jedweder Form den Zugriff auf die Website zu loggen und zusätzliche Informationen über den Benutzer zu ergattern. Es gibt kaum noch Websites, die nicht in irgendeiner Form mit Google zu tun haben. jQuery von den Google-Servern zu holen, dürfte da auf Platz eins stehen, dicht gefolgt von den von Google gehosteten Webfonts. Ich bin auch schon auf Webserver gestoßen, die mich komplett ausgrenzen, weil ich keinen User-Agent mitschicken möchte.

    Komplexität

    Ursprünglich einfache Konzepte zum Informationsaustausch werden so lange aufgebloatet, bis man den Überblick verliert und regelrecht darauf angewiesen ist, einen Client zu benutzen, der in irgendeiner Form versucht, aus dem Wirrwarr wieder etwas Konsumierbares zu machen. In der Theorie reicht ein GET an einen Webserver und ein Parser, der aus dem gewonnenen HTML eine formatierte Seite macht, die sogar in einem Text-Terminal darstellbar ist. In der Praxis kann man das vergessen. Und ja, ich benutze ELinks gern, das ist kein Witz. Ich mag das Browsen in der Konsole, weil dort alles das, was ich eigentlich gar nicht möchte, ohnehin nicht darstellbar ist.

    Mangelnder Komfort

    Beispiel: Ein Hauptgrund dafür, dass ich bislang von Tiling WMs, die mir eigentlich gefallen, zurückgewichen bin, ist die Tatsache, dass man sowieso das meiste im Browser macht und man diesen eigentlich nur im Vollbildmodus betreiben kann. Zumindest ist es meistens so, dass man Websites nicht oder nur eingeschränkt in einem 300 mal 300 Pixel großen Fenster betreiben kann, obwohl der Platz theoretisch ausrecht, um die benötigten Informationen darzustellen. Mittlerweile werden aber auch viele Websites im Zuge der Smartphone-Optimierung sehr responsiv gemacht, aber leider eben nicht alle.


    Ich hatte auch mal ne bekannte, die bei sich mit NoScript prinzipiell alles überall geblockt hat, mit der Konsequenz dass der ganze Krams vorn und hinten nicht mehr funktioniert hat, somit war auch nix gewonnen (außer dass man mehraufwand hat, bevor man im endeffekt doch wieder alles mögliche temporär zulässt).

    Das kann ich bestätigen. Dieses ›Wenn man die wichtigsten Dinge irgendwann auf der Whitelist hat, pegelt sich das dann schon ein‹ ist nach meinen bisherigen Erkenntnissen eher naiv als Realität. Es gibt immer noch einen großen Anteil an Websites, die man einmal und nie wieder besucht … und für diesen kurzen Ausflug verliert man erst einmal Zeit mit dem Skript-Erlauben. Aber ich möchte einmal behaupten, dass allein die Existenz/Notwendigkeit von Erweiterungen wie NoScript meine Ausführungen untermauern.

    • • • – • – – • – –


  • Aber ich möchte einmal behaupten, dass allein die Existenz/Notwendigkeit von Erweiterungen wie NoScript meine Ausführungen untermauern.


    Aus der Existenz die Notwendigkeit oder Validität abzuleiten finde ich jetzt etwas zu weit geschlossen. Ich leb ganz gut ohne NoScript und kann die Notwendigkeit insofern nicht bestätigen. Klar will man nich gern getrackt werden, etc., aber das kriegen auch weniger invasive tools wie Ghostery hin.

    Im Endeffekt weiß ich aber nicht so richtig, wogegen ich diskutieren soll. Klar du braust gerne mit elinks und findest zu viele Requests bloatig. Mir ist elinks wurst und die Requests fallen mir nicht auf. Ich könnte jetzt irgendwie failen herzuleiten, warum dein argument invalid ist, aber im Endeffekt läuft es einfach auf Geschmack hinaus, darüber zu streiten führt nur selten zu was...:traurig:


  • Aus der Existenz die Notwendigkeit oder Validität abzuleiten finde ich jetzt etwas zu weit geschlossen. Ich leb ganz gut ohne NoScript und kann die Notwendigkeit insofern nicht bestätigen. Klar will man nich gern getrackt werden, etc., aber das kriegen auch weniger invasive tools wie Ghostery hin.

    Im Endeffekt weiß ich aber nicht so richtig, wogegen ich diskutieren soll. Klar du braust gerne mit elinks und findest zu viele Requests bloatig. Mir ist elinks wurst und die Requests fallen mir nicht auf. Ich könnte jetzt irgendwie failen herzuleiten, warum dein argument invalid ist, aber im Endeffekt läuft es einfach auf Geschmack hinaus, darüber zu streiten führt nur selten zu was...:traurig:


    Thema ghostery http://m.heise.de/newsticker/mel…?from-classic=1


  • Sicherheit

    Komplexität

    Mangelnder Komfort


    Hauptsächlich der Punkt mit der Sicherheit sehe ich hier als wichtigstes Argument. Tracking überall nervt mich ohne Ende und blinkende Werbung die 50% des Bildschirminhalts füllen machen das Browsen zur Qual. Was mich fast noch mehr stört, ist dass der Grossteil der Internet-Nutzer völlig desinteressiert sind daran, ihre Privatsphäre zu beschützen oder zumindest zu wissen, was überhaupt hinter den Kulissen geschieht.
    Komplexität bei modernen Websites sehe ich nicht als Problem, schliesslich bietet diese Komplexität in den meisten Fällen irgend welche Funktionen, die das Browsen der Websites vereinfacht (Google Maps ohne JavaScript?). Dass diese Komplexität missbraucht werden kann, stimmt auch, aber das gilt für alles, was komplexer wird.
    Der Komfort ist im modernen Web m.E. grösser als früher. Gibt zwar auch genug Beispiele dafür, dass Design und Feature-itis den Komfort einer Website völlig gegen die Wand fahren, aber in der Regel werden moderne Websites komfortabler als alte. Dir geht's mehr um Kompatibilität, da kann ich dir schon zustimmen, aber ich denke dass der Aufwand, eine Website für 300x300er Auflösung fit zu machen, häufig doch etwas aus dem Rahmen fällt für die wenigen Nutzer, die das brauchen.
    Tiling-WM ist doch genau das, womit man die Vielzahl unterschiedlicher Websites sinnvoll verwenden kann? Da kannst du viel schneller wechseln zwischen einem grossen und einem kleinen Browser. Ich verwende selber "Winsplit Revolutions" auf meinem Desktop, damit ich meine Fenster viel schneller dort platzieren kann, wo ich sie haben will. Ist jetzt zwar nicht wirklich "tiling", aber nahe genug.


  • Aus der Existenz die Notwendigkeit oder Validität abzuleiten finde ich jetzt etwas zu weit geschlossen.

    Nein, das sollte jetzt auch auf keinen Fall allgemeingültig klingen, aber für diesen speziellen Fall trifft es zu.


    Im Endeffekt weiß ich aber nicht so richtig, wogegen ich diskutieren soll. Klar du braust gerne mit elinks und findest zu viele Requests bloatig. Mir ist elinks wurst und die Requests fallen mir nicht auf. Ich könnte jetzt irgendwie failen herzuleiten, warum dein argument invalid ist, aber im Endeffekt läuft es einfach auf Geschmack hinaus, darüber zu streiten führt nur selten zu was...:traurig:

    Hmm, ich bin mir nicht sicher, aber ich würde behaupten, es geht doch über Geschmack oder persönliche Vorlieben hinaus. Es ist eine Grundsatzdiskussion. Ich stelle die Frage: Wann hat man bei der stetigen Erweiterung einer Technologie den Punkt der Entartung des Urkonzepts erreicht?


    Hauptsächlich der Punkt mit der Sicherheit sehe ich hier als wichtigstes Argument. Tracking überall nervt mich ohne Ende und blinkende Werbung die 50% des Bildschirminhalts füllen machen das Browsen zur Qual. Was mich fast noch mehr stört, ist dass der Grossteil der Internet-Nutzer völlig desinteressiert sind daran, ihre Privatsphäre zu beschützen oder zumindest zu wissen, was überhaupt hinter den Kulissen geschieht.

    … und hinter den Kulissen blickt man mittlerweile auch gar nicht mehr so leicht durch, jedenfalls als Einsteiger, der willig ist, die Technologie zu verstehen, denn das Web ist heute längst nicht mehr reines HTTP und HTML und ein bisschen CSS und gut.


    Komplexität bei modernen Websites sehe ich nicht als Problem, schliesslich bietet diese Komplexität in den meisten Fällen irgend welche Funktionen, die das Browsen der Websites vereinfacht (Google Maps ohne JavaScript?). Dass diese Komplexität missbraucht werden kann, stimmt auch, aber das gilt für alles, was komplexer wird.
    Der Komfort ist im modernen Web m.E. grösser als früher. Gibt zwar auch genug Beispiele dafür, dass Design und Feature-itis den Komfort einer Website völlig gegen die Wand fahren, aber in der Regel werden moderne Websites komfortabler als alte.

    Komfort ist natürlich etwas Gutes, das ist keine Frage. Aber viele komforterweiternde Web-Techniken sind ›historisch gewachsen‹ in den vielen Jahren immer wieder dazugebastelt worden und ich will einmal behaupten, dass niemand das Web so wie es heute ist, nochmal erfinden würde.

    … aber ich denke dass der Aufwand, eine Website für 300x300er Auflösung fit zu machen, häufig doch etwas aus dem Rahmen fällt für die wenigen Nutzer, die das brauchen.

    Das ist ein gutes Beispiel. Oftmals schalte ich beim Lesen von Blogs das CSS vollkommen ab. Warum? Zum Beispiel weil mir ein min-width ein großes Browserfenster vorschreibt, damit bspw. noch vertikales Menü und Navi rechts und links neben den Inhalt passen. Auch hier gilt wieder: Ich finde CSS an sich eine tolle Sache. Aber in diesem Fall kann ich ohne CSS den Inhalt bequem in einem 300×300-Fenster lesen … ohne (!) dass der Webdesigner in die neuerdings so angesagte (und durchaus zu befürwortende) Responsive-Trickkiste greift.

    • • • – • – – • – –


  • Wann hat man bei der stetigen Erweiterung einer Technologie den Punkt der Entartung des Urkonzepts erreicht?

    wenn man das Web heute mit dem auf Tim's NeXT Cube vergleicht, ist das längst der Fall
    wenn ich mich zwischen beiden entscheiden müsste, würd ich natürlich trotzdem das heutige nehmen


    Aber viele komforterweiternde Web-Techniken sind ›historisch gewachsen‹ in den vielen Jahren immer wieder dazugebastelt worden und ich will einmal behaupten, dass niemand das Web so wie es heute ist, nochmal erfinden würde.

    hinterher ist man immer schlauer, das ist kein Geheimnis.
    das "historisch gewachsen" ist in techie-kreisen immer synonym zu lesen für "verkrusteter legacy-scheiß, bei dem aus kompatibilitätszwängen alles 5x so kompliziert ist wie es sein könnte". jo mag sein, dass das fürs web zutrifft. ehrlichgesagt bin ich sogar unfassbar glücklich darüber, kein webdeveloper zu sein, aber frontendkrams reizt mich eh nicht, anyway...
    ich würde trotzdem gern ne Lanze für das Web brechen, denn das Web in seiner heutigen Form wäre damals einfach nicht so entwickelt worden, weil sowohl die technischen, als auch die gesellschaftlichen gegebenheiten fehlten (ich behaupte einfach mal, dass so etwas wie soziale netzwerke vor 20 Jahren nicht möglich gewesen wär, selbst abgesehen von den technischen begrenzungen). Summa summarum: Das Web kommte nicht auf einen Schlag als wurf eines genialen Masterplans entstehen, sondern musste sich erst aus sich selbst weiterentwickeln. Dass diese Entwicklung auch ihre Schattenseiten hat ist klar, dass die Entwicklung heißt, dass es später nicht mehr so ist wie früher auch, nichts destotrotz ist das web eine der größten technologischen Errungenschaften der Menschheit.


  • das "historisch gewachsen" ist in techie-kreisen immer synonym zu lesen für "verkrusteter legacy-scheiß, bei dem aus kompatibilitätszwängen alles 5x so kompliziert ist wie es sein könnte". jo mag sein, dass das fürs web zutrifft.

    Nur ähnlich, aber nicht dasselbe … Das Web hat sich vom Fundament aus nach oben entwickelt und sehr umfangreiche Formen angenommen. Viele Dinge wären bereits am Fundament lösbar, aber dort gehen leider viele Dinge nicht so ›schön‹. Im Prinzip sind Websites heute Programme (oder neumodisch ›Apps‹), die das Fundament eigentlich nur noch so weit antasten, wie es notwendig ist, damit es funktioniert … übertrieben ausgedrückt (oder doch realistisch?).


    … nichts destotrotz ist das web eine der größten technologischen Errungenschaften der Menschheit.

    Natürlich, das steht außer Frage. Das Leben wäre auch für mich heute ohne Web undenkbar.

    Trotzdem möchte ich jetzt mal den Pessimisten spielen:

    »Was hat uns das Web für Vorteile gebracht? Informationsaustausch war vorher bereits im Usenet oder via BBS möglich. Datenaustausch ging mittels FTP oder Gopher. E-Mail funktioniert auch ohne Weboberfläche. Was noch bleibt, ist die Hypertext-Idee und die spielt ihre Vorteile sowieso nur bei Dokumentationen und Enzyklopädien aus. Überall sonst: nett, aber nicht zwingend notwendig oder revolutionär. Kurzum: Das Web kann so gut wie alles, was wir bereits hatten … nur bunter und mit Maus.«

    • • • – • – – • – –

  • Die Menschheit wächst auf eine andere Art zusammen als das es früher der Fall war. Dank Twitter, YT und Co. sind Informationen umd Neuigkeiten innerhalb von Sekunden rund um den Globus für fast jeden verfügbar.Das verändert natürlich auch unser Handeln, Denken, .... Ob das wirklich so gut ist, sei mal dahin gestellt. Und Dank Onlinewebbaukästen kann heute jeder Hans Wurst sich der Welt mitteilen. Kurz um, wir sind schon zu abhängig.


  • Dank Twitter, YT und Co. sind Informationen umd Neuigkeiten innerhalb von Sekunden rund um den Globus für fast jeden verfügbar.

    das meinte ich so nicht mal. wieviele freunde hast du denn tatsächlich in übersee, und wieviele deiner kontakte sind einfach aus der schule, von arbeit oder allgemein aus deiner gegend? dass wir durch das netz so viel internationaler geworden sind glaub ich fast nich...


  • Im Prinzip sind Websites heute Programme (oder neumodisch ›Apps‹), die das Fundament eigentlich nur noch so weit antasten, wie es notwendig ist, damit es funktioniert … übertrieben ausgedrückt (oder doch realistisch?).

    klar. die API kann man nicht brechen weil kompatibilität, also baut man was obendrauf


    »Was hat uns das Web für Vorteile gebracht? Informationsaustausch war vorher bereits im Usenet oder via BBS möglich. Datenaustausch ging mittels FTP oder Gopher. E-Mail funktioniert auch ohne Weboberfläche. Was noch bleibt, ist die Hypertext-Idee und die spielt ihre Vorteile sowieso nur bei Dokumentationen und Enzyklopädien aus. Überall sonst: nett, aber nicht zwingend notwendig oder revolutionär. Kurzum: Das Web kann so gut wie alles, was wir bereits hatten … nur bunter und mit Maus.«


    na vor allem einheitlicher und einfacher, und damit überhaupt erstmal für die große masse der leute erreichbar



    Gegenbeispiel: WHF


    wieviele Members hat das WHF denn außerhalb von DACH?
    jo ist nicht direkt die nachbarschaft, aber hier von einem globalen phänomen zu sprechen geht auch bisschen übers ziel hinaus

    Einmal editiert, zuletzt von oreissig (22. August 2014 um 15:25)

  • Dass wir hier regelmäßigen Kontakt mit Leuten aus ganz Deutschland, Österreich und der Schweiz haben, ist schon eine Form von Globalisierung, die durch das Netz geschaffen wurde.
    Enge Freunde in weiter entfernten Ländern hab ich selbst auch nicht, Bekannte mit denen ich regelmäßigen, themenbezogenen Kontakt habe, hingegen schon.

    Ich kann mich beispielsweise jedes Wochenende schön mit Leuten aus England, Belgien, den USA oder sonst wo über das aktuelle Fußball-Geschehen in deren Ligen und die internationalen Wettbewerbe unterhalten, und das ohne nennenswerte Anstrengungen unternehmen zu müssen.
    Das ist schon eine ziemlich coole Form von Globalisierung, die es ohne das Netz nicht geben würde.


  • wieviele Members hat das WHF denn außerhalb von DACH?
    jo ist nicht direkt die nachbarschaft, aber hier von einem globalen phänomen zu sprechen geht auch bisschen übers ziel hinaus

    Pointo desu: Du hättest die Leute ohne Internet nie kennen gelernt.

    Wenn's dir um die Sprachraumgrenze geht: Um Leute aus einem anderen Sprachraum kennen zu lernen braucht man halt erstmal eine gemeinsame Sprache (die dann alle Parteien komfortabel beherrschen), das funktioniert nicht alles von heute auf morgen.


  • Ich kann mich beispielsweise jedes Wochenende schön mit Leuten aus England, Belgien, den USA oder sonst wo über das aktuelle Fußball-Geschehen in deren Ligen und die internationalen Wettbewerbe unterhalten, und das ohne nennenswerte Anstrengungen unternehmen zu müssen.
    Das ist schon eine ziemlich coole Form von Globalisierung, die es ohne das Netz nicht geben würde.



    Wenn's dir um die Sprachraumgrenze geht: Um Leute aus einem anderen Sprachraum kennen zu lernen braucht man halt erstmal eine gemeinsame Sprache (die dann alle Parteien komfortabel beherrschen), das funktioniert nicht alles von heute auf morgen.


    klar, deswegen sag ich ja, dass die gesellschaft nur durch die kommunikationsmöglichkeiten nicht auch sofort international ist

Jetzt mitmachen!

Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!