Beiträge von s4ndwichMakeR

    Auja, ich liebe solche Threads (den inkorrekten Apostroph im Thread-Titel hingegen nicht).

    Ich beurteile das ganze aus der Sicht eines gewissen Liebhabers der Unix-Philosophie und zugegebenermaßen auch leicht bis mittelstark religiös anmutender Abneigung gegenüber Windows, das muss ich eingestehen.

    Insbesondere möchte ich auf das Config-Chaos eingehen. Ansich finde ich es ja nett, dass man unter Unix (Begriff hier allgemein stellvertretend für unixoide Systeme oder Linux-Distributionen) jede Software auch jenseits ihrer selbst mit einem Editor konfigurieren kann. Das schafft eine gewisse Einheitlichkeit. Diese hört aber bereits dann auf, wenn man feststellt, dass Software A ihre Konfiguration als ~/.foo ablegt, Software B als ~/.foorc, Software C ein eigenes Directory erstellt und Software D lieber irgendwo unter ~/.config/… geht. Aber das ist ja noch nicht das Schlimste. Software A verwendet XML (z.B. Pidgin), Software B verwendet ein Variable=Wert-Paar und Software C benutzt C-ähnliche Syntax mit geschweiften Klammern (z.B. nginx). Als vierte Variante seien noch doppelpunktgetrennte Werte à la /etc/passwd oder /etc/group genannt.

    Diese Uneinheitlichkeit setzt sich auch als Nebenwirkung der Unix-Philosophie innerhalb der Software selbst fort. An sich ist es ja löblich, dass jede Software einen eigenen Zweck hat und ausschließlich diesen verfolgt. Oftmals ist man dadurch aber gezwungen, Software mit unterschiedlicher, also uneinheitlicher Bedienung zu benutzen – von unterschiedlicher Handhabung von Kommandoparametern bis hin zu uneinheitlichen Keyboard-Shortcuts in curses-Anwendungen. Manchmal gibt es --parameter mit einer zusätzlichen Abkürzung -p, manchmal aber auch -parameter oder in Anlehnung an tar einfach nur einen einzigen Buchstaben. Manche curses-Anwendungen mögen einen Buchstabentastendruck, manche möchten über F-Tasten gesteuert werden und wieder andere wollen eine Strg-Kombination.

    Zum Softwareverwaltungsproblem: Wer ist modularer? Windows speichert eine Software mit ihren Bestandteilen an einem zentralen Punkt unter C:\Program Files. Unix flechtet die Software ins System ein. Tatsächlich hat die Windows-Lösung einen gewissen Reiz: Gehe ich in ein Unterverzeichnis unter C:\Program Files, weiß ich ganz genau ›Ich bin genau dort, wo alles ist, was mit der Software zu tun hat‹ und sehe die einzelnen Bestandteile und kann auch die Größe der Software beurteilen. Der Unix-Ansatz macht einen Paketmanager (insbesondere in Zeiten von Shared Libraries) unabdingbar. Man kann ihn als Hilfsmittel zur Softwareverwaltung sehen, aber auch als Versuch, irgendwie den Überblick über die Bestandteile des Systems nicht zu verlieren, also genau das nachzubilden, was im Design eines Windows-Systems von Haus aus im Dateisystem implementiert ist. Ich weiß nicht, ob mein Paketmanager seinen Job so erledigt, wie ich das möchte. Ich hoffe einfach drauf. Genauso wie ich bei einer Deinstallation einer Software unter Windows darauf hoffe, dass wirklich alle Spuren an allen Stellen beseitigt sind, denn dort wiederum entstehen mitunter Hinterlassenschaften in der Registry, im Startmenü und vielleicht noch an anderen Orten. Also eigentlich nimmt sich da nicht viel, oder?

    Wie Benjamin schon sagte: Es kommt drauf an, was du vorhast. Hast du dir die Kiste vorgenommen, um erste (!) Linux-Kenntnisse zu sammeln oder arbeitest du nebenher schon mit Linux und willst nur ein separates Bastelsystem?

    Ich kenne deinen Kenntnisstand nicht. Wenn du ein Neuling bist, würde ich sagen: Das System ist egal. Nimm dir ein altes Unix-Buch und lern erstmal den Umgang mit der Shell und die Unix-Eigenheiten, denn dies ist fast überall das Gleiche. Ich habe zwei gute Unix-Bücher. Da du ortsansässig bist, kann ich sie dir gern leihen.

    Ansonsten: Ich nehme immer gern Slackware zum Basteln und Experimentieren. Über dem Tellerrand gibt es auch noch nette Geschichte wie Plan 9 (exotisch!) oder eigene NetBSD-Kernels bauen.


    das "historisch gewachsen" ist in techie-kreisen immer synonym zu lesen für "verkrusteter legacy-scheiß, bei dem aus kompatibilitätszwängen alles 5x so kompliziert ist wie es sein könnte". jo mag sein, dass das fürs web zutrifft.

    Nur ähnlich, aber nicht dasselbe … Das Web hat sich vom Fundament aus nach oben entwickelt und sehr umfangreiche Formen angenommen. Viele Dinge wären bereits am Fundament lösbar, aber dort gehen leider viele Dinge nicht so ›schön‹. Im Prinzip sind Websites heute Programme (oder neumodisch ›Apps‹), die das Fundament eigentlich nur noch so weit antasten, wie es notwendig ist, damit es funktioniert … übertrieben ausgedrückt (oder doch realistisch?).


    … nichts destotrotz ist das web eine der größten technologischen Errungenschaften der Menschheit.

    Natürlich, das steht außer Frage. Das Leben wäre auch für mich heute ohne Web undenkbar.

    Trotzdem möchte ich jetzt mal den Pessimisten spielen:

    »Was hat uns das Web für Vorteile gebracht? Informationsaustausch war vorher bereits im Usenet oder via BBS möglich. Datenaustausch ging mittels FTP oder Gopher. E-Mail funktioniert auch ohne Weboberfläche. Was noch bleibt, ist die Hypertext-Idee und die spielt ihre Vorteile sowieso nur bei Dokumentationen und Enzyklopädien aus. Überall sonst: nett, aber nicht zwingend notwendig oder revolutionär. Kurzum: Das Web kann so gut wie alles, was wir bereits hatten … nur bunter und mit Maus.«


    Aus der Existenz die Notwendigkeit oder Validität abzuleiten finde ich jetzt etwas zu weit geschlossen.

    Nein, das sollte jetzt auch auf keinen Fall allgemeingültig klingen, aber für diesen speziellen Fall trifft es zu.


    Im Endeffekt weiß ich aber nicht so richtig, wogegen ich diskutieren soll. Klar du braust gerne mit elinks und findest zu viele Requests bloatig. Mir ist elinks wurst und die Requests fallen mir nicht auf. Ich könnte jetzt irgendwie failen herzuleiten, warum dein argument invalid ist, aber im Endeffekt läuft es einfach auf Geschmack hinaus, darüber zu streiten führt nur selten zu was...:traurig:

    Hmm, ich bin mir nicht sicher, aber ich würde behaupten, es geht doch über Geschmack oder persönliche Vorlieben hinaus. Es ist eine Grundsatzdiskussion. Ich stelle die Frage: Wann hat man bei der stetigen Erweiterung einer Technologie den Punkt der Entartung des Urkonzepts erreicht?


    Hauptsächlich der Punkt mit der Sicherheit sehe ich hier als wichtigstes Argument. Tracking überall nervt mich ohne Ende und blinkende Werbung die 50% des Bildschirminhalts füllen machen das Browsen zur Qual. Was mich fast noch mehr stört, ist dass der Grossteil der Internet-Nutzer völlig desinteressiert sind daran, ihre Privatsphäre zu beschützen oder zumindest zu wissen, was überhaupt hinter den Kulissen geschieht.

    … und hinter den Kulissen blickt man mittlerweile auch gar nicht mehr so leicht durch, jedenfalls als Einsteiger, der willig ist, die Technologie zu verstehen, denn das Web ist heute längst nicht mehr reines HTTP und HTML und ein bisschen CSS und gut.


    Komplexität bei modernen Websites sehe ich nicht als Problem, schliesslich bietet diese Komplexität in den meisten Fällen irgend welche Funktionen, die das Browsen der Websites vereinfacht (Google Maps ohne JavaScript?). Dass diese Komplexität missbraucht werden kann, stimmt auch, aber das gilt für alles, was komplexer wird.
    Der Komfort ist im modernen Web m.E. grösser als früher. Gibt zwar auch genug Beispiele dafür, dass Design und Feature-itis den Komfort einer Website völlig gegen die Wand fahren, aber in der Regel werden moderne Websites komfortabler als alte.

    Komfort ist natürlich etwas Gutes, das ist keine Frage. Aber viele komforterweiternde Web-Techniken sind ›historisch gewachsen‹ in den vielen Jahren immer wieder dazugebastelt worden und ich will einmal behaupten, dass niemand das Web so wie es heute ist, nochmal erfinden würde.

    … aber ich denke dass der Aufwand, eine Website für 300x300er Auflösung fit zu machen, häufig doch etwas aus dem Rahmen fällt für die wenigen Nutzer, die das brauchen.

    Das ist ein gutes Beispiel. Oftmals schalte ich beim Lesen von Blogs das CSS vollkommen ab. Warum? Zum Beispiel weil mir ein min-width ein großes Browserfenster vorschreibt, damit bspw. noch vertikales Menü und Navi rechts und links neben den Inhalt passen. Auch hier gilt wieder: Ich finde CSS an sich eine tolle Sache. Aber in diesem Fall kann ich ohne CSS den Inhalt bequem in einem 300×300-Fenster lesen … ohne (!) dass der Webdesigner in die neuerdings so angesagte (und durchaus zu befürwortende) Responsive-Trickkiste greift.

    Aber mal kontrovers dagegen gefragt: Warum willst du denn prinzipiell alles in Frage stellen?

    Ich sehe da drei hauptsächliche Punkte:

    Sicherheit

    Viele Techniken werden zu Lasten der Sicherheit oder Privatsphäre des Users missbraucht, z.B. JS und Cookies zum Wiedererkennen des Besuchers oder Auswertung des Nutzungsverhaltens. Nahezu jede nicht-triviale Website setzt heute Cookies ein, obwohl dies eigentlich nicht notwendig ist. Es werden Skripte benutzt, die nur zum Ziel haben, in jedweder Form den Zugriff auf die Website zu loggen und zusätzliche Informationen über den Benutzer zu ergattern. Es gibt kaum noch Websites, die nicht in irgendeiner Form mit Google zu tun haben. jQuery von den Google-Servern zu holen, dürfte da auf Platz eins stehen, dicht gefolgt von den von Google gehosteten Webfonts. Ich bin auch schon auf Webserver gestoßen, die mich komplett ausgrenzen, weil ich keinen User-Agent mitschicken möchte.

    Komplexität

    Ursprünglich einfache Konzepte zum Informationsaustausch werden so lange aufgebloatet, bis man den Überblick verliert und regelrecht darauf angewiesen ist, einen Client zu benutzen, der in irgendeiner Form versucht, aus dem Wirrwarr wieder etwas Konsumierbares zu machen. In der Theorie reicht ein GET an einen Webserver und ein Parser, der aus dem gewonnenen HTML eine formatierte Seite macht, die sogar in einem Text-Terminal darstellbar ist. In der Praxis kann man das vergessen. Und ja, ich benutze ELinks gern, das ist kein Witz. Ich mag das Browsen in der Konsole, weil dort alles das, was ich eigentlich gar nicht möchte, ohnehin nicht darstellbar ist.

    Mangelnder Komfort

    Beispiel: Ein Hauptgrund dafür, dass ich bislang von Tiling WMs, die mir eigentlich gefallen, zurückgewichen bin, ist die Tatsache, dass man sowieso das meiste im Browser macht und man diesen eigentlich nur im Vollbildmodus betreiben kann. Zumindest ist es meistens so, dass man Websites nicht oder nur eingeschränkt in einem 300 mal 300 Pixel großen Fenster betreiben kann, obwohl der Platz theoretisch ausrecht, um die benötigten Informationen darzustellen. Mittlerweile werden aber auch viele Websites im Zuge der Smartphone-Optimierung sehr responsiv gemacht, aber leider eben nicht alle.


    Ich hatte auch mal ne bekannte, die bei sich mit NoScript prinzipiell alles überall geblockt hat, mit der Konsequenz dass der ganze Krams vorn und hinten nicht mehr funktioniert hat, somit war auch nix gewonnen (außer dass man mehraufwand hat, bevor man im endeffekt doch wieder alles mögliche temporär zulässt).

    Das kann ich bestätigen. Dieses ›Wenn man die wichtigsten Dinge irgendwann auf der Whitelist hat, pegelt sich das dann schon ein‹ ist nach meinen bisherigen Erkenntnissen eher naiv als Realität. Es gibt immer noch einen großen Anteil an Websites, die man einmal und nie wieder besucht … und für diesen kurzen Ausflug verliert man erst einmal Zeit mit dem Skript-Erlauben. Aber ich möchte einmal behaupten, dass allein die Existenz/Notwendigkeit von Erweiterungen wie NoScript meine Ausführungen untermauern.

    Vorwort

    Ich bin nicht davon ausgegangen, dass die Schilderung meiner Ansichten derartige Ausmaße annimmt. Das zeigt aber, wie schwerwiegend und kontrovers dieses Thema doch eigentlich ist und wie sehr es mich beschäftigt. Daher gibt es auch kein TL;DR, denn ich bin der Meinung, dass ich alles interessant genug geschrieben habe, um die Aufmerksamkeit all derjenigen aufrecht erhalten zu können, von denen ich ein qualifiziertes Feedback erwarten kann.

    Das Leitmotiv lautet:
    Ich finde das Web heute nicht mehr schön.

    Und ich möchte zugleich zum besseren Verständnis ergänzen: Es geht mir hierbei nicht um die historisch berühmt gewordene Vergewaltigung der HTML-Semantik, wie sie vor 15 Jahren entweder zugunsten einer besseren Darstellung in Browsern, die dank ihrer weiten Verbreitung auch ihre Schwächen weit verbreiteten oder durch fragwürdige WYSIWYG-Philosophie verbreitende HTML-Editoren, geschehen ist.      Ich finde es angenehm, dass die Rückbesinnung auf schönes (d.h. semantisch korrektes) Markup erfolgreich war.

    Was mir am Web heute nicht mehr gefällt, sind zum größten Teil all die sonstigen technischen Veränderungen und Neuerungen, die die Web-2.0-Avantgarde mit sich gebracht hat. Und wenn ich durch einige meiner abbonierten, sich intensiv mit der Frage nach dem Nutzen/Komfort-Verhältnis gegenwärtiger Konzepte der digitalen Kommunikation beschäftigenden Blogs lese, bemerke ich, dass ich nicht der einzige bin, der dahingehend seine Zweifel hegt.

    Lasst mich etwas ausholen

    Ich vertrete folgende These: Je einfacher die Zielidee eines Konzepts, desto höher ist seine Gefahr zur Entartung. Es folgt ein kleiner Ausflug in die Welt der E-Mails: User A verfasst Text, sagt ›Fertig!‹, User B bekommt Text. Das ist an sich eine einfache Aufgabe. Das konnten wir schon vorm digitalen Zeitalter, im 19. Jahrhundert mithilfe von Stromimpulsen. Lasst uns einen Telegraphisten von damals in die Gegenwart holen und uns darüber amüsieren, dass ihm beim Anblick des Header-Overheads und des HTML-Markups unserer E-Mails sofort alle Haare ausfallen … und danach vielleicht auch sein zentrales Pumporgan. Was er zu Lebzeiten nicht mehr erfahren wird: Wir können es uns doch leisten, wir haben schließlich Bandbreite. Nun mag der ein oder andere meinen: Ob eine Mail nun 500 Bytes oder 8 KBytes belegt, kann doch egal sein. Ich hab ausreichend Speicher und ob ich 50,1 oder 50,4 Millisekunden (Latenz plus Übertragungsdauer) auf den Empfang warte, ist ebenso unerheblich. Doch spätestens wenn wir von einem Mailserver in professionellem Umfeld z.B. in einem kleinen Betrieb reden, dann ist es schon erheblich, ob ein Speicher schon nach drei Monaten oder erst nach vier Jahren voll ist … oder eine Datensicherung zehn Minuten oder über zweieinhalb Stunden dauert.

    Es geht mir aber nicht allein um Performance und Traffic und ökonomischem Umgang mit Ressourcen. Die ganzen Metadaten einer E-Mail waren ursprünglich mal so kurz und knapp und einfach, dass man sie problemlos zusammen mit der E-Mail auf dem Sichtgerät anzeigen konnte: From, To, Subject, Date usw. Mittlerweile müssen die Header geparst werden, das Wichtigste wird angezeigt, weniger Wichtiges irgendwo in einem Informationsdialogfenster im MUA versteckt und einiges fällt unter den Tisch. Wir sind also an einem Punkt angekommen, an dem wir die relevanten Informationen aus den uns gesendeten Daten herausfischen müssen und MUAs zu fuzzy-logischen Interpretern geworden sind, weil wir unsere Informationen in immer weitere Wrapper der Komplexität einbinden.

    Im Web geht’s weiter … sehr viel weiter

    HTTP ist eigentlich ein geniales Protokoll. Es gibt eine Handvoll Anweisungen, mit GET holt man sich eine Datei oder besser gesagt: Der Browser holt sich mit GET eine idealerweise mittels HTML ausgezeichnete Datei, interpretiert diese und stellt den Inhalt dar. Mehr braucht man zur Informationsgewinnung im Web prinzipiell auch nicht. Doch die Praxis sieht mittlerweile ähnlich aus wie bei der E-Mail.

    Dazu kommt: Heutzutage lädt ein Browser nicht mehr nur ein einziges Dokument, sondern außerdem: Bilder, Stylesheets, Skripte, Schriften, Flash und alles, was notwendig ist, damit die angefragte Information genau so angeboten wird und funktioniert, wie der Anbieter/Entwickler/Webdesigner dies beim Endbenutzer wünscht. Für den Erhalt der angefragten Informationen tatsächlich notwendig ist dabei oft nur ein einziger Request, nämlich der erste auf das eigentliche HTML-Dokument. Stattdessen werden heute mitunter Requests im zwei- oder gar dreistelligen Bereich zum Webserver gefeuert. Und all das, weil man das Wetter von morgen wissen wollte, was sich durchaus innerhalb eines halben KByte Information darstellen ließe.

    Verzichtet man auf alles, was das Web im letzten Jahrzehnt zu einer Eierlegende-Wollmilchsau-Technologie gemacht hat, ist man mittlerweile, nun ja, aufgeschmissen. Ein Browser ist auch schon lange nicht mehr der kleine, einfache HTML-Betrachter, sondern eine Parallelwelt neben dem Betriebssystem. Idealerweise braucht er mittlerweile sogar GPU-Unterstützung.

    Bitte versteht mich nicht falsch. Ich bin nicht zwingend ein Gegner von neuen oder mittlerweile längst etablierten Web-Technologien. Einige verfolgen durchaus noble Ziele. Ich liebe CSS für die ästhetische Aufbereitung von HTML und Bilder sind im Web ebenfalls durchaus nützlich und angebracht und es ist auch lächerlich, nach zwanzig Jahren noch über die Einführung von <img> zu lästern. Aber oftmals machen wir uns von einigen Techniken regelrecht abhängig. Das gilt insbesondere für JS, Ajax und Flash … und sogar für Cookies. Möchte man aber das Web in seiner ursprünglichen Form nutzen, ist man aufgeschmissen.

    Zu allem Übel kommt jetzt demnächst auch noch die Verwirklichung von HTTP 2.0, deren Proposals bislang lediglich auf Performance-Steigerung gebürstet sind. Das Problem an der Wurzel wird damit nicht beseitigt. Wozu auch? Die meisten sehen gar keins.

    Nur der Philosophie wegen auf den ganzen, neuen Komfort verzichten?

    Natürlich leisten die Möglichkeiten von jQuery und anderen JS-Bibliotheken und nachträglich nachgeladenen Inhalten einen gewissen Beitrag zur Usability im Web. Das ist ansich nichts Schlechtes. Aber hat denn jedes Skript immer gute Absichten? Vielleicht möchte ich nicht, dass mein Browser bei fast jeder Seite noch einen Request an einen Google-Server schickt, weil jQuery und Fonts dort zur Benutzung bereitstehen und der Seitenbetreiber dies nicht lokal bei sich hostet. Vielleicht möchte ich nicht, dass jede Seite ohne Nachfrage Cookies bei mir ablegt, um mich später wiederzuerkennen. Vielleicht möchte ich keine bunten Flash-Animationen, die mich auf kostengünstige Urlaube, Technikgeräte oder Schnellrestaurantangebote hinweisen.

    Über all dies muss man sich Gedanken machen. Oder zumindest macht man dies, wenn man weiß, was alles unter der Haube des Browser-Frontends vor sich geht und ein bisschen darauf Wert legt, wohin man seine Informationen überall hinsendet und was man dafür zurückbekommt. Bricht man alle Vorgänge auf das eigentliche Vorhaben ›Informationsaustausch‹ herunter, erscheint das alles doch ziemlich überflüssig.

    Vor einigen Jahren war das zum Teil noch einfacher, zumindest was JS angeht: Ein Skript wurde im Idealfall gerade mal für Eye Candy oder triviale, nicht die eigentlich Funktionsweise behindernde Geschichten eingesetzt. Eine globale Deaktivierung hatte daher nicht so weitreichende Konsequenzen wie heute. Auch das nachträgliche Nachladen von Inhalten durch Skripte war weitaus weniger verbreitet. Mittlerweile gibt es Seiten, die nur eine ganz grobe, informationslose Struktur (ähnlich einem leeren Blatt Papier) und erst anschließend über Ajax die eigentlich gewünschten Informationen laden. Pluspunkt jedoch an dieser Stelle: Vollkommen auf Flash basierende Websites sind längst auf dem absteigenden Ast (außer vielleicht bei Webmaster4you).

    Zum ausbrechenden Lemming werden

    Wie geht es jetzt also weiter? Ich werde jedenfalls demnächst mehr Zeit in die Suche nach APIs investieren, die genau die Informationen liefern, die ich wünsche und meine eigenen Clients bauen, d.h. einen Rückschritt in die Zeit wagen, als es für diverse Internetdienste noch dedizierte Software gab. Für Nachrichten und Blogs bin ich bereits dazu übergegangen, dass ich XML-Feeds über HTML-Seiten bevorzuge. Zwar wittern auch hier schon einige Seitenbetreiber die Morgenluft des Verpestens der Feeds mittels Werbung, aber das sind bislang Einzelfälle. Anonsten bleibt nach wie vor nur das Tweaken von Browsern und Black- und Whitelist-Verfeinerung von Browser-Erweiterungen wie NoScript und Adblock plus.

    Nachwort

    Teilweise inspiriert und in meinen Thesen deutlich unterstützt sah ich mich durch zwei Texte von Meillo, der das ganze Thema noch auf die gesellschaftliche Ebene (Ausstoßung, weil man sich gegen unnötige, bloatige oder unschöne Technologien weigert) erweitert – lesenswert!