Beiträge von oreissig


    Wenn die Entwickler weniger Zeit mit Hexaddressen von Bluescreens abtippen verbringen und sich mehr mit interessanteren Problemen beschäftigen, dann profitiert der User letztendlich auch davon.


    genau das ist der Kern meiner Argumentation: diese Art von Vorteilen find ich super. bei Hurd seh ich das aber nicht, dass die tiefergehendere Abstraktion sich in erhöhter Effektivität niederschlägt, im gegenteil die kämpfen seit äonen mit den trivialsten OS-aufgaben, die woanders längst gelöst sind. Da stell ich mir halt die Frage, ob das erhoffte Wunderwerkzeug vielleicht doch von anfang an ein totes Pferd war.

    Dass das zur Steuerung von Mobilfunkchips super funktioniert ist schön und gut, aber vielleicht hat ein Desktop-OS doch andere Anforderungen.



    Ist bisschen wie bei Serverprogrammierung, das ist auch ganz grundlegend was anderes als GUI-Apps zu schreiben. Für das eine ist Java nach wie vor alive and kicking, beim anderen ists zurecht in der Versenkung verschwunden.


    Ich verweise hier wie immer darauf, dass die ganzen Android-Services mit Binder eine Mikrokernel-Architektur parallel zum Linux-Kernel aufgebaut haben; und dass mit systemd/kdbus auch Desktop-Linux in Zukunft in die Richtung gehen wird.

    das ist aber auf dem makrolevel. man könnte auch argumentieren, dass das kein microkernel auf userlandebene ist, sondern Single Machine SOA, nur um mal nen anderes Buzzword zu pullen ;) Abstraktionen auf Basis lose gekoppelter Einheiten gibts überall und das ist schon prinzipiell eine gute Idee, aber der benefit ist für die daran schraubenden Developer eigentlich größer als die Auswirkungen, die man als User so merkt.


    Das Nutzen-Argument finde ich ist halt auch nicht so einfach. Klar ist es dem User egal ob das jetzt nen Mikrokernel ist oder nicht, wie es damals auch den Usern unter MS-DOS oder MacOS egal war, dass sie keine Trennung zwischen Prozessen haben. Ich glaube die User fändens trotzdem sehr cool wenn nen buggy USB-Treiber mir nicht den kompletten Kernel hijackt.

    ja aber wie häufig kommt denn das vor? Man wechselt seine Treiberlandschaft nicht so oft, gerade bei den ganzen embedded systems (das schließt explizit alle Smartphones und Tablets ein) wird die gesamtmenge der Treiber sogar händisch zusammengestellt und verifiziert. Treiber in User Space sind halt vor allem geil, wenn man selbst Treiberentwickler ist, aber sonst?


    Der modulare, abgekapselte, simpel gehaltene Aufbau vom Unix-Userspace passt nicht so recht mit einem monolithischen Kernel zusammen. Mikrokernel gehen viel besser mit der Unix-Philosophie zusammen.


    Der Unix-Userspace ist so gemacht, um dem User die Flexibilität in seiner täglichen Arbeit zu geben. Mit dem Kernel arbeitet nie irgendjemand direkt zusammen, insofern ist die interne Struktur des Kernels in etwa so wichtig wie die interne Implementierung von bash oder gcc. Nämlich gar nicht.

    Für den User wärs dann nett, wenn sich aus der besseren Struktur des Kernels handfeste vorteile ergeben würden, z.B. dass das Ding stabiler ist und die Entwicklung wegen der besseren Komponentisierung womöglich schneller wäre, aber GNU Hurd ist nach wie vor auf dem Stand von Linux 2.0 oder so, und instabilität des Linuxkernels ist von allen Problemen im Umfeld freier Software das kleinste.

    Kurzum: Microkernel versuchen mit viel overhead ein Problem zu lösen, was nicht existiert.

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    die performance wird wenn dann nur beim schreiben schlechter, und das macht man als consumer ja nicht so wirklich extensiv
    ich denke dass TRIM aber auch ne sache der lebensdauer ist, mit mehr platz zum haushalten funktioniert das wear leveling besser


    [list]
    [*]Plattformunabhängige Anwendung mit QT: Läuft unter Windows, Mac und Linux. Daher volle Flexibilität beim wechseln.


    Das Problem ist doch nicht das UI-Framework, sondern dass die software krude geschrieben ist. Wenn du irgendwelche obskure Scheiße in Qt3 machst wirst du beim upgraden auf Qt5 genau so in Probleme laufen. Ist ja nicht so, dass die freien Softwarestacks für überragende Binärkompatibilität bekannt sind...

    Aber mal ehrlich: Vista ist jetzt bald 10 Jahre alt. Wenn diese Software bisher noch nicht auf was neuerem als XP läuft, wird sie das in den nächsten 10 Jahren auch nicht mehr tun.


    Dokumenteneinzug wird am Einsatzort nicht gebraucht, da auf dem "Flachbett" fast nur kopiert wird, das zwar immer wieder, aber meist nur ein oder zwei Blatt.

    selbst für ein Blatt finde ichs persönlich bequemer, und sobald man noch die Rückseite braucht oder ein 2. Blatt ist der Gewinn maximal, aber nagut dein Szenario kennst du natürlich besser


    Laut Oki (Produkt-Homepage) ist keine Linux-Unterstützung vorhanden, was ein Ausschlusskriterium darstellt. Die Basisfunktion (Drucken) bekommt man wohl über PCL6 hin, aber den Rest?


    es gibt wohl ne PPD Datei, aber wie weit dich das bringt weiß ich auch nicht


    Doof nur, dass es keine andere Tastatur mit exakt dem Layout und exakt den Tastenbelegungen gibt und für ihn die am besten zu verwenden ist.


    erinnert mich an

    natürlich kann man sich an irgendwelche obskuren nieschenlösungen binden, die vielleicht in einigen fällen ihre vorteile haben, aber dann hat man halt auch den ultimativen lock-in und früher oder später ist das geschreihe groß. dafür gibts nunmal standardisierte tastaturlayouts. kein mitleid von mir.


    Windows 7 ist aber zum Beispiel Mist, wenn es für eine bestimmte Tastatur (für die Arbeit mit Office optimiert) keine ordentlichen Treiber gibt.


    für jede Art von Hardware, die sich nicht mit generischen Treiber betreiben lässt gilt der selbe Lebenszyklus wie für Software auch: Das Ding muss halt früher oder später ersetzt werden, selbst wenn an der Hardware ansich noch nichts kaputt ist. So ist das nunmal.

    ich versteh nicht so recht, was du eigentlich bezwecken willst. freu dich doch einfach, dass der einfache hack geht. wenn microsoft wöllte, dass das geht, dann hätten sie das offiziell so gemacht ohne reghacks. und nur weil da irgendwer noch patches für irgendwas liefert heißt das natürlich nicht, dass das auf der selben stufe von "sicher" steht wie irgendwelche modernere software


    Diese ganzen Abhängigkeiten sind bspw. etwas, was mich bei Linux stört. Klar, unter Windows haste auch gemeinsam genutzte Bibliotheken, aber die schränken sich (zumindest nach meiner praktischen Erfahrung) bei Weitem nicht so sehr ein wie das unter Linux der Fall ist. Will ich da eine alte Software (die bspw. nicht mehr weiterentwickelt wird) installieren und es liegt keine passende Bibliothek vor, hab ich ein Problem.

    Sicherlich isses praktisch, wenn man Vielgenutztes nicht doppelt und dreifach vorliegen hat - aber bei heutigen Speichermöglichkeiten ist das kaum noch ein Argument - zumindest für den gewöhnlichen Anwender.

    da sind wir wieder bei meinem unix-rant


    Auch wenn neuere Versionen vllt. nicht so radikale Schnitte machen wie es bspw. bei der Oberfläche von MS Office 2003 zu 2007 getan wurde, kann man dennoch 'ne ältere Version besser finden. Man muss doch nicht zwingend immer alles toll finden, was an Änderungen getan wird.

    kannst du ja machen, die API ist wie gesagt halt der Quellcode und nicht die binäre library. Selber compiliert kannst du wild mixen wie es dir gefällt, aber das ist natürlich nicht gerade der heilige Gral der paketierung, verteilung und installation von software


    Die Linux-Welt ist kein Windows, wo tonnenweise Ballast mitgeschleppt wird, damit alte Programme auch ja in 10 Jahren noch auf dem aktuellsten Betriebssystem laufen und die neuen Programme auch noch auf dem alten Betriebssystem.


    Bei den unixartigen wird die Kompatibilität eben auf API-Ebene gemacht, d.h. man kann unterschiedliche Versionen gegeneinander compilieren lassen. Einmal compiliert, ist der binary blob ziemlich hart an seine Umgebung gebunden.

    Das hat bei dem ganzen Wust an freier Software aber auch überhaupt keinen Sinn. Warum willst du den Thunderbird von vor Jahren? Oder eine ganz offensichtlich exploitbare GTK+ oder so. Wenn es große Umwerfungen gibt (wie GNOME2 -> 3) werden eh beide versionen getrennt weitergeführt, da wird einem nicht plötzlich beim alltäglichen Paketmanagerlauf die Desktopumgebung unterm Arsch ausgewechselt.
    Freie Software wird einfach anders entwickelt als das bei Windows-Krams üblich ist. Da gibts keine großen Releases, zwischen denen viel Zeit liegt, die große Sprünge in ihrer Erscheinung machen und die jedes mal große Scheine sehen wollen. Stattdessen ist es ein konstanter Strom an kleinen Verbesserungen, zwischen denen man nur schwer eine linie ziehen kann (wie gesagt von so Sachen wie GNOME2->3 abgesehen, die ja aber sowieso nochmal anders sind)

    Der einzige Sinn, der mir dazu einfällt, wäre Retrocomputerei. Wenn man mal was für Solaris 2.3 braucht, dann muss man zwangsweise weiter zurückgehen, bis man was findet, was überhaupt durchbaut. In dem Falle muss man die Sourcen aber auch nicht selber horten, jedes ordentliche Open Source Projekt (bei GNU oder Apache oder sonstwo) hat selbst nen Archiv, wo man auch noch die sourcen zur 1.0 von vor 20 Jahren finden kann.


    Ich hab Internet Flat und Telefon/SMS bla und sülz alles mögliche Flat und LTE.


    Ich dachte du bist so anspruchslos und machst nur bissl Whatsapp und Email?

    Im Prinzip würde ich mich in ein ähnliches Nutzungsmuster einordnen, wenn man mal Facebook durch Twitter ersetzt, aber ich komm im Monat mit nem 10er hin (+350€ Anschaffung, die ich vermutlich über mehr als 24 Monate absetzen kann. selbst wenn man 350/24 draufschlägt, bin ich unter 25€)


    Was ist denn an win32 80er?


    Die gesamte Idee wie Programme ins System gelangen lässt einfach Struktur vermissen. Man kann seinen scheiß in jeden beliebigen Ordner installieren, außerdem landen noch Dateien im Startmenü und womöglich sogar noch irgendwelche dlls unter C:\Windows. Dazu noch die völlig unwartbare Hölle einer Registry. Dass man überhaupt custom installer braucht ist ein Problem, genau wie dass man Programme auch nur mit dem dazugehörigen Uninstaller wieder runterbekommt. So wie die Dateiverwaltung funktioniert, so setzt sich das bei der API fort. Ein Programm kann Gott und die Welt tun, sich in alle möglichen Stellen reinhooken, aber das macht einmal Microsoft die Weiterentwicklung zur Hölle und verzahnt aber auch Programme viel zu stark mit den Spezifika des Systems. An den Grundprinzipien des Windows-Anwendungsmodells hat sich ja seit 1.0 nichts groß geändert.


    Apple mag ich nicht, das einzig gute Produkt von denen ist meiner Meinung nach das iPhone
    und selbst da find ichs nur gut weil ich quasi 0 ansprüche hab außer eben Standartkram wie Facebook, Whats App, Email und Internt
    ab und zu telefonier ich auch :D

    du kaufst dir das teuerste Telefon der Welt nur, weil du so anspruchslos bist? :D