Beiträge von oreissig

    Zitat von florida

    Ich kann mich noch an die Jahre 2002 bis 2008 erinnern, als es noch hieß: "Windows 2000 und XP reicht völlig aus und auch Windows 98SE und ME sind noch brauchbar."


    also 2008 hat man sicherlich nicht mehr gesagt, dass 98SE brauchbar ist ;)
    mal im ernst: glaubst du wirklich, dass technologien für die Ewigkeit sind? Klar, für Nostalgie und zum Frickeln ist das definitiv cool, aber sich der Weiterentwicklung zu sperren und nur rumzujamern wird es auch nicht aufhalten und ist vergeudete Zeit, denn so manche moderne Entwicklung hat ja wirklich auch ihre guten Seiten!

    das sind afaik schon noch die Leute wie damals bei OSBA...
    mich wunderts ehrlichgesagt, dass es die noch gibt, weil die noch ziemlich stark an ihrem Foren-Thema hängen...ich war ja früher auch mal in den Windows Betas, aber das hat sich dann einfach ziemlich schnell gelegt und dann wars langweilig.
    So wars ja allg. mit dem WHF, deswegen hat das WHF auch netmehr viel mit WH zu tun, aber bei denen hält sich das offenbar echt noch eisern.

    Zitat von florida

    Es wäre ziemlich schön gewesen, wenn es damals eine DOS-Version geben würde, die mit Windows NT- Funktionen ausgestattet wäre.


    was stellst du dir denn da so alles vor?
    DOS ist nunmal DOS, Microsoft hat nicht umsonst NT from scratch entwickelt, denn wenn es ansatzweise praktikabel gewesen wäre, hätten sie stattdessen DOS einfach aufgemotzt

    ich erstell VMs nur on-demand
    die einzige ausnahme ist DINA, das ist nen eingerichtetes NetBSD, welches als Installserver für IRIX auf SGI Workstations agieren kann, da sowas sonst nich ganz trivial ist

    EDIT: Deppenapostroph im Titel gefixt

    früher warn das mal voll die megapenetranten freaks, hab mich daher auch länger netmehr mit denen beschäftigt

    ab und an kam mal jemand von deren forum hier her und hat bis aufs messer gewettert, dass neptune ja garnich als 2000 personal angedacht war...unsre reaktion war so in etwa "kthxbye" und trotzdem hat der da nen 10seiten-Thread drausgemacht :D

    Zitat von niwax

    An sich finde ich VB übersichtlicher, wenn es auch darum geht, möglichst wartungsfreien Code zu erstellen, der immer mal wieder leicht verändert wird.

    ist das nicht ein Widerspruch? kleine Veränderungen sind doch das, was typischerweise unter Wartung fällt

    Zitat von niwax


    Zum Errorhandling: der erste Try-Block fängt Errors ab, falls die Keylänge nicht ausreicht, um alles zu verschlüsseln, der zweite falls noch gar kein Hash existiert (Also noch nicht freigeschaltet wurde)

    Jaja das ist schon klar, dass es angedacht ist, dass da nur bestimmte Exceptions auftreten.
    Nur wie heißen die exceptions denn genau? bei dem catch-statement sollte nicht einfach die Klasse aller Exceptions stehen, weil die Fehlerbehandlung (die bei dir nicht vorhanden ist) i.a.R. auf einen bestimmten Fehlertyp zugeschnitten ist. ein fehler ob die Keylänge ausreicht ist was anderes, als wenn er z.B. die datei nicht öffnen kann, in letzterem Falle wäre es nämlich NICHT sinnvoll einfach den Fehler zu fangen und weiterzumachen, weils nix gibt, um weiterzumachen

    wie gandro bereits sagte gibts da schon ein paar ernsthafte Vorteile, aber im Endeffekt seis doch jedem selbst überlassen und hier auch nicht Gegenstand der Debatte

    den algo hab ich mir jetz noch nich genau angeschaut, mir sind nur fix paar sachen aufgefallen:

    • visual basic? uff lang ists her :D
    • weiß nich genau, wie exception handling da gemacht wird, aber für mich siehts so aus als fängst du in paar blöcken einfach alle möglichen exceptions und behandelst sie danach nicht. das nennt man pokemon exception handling "if you gotta catch em all" :D
      besser: wirklich nur das catchen, was auftreten kann (also wohl die klasse der IOExceptions oder besser noch genauer) und diese natürlich auch behandeln (z.B. abbruch oder weiterwerfen)
    • warum resized du in der 2. Methode X direkt nach dem deklarieren?
      resizen ist so mit das schlechteste und langsamste, was man mit einem array tun kann
    • sämtliche variablen mit einem einzigen Buchstaben zu bezeichnen scheint ne alte Basic-Angewohnheit zu sein, die sich bis heute durchzieht...vll könnte man über aussagekräftigere namen als P, T, C, Z usw nachdenken
    Zitat von niwax

    Plattformübergereifen etc: Das ist doch gerade der Sinn: man will nicht, dass sich jemand das Programm auf nen anderen PC zieht, also schaut man nach, ob die Umgebung noch die selbe ist. Was ist da das Problem?

    i.d.R. gehts bei nem Kopierschutz darum, dass es nicht kopiert wird ;) das muss nicht unbedingt bedeuten, dass die programmausführung an einen Rechner gekettet wird

    Zitat von niwax


    Er baut sich mehrere Hashs, die insgesamt 2048 bit groß sind. Dann nimmt er sich aus dem Code des Programms nen bis zu 19000-Bit Key, mit dem dann der Hashh verschlüsselt und in ne Datei gespeichert wird. Das ist nötig, damit man nicht nem anderen Programm den gleichen Hash unterschieben kann.

    was sind das alles für hashes? warum wird das dann so groß gemacht?
    nagut, am wichtigsten ist vll die frage: wie gehts dann weiter? man hat quasi einen key, der sowohl programm als auch rechner beinhaltet, wie funktioniert dann der eigentliche schutz?

    Zitat von niwax


    nBlow nenne ich angelehnt an BlowFish, weil es das gleiche Konzept verfolgt - aufblähen mit Müll, aber mit nem anderen Ansatz: zuerst wird das erste Byte der Daten mit dem ersten Byte des Passworts per XOR verknüpft, dann wird eine Anzahl von Müll-Bytes eingefügt, die auf dem zweiten Byte des Passworts basieren, dann geht immer so weiter, mit dem zweiten Byte der Daten und dem dritten+vierten Byte des Passworts usw...


    hm, würd gern mal den code dazu sehn, mit etwas zeit werd ichs mir irgendwann mal genauer anschauen

    MAC-Adressen faken ist ja mal das billigste ever

    sinnhaftigkeit dieses ansatzes hin oder her, was mir persönlich sauer aufstößt ist:

    Zitat von niwax

    Dann wird aus dem Programmcode ein Schlüssel erstellt, mit der Hash mit nBlow (Verschlüsselung von mir, angelehnt an BlowFish) auf 16000bit bis 19000bit aufgeblasen und verschlüsselt wird.

    • hä wie was? verschlüsselung oder hash? ich werd rein grammatisch aus deinem satz schonmal nicht schlau
    • eigene verschlüsselung? warum? security by obscurity? ich trau den allerwenigsten leuten auf dieser erde zu einen verschlüsselungsalgorithmus zu entwerfen, der annähernd sicher ist...selbst große firmen verkacken da regelmäßig und gehn dann doch auf standardlösungen, zumal es praktisch keinen sicherheitsgewinn gibt.
    • was heißt "angelehnt an BlowFish"? wenn man einen standard-algo nimmt und da 3 bits ändert, dann wird das praktisch garantiert dazu führen, dass das ding angreifbar wird. Bei solchen Sachen haben sich Leute jahrelang gedanken gemacht um etwas, was am ende irgendwie 80 Zeilen Code ist, da kann man nicht einfach eine Zeile ändern oder so, praktisch immer wird damit das gesamtkonstrukt zusammenfallen
    • schon allein um den verschlüsselungsalgo drumherum kann man genug an security nightmares veranstalten, selbst wenn die Verschlüsselung selbst "unknackbar" ist.
    Zitat von TNC

    Dem Artikel trau ich schonmal garnich, da z.B. für PPC auch ein Service Pack 2 released wurde. :)


    naja, da es dieses SP2 für PPC wohl nur auf englisch gibt (oder wurde das inzwischen auf deutsch aufgetrieben?) wars für die deutsche wikipedia wohl einfach nicht relevant :)

    die englische wiki gibt als Datum jedenfalls den 16. Oktober 1996 an

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne deine Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklärst du dich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    klingt etwas matschig, ich hatte es mir mal aus der Bibo auf CD ausgeliehen, da hat die Akustikgitarre tatsächlich mehr Klangvolumen als ne Ukulele vorweisen können
    aber musikalisch sogar durchaus cool =)

    ich geh ehrlichgesagt nicht davon aus, dass die BIOS-Kompatiblität einbauen werden, wozu auch? schon XP läuft auf den meisten Rechnern heut garnicht mehr so ohne weiteres und seit Vista sollte es schließlich gehen
    Wenn du DOS und Win95 willst, dann sei ganz beruhigt: für aktuelle BIOS-PCs wird garantiert kein Update kommen

    die Zeiten, in der ich für rescue-zwecke ne dos-floppy reingeschoben hab sind für mich ehrlichgesagt vorbei, seit ich nen NT-basiertes OS einsetze

    Zitat von niwax

    Ich glaube aber nicht, dass das von CD geht, XP braucht schreibrechte.


    m( na klar geht XP von CD zu booten, wie bereits erwähnt gibts ja BartPE als quasistandard
    "benötigt schreibrechte" und "CD" muss sich nicht ausschließen, für sowas kann man ja ne RAM-Disk als Overlay nutzen (so machen das alle gängigen live-linuxe)

    ich zitiere wörtlich

    Zitat von thinq.co.uk

    Implementing a UEFI system isn't an easy job for motherboard manufacturers used to working with standard BIOS technology, though. Our source explained that motherboard manufacturers had held off moving to UEFI because of the "huge resources you have to throw at it."


    warum Geld ausgeben, wenns nicht absolut brachial notwendig ist, so lautet die devise
    oder anders gesagt

    Zitat von thinq.co.uk

    With regards to the old BIOS, he points out that there's an attitude of "if it isn’t broken; don’t need to fix it. Unless you have a strong determination to upgrade it, most manufactures will stick to a traditional, easy and familiar old solution."

    Zitat von Aquanox1968

    Es geht darum eher vorwärts zu denken als speziell auf EFI.

    Naja, wie gesagt ein völlig neues Konzept wär das einzig Wahre für einen richtigen Neuanfang und kein stufenweises dazu integrieren eines 30 Jahre alten Grundkonzepts.
    Denn der x86 wurde auch 1981 erfunden.
    Warum nicht mal wieder etwas komplett neues entwickeln ?

    ah okay, da haben wir bisschen aneinander vorbeigeredet :)
    klar, sowas muss man auch machen und sowas tut man auch, aber sowas wird wohl primär an Unis oder irgendwelchen abgehobenen Forschungsabteilungen gigantischer Firmen passieren (Stichwort: Microsoft Surface)
    So weit wollte ich damit jetzt ursprünglich nicht in die Zukunft schauen, denn wenn der wirtschaftliche Faktor mit reinkommt (und damit meine ich nicht die großkonzerne, sondern dass wir Kunden uns daran gewöhnt haben unsre Rechner für <1000€ zu kriegen), wirds bis auf weiteres Evolution statt Revolution bleiben.


    Zitat von Aquanox1968


    Mein Gedanke war "ja wenn schon was Neues, dann richtig."


    Das ging ganz früher mal in den 60ern und 70ern, als es keine bzw. kaum etablierte Konzepte gab, da hat eben jeder was komplett eigenes gemacht, von dieser Zeit kommt sicher auch der Elan der ganzen RISC-Ära (ab mitte der 80er bis ~Mitte der 90er), als jede Firma, die was auf sich hielt ne neue Architektur entworfen hat. i.a.R. war das Zeug schon Leistungsfähig und technisch hochwertig und sehr cool, aber eben leider nix, was die Mehrkosten hätte schönreden können

    Zitat von Aquanox1968


    Also weil von Bios und veraltet die Rede ist:
    Die ganze x86 Architektur ist eigentlich alt.
    Immer stösst auch immer etwas an seine Grenzen.


    was meinst du mit x86 eigentlich? die CPUs oder die Plattform IBM-kompatibler PC?
    Was stößt denn da alles an seine Grenzen? Das meiste sind althergebrachte Softwareabhängigkeiten und Kompatiblitätszwänge.
    Ob die CPU nun noch 8086 unterstützt oder nicht wird an der Transistorzahl wohl kaum etwas reißen. AMD hat sich bei AMD64 aber schon was ganz gutes überlegt, indem sie den 64bit-Modus nicht einfach als 32bit mit langen Registern, sondern quasi als komplett separate neuentwicklung ausgelegt haben, wobei sie ganz gut mit früheren Hacks aufgeräumt haben und das auf ne moderne Basis stellen.

    Zitat von Aquanox1968


    Nur warum hat es sich noch nicht durchgesetzt ?

    siehe anfang des Threads
    kurz: umstellung kostet entwicklungskosten, die die Firmen kaum durch höhere Preise eintreiben können

    Zitat von Dirk

    Zur gleichen Zeit hatte mal ein hersteller legacy schnittstellen einsparen wollen, glaube epox. war zu früh, die musten zurückrudern. aber wenn man sich heute nen rechner anschaut sind ps2, ltp und seriell doch nicht benutzt.


    also serielle Schnittstelle nutz ich öfters mal noch als Terminal für die Workstations, das T61 selbst keine mehr, aber die Dockingstation :) wobei es dafür ja auch USB-Lösungen gibt

    Zitat von Aquanox1968

    Diesen Umstand hat es zu verdanken, dass Hard und Software Produzenten nach wie vor gut von der ewigen x86 Hardwarespirale leben können.

    Also bei Hardwareherstellern habe ich grad keinen direkten Einblick, aber ich denke dass es denen doch halbwegs egal sein wird, wofür sie PCIe-Karten bauen oder so?
    Auf der Softwareseite liegt die Kompatiblität wohl primär an Microsoft und Windows (welches natürlich nur auf PCs läuft, aber rein theoretisch sollten sich praktisch alle apps mit nem einfachen recompile auch für nen Itanic-Windows oder ggf. bald nen ARM-Windows compilieren lassen)
    Was das jetzt mit dem Austausch der Firmware zu tun hat versteh ich nicht, Windows kann doch schon seit (afaik) Vista SP1 von EFI booten, also werden auf EFI-Rechnern auch noch alle PCI/e-Devices und auch Windows-Programme weiterhin laufen. (Linux natürlich auch)

    Zitat von Aquanox1968


    Das Bios durch ein anderes Feature zu ersetzen wird die Schwächen nicht wegblasen.


    Was ist das für ein Vergleich "Das Bios durch ein anderes Feature zu ersetzen"? Das BIOS ist doch kein Feature, sondern ein Programm, welches über die Jahre mit Features aufgeblasen wurde.
    Andersrum betrachtet, wenn man das gesamtprogramm ersetzt, warum sollte man dann über seine Schwächen nicht auch hinauskommen können?

    Zitat von Aquanox1968


    Es ist nicht alles Gold was glänzt, denn Wohltäter sind die bestimmt nicht.
    Meiner Meinung nach wird viel künstlich aufgeblasen rein aus Gründen ihres Verdiensts.
    Deshalb sehe ich nur bedingt einen Fortschrittsfaktor wie so manch anderer hier. [...]
    Ich seh das Ganze eben auch etwas kritischer und auch aus wirtschaftlicher Seite.


    wer bläst denn hier etwas künstlich auf? insbesondere die industrie ists doch, die sich jahrelang davor scheut (genau wie bei IPv6), weil solche lowleveligen Umkrempelungen nichts sind, was man Nutzern schmackhaft reden kann, also werden sie die Kosten für die Umstellung ohne ein Mehr an Umsatz tragen müssen und das schmeckt denen ziemlich sauer

    Wie gesagt an mir solls nich hängen, nur sind imho die Leute, die das BIOS noch warten müssen doch die, die eigentlich richtig richtig fett davon angepisst sein sollten. Und wenn diese jetzt aber gleichzeitig auch jene sind, die was modernes, sauberes, abstrakteres nicht mit Jubelrufen und offenen Armen empfangen, dann erzeugt das bei mir Stirnrunzeln.

    klar is schneller booten nice, aber 2sec sind für mich jetz auch kein umwerfendes Feature