Beiträge von s4ndwichMakeR

    Ich meine, eine Taste, die immer grundsätzlich auf 4,77 MHz wechselt – zugunsten früher PC-Software, die einfach immer davon ausgeht – erscheint die Drosselung sinnvoll. Aber die spätere Drosselung auf irgendeinen scheinbar zufälligen, niedrigeren Wert verstehe ich nicht.

    Ich habe nie den Sinn der Turbo-Taste verstanden. Bei frühen Versuchen, bei PC-kompatiblen Kisten höhere Taktraten als 4,77 MHz zu etablieren, ist es noch sinnvoll, die Taktfrequenz bei Bedarf noch auf den bisherigen Standard zu wechseln, wenn zeitkritische Software davon ausgeht, dass die Kiste mit 4,77 MHz läuft. Aber worin liegt der Sinn, bei einem 486er oder 586er System von z.B. 40 auf 20 oder 120 auf 60 MHz zu wechseln?

    Falls du ein Programm findest oder irgendjemand ein Programm kennt, mit dem ich auf Knopfdruck einen vordefinierten Speicherbereich roh in eine Datei dumpen kann, wäre ich über den Namen sehr aufgeschlossen. Das muss aber resident sein, ansonsten tät’s ja DEBUG schon. Andernfalls ist das wieder mal ein Projekt für die Zu-wenig-Zeit-für-viel-zu-viele-kleine-zeitfressende-Projekte-Pipeline.

    Was die Monitorwahl angeht: Ich habe zu meinem T1500 ursprünglich ein (offenbar heimgebrautes) Adapterkabel von DE-9 auf 5-poligen (?) DIN dazubekommen. Ich frage mich seit Jahren, ob ich damit die TTL-Videosignale auf einem Amiga/Commodore/Philips-Monitor der späteren Generation mit entspechendem RGB-Eingang betreiben kann oder ob das für das Betreiben von C64-Floppy-Laufwerken am PC gebastelt wurde (dem würden allerdings die Geschlechter des DE-9 widersprechen).

    Ich erinnere mich vage an ein DOS-TSR-Programm namens THIEF oder Screen Thief – macht offenbar einen Dump ähnlich BSAVE des Video-Speichers (je nach Hardware irgendwo zwischen A:0000 und B:FFFF) in eine Datei. Ich fahre aber schon seit Jahren Emulatoren oder DosBox hoch, wenn ich pixelgenaue Screenshots von x86-Software brauche.

    Inwieweit betreibst du einen Atari-Monitor an einem PC? Ich habe das Problem, dass ich seit Jahren die Display-Hardware in meinem Toshiba T1500 (Hercules und offenbar EGA als Karten sowie CGA onboard) nicht in vollem Umfang betreiben kann.

    Ich muss auch sagen, dass sich Minecraft in eine sehr komplexe und undurchschaubare Richtung entwickelt hat, von dem zumindest Puristen wie ich gelegentlich behaupten, dass das dem Spiel Schaden tut. Die umfangreichen Erweiterungen von Version zu Version in den letzten Jahren mag ja ein Zeichen der Weiterentwicklung sein, aber es birgt doch immer die Gefahr von »die guten alten Zeiten, die nie wiederkommen«. Das ist natürlich auch oft von persönlichen, meist sogar unbewussten Gefühlen beeinflusst.

    Nichtsdestotrotz spiele ich immer noch gern.


    Zumal MC ja auch schon nen äußerst miesen Ruf hat (Kiddiespiel, Hipsterkacke, ..)

    [citation needed]

    Zum Glück gibt’s dafür jetzt auch die passende Software.

    Das amerikanische und japanische NTSC macht unter System M (Standardkombination) aber 29,97 fps.

    Ich würde gern mal sehen, was passiert, wenn man eine solche Quelle mit 30 fps abtastet. Hat man dann nach einer gewissen Länge Mischbilder? … oder irgendwann ein Bild übersprungen oder eins zu viel?

    Der Screenshot lässt vermuten, dass TVR bei PAL standardmäßig nach 30 fps digitalisiert. Ist das wirklich so? Das hätte man bei der Lokalisierung berücksichtigen müssen. Wer die Software in Deutschland benutzt, hat in der Mehrheit PAL auf 50 Hz vorliegen. PAL auf 60 Hz geht zwar auch, aber sowas wurde nie verwendet.

    Übrigens macht VHS interlaced, ergo 50 fields per seconds. Es bietet sich an, dies bei der Digitalisierung zu berücksichtigen und evtl. halbe Auflösung bei doppelter Framerate zu kodieren.

    … und übrigens ist 320×240 Pixel wegen oben genannten Interlacings ein recht gutes Äquivalent zur doch recht begrenzten Bandbreite von VHS. 24-Bit-RGB auf 320×240 mit 50 fps ist wegen der Farbunterabtastung technisch gesehen sogar Overkill statt Underkill.