Lokale KI - Erfahrungen

  • Habt ihr schon mit KIs Zuhause rumgespielt? Mir gingen die Begrenzungen der kostenlosen Chats etwas auf die Nerven und ich habe mal lokale Versuche angestellt.

    ollama auf debian, N100, 16GB RAM, Arc A310

    Erst ohne Graka Unterstützung, da liefen die Modelle, die eben in den RAM passen, langsam, aber ok. Sie müssen übrigens nicht in den RAM passen, am Laptop läuft gpt-oss auch mit 8GB, aber sehr langsam, da natürlich geswapt werden muss.

    Mit aktiviertem, experimentellen, Vulkan gehts kaum schneller, aber die 4GB der Graka werden genutzt, sowie die GPU etwas. Mehr System RAM frei ist ja auch schon mal was. Außer gpt-oss unf tinyllama geben die Modelle aber nur noch Unsinn aus. Wilde Zeichen oder zusammenhangloses. Schade, da ich ministral und magistral schon gerne genutzt hätte. Vielleich ändert sich ja noch was, Vulkan ist aktuell eben experimentell.

    "Produktiv" geht aktuell also am besten: gpt-oss:20b mit Vulkan aktiviert, genug restlicher RAM zum arbeiten, halbwegs gescheite antworten, zusehen beim reasoning-"Denkprozess" wenn auch in englisch. Komplexe Antworten dauern dann schon mal 15min. Als Denkhilfe ganz ok, auch mal was vergleichen oder überarbeiten, überdenken usw.

    Am Laptop ohne GPU etwas eingeschränkt, aber gänging mit ministral-3:3b, reasoning wäre natürlich schon schön, gpt-oss ohne RAM allerdings viiiieeeeel zu langsam. -drinkpc-

    Womit ich mich noch nicht befasst habe: gibts eigentlich was ähnlich einfaches in Richtung Bildbearbeitung/Erstellung? Bilderkennung gibts, aber habe mich noch nicht mit befasst.

    PC : ASRock N100M - 16GB DDR4 - 256GB NVMe SSD - ASRock Arc A310 - Xilence XP400R6 - Aerocool HEXFORMBKV2 - Philips 24E1N1100A - Debian 13 KDE - ThinkPad : X240 - i5 4300U - 8GB DDR3 - 250GB SSD - Debian 13 KDE- ONE A150 : VIA C7 1GHz - 1GB RAM - 60GB HDD - Debian 12 LXDE - ONE A110 : VIA C7 1GHz - 512MB RAM - 2GB SSD - XP Pro - Mobiltelefon : TCL Flip 3 16GB - KaiOS
    philippschuster.de.tl/

  • Also ich habe da noch nichts probiert, vorn daher sind deine Versuche spannend. Hatte aber auch schon gelesen, dass das Ergebnis gerne auf sich warten lässt. Ich habe aber auch wirklich keine Produktiven Aufgaben. Für den Messagerverkehr mit Freunden produzier ich gerne AISlop in Form von Liedern oder Bildern. Beides eher Komplex. Für Winhistory ist da bisher eins, zwei Hintergründe und die 4 Comicfiguren rausgefallen.

    Bei Bildern hatte ich mal zumindest von lokalen gelesen, schon länger her. hatte auch ne Weile mit dem Zeug von Microsoft, also OpenAi rumgespielt, aber NanoBanana von Google ist inzwischen wirklich stark. Bezweifel, dass das mit normaler Hardware lokal geht. theoretisch kann ja Paint es lokal auf Copilot+, die verwenden aber im Prozess Filter, so dass ohne Netz nichts rauskommt. Zumindest habe ich das mal gehört. Hat hier irgendwer nen Notebook mit NPU, die tatsächlich was tut? Soll ja auch nen großer Reinfall sein. Aber da hat MS auch einfach bestandsgeräte, gerade desktops überhaupt nicht im Blick gehabt. Wobei sie ja eh es als Abo Verkaufen, da ist die Cloud ja eh Teil des ganzen.

  • Thema Bildgeneration: https://github.com/easydiffusion/…le#installation

    SO einfach hätte ich mir das jetzt nicht vorgestellt... Ausführen, warten, Prompt eingeben, warten - Bild -drinkpc-

    Bei Standarteinstellungen etwa 10min für so etwas wie unten angehängt nur auf CPU (N100), Intel Arc wird nicht unterstützt. ComfyUI wollte nicht, Fehler hab ich noch nicht wirklich nachvollziehen können, AUTOMATIC1111 will ein Downgrade von Python, hatte ich jetzt wenig Lust zu. Beide müssten aber mit der Arc was anfangen können.

    Den Prompt für die Kathedrale hab ich vorher von gpt-oss erstellen lassen :crazy:

Jetzt mitmachen!

Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!