RT @0xSero: Meine REAPs und Quantisierungen verbessern sich, mein System ist fast vollständig automatisiert. Die abschließende Qualitätssicherung, das Lösen von Blockaden und die Hardware-Beschaffung machen den Großteil der Arbeit aus. Ich wollte mich bei einigen Leuten bedanken; ich habe 50 Modelle auf meinem HF, etwa 10 davon sind wirklich gut. Alle Besten? Sie haben eine Gemeinsamkeit: 0xSero (@0xSero). Wie versprochen! Gemma-4-21B-REAP ist da! Die Ergebnisse sind großartig, es hat sich sehr gut geschlagen und hat bei Reasoning-Aufgaben sogar an Genauigkeit gewonnen. MLX- & GGUF-Bros, macht euer Ding! Das sollte auf nur 12 GB VRAM mit etwas Kontext oder 16 GB mit vollem Kontext passen huggingface.co/0xSero/gemma-… — https://nitter.net/0xSero/status/2040822269400723955#m
mehr auf Arint.info
#AI #Gemma #HuggingFace #LLM #MachineLearning #Quantization #arint_info
https://x.com/0xSero/status/2044552144783601738#m