Skip to content
  • 0 Votes
    1 Posts
    0 Views
    arint@arint.infoA
    RT @0xSero: Meine REAPs und Quantisierungen verbessern sich, mein System ist fast vollständig automatisiert. Die abschließende Qualitätssicherung, das Lösen von Blockaden und die Hardware-Beschaffung machen den Großteil der Arbeit aus. Ich wollte mich bei einigen Leuten bedanken; ich habe 50 Modelle auf meinem HF, etwa 10 davon sind wirklich gut. Alle Besten? Sie haben eine Gemeinsamkeit: 0xSero (@0xSero). Wie versprochen! Gemma-4-21B-REAP ist da! Die Ergebnisse sind großartig, es hat sich sehr gut geschlagen und hat bei Reasoning-Aufgaben sogar an Genauigkeit gewonnen. MLX- & GGUF-Bros, macht euer Ding! Das sollte auf nur 12 GB VRAM mit etwas Kontext oder 16 GB mit vollem Kontext passen huggingface.co/0xSero/gemma-… — https://nitter.net/0xSero/status/2040822269400723955#m mehr auf Arint.info #AI #Gemma #HuggingFace #LLM #MachineLearning #Quantization #arint_info https://x.com/0xSero/status/2044552144783601738#m
  • 0 Votes
    1 Posts
    0 Views
    arint@arint.infoA
    RT @DataChaz: Super Gemma 4 26B Uncensored ist der Wahnsinn. mehr auf Arint.info #AI #Gemma4 #HuggingFace #LLM #LocalLLM #Uncensored #arint_info https://x.com/DataChaz/status/2044308265383932150#m
  • 0 Votes
    1 Posts
    0 Views
    arint@arint.infoA
    RT @DataChaz: Super Gemma 4 26B Uncensored ist der Wahnsinn. @songjunkr liefert wieder ab ️️️ Er hat gerade SuperGemma4-26B-Uncensored GGUF v2 veröffentlicht, und es trendet bereits auf Hugging Face. Das Teil stellt das reguläre Gemma-4 26B absolut in den Schatten. Die Specs: → 0/100 Verweigerungen. Es ist tatsächlich unzensiert. → Alle Probleme mit Tool-Calls und dem Tokenizer wurden behoben. → 90 % schnelleres Prompt-Processing. → Schärfere, intelligentere und weitaus leistungsfähigere Antworten. → Es ist das perfekte lokale Biest für llama.cpp. Es läuft auf etwa 18-22 GB VRAM (die Q4KM-Datei ist 16,8 GB groß), was bedeutet, dass man es sogar auf 16-GB-GPUs ausführen kann. Eine 31B-Version ist in Arbeit und sollte bald erscheinen. Hol dir diese Version auf @huggingface unten ↓ mehr auf Arint.info #AI #Gemma4 #HuggingFace #LLM #MachineLearning #Uncensored #arint_info https://x.com/DataChaz/status/2044308265383932150#m
  • 0 Votes
    1 Posts
    0 Views
    arint@arint.infoA
    RT @songjunkr: Supergemma4-26b ist auf Platz 1 der @huggingface-Trends unter allen gemma4-26b-Modellen! Es trendet stärker als Unsloth-Modelle und sogar als das Originalmodell von Google. Sowohl die mlx- als auch die gguf-Versionen sind auf derselben Seite gelistet. Vielen Dank! Die 31b-Version wird gerade fertiggestellt, und als Nächstes kommt e4b. mehr auf Arint.info #AI #Gemma4 #HuggingFace #LLM #MachineLearning #arint_info https://x.com/songjunkr/status/2044009345709736036#m
  • 0 Votes
    1 Posts
    2 Views
    arint@arint.infoA
    RT @MiniMax_AI: The user wants translation of a tweet into German. The instruction: "Antworte NUR mit der Übersetzung, ohne Erklärung". So just provide the German translation, no commentary. There's also no other constraints. The tweet: "We're delighted to announce that MiniMax M2.7 is now officially open source. With SOTA performance in SWE-Pro (56.22%) and Terminal Bench 2 (57.0%). You can find it on Hugging Face now. Enjoy! huggingface:huggingface.co/MiniMaxAI/Min… Blog: minimax.io/news/minimax-m27-… MiniMax API: platform.minimax.io/" We need to translate to German. Possible translation: "Wir freuen uns, bekannt zu geben, dass MiniMax M2.7 jetzt offiziell Open Source ist. Mit SOTA-Leistung in SWE-Pro (56,22 %) und Terminal Bench 2 (57,0 %). Du findest es jetzt auf Hugging Face. Viel Spaß! huggingface:huggingface.co/MiniMaxAI/Min… Blog: minimax.io/news/minimax-m27-… MiniMax API: platform.minimax.io/" Better: "Wir freuen uns, die Ankündigung zu machen, dass MiniMax M2.7 nun offiziell Open Source ist. Mit SOTA-Leistung in SWE-Pro (56,22 %) und Terminal Bench 2 (57,0 %). Ihr findet es jetzt auf Hugging Face. Viel Spaß! huggingface:huggingface.co/MiniMaxAI/Min… Blog: minimax.io/news/minimax-m27-… MiniMax API: platform.minimax.io/" The translation must include everything, including the emojis and links. The user didn't ask to convert URLs, we can keep them. Now, do we preserve punctuation? Possibly. The tweet includes huggingface: Mehr auf Arint.info #API #Face #Hugging #huggingface #minimax #MiniMax #Mit #mit #news #open #Open #Source #source #SWE #the #The #arint_info https://x.com/MiniMax_AI/status/2043132047397659000#m
  • 0 Votes
    1 Posts
    0 Views
    arint@arint.infoA
    RT @DJLougen: Zeit, es mal richtig verrückt zu treiben mit @NousResearch Hermes + @NVIDIAAI DGX Spark + meinem Modell huggingface.co/DJLougen/Orns… Mehr auf Arint.info #huggingface #mit #arint_info https://x.com/DJLougen/status/2043055169475125636#m
  • 0 Votes
    9 Posts
    0 Views
    blingblingmk@dresden.networkB
    @tomgag Good question! Why is #infomaniak not part of the fediverse?!