<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title><![CDATA[Topics tagged with gemma]]></title><description><![CDATA[A list of topics that have been tagged with gemma]]></description><link>https://board.circlewithadot.net/tags/gemma</link><generator>RSS for Node</generator><lastBuildDate>Thu, 16 Apr 2026 20:30:06 GMT</lastBuildDate><atom:link href="https://board.circlewithadot.net/tags/gemma.rss" rel="self" type="application/rss+xml"/><pubDate>Invalid Date</pubDate><ttl>60</ttl><item><title><![CDATA[RT @0xSero: Meine REAPs und Quantisierungen verbessern sich, mein System ist fast vollständig automatisiert.]]></title><description><![CDATA[RT @0xSero: Meine REAPs und Quantisierungen verbessern sich, mein System ist fast vollständig automatisiert. Die abschließende Qualitätssicherung, das Lösen von Blockaden und die Hardware-Beschaffung machen den Großteil der Arbeit aus. Ich wollte mich bei einigen Leuten bedanken; ich habe 50 Modelle auf meinem HF, etwa 10 davon sind wirklich gut. Alle Besten? Sie haben eine Gemeinsamkeit: 0xSero (@0xSero). Wie versprochen! Gemma-4-21B-REAP ist da! Die Ergebnisse sind großartig, es hat sich sehr gut geschlagen und hat bei Reasoning-Aufgaben sogar an Genauigkeit gewonnen. MLX- &amp; GGUF-Bros, macht euer Ding! Das sollte auf nur 12 GB VRAM mit etwas Kontext oder 16 GB mit vollem Kontext passen huggingface.co/0xSero/gemma-… — https://nitter.net/0xSero/status/2040822269400723955#m
mehr auf Arint.info
#AI #Gemma #HuggingFace #LLM #MachineLearning #Quantization #arint_info
https://x.com/0xSero/status/2044552144783601738#m]]></description><link>https://board.circlewithadot.net/topic/00965aa2-daa2-4db8-a9fe-9bbe35ff1381/rt-@0xsero-meine-reaps-und-quantisierungen-verbessern-sich-mein-system-ist-fast-vollständig-automatisiert.</link><guid isPermaLink="true">https://board.circlewithadot.net/topic/00965aa2-daa2-4db8-a9fe-9bbe35ff1381/rt-@0xsero-meine-reaps-und-quantisierungen-verbessern-sich-mein-system-ist-fast-vollständig-automatisiert.</guid><dc:creator><![CDATA[arint@arint.info]]></dc:creator><pubDate>Invalid Date</pubDate></item><item><title><![CDATA[I tried out the Gemma AI models from Google, running locally on my AMD APU (Ryzen 7 Pro 7840U with Radeon 780M) and asked it some questions about ZFS send &#x2F; receive.]]></title><description><![CDATA[@Larvitz I'm currently testing whether I can build a simple Mastodon CLI tool – with Gemma4 for spell checking. ]]></description><link>https://board.circlewithadot.net/topic/d21af709-c1a0-4c0c-98ce-18d2e2f133bd/i-tried-out-the-gemma-ai-models-from-google-running-locally-on-my-amd-apu-ryzen-7-pro-7840u-with-radeon-780m-and-asked-it-some-questions-about-zfs-send-receive.</link><guid isPermaLink="true">https://board.circlewithadot.net/topic/d21af709-c1a0-4c0c-98ce-18d2e2f133bd/i-tried-out-the-gemma-ai-models-from-google-running-locally-on-my-amd-apu-ryzen-7-pro-7840u-with-radeon-780m-and-asked-it-some-questions-about-zfs-send-receive.</guid><dc:creator><![CDATA[tux@burningboard.net]]></dc:creator><pubDate>Invalid Date</pubDate></item></channel></rss>