<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title><![CDATA[Topics tagged with gemma4]]></title><description><![CDATA[A list of topics that have been tagged with gemma4]]></description><link>https://board.circlewithadot.net/tags/gemma4</link><generator>RSS for Node</generator><lastBuildDate>Thu, 16 Apr 2026 20:29:19 GMT</lastBuildDate><atom:link href="https://board.circlewithadot.net/tags/gemma4.rss" rel="self" type="application/rss+xml"/><pubDate>Invalid Date</pubDate><ttl>60</ttl><item><title><![CDATA[RT @bnjmn_marie: Ich habe meine vollständige Analyse zum Vergleich von Gemma 4 31B vs. Qwen3.5 27B veröffentlicht.]]></title><description><![CDATA[RT @bnjmn_marie: Ich habe meine vollständige Analyse zum Vergleich von Gemma 4 31B vs. Qwen3.5 27B veröffentlicht.
mehr auf Arint.info
#Gemma4 #KI #LLM #MachineLearning #Qwen #arint_info
https://x.com/bnjmn_marie/status/2044741064905326703#m]]></description><link>https://board.circlewithadot.net/topic/ed8ee707-a3b1-44d9-bcba-76d0502f79f6/rt-@bnjmn_marie-ich-habe-meine-vollständige-analyse-zum-vergleich-von-gemma-4-31b-vs.-qwen3.5-27b-veröffentlicht.</link><guid isPermaLink="true">https://board.circlewithadot.net/topic/ed8ee707-a3b1-44d9-bcba-76d0502f79f6/rt-@bnjmn_marie-ich-habe-meine-vollständige-analyse-zum-vergleich-von-gemma-4-31b-vs.-qwen3.5-27b-veröffentlicht.</guid><dc:creator><![CDATA[arint@arint.info]]></dc:creator><pubDate>Invalid Date</pubDate></item><item><title><![CDATA[RT @DataChaz: 🚨 Super Gemma 4 26B Uncensored ist der Wahnsinn.]]></title><description><![CDATA[RT @DataChaz:  Super Gemma 4 26B Uncensored ist der Wahnsinn.
mehr auf Arint.info
#AI #Gemma4 #HuggingFace #LLM #LocalLLM #Uncensored #arint_info
https://x.com/DataChaz/status/2044308265383932150#m]]></description><link>https://board.circlewithadot.net/topic/6ddc0ab5-16fb-4e9e-89f5-7e37f0258ea4/rt-@datachaz-super-gemma-4-26b-uncensored-ist-der-wahnsinn.</link><guid isPermaLink="true">https://board.circlewithadot.net/topic/6ddc0ab5-16fb-4e9e-89f5-7e37f0258ea4/rt-@datachaz-super-gemma-4-26b-uncensored-ist-der-wahnsinn.</guid><dc:creator><![CDATA[arint@arint.info]]></dc:creator><pubDate>Invalid Date</pubDate></item><item><title><![CDATA[RT @DataChaz: 🚨 Super Gemma 4 26B Uncensored ist der Wahnsinn.]]></title><description><![CDATA[RT @DataChaz:  Super Gemma 4 26B Uncensored ist der Wahnsinn. @songjunkr liefert wieder ab ️️️ Er hat gerade SuperGemma4-26B-Uncensored GGUF v2 veröffentlicht, und es trendet bereits auf Hugging Face. Das Teil stellt das reguläre Gemma-4 26B absolut in den Schatten. Die Specs: → 0/100 Verweigerungen. Es ist tatsächlich unzensiert. → Alle Probleme mit Tool-Calls und dem Tokenizer wurden behoben. → 90 % schnelleres Prompt-Processing. → Schärfere, intelligentere und weitaus leistungsfähigere Antworten. → Es ist das perfekte lokale Biest für llama.cpp. Es läuft auf etwa 18-22 GB VRAM (die Q4KM-Datei ist 16,8 GB groß), was bedeutet, dass man es sogar auf 16-GB-GPUs ausführen kann. Eine 31B-Version ist in Arbeit und sollte bald erscheinen. Hol dir diese Version auf @huggingface unten ↓
mehr auf Arint.info
#AI #Gemma4 #HuggingFace #LLM #MachineLearning #Uncensored #arint_info
https://x.com/DataChaz/status/2044308265383932150#m]]></description><link>https://board.circlewithadot.net/topic/689f283a-ad04-41ac-b7c4-83e9e3c4a257/rt-@datachaz-super-gemma-4-26b-uncensored-ist-der-wahnsinn.</link><guid isPermaLink="true">https://board.circlewithadot.net/topic/689f283a-ad04-41ac-b7c4-83e9e3c4a257/rt-@datachaz-super-gemma-4-26b-uncensored-ist-der-wahnsinn.</guid><dc:creator><![CDATA[arint@arint.info]]></dc:creator><pubDate>Invalid Date</pubDate></item><item><title><![CDATA[RT @songjunkr: Supergemma4-26b ist auf Platz 1 der @huggingface-Trends unter allen gemma4-26b-Modellen!]]></title><description><![CDATA[RT @songjunkr: Supergemma4-26b ist auf Platz 1 der @huggingface-Trends unter allen gemma4-26b-Modellen! Es trendet stärker als Unsloth-Modelle und sogar als das Originalmodell von Google. Sowohl die mlx- als auch die gguf-Versionen sind auf derselben Seite gelistet. Vielen Dank! Die 31b-Version wird gerade fertiggestellt, und als Nächstes kommt e4b.
mehr auf Arint.info
#AI #Gemma4 #HuggingFace #LLM #MachineLearning #arint_info
https://x.com/songjunkr/status/2044009345709736036#m]]></description><link>https://board.circlewithadot.net/topic/9e9b866c-dafd-44e8-8d57-286cfe4c77b9/rt-@songjunkr-supergemma4-26b-ist-auf-platz-1-der-@huggingface-trends-unter-allen-gemma4-26b-modellen</link><guid isPermaLink="true">https://board.circlewithadot.net/topic/9e9b866c-dafd-44e8-8d57-286cfe4c77b9/rt-@songjunkr-supergemma4-26b-ist-auf-platz-1-der-@huggingface-trends-unter-allen-gemma4-26b-modellen</guid><dc:creator><![CDATA[arint@arint.info]]></dc:creator><pubDate>Invalid Date</pubDate></item><item><title><![CDATA[RT @MaziyarPanahi: Gemma 4 analysiert das Video.]]></title><description><![CDATA[RT @MaziyarPanahi: Gemma 4 analysiert das Video. Generiert Schlüsselfragen. Ruft Falcon Perception auf. "Finde alle Personen." 156 gefunden. "Erkenne nur weiße Autos." 8 gefunden. Ein 26B-Modell führt eine agentische Multi-QA-Vision-Orchestrierung aus. Die Modelle laufen lokal auf einem MacBook mit MLX. Keine API. Video
Mehr auf Arint.info
#AI #AppleSilicon #ComputerVision #Gemma4 #KI #MachineLearning #arint_info
https://x.com/MaziyarPanahi/status/2043675576452706814#m]]></description><link>https://board.circlewithadot.net/topic/7b5f05aa-a38c-4d87-9cea-fe048154d962/rt-@maziyarpanahi-gemma-4-analysiert-das-video.</link><guid isPermaLink="true">https://board.circlewithadot.net/topic/7b5f05aa-a38c-4d87-9cea-fe048154d962/rt-@maziyarpanahi-gemma-4-analysiert-das-video.</guid><dc:creator><![CDATA[arint@arint.info]]></dc:creator><pubDate>Invalid Date</pubDate></item><item><title><![CDATA[#google drops a local, free, 26 billion parameters #AI #LLM]]></title><description><![CDATA[#google drops a local, free, 26 billion parameters #AI #LLM#Gemma4]]></description><link>https://board.circlewithadot.net/topic/89c7bf92-be03-4305-9c73-e8cfcae117dc/google-drops-a-local-free-26-billion-parameters-ai-llm</link><guid isPermaLink="true">https://board.circlewithadot.net/topic/89c7bf92-be03-4305-9c73-e8cfcae117dc/google-drops-a-local-free-26-billion-parameters-ai-llm</guid><dc:creator><![CDATA[n_dimension@infosec.exchange]]></dc:creator><pubDate>Invalid Date</pubDate></item></channel></rss>