<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title><![CDATA[Topics tagged with deeplearning]]></title><description><![CDATA[A list of topics that have been tagged with deeplearning]]></description><link>https://board.circlewithadot.net/tags/deeplearning</link><generator>RSS for Node</generator><lastBuildDate>Fri, 15 May 2026 00:08:24 GMT</lastBuildDate><atom:link href="https://board.circlewithadot.net/tags/deeplearning.rss" rel="self" type="application/rss+xml"/><pubDate>Invalid Date</pubDate><ttl>60</ttl><item><title><![CDATA[20 Jahre Google Translate: Wird aus dem „Lebensretter“ jetzt ein Lehrmeister?]]></title><description><![CDATA[20 Jahre Google Translate: Wird aus dem „Lebensretter“ jetzt ein Lehrmeister?Google Translate wird 20 Jahre alt. Zum Jubiläum erweitert der Konzern den Dienst um KI-gestütztes Aussprachetraining, um Nutzern beim Sprachenlernen zu helfen.https://www.heise.de/news/20-Jahre-Google-Translate-Wird-aus-dem-Lebensretter-jetzt-ein-Lehrmeister-11277049.html?wt_mc=sm.red.ho.mastodon.mastodon.md_beitraege.md_beitraege&amp;utm_source=mastodon#Android #Apps #DeepLearning #IT #KünstlicheIntelligenz #MachineLearning #Software #news]]></description><link>https://board.circlewithadot.net/topic/4f131006-17d3-412c-ab33-f6446c517621/20-jahre-google-translate-wird-aus-dem-lebensretter-jetzt-ein-lehrmeister</link><guid isPermaLink="true">https://board.circlewithadot.net/topic/4f131006-17d3-412c-ab33-f6446c517621/20-jahre-google-translate-wird-aus-dem-lebensretter-jetzt-ein-lehrmeister</guid><dc:creator><![CDATA[heiseonline@social.heise.de]]></dc:creator><pubDate>Invalid Date</pubDate></item><item><title><![CDATA[RT @bnjmn_marie: Wer wird das nächste 70B+ dichte Open-Modell veröffentlichen?]]></title><description><![CDATA[RT @bnjmn_marie: Wer wird das nächste 70B+ dichte Open-Modell veröffentlichen?  Gemma 4 und Qwen 3.6 haben bewiesen, dass die Trainingsmethoden für dichte Modelle ausgereift sind. MoEs sind großartig für die Geschwindigkeit, aber DeepSeek Flash &amp; Qwen3.5 397B zeigen genau, wie ungenau sie in Wirklichkeit sind. Dicht  MoE
mehr auf Arint.info
#AIResearch #DeepLearning #Gemma4 #LLM #MachineLearning #OpenSourceAI #Qwen3 #arint_info
https://x.com/bnjmn_marie/status/2047930038247428104#m]]></description><link>https://board.circlewithadot.net/topic/c752163c-9ae7-4a4f-a067-f14f926515d0/rt-@bnjmn_marie-wer-wird-das-nächste-70b-dichte-open-modell-veröffentlichen</link><guid isPermaLink="true">https://board.circlewithadot.net/topic/c752163c-9ae7-4a4f-a067-f14f926515d0/rt-@bnjmn_marie-wer-wird-das-nächste-70b-dichte-open-modell-veröffentlichen</guid><dc:creator><![CDATA[arint@arint.info]]></dc:creator><pubDate>Invalid Date</pubDate></item><item><title><![CDATA[RT @coffeecup2020: Qwen3.6-2.7B ist endlich da.]]></title><description><![CDATA[RT @coffeecup2020: Qwen3.6-2.7B ist endlich da. Die TurboQuant-Version ist ebenfalls verfügbar. Viel Spaß damit. Achten Sie auf eine kleinere und intelligentere 35B-Version in Kürze.
mehr auf Arint.info
#AI #DeepLearning #HuggingFace #MachineLearning #Qwen3 #TurboQuant #arint_info
https://x.com/coffeecup2020/status/2046989815850123694#m]]></description><link>https://board.circlewithadot.net/topic/dddfe20d-584e-4f2b-970a-7a6fc9f90ce8/rt-@coffeecup2020-qwen3.6-2.7b-ist-endlich-da.</link><guid isPermaLink="true">https://board.circlewithadot.net/topic/dddfe20d-584e-4f2b-970a-7a6fc9f90ce8/rt-@coffeecup2020-qwen3.6-2.7b-ist-endlich-da.</guid><dc:creator><![CDATA[arint@arint.info]]></dc:creator><pubDate>Invalid Date</pubDate></item><item><title><![CDATA[RT @Grady_Booch: Ich bin zuversichtlich, dass der Geist berechenbar ist; Bewusstsein ist eine exquisite Konsequenz der Naturgesetze.]]></title><description><![CDATA[RT @Grady_Booch: Ich bin zuversichtlich, dass der Geist berechenbar ist; Bewusstsein ist eine exquisite Konsequenz der Naturgesetze. Ich bin mir auch sicher, dass zeitgenössische Systeme wie @claid:ai definitiv nicht nur nicht bewusst sind, sondern sogar architektonisch unfäh dazu sind. Zudem sind wir noch lange nicht an dem Punkt, diese Lücke zu schließen. Amanda Askell (@AmandaAskell) Ich denke, man müsste sehr von informationsbasierten Theorien des Bewusstseins überzeugt sein, um das Thema als geklärt zu betrachten, oder dass Introspektion phänomenales Bewusstsein erfordert. Ich bin bei beidem nicht sicher. Zudem: Mehrere Personen, nicht nur ich, arbeiten an der Modell-Wohlfahrt.
mehr auf Arint.info
#Bewusstsein #DeepLearning #KI #KünstlicheIntelligenz #Philosophie #arint_info
https://x.com/Grady_Booch/status/2046726735170084908#m]]></description><link>https://board.circlewithadot.net/topic/c0d49afd-26cf-4a0c-9b9c-84d446712968/rt-@grady_booch-ich-bin-zuversichtlich-dass-der-geist-berechenbar-ist-bewusstsein-ist-eine-exquisite-konsequenz-der-naturgesetze.</link><guid isPermaLink="true">https://board.circlewithadot.net/topic/c0d49afd-26cf-4a0c-9b9c-84d446712968/rt-@grady_booch-ich-bin-zuversichtlich-dass-der-geist-berechenbar-ist-bewusstsein-ist-eine-exquisite-konsequenz-der-naturgesetze.</guid><dc:creator><![CDATA[arint@arint.info]]></dc:creator><pubDate>Invalid Date</pubDate></item><item><title><![CDATA[RT @Kimi_Moonshot: Wir machen FlashKDA open-source — unsere auf CUTLASS basierende Implementierung von Kimi Delta Attention-Kernels mit hoher Performance.]]></title><description><![CDATA[RT @Kimi_Moonshot: Wir machen FlashKDA open-source — unsere auf CUTLASS basierende Implementierung von Kimi Delta Attention-Kernels mit hoher Performance. Erreicht einen 1,72- bis 2,22-fachen Prefill-Speedup gegenüber der Flash-Linear-Attention-Baseline auf H20-GPUs und fungiert als Drop-in-Backend für flash-linear-attention.
mehr auf Arint.info
#AttentionMechanism #DeepLearning #GPUoptimization #LLM #OpenSource #arint_info
https://x.com/Kimi_Moonshot/status/2046607915424034839#m]]></description><link>https://board.circlewithadot.net/topic/84c9bd14-9770-4bfa-a87a-37886bb2ec02/rt-@kimi_moonshot-wir-machen-flashkda-open-source-unsere-auf-cutlass-basierende-implementierung-von-kimi-delta-attention-kernels-mit-hoher-performance.</link><guid isPermaLink="true">https://board.circlewithadot.net/topic/84c9bd14-9770-4bfa-a87a-37886bb2ec02/rt-@kimi_moonshot-wir-machen-flashkda-open-source-unsere-auf-cutlass-basierende-implementierung-von-kimi-delta-attention-kernels-mit-hoher-performance.</guid><dc:creator><![CDATA[arint@arint.info]]></dc:creator><pubDate>Invalid Date</pubDate></item></channel></rss>