Ganz frisch von mir.
-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5es ist erstaunlich das Leute für Interaktion mit der Außenwelt überhaupt autonome Agenten nutzen.
Beim programmieren, also mit fester Aufgabe, festen Regeln und ein festes Ende, geht es ja noch vom Risiko, aber einfach der KI ein Blankoscheck ausstellung und einfach ihn ihr Vertrauen, das geht wie man merkt sowas von schief.
-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel Die Beschwichtigungen, das alles sei nur ein Rechte- und Konfigurationsproblem, halte ich auch für zu kurz gedacht.
LLMs verarbeiten Text. Sie unterscheiden nicht zwischen "authorisiertem" Text und externen Nutzereingaben. Selbst wenn man irgendwelche künstlichen Sonderzeichen einfügen würde, um zwischen beidem zu unterscheiden, so könnte man erst im Finetuning solche Nuancen einfügen. Das Modell kann aber jederzeit in sein Pretraining-Verhalten zurückfallen.
-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5 -
R relay@relay.infosec.exchange shared this topic
-
es ist erstaunlich das Leute für Interaktion mit der Außenwelt überhaupt autonome Agenten nutzen.
Beim programmieren, also mit fester Aufgabe, festen Regeln und ein festes Ende, geht es ja noch vom Risiko, aber einfach der KI ein Blankoscheck ausstellung und einfach ihn ihr Vertrauen, das geht wie man merkt sowas von schief.
man muss echt sagen, das gerade OpenClaw echt das gefährliche ist, was Menschen mit KI bislang gemacht haben. KI Systeme wie Claude Code und (Openai) Codex sind schon sicherer, gerade mit AGENTS md und Potenzialer SKILLS md.
Aber die grundlegenden KI Eigenheiten sind ja da und werden wohl immer da bleiben. Zumindest solange man die aktuelle LLM Architektur beibehält.
-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel vielen Dank für den Artikel und den Link. Bin immer froh, wenn du was schreibst und wenn ich das kostenlos lesen darf.
Und ich hoffe, viele lesen den, die KI blind vertrauen oder alles glauben, wie Lemminge, was openAI oder andere sagen.
Aber ganz ehrlich, wer sich mit dem Thema KI und Agenten in den letzten Monaten beschäftigt hat, für den ist das keine Überraschung.
Das ganze Thema Identity & Access Management ist in keinster Weise vorhanden.
Im ersten Schritt müsste man eigentlich jedem Agenten einen eigenen User, zusammen mit einem eigenen Autorisierungsprofil zuweisen.
Das macht aber keiner, weil unbequem.
Wobei perplexity da möglicherweise einen ersten Ansatz hat.
Aber so ist das, wenn man Unwissenden und Uninteressierten eine Atombombe in die Hand gibt. -
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel Wichtiges Thema. Ich halte diese vollautonomen LLM-basierten Agentensysteme auch sehr kritisch, aber bei dem arxiv Paper fehlt es mir schon son Bisschen an Vorsicht (es hat auch bisher kein Peer Review stattgefunden, das ist immernoch v1). Was sehr schön ist; Es gibt eine Interaktive Version vom Paper: https://agentsofchaos.baulab.info/report.html
... und es sind "Independent Researcher" ohne Affiliation dabei

-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel Wie gut, dass das Militär autonome Waffensysteme für immer und für alle verbannt hat.
-
@evawolfangel Meine Lieblingspublizierende
Danke.
Trotzdem erschreckend der Inhalt. Und gerade Bericht über "smarte" Waschmaschinen gesehen 🤮@evawolfangel Hoffentlich hat das @kattascha nicht gelesen
Ok, 2 Lieblingspublizierende... -
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel Vielen Dank! Das ist wirklich sehr erhellend (und ein wenig erheiternd irgendwie auch)
-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5 -
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel danke für den Beitrag!
Ich hoffe sehr, dass Microslop das mit ihrem agentic OS durchzieht. Wäre der schnellste Weg das großflächig loszuwerden
-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel LLMs sind halt auch nur bessere Bustabengeneratoren. Das hat einfach null Zuverlässigkeit und ich bete jeden Tag, dass die Blase endlich platzt und der Müll weitgehend vom Markt verschwindet, wie die weitgehend nutzlose Blockchain.
-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel Hast Du die Bahn schon gefragt, ob sie KI-Agenten einsetzt?
Das würde einiges erklären

-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel Vielen Dank! Sehr lesens- und bedenkenswert!
-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel Die Wissenschaft hat da gar nix. Da haben Wissenschaftler GESPIELT - das ist auch der Urgrund der KI und die Basis von Alan Turings später Rache. Sie haben dieses ausdrücklich nicht! unter Laborbedingungen getan. Dann haben sie dazu eine "Studie" herausgegeben. Sowas mag man Einzelerfahrungsbericht nennen, aber Wissenschaft? Und da dort eher der Gefühlsbegriff "Chaos" und nicht der wissenschaftliche Chaosbegriff verwendet wurde, haben die den Ernst der Lage wohl nicht verstanden.
-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5Danke für den Artikel! Hoffentlich lesen ihn (und ähnliche) viele, viele Menschen und reagieren entsprechend, bevor das Chaos richtig gefährliche Schäden anrichtet. Bis dahin ist es, glaube ich, gar nicht mehr so weit.
Diesen und künftigen Systemen darf nie völlige Autonomie gegeben werden, sonst *wird* das schiefgehen.
Schön auch gleich der Einstieg: »von einer künstlichen, nun ja, Intelligenz«

-
@evawolfangel Hast Du die Bahn schon gefragt, ob sie KI-Agenten einsetzt?
Das würde einiges erklären

@thorsten4future Das vermute ich auch immer 🥴
@evawolfangel -
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel Andererseits könnte man den Artikel auch so lesen, dass AgenticAI deutlich mehr lernen muss als nur ein bestimmtes Ziel zu erfüllen. Sie müssen richtig "sozialisiert" (Normen und Werte!) werden. Also von Profis programmiert und getestet werden. Wie toll der AI-Hype wohl dann noch ist?
-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel Hat aus Sicht eines IT-lers ja alles richtig gemacht. Wenn es gar nicht mehr weiter geht, setzen wir die Kiste halt neu auf.
-
@evawolfangel LLMs sind halt auch nur bessere Bustabengeneratoren. Das hat einfach null Zuverlässigkeit und ich bete jeden Tag, dass die Blase endlich platzt und der Müll weitgehend vom Markt verschwindet, wie die weitgehend nutzlose Blockchain.
@JaneraTiciano @evawolfangel Blockchain ist nicht per se nutzlos, es gibt sinnvolle Anwendungsfälle dafür. Diese sind jedoch sehr speziell (z. B. fälschungssichere Beurkundungen).
Den Hype damals habe ich allerdings auch nicht verstanden.
