Ganz frisch von mir.
-
@evawolfangel danke, dass du hier und bei LinkedIn dem Hype etwas entgegensetzt!
In den Kommentaren unter dem Artikel sind auch schon wieder die ersten die meinen, dass da ja nur etwas falsch bedient oder eben nicht richtig abgesichtert wurde.Ich glaube da wird großflächig ignoriert, von wem und wie LLMs und Agenten meistens eingesetzt werden. Fehlende Absicherung und zu viele Rechte sind doch eher die Regel als die Ausnahme.
Irgendwie verleiten die Tools einen ja auch dazu.@zollak @evawolfangel
Ich finde das "falsch bedient" Argument immer komischer.
Wenn man statt "KI" mit einem intelligenten Menschen zusammenarbeitet, kann man diesen nicht so falsch Prompten.Gleiches gilt für die Aussage "wenn man sich jetzt nicht mit KI beschäftigt, wird man abgehängt"
-
@evawolfangel Mir fehlen die Worte. Es wird gerade im vielen Unternehmen daran gearbeitet, LLMs gewissermaßen als Drehkreuz zwischen verschiedenen Systemen einzusetzen (bin nicht vom Fach, deshalb das holprige Vokabular). Dazu bräuchte die "KI" aber erhebliche Zugriffsrechte. Ich hoffe, dass zumindest bei uns die IT noch vorher einschreitet (Cyber Security Act, dies das).
@UlrikeHeiss @evawolfangel na die werden von oben herab bequatscht. ich denke das wird in jedem unternehmen so weiter gehen, bis es ein mal richtig groß knallt (wie zb der gelöschte email server), aber die anderen unternehmen werden daraus keine schlüsse ziehen und selber die erfahrung machen müssen
-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel Diese Geschichte könnte direkt aus einem Roman von Stanisław Lem stammen.
#ChaosAgenten #KiAgenten #AiAgents #Lem -
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel
"Das Geheimnis war weg", schreibt er, und ergänzt: "So wie alles andere auch."
-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel passend dazu
Top 5 Things CISOs Need to Do Today to Secure AI Agents
AI agents are autonomous actors with real access to data and systems, not just copilots. Token Security explains why identity-based access control is critical to prevent misuse and data exposure.
BleepingComputer (www.bleepingcomputer.com)
-
@evawolfangel Die Beschwichtigungen, das alles sei nur ein Rechte- und Konfigurationsproblem, halte ich auch für zu kurz gedacht.
LLMs verarbeiten Text. Sie unterscheiden nicht zwischen "authorisiertem" Text und externen Nutzereingaben. Selbst wenn man irgendwelche künstlichen Sonderzeichen einfügen würde, um zwischen beidem zu unterscheiden, so könnte man erst im Finetuning solche Nuancen einfügen. Das Modell kann aber jederzeit in sein Pretraining-Verhalten zurückfallen.
@kaidu @evawolfangel
Zumindest bedarf es dafür einer sehr, sehr guten Datenklassifizierung als Grundlage. Und die Firma, die das wirklich sauber und konsequent umsetzt muss mir noch begegnen… -
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel Spannender Artikel mit Ki-Illustration, den ich mir von einer KI habe vorlesen lassen.
-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel Ach herrje. In einer Welt in der man ständig zu Kontakt mit KI gezwungen wird ist das für mich sehr beängstigend.
-
@evawolfangel Mir fehlen die Worte. Es wird gerade im vielen Unternehmen daran gearbeitet, LLMs gewissermaßen als Drehkreuz zwischen verschiedenen Systemen einzusetzen (bin nicht vom Fach, deshalb das holprige Vokabular). Dazu bräuchte die "KI" aber erhebliche Zugriffsrechte. Ich hoffe, dass zumindest bei uns die IT noch vorher einschreitet (Cyber Security Act, dies das).
@UlrikeHeiss Der Vergleich mit dem Drehkreuz ist gut, finde ich. Lass dir nicht einreden, dass du das nicht verstehst oder zu holperig redest. Und vielleicht magst du solche Artikel ja hier und da mal in der Firma "fallen lassen"?

-
@zollak @evawolfangel
Ich finde das "falsch bedient" Argument immer komischer.
Wenn man statt "KI" mit einem intelligenten Menschen zusammenarbeitet, kann man diesen nicht so falsch Prompten.Gleiches gilt für die Aussage "wenn man sich jetzt nicht mit KI beschäftigt, wird man abgehängt"
@realn2s @zollak @evawolfangel wobei ich letzterem Satz tatsächlich zustimme... wenn auch nicht aus den Gründen die viele vorbringen. Zu wissen, welche KI-Zweige es gibt, wie diese funktionieren und was mit diesen möglich ist hilft durchaus zu verstehen ob eine bestimmte KI-Lösung Erfolg verspricht oder - wie bei angeblich universell einsetzbaren LLMs - gehypter Bockmist ist.
-
@holothuroid Haha, ich stelle mir gerade vor, wie ich eine IT-Abteilung anrufe und frage: wie kann ich eine E-Mail löschen? Und die so: alles anzünden ist wohl am einfachsten.
@holothuroid @evawolfangel Kommandozeile. Format
plus Enter ist noch einfacher. -
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel Ich weiß gar nicht, ob ich das lesen will - mir begegnet das Chaos anekdotisch schon so viel, dass es mich gruselt. Da fällt mir ein, ich habe neulich ein Handwerks-Angebot in einem offenbar irgendwie automatisierten Portal angenommen, seither Grillenzirpen. Mal sehen, ob da ein Mensch zwecks Terminvereinbarung erreichbar ist, bevor ich automatisch einfach nur ne Rechnung bekomme ...
-
@realn2s @zollak @evawolfangel wobei ich letzterem Satz tatsächlich zustimme... wenn auch nicht aus den Gründen die viele vorbringen. Zu wissen, welche KI-Zweige es gibt, wie diese funktionieren und was mit diesen möglich ist hilft durchaus zu verstehen ob eine bestimmte KI-Lösung Erfolg verspricht oder - wie bei angeblich universell einsetzbaren LLMs - gehypter Bockmist ist.
@Weirdaholic Absolut. @realn2s @zollak
-
@zollak @evawolfangel
Ich finde das "falsch bedient" Argument immer komischer.
Wenn man statt "KI" mit einem intelligenten Menschen zusammenarbeitet, kann man diesen nicht so falsch Prompten.Gleiches gilt für die Aussage "wenn man sich jetzt nicht mit KI beschäftigt, wird man abgehängt"
Zahlt das nicht auch voll auf die alte Selbstoptimierungs-Gelddruckmaschine der McKommunikationswissenschaft ein ("Richtig kommunizieren in drei Lektionen"), dass die Last des Verstandenwerdens komplett beim Sender liegt?
Und insofern, wie praktisch, sind wir ja weitgehend längst neoliberal eingenordet.
-
@UlrikeHeiss Der Vergleich mit dem Drehkreuz ist gut, finde ich. Lass dir nicht einreden, dass du das nicht verstehst oder zu holperig redest. Und vielleicht magst du solche Artikel ja hier und da mal in der Firma "fallen lassen"?

@evawolfangel Liebend gerne.
-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel Guter Artikel, funny und wenn ich mir vorstelle wie sehr der Hype ist auch etwas beängstigend...
Wusstest du, dass es ein HTLM Meta-Tag gibt mit dem unter einem Link in Mastodon der Fediverse Account der/des Autor/in verlinkt wird, das wäre mega cool wenn die Zeit das machen würde: https://blog.joinmastodon.org/2024/07/highlighting-journalism-on-mastodon/
-
@evawolfangel Ich weiß gar nicht, ob ich das lesen will - mir begegnet das Chaos anekdotisch schon so viel, dass es mich gruselt. Da fällt mir ein, ich habe neulich ein Handwerks-Angebot in einem offenbar irgendwie automatisierten Portal angenommen, seither Grillenzirpen. Mal sehen, ob da ein Mensch zwecks Terminvereinbarung erreichbar ist, bevor ich automatisch einfach nur ne Rechnung bekomme ...
@lipow @evawolfangel Ein Sanitätshaus hier in der Gegend hat seinen Telefon-KI-Assistenten wieder abgeschaltet nachdem Servicetechniker*innen häufiger zu anderen Terminen Hausbesuche durchgeführt haben als das System mit den Kund*innen vereinbart hatte.
-
@evawolfangel Mir fehlen die Worte. Es wird gerade im vielen Unternehmen daran gearbeitet, LLMs gewissermaßen als Drehkreuz zwischen verschiedenen Systemen einzusetzen (bin nicht vom Fach, deshalb das holprige Vokabular). Dazu bräuchte die "KI" aber erhebliche Zugriffsrechte. Ich hoffe, dass zumindest bei uns die IT noch vorher einschreitet (Cyber Security Act, dies das).
@UlrikeHeiss @evawolfangel das kommt dann konkret auf die implementierung an. Das drehkreuz (schöne metapher!) muss ja nicht zwangsläufig administrative rechte besitzen. ordentliche security baut hoffentlich auf dem least-privilege prinzip auf, wobei dann natürlich die annahme besteht, dass jemand aus security-sicht draufschaut und die entscheidungskompetenz dazu hat, auch schwierig ^^
-
@zollak @evawolfangel
Ich finde das "falsch bedient" Argument immer komischer.
Wenn man statt "KI" mit einem intelligenten Menschen zusammenarbeitet, kann man diesen nicht so falsch Prompten.Gleiches gilt für die Aussage "wenn man sich jetzt nicht mit KI beschäftigt, wird man abgehängt"
@realn2s
Die Tools sind eben zum einen schlauer als die schlausten Menschen (deswegen werden sie uns ja alle ersetzen) und trotzdem darf man diese Superintelligenz nicht beim Umgang selbst erwarten.
Ganz naiv gedacht müssten doch bei so viel Intelligenz schlechte Prompts auch einfach erkannt und behoben werden können...
Eine Kollegin hat LLMs mal als extrem motivierte und fleißige Schülerpraktikanten beschrieben. Das fand ich relativ passend.
-
@a_goodall_spaceship Ah mist, Ironie, entschuldige, das kam wohl nicht an. Genau darauf wollte ich mit dem Satz „Die Wissenschaft hat festgestellt“ ironisch anspielen. Hast du den Text gelesen? Ich habe die Natur des Experiments bewusst so transparent wie möglich gemacht, um eben nicht den Eindruck zu erwecken, dass es sich um eine Studie etc. handelt. Ich finde die Ergebnisse trotzdem valide im Sinne von: sie decken wichtige Probleme auf und machen sie greifbar/verstehbar.
@evawolfangel Ich hab's jetzt nochmal gelesen, sogar das Intro der Original-Studie.
Alles kommt zwar modern witzig spielerisch rüber, aber mir scheint alles mit wissenschaftlich-informativem Anspruch veröffentlicht zu sein.
Es ist halt noch ein witziges Thema, wie mit Schleimpilzen, aber Ironie bin ich irgendwie zu blöd zu entdecken.
Das kann aber auch an meiner zunehmenden Krampfneigung bei dem Thema liegen.
Aber bitte weiterhin nicht mit Erklär-Icons nachstecken, ich blamiere mich lieber.