Ganz frisch von mir.
-
@evawolfangel Ich weiß gar nicht, ob ich das lesen will - mir begegnet das Chaos anekdotisch schon so viel, dass es mich gruselt. Da fällt mir ein, ich habe neulich ein Handwerks-Angebot in einem offenbar irgendwie automatisierten Portal angenommen, seither Grillenzirpen. Mal sehen, ob da ein Mensch zwecks Terminvereinbarung erreichbar ist, bevor ich automatisch einfach nur ne Rechnung bekomme ...
@lipow @evawolfangel Ein Sanitätshaus hier in der Gegend hat seinen Telefon-KI-Assistenten wieder abgeschaltet nachdem Servicetechniker*innen häufiger zu anderen Terminen Hausbesuche durchgeführt haben als das System mit den Kund*innen vereinbart hatte.
-
@evawolfangel Mir fehlen die Worte. Es wird gerade im vielen Unternehmen daran gearbeitet, LLMs gewissermaßen als Drehkreuz zwischen verschiedenen Systemen einzusetzen (bin nicht vom Fach, deshalb das holprige Vokabular). Dazu bräuchte die "KI" aber erhebliche Zugriffsrechte. Ich hoffe, dass zumindest bei uns die IT noch vorher einschreitet (Cyber Security Act, dies das).
@UlrikeHeiss @evawolfangel das kommt dann konkret auf die implementierung an. Das drehkreuz (schöne metapher!) muss ja nicht zwangsläufig administrative rechte besitzen. ordentliche security baut hoffentlich auf dem least-privilege prinzip auf, wobei dann natürlich die annahme besteht, dass jemand aus security-sicht draufschaut und die entscheidungskompetenz dazu hat, auch schwierig ^^
-
@zollak @evawolfangel
Ich finde das "falsch bedient" Argument immer komischer.
Wenn man statt "KI" mit einem intelligenten Menschen zusammenarbeitet, kann man diesen nicht so falsch Prompten.Gleiches gilt für die Aussage "wenn man sich jetzt nicht mit KI beschäftigt, wird man abgehängt"
@realn2s
Die Tools sind eben zum einen schlauer als die schlausten Menschen (deswegen werden sie uns ja alle ersetzen) und trotzdem darf man diese Superintelligenz nicht beim Umgang selbst erwarten.
Ganz naiv gedacht müssten doch bei so viel Intelligenz schlechte Prompts auch einfach erkannt und behoben werden können...
Eine Kollegin hat LLMs mal als extrem motivierte und fleißige Schülerpraktikanten beschrieben. Das fand ich relativ passend.
-
@a_goodall_spaceship Ah mist, Ironie, entschuldige, das kam wohl nicht an. Genau darauf wollte ich mit dem Satz „Die Wissenschaft hat festgestellt“ ironisch anspielen. Hast du den Text gelesen? Ich habe die Natur des Experiments bewusst so transparent wie möglich gemacht, um eben nicht den Eindruck zu erwecken, dass es sich um eine Studie etc. handelt. Ich finde die Ergebnisse trotzdem valide im Sinne von: sie decken wichtige Probleme auf und machen sie greifbar/verstehbar.
@evawolfangel Ich hab's jetzt nochmal gelesen, sogar das Intro der Original-Studie.
Alles kommt zwar modern witzig spielerisch rüber, aber mir scheint alles mit wissenschaftlich-informativem Anspruch veröffentlicht zu sein.
Es ist halt noch ein witziges Thema, wie mit Schleimpilzen, aber Ironie bin ich irgendwie zu blöd zu entdecken.
Das kann aber auch an meiner zunehmenden Krampfneigung bei dem Thema liegen.
Aber bitte weiterhin nicht mit Erklär-Icons nachstecken, ich blamiere mich lieber. -
@UlrikeHeiss Der Vergleich mit dem Drehkreuz ist gut, finde ich. Lass dir nicht einreden, dass du das nicht verstehst oder zu holperig redest. Und vielleicht magst du solche Artikel ja hier und da mal in der Firma "fallen lassen"?

@evawolfangel
Ich habe ihn gerade "in eine Firma fallen lassen." ^^
@UlrikeHeiss -
@lipow @evawolfangel Ein Sanitätshaus hier in der Gegend hat seinen Telefon-KI-Assistenten wieder abgeschaltet nachdem Servicetechniker*innen häufiger zu anderen Terminen Hausbesuche durchgeführt haben als das System mit den Kund*innen vereinbart hatte.
@lipow @evawolfangel „Tobi“, der KI-Assistent von Vodafone, wusste vor ein paar Monaten nicht dass man auch einen reinen Kabelfernsehanschluss haben kann, und wenn man den LTE-Router „Gigacube“ nutzt kann „Tobi“ auch nicht helfen. Die Technischer-Service-Telefonnummer erfragt man dann beim Vertrieb, die kennen das inzwischen.
-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel Ich bin nicht überrascht. Jetzt ist der nächste Schritt zu verstehen, wie man das Tool KI Agenten sicher verwenden kann.
-
@zollak @evawolfangel
Ich finde das "falsch bedient" Argument immer komischer.
Wenn man statt "KI" mit einem intelligenten Menschen zusammenarbeitet, kann man diesen nicht so falsch Prompten.Gleiches gilt für die Aussage "wenn man sich jetzt nicht mit KI beschäftigt, wird man abgehängt"
@realn2s @zollak @evawolfangel
Ich würde schon sagen, dass man auch Menschen "falsch prompten" kann. Schonmal eine Übungs-/Klausuraufgabe gestellt und hinterher gedacht "Mist, so wie die das gelöst haben hab ich das doch gar nicht gemeint!"?
Aber ich würde auch sagen, dass das bei KI ne andere Größenordnung ist. Bei Menschen muss nicht nur ich mein eigenes Verhalten mit 17 Kursen/Fortbildungen in "Prompting" (bzw. Personalführung) massiv umkrempeln. Da können sich *beide* Seiten entwickeln.
-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel es ist immer wieder erstaunlich, wie Entwicklerinnen und Entwickler glauben an alles gedacht zu haben und dann kommt die Realität und straft sie Lügen. Mikrowellengeräte sind toll, trotzdem ist es eine blöde Idee eine Katze rein zu packen.
-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel Vielen Dank für diesen Einblick. Ist noch schlimmer als angenommen :

-
@evawolfangel Vielen Dank für diesen Einblick. Ist noch schlimmer als angenommen :

@evawolfangel Wenn ich mir vorstelle, dass viele Verwaltungen vorhaben, Personal zu reduzieren, um Verwaltungsabläufe schneller über KI regeln zu lassen... das wird uns so auf die Füße fallen. Gruselig.
-
@evawolfangel Hoffentlich hat das @kattascha nicht gelesen
Ok, 2 Lieblingspublizierende...@slesa Die wunderbare @evawolfangel ist auch eine meiner Lieblingspublizierenden

-
@realn2s
Die Tools sind eben zum einen schlauer als die schlausten Menschen (deswegen werden sie uns ja alle ersetzen) und trotzdem darf man diese Superintelligenz nicht beim Umgang selbst erwarten.
Ganz naiv gedacht müssten doch bei so viel Intelligenz schlechte Prompts auch einfach erkannt und behoben werden können...
Eine Kollegin hat LLMs mal als extrem motivierte und fleißige Schülerpraktikanten beschrieben. Das fand ich relativ passend.
@zollak KI hat keinerlei Intelligenz. Nicht mal die einer Ameise. @realn2s @evawolfangel
-
@realn2s @zollak @evawolfangel wobei ich letzterem Satz tatsächlich zustimme... wenn auch nicht aus den Gründen die viele vorbringen. Zu wissen, welche KI-Zweige es gibt, wie diese funktionieren und was mit diesen möglich ist hilft durchaus zu verstehen ob eine bestimmte KI-Lösung Erfolg verspricht oder - wie bei angeblich universell einsetzbaren LLMs - gehypter Bockmist ist.
@Weirdaholic @zollak @evawolfangel
Ich stimme dem Teil "sich damit beschäftigen ist sinnvoll" voll zu (abgesehen von den ethischen Implikationen)
Ich stimme nur dem "wenn man es jetzt nicht tut, ist man (für immer) abgehängt" nicht zu.
Es gibt m.E. keinen dauerhaften First-Mover Vorteil.
Wenn man Firmen betrachtet: Google war nicht die erste Suchmaschine, Apple nicht der erste Computer oder das erste Smartphone (und der Android Markt ist inzwischen viel größer), Facebook war nicht das erste Soziale Netzwerk. Und Microsoft war quasi überall zu spät (GUI, Tabellenkalkulation, Datenbanken, Internet, Browser, Email, Cloud, ..) ist aber auf vielen der Gebiete jetzt vorherrschend.
Auf den Punkt gebracht, ja sich mit KI auszukennen ist gut. Aber man kann sich (speziell als Firma) auch Zeit lassen und dann anfangen, wenn sich der Nebel gelichtet hat.
Für Privatpersonen ist natürlich die KI Expertise ein absolutes "Verkaufsargument" auf dem Jobmarkt
-
@slesa Die wunderbare @evawolfangel ist auch eine meiner Lieblingspublizierenden

@kattascha Und das gilt ebenso andersherum.
Same here. -
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel Und das in Kombination mit einem komplett unfähigen Präsidenten, der sicher die KI beauftragt: "Beende den Krieg in Iran" und Wargames ist echt kein Science Fiction mehr.
-
@zollak KI hat keinerlei Intelligenz. Nicht mal die einer Ameise. @realn2s @evawolfangel
@NatureMC
Darauf wollte ich grob hinaus, ja.
Diese Erkenntnis müsste sich noch etwas weiter verbreiten. Viele scheinen ja gern Eloquenz mit Intelligenz zu verwechseln.
Oder machen mit, weil sie am Hype verdienen wollen. -
@lumiukko Mein Verdacht war am Anfang, dass das Ganze Bluff und die Autoren KI-Agenten sind. Schon die E-Mail-Adresse!
Aber dann hab ich das interaktive Paper gelesen und fand die Beispiele wahnsinnig gut. Dann habe ich also versucht rauszukriegen, ob alle Beteiligten echt sind. Ich glaube schon. und fairerweise muss man sagen, dass sie das selbst sehr transparent machen, dass es keine Studie im eigentlichen Sinne ist.@evawolfangel Stimmt, dass die Autor:innen fake sein könnten, hatte ich gar nicht überlegt. Tatsächlich fiel mir aber auf, dass die Affiliations relativ grob sind, also keine Departments oder Fakultäten, nur die Unis.
-
@evawolfangel danke, dass du hier und bei LinkedIn dem Hype etwas entgegensetzt!
In den Kommentaren unter dem Artikel sind auch schon wieder die ersten die meinen, dass da ja nur etwas falsch bedient oder eben nicht richtig abgesichtert wurde.Ich glaube da wird großflächig ignoriert, von wem und wie LLMs und Agenten meistens eingesetzt werden. Fehlende Absicherung und zu viele Rechte sind doch eher die Regel als die Ausnahme.
Irgendwie verleiten die Tools einen ja auch dazu.@zollak @evawolfangel ich gehe davon aus, das die wenigsten Unternehmen, die gerade auf den "AI or die" Zug aufspringen, die Absicherung ihrer Agenten wirklich auf dem Radar haben. Da werden dann auch gerne mal bestehende Autorisierungssysteme für menschliche Akteure, oft rollen-basiert, druntergebaut, die einfach nicht für non-human gemacht sind. Aber selbst eine ideale Autorisierung kann das Risiko nur verringern.
-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel wow.. einfach..🤯 Danke dafür.