Ganz frisch von mir.
-
@UlrikeHeiss Der Vergleich mit dem Drehkreuz ist gut, finde ich. Lass dir nicht einreden, dass du das nicht verstehst oder zu holperig redest. Und vielleicht magst du solche Artikel ja hier und da mal in der Firma "fallen lassen"?

@evawolfangel
Ich habe ihn gerade "in eine Firma fallen lassen." ^^
@UlrikeHeiss -
@lipow @evawolfangel Ein Sanitätshaus hier in der Gegend hat seinen Telefon-KI-Assistenten wieder abgeschaltet nachdem Servicetechniker*innen häufiger zu anderen Terminen Hausbesuche durchgeführt haben als das System mit den Kund*innen vereinbart hatte.
@lipow @evawolfangel „Tobi“, der KI-Assistent von Vodafone, wusste vor ein paar Monaten nicht dass man auch einen reinen Kabelfernsehanschluss haben kann, und wenn man den LTE-Router „Gigacube“ nutzt kann „Tobi“ auch nicht helfen. Die Technischer-Service-Telefonnummer erfragt man dann beim Vertrieb, die kennen das inzwischen.
-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel Ich bin nicht überrascht. Jetzt ist der nächste Schritt zu verstehen, wie man das Tool KI Agenten sicher verwenden kann.
-
@zollak @evawolfangel
Ich finde das "falsch bedient" Argument immer komischer.
Wenn man statt "KI" mit einem intelligenten Menschen zusammenarbeitet, kann man diesen nicht so falsch Prompten.Gleiches gilt für die Aussage "wenn man sich jetzt nicht mit KI beschäftigt, wird man abgehängt"
@realn2s @zollak @evawolfangel
Ich würde schon sagen, dass man auch Menschen "falsch prompten" kann. Schonmal eine Übungs-/Klausuraufgabe gestellt und hinterher gedacht "Mist, so wie die das gelöst haben hab ich das doch gar nicht gemeint!"?
Aber ich würde auch sagen, dass das bei KI ne andere Größenordnung ist. Bei Menschen muss nicht nur ich mein eigenes Verhalten mit 17 Kursen/Fortbildungen in "Prompting" (bzw. Personalführung) massiv umkrempeln. Da können sich *beide* Seiten entwickeln.
-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel es ist immer wieder erstaunlich, wie Entwicklerinnen und Entwickler glauben an alles gedacht zu haben und dann kommt die Realität und straft sie Lügen. Mikrowellengeräte sind toll, trotzdem ist es eine blöde Idee eine Katze rein zu packen.
-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel Vielen Dank für diesen Einblick. Ist noch schlimmer als angenommen :

-
@evawolfangel Vielen Dank für diesen Einblick. Ist noch schlimmer als angenommen :

@evawolfangel Wenn ich mir vorstelle, dass viele Verwaltungen vorhaben, Personal zu reduzieren, um Verwaltungsabläufe schneller über KI regeln zu lassen... das wird uns so auf die Füße fallen. Gruselig.
-
@evawolfangel Hoffentlich hat das @kattascha nicht gelesen
Ok, 2 Lieblingspublizierende...@slesa Die wunderbare @evawolfangel ist auch eine meiner Lieblingspublizierenden

-
@realn2s
Die Tools sind eben zum einen schlauer als die schlausten Menschen (deswegen werden sie uns ja alle ersetzen) und trotzdem darf man diese Superintelligenz nicht beim Umgang selbst erwarten.
Ganz naiv gedacht müssten doch bei so viel Intelligenz schlechte Prompts auch einfach erkannt und behoben werden können...
Eine Kollegin hat LLMs mal als extrem motivierte und fleißige Schülerpraktikanten beschrieben. Das fand ich relativ passend.
@zollak KI hat keinerlei Intelligenz. Nicht mal die einer Ameise. @realn2s @evawolfangel
-
@realn2s @zollak @evawolfangel wobei ich letzterem Satz tatsächlich zustimme... wenn auch nicht aus den Gründen die viele vorbringen. Zu wissen, welche KI-Zweige es gibt, wie diese funktionieren und was mit diesen möglich ist hilft durchaus zu verstehen ob eine bestimmte KI-Lösung Erfolg verspricht oder - wie bei angeblich universell einsetzbaren LLMs - gehypter Bockmist ist.
@Weirdaholic @zollak @evawolfangel
Ich stimme dem Teil "sich damit beschäftigen ist sinnvoll" voll zu (abgesehen von den ethischen Implikationen)
Ich stimme nur dem "wenn man es jetzt nicht tut, ist man (für immer) abgehängt" nicht zu.
Es gibt m.E. keinen dauerhaften First-Mover Vorteil.
Wenn man Firmen betrachtet: Google war nicht die erste Suchmaschine, Apple nicht der erste Computer oder das erste Smartphone (und der Android Markt ist inzwischen viel größer), Facebook war nicht das erste Soziale Netzwerk. Und Microsoft war quasi überall zu spät (GUI, Tabellenkalkulation, Datenbanken, Internet, Browser, Email, Cloud, ..) ist aber auf vielen der Gebiete jetzt vorherrschend.
Auf den Punkt gebracht, ja sich mit KI auszukennen ist gut. Aber man kann sich (speziell als Firma) auch Zeit lassen und dann anfangen, wenn sich der Nebel gelichtet hat.
Für Privatpersonen ist natürlich die KI Expertise ein absolutes "Verkaufsargument" auf dem Jobmarkt
-
@slesa Die wunderbare @evawolfangel ist auch eine meiner Lieblingspublizierenden

@kattascha Und das gilt ebenso andersherum.
Same here. -
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel Und das in Kombination mit einem komplett unfähigen Präsidenten, der sicher die KI beauftragt: "Beende den Krieg in Iran" und Wargames ist echt kein Science Fiction mehr.
-
@zollak KI hat keinerlei Intelligenz. Nicht mal die einer Ameise. @realn2s @evawolfangel
@NatureMC
Darauf wollte ich grob hinaus, ja.
Diese Erkenntnis müsste sich noch etwas weiter verbreiten. Viele scheinen ja gern Eloquenz mit Intelligenz zu verwechseln.
Oder machen mit, weil sie am Hype verdienen wollen. -
@lumiukko Mein Verdacht war am Anfang, dass das Ganze Bluff und die Autoren KI-Agenten sind. Schon die E-Mail-Adresse!
Aber dann hab ich das interaktive Paper gelesen und fand die Beispiele wahnsinnig gut. Dann habe ich also versucht rauszukriegen, ob alle Beteiligten echt sind. Ich glaube schon. und fairerweise muss man sagen, dass sie das selbst sehr transparent machen, dass es keine Studie im eigentlichen Sinne ist.@evawolfangel Stimmt, dass die Autor:innen fake sein könnten, hatte ich gar nicht überlegt. Tatsächlich fiel mir aber auf, dass die Affiliations relativ grob sind, also keine Departments oder Fakultäten, nur die Unis.
-
@evawolfangel danke, dass du hier und bei LinkedIn dem Hype etwas entgegensetzt!
In den Kommentaren unter dem Artikel sind auch schon wieder die ersten die meinen, dass da ja nur etwas falsch bedient oder eben nicht richtig abgesichtert wurde.Ich glaube da wird großflächig ignoriert, von wem und wie LLMs und Agenten meistens eingesetzt werden. Fehlende Absicherung und zu viele Rechte sind doch eher die Regel als die Ausnahme.
Irgendwie verleiten die Tools einen ja auch dazu.@zollak @evawolfangel ich gehe davon aus, das die wenigsten Unternehmen, die gerade auf den "AI or die" Zug aufspringen, die Absicherung ihrer Agenten wirklich auf dem Radar haben. Da werden dann auch gerne mal bestehende Autorisierungssysteme für menschliche Akteure, oft rollen-basiert, druntergebaut, die einfach nicht für non-human gemacht sind. Aber selbst eine ideale Autorisierung kann das Risiko nur verringern.
-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel wow.. einfach..🤯 Danke dafür.
-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel
Ja, offensichtlich fehlt da Logik.
Wobei jetzt die Frage gestellt werden muss, ob Logik wirklich eine universelle Eigenschaft ist, die immer gleich und unveränderlich ist. -
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5 -
@realn2s
Die Tools sind eben zum einen schlauer als die schlausten Menschen (deswegen werden sie uns ja alle ersetzen) und trotzdem darf man diese Superintelligenz nicht beim Umgang selbst erwarten.
Ganz naiv gedacht müssten doch bei so viel Intelligenz schlechte Prompts auch einfach erkannt und behoben werden können...
Eine Kollegin hat LLMs mal als extrem motivierte und fleißige Schülerpraktikanten beschrieben. Das fand ich relativ passend.
@zollak @evawolfangel
Ich glaube nur dass ein Schülerpraktikant einen Fehler nur einmal macht (also eine bestimmte Art von Fehlern)Bei der KI geh ich davon aus, sie macht ihn immer wieder. Man muss sie vielleicht nur anders Promten.
-
Ganz frisch von mir. Die Wissenschaft hat festgestellt: das mit den KI-Agenten geht schief. (und zwar nicht, weil Superintelligenz und Weltuntergang, sondern weil Natur von KI-Systemen und so)
Freebie-Link für euch
https://www.zeit.de/digital/datenschutz/2026-03/ki-agenten-studie-software-daten-sicherheit?freebie=b79c27e5@evawolfangel
Agentische KI ist kein Produktproblem, sondern ein Infrastruktur- und Kontrollproblem. Die Herausforderung ist nicht, KI zu bauen, sondern sie sicher betreibbar zu machen.