Kolumne: Softwareagenten können das Verhalten menschlicher Dilettanten offenbar bereits hervorragend simulieren.
-
Kolumne: Softwareagenten können das Verhalten menschlicher Dilettanten offenbar bereits hervorragend simulieren. Willkommen im Zeitalter der Künstlichen Dummheit.

-
Kolumne: Softwareagenten können das Verhalten menschlicher Dilettanten offenbar bereits hervorragend simulieren. Willkommen im Zeitalter der Künstlichen Dummheit.

Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6 -
Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6Es stellt sich aber immer nur die Frage ob es wirklich eine KI war?
Ich glaube viele vergessen da immer etwas entscheidendes: nämlich dass es immer noch vom Menschen erzeugte Algorithmen sind, mit dem diese leblosen Maschinen gefüttert werden.
Es könnten also auch Angriffe oder Testversuche solcher gewesen sein.
Sich deshalb vollständig auf diese KI zu verlassen kann also im schlimmsten Fall tödlich sein.
-
Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6Abgesehen vom Artikel:
"der werfe die erste Maus" danke für diesen Lacher den ich künftig häufig verwenden werde!
-
Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6@chrisstoecker Danke. Auch für die launigen Beispiele, was Maschinen so angestellt haben. Und, wieder eine "Sorry, told you so" Kolumne.
-
Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6@chrisstoecker Danke für den Artikel. Ich frage mich allerdings, ob "alignment" das Problem wirklich trifft - da schwingt ja sowas wie Willensfreiheit mit. Die einem LLM oder einem KI-Agenten zuzuschreiben, greift mir zu weit. Das Zauberlehrling-Beispiel scheint es mir eher zu treffen. Oder halt doch ... Goblins.
-
Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6@chrisstoecker Eigentlich hat die Menschheit ja genug Probleme mit der Klimakrise.
Auch das noch!


-
@chrisstoecker Danke für den Artikel. Ich frage mich allerdings, ob "alignment" das Problem wirklich trifft - da schwingt ja sowas wie Willensfreiheit mit. Die einem LLM oder einem KI-Agenten zuzuschreiben, greift mir zu weit. Das Zauberlehrling-Beispiel scheint es mir eher zu treffen. Oder halt doch ... Goblins.
@_tillwe_ Ich würde Alignment nicht mit so schwierigen Vokabeln wie Willensfreiheit verknüpfen (das Thema haben wir ja nicht mal bei uns selbst ausdiskutiert :)). Es geht einfach darum, dass es mindestens sehr schwierig ist, ein Problem so exakt zu beschreiben, dass die Maschine beim Lösungsversuch nicht lauter nicht intendierte Dinge tut. Ich finde den Zauberlehrling und den Flaschengeist auch sehr passend.
-
Es stellt sich aber immer nur die Frage ob es wirklich eine KI war?
Ich glaube viele vergessen da immer etwas entscheidendes: nämlich dass es immer noch vom Menschen erzeugte Algorithmen sind, mit dem diese leblosen Maschinen gefüttert werden.
Es könnten also auch Angriffe oder Testversuche solcher gewesen sein.
Sich deshalb vollständig auf diese KI zu verlassen kann also im schlimmsten Fall tödlich sein.
@JamesBont Dazu steht einiges im Text.
-
Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6@chrisstoecker
#KI ist künstliche Imitation.
Deshalb kann diese so programmierte Software nur begrenzt etwas Sinnvolles veranlassen und gelungen in die Irre führen.
Es sind die Menschen, die mehr darin zu erkennen glauben.KI im Spiegel der Gedanken - Werawelt-Blog
Wir Menschen projizieren unsere geistigen Inhalte in das Internet und konservieren sie dort. Das Internet spiegelt dadurch den Geist der Menschheit. Für KI werden massenhaft die Erzeugnisse des menschlichen Geistes im Internet abgegriffen. KI wird dadurch zum Spiegel des Spiegels der geistigen Inhalte der Menschheit. Wird nun etwas durch KI erzeugt, potenziert sich der Blick
Werawelt-Blog - Weltgeschehen, Wissenschaft, Weltsicht (blog.werawelt.de)
-
Kolumne: Softwareagenten können das Verhalten menschlicher Dilettanten offenbar bereits hervorragend simulieren. Willkommen im Zeitalter der Künstlichen Dummheit.

@chrisstoecker
"To err is human, to really foul things up requires a computer." - attributed to Bill Vaughan or Agatha Christie -
@_tillwe_ Ich würde Alignment nicht mit so schwierigen Vokabeln wie Willensfreiheit verknüpfen (das Thema haben wir ja nicht mal bei uns selbst ausdiskutiert :)). Es geht einfach darum, dass es mindestens sehr schwierig ist, ein Problem so exakt zu beschreiben, dass die Maschine beim Lösungsversuch nicht lauter nicht intendierte Dinge tut. Ich finde den Zauberlehrling und den Flaschengeist auch sehr passend.
@chrisstoecker @_tillwe_ Was ich da total interessant finde: Das gleiche Problem gibt es ja auch ohne KI mit echten Menschen in Staaten oder in Firmen. Goodhart's Law oder diese Kobra-Effekte sind ja bekannt und im Kern ja auch Ausdruck des gleichen Phänomen: Der Lösungsversuch macht dann diverse nicht intendierte Dinge und am Ende hast du eine Kobraplage.
-
Otto?
Glaubst Du dass jedes Unternehmen sich die Hacker leisten kann die zur Absicherung des eigenes Netzwerkes nötig wären?Das gilt auch für SW-Entwicklung. Denn viele sind nur kleine Klitschen, bestehend aus ein paar Leuten aber gleichzeitig gezwungen mithalten zu müssen.
Was viele dabei vergessen: es treibt auch die Kosten in die Höhe, was dann wiederum zu Preissteigerungen führt.
Da hat sich die IT-Branche einen richtig schönen Kreislauf gebildet ...
-
R relay@relay.infosec.exchange shared this topic