Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (Cyborg)
  • No Skin
Collapse
Brand Logo

CIRCLE WITH A DOT

  1. Home
  2. Uncategorized
  3. Kolumne: Softwareagenten können das Verhalten menschlicher Dilettanten offenbar bereits hervorragend simulieren.

Kolumne: Softwareagenten können das Verhalten menschlicher Dilettanten offenbar bereits hervorragend simulieren.

Scheduled Pinned Locked Moved Uncategorized
13 Posts 9 Posters 0 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

    Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
    🎁 https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6

    ralpho@hessen.socialR This user is from outside of this forum
    ralpho@hessen.socialR This user is from outside of this forum
    ralpho@hessen.social
    wrote last edited by
    #4

    @chrisstoecker

    Abgesehen vom Artikel:

    "der werfe die erste Maus" danke für diesen Lacher den ich künftig häufig verwenden werde!

    1 Reply Last reply
    0
    • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

      Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
      🎁 https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6

      sabbeljan@norden.socialS This user is from outside of this forum
      sabbeljan@norden.socialS This user is from outside of this forum
      sabbeljan@norden.social
      wrote last edited by
      #5

      @chrisstoecker Danke. Auch für die launigen Beispiele, was Maschinen so angestellt haben. Und, wieder eine "Sorry, told you so" Kolumne.

      1 Reply Last reply
      0
      • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

        Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
        🎁 https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6

        _tillwe_@mastodon.social_ This user is from outside of this forum
        _tillwe_@mastodon.social_ This user is from outside of this forum
        _tillwe_@mastodon.social
        wrote last edited by
        #6

        @chrisstoecker Danke für den Artikel. Ich frage mich allerdings, ob "alignment" das Problem wirklich trifft - da schwingt ja sowas wie Willensfreiheit mit. Die einem LLM oder einem KI-Agenten zuzuschreiben, greift mir zu weit. Das Zauberlehrling-Beispiel scheint es mir eher zu treffen. Oder halt doch ... Goblins.

        chrisstoecker@mastodon.socialC 1 Reply Last reply
        0
        • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

          Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
          🎁 https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6

          nullbockgeneration@mastodon.socialN This user is from outside of this forum
          nullbockgeneration@mastodon.socialN This user is from outside of this forum
          nullbockgeneration@mastodon.social
          wrote last edited by
          #7

          @chrisstoecker Eigentlich hat die Menschheit ja genug Probleme mit der Klimakrise.
          Auch das noch!😁

          Link Preview ImageLink Preview Image
          1 Reply Last reply
          0
          • _tillwe_@mastodon.social_ _tillwe_@mastodon.social

            @chrisstoecker Danke für den Artikel. Ich frage mich allerdings, ob "alignment" das Problem wirklich trifft - da schwingt ja sowas wie Willensfreiheit mit. Die einem LLM oder einem KI-Agenten zuzuschreiben, greift mir zu weit. Das Zauberlehrling-Beispiel scheint es mir eher zu treffen. Oder halt doch ... Goblins.

            chrisstoecker@mastodon.socialC This user is from outside of this forum
            chrisstoecker@mastodon.socialC This user is from outside of this forum
            chrisstoecker@mastodon.social
            wrote last edited by
            #8

            @_tillwe_ Ich würde Alignment nicht mit so schwierigen Vokabeln wie Willensfreiheit verknüpfen (das Thema haben wir ja nicht mal bei uns selbst ausdiskutiert :)). Es geht einfach darum, dass es mindestens sehr schwierig ist, ein Problem so exakt zu beschreiben, dass die Maschine beim Lösungsversuch nicht lauter nicht intendierte Dinge tut. Ich finde den Zauberlehrling und den Flaschengeist auch sehr passend.

            mschfr@mastodon.socialM 1 Reply Last reply
            0
            • jamesbont@mastodon.socialJ jamesbont@mastodon.social

              @chrisstoecker

              Es stellt sich aber immer nur die Frage ob es wirklich eine KI war?

              Ich glaube viele vergessen da immer etwas entscheidendes: nämlich dass es immer noch vom Menschen erzeugte Algorithmen sind, mit dem diese leblosen Maschinen gefüttert werden.

              Es könnten also auch Angriffe oder Testversuche solcher gewesen sein.

              Sich deshalb vollständig auf diese KI zu verlassen kann also im schlimmsten Fall tödlich sein.

              chrisstoecker@mastodon.socialC This user is from outside of this forum
              chrisstoecker@mastodon.socialC This user is from outside of this forum
              chrisstoecker@mastodon.social
              wrote last edited by
              #9

              @JamesBont Dazu steht einiges im Text.

              1 Reply Last reply
              0
              • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

                Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
                🎁 https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6

                werawelt@social.tchncs.deW This user is from outside of this forum
                werawelt@social.tchncs.deW This user is from outside of this forum
                werawelt@social.tchncs.de
                wrote last edited by
                #10

                @chrisstoecker
                #KI ist künstliche Imitation.
                Deshalb kann diese so programmierte Software nur begrenzt etwas Sinnvolles veranlassen und gelungen in die Irre führen.
                Es sind die Menschen, die mehr darin zu erkennen glauben.

                Link Preview Image
                KI im Spiegel der Gedanken - Werawelt-Blog

                Wir Menschen projizieren unsere geistigen Inhalte in das Internet und konservieren sie dort. Das Internet spiegelt dadurch den Geist der Menschheit. Für KI werden massenhaft die Erzeugnisse des menschlichen Geistes im Internet abgegriffen. KI wird dadurch zum Spiegel des Spiegels der geistigen Inhalte der Menschheit. Wird nun etwas durch KI erzeugt, potenziert sich der Blick

                favicon

                Werawelt-Blog - Weltgeschehen, Wissenschaft, Weltsicht (blog.werawelt.de)

                1 Reply Last reply
                0
                • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

                  Kolumne: Softwareagenten können das Verhalten menschlicher Dilettanten offenbar bereits hervorragend simulieren. Willkommen im Zeitalter der Künstlichen Dummheit.

                  Link Preview Image
                  schmidt_fu@mstdn.socialS This user is from outside of this forum
                  schmidt_fu@mstdn.socialS This user is from outside of this forum
                  schmidt_fu@mstdn.social
                  wrote last edited by
                  #11

                  @chrisstoecker
                  "To err is human, to really foul things up requires a computer." - attributed to Bill Vaughan or Agatha Christie

                  1 Reply Last reply
                  0
                  • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

                    @_tillwe_ Ich würde Alignment nicht mit so schwierigen Vokabeln wie Willensfreiheit verknüpfen (das Thema haben wir ja nicht mal bei uns selbst ausdiskutiert :)). Es geht einfach darum, dass es mindestens sehr schwierig ist, ein Problem so exakt zu beschreiben, dass die Maschine beim Lösungsversuch nicht lauter nicht intendierte Dinge tut. Ich finde den Zauberlehrling und den Flaschengeist auch sehr passend.

                    mschfr@mastodon.socialM This user is from outside of this forum
                    mschfr@mastodon.socialM This user is from outside of this forum
                    mschfr@mastodon.social
                    wrote last edited by
                    #12

                    @chrisstoecker @_tillwe_ Was ich da total interessant finde: Das gleiche Problem gibt es ja auch ohne KI mit echten Menschen in Staaten oder in Firmen. Goodhart's Law oder diese Kobra-Effekte sind ja bekannt und im Kern ja auch Ausdruck des gleichen Phänomen: Der Lösungsversuch macht dann diverse nicht intendierte Dinge und am Ende hast du eine Kobraplage.

                    1 Reply Last reply
                    0
                    • jamesbont@mastodon.socialJ This user is from outside of this forum
                      jamesbont@mastodon.socialJ This user is from outside of this forum
                      jamesbont@mastodon.social
                      wrote last edited by
                      #13

                      @gunchleoc @chrisstoecker

                      Otto?
                      Glaubst Du dass jedes Unternehmen sich die Hacker leisten kann die zur Absicherung des eigenes Netzwerkes nötig wären?

                      Das gilt auch für SW-Entwicklung. Denn viele sind nur kleine Klitschen, bestehend aus ein paar Leuten aber gleichzeitig gezwungen mithalten zu müssen.

                      Was viele dabei vergessen: es treibt auch die Kosten in die Höhe, was dann wiederum zu Preissteigerungen führt.

                      Da hat sich die IT-Branche einen richtig schönen Kreislauf gebildet ...

                      1 Reply Last reply
                      0
                      • R relay@relay.infosec.exchange shared this topic
                      Reply
                      • Reply as topic
                      Log in to reply
                      • Oldest to Newest
                      • Newest to Oldest
                      • Most Votes


                      • Login

                      • Login or register to search.
                      • First post
                        Last post
                      0
                      • Categories
                      • Recent
                      • Tags
                      • Popular
                      • World
                      • Users
                      • Groups