Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (Cyborg)
  • No Skin
Collapse
Brand Logo

CIRCLE WITH A DOT

  1. Home
  2. Uncategorized
  3. Kolumne: Softwareagenten können das Verhalten menschlicher Dilettanten offenbar bereits hervorragend simulieren.

Kolumne: Softwareagenten können das Verhalten menschlicher Dilettanten offenbar bereits hervorragend simulieren.

Scheduled Pinned Locked Moved Uncategorized
13 Posts 9 Posters 0 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • chrisstoecker@mastodon.socialC This user is from outside of this forum
    chrisstoecker@mastodon.socialC This user is from outside of this forum
    chrisstoecker@mastodon.social
    wrote last edited by
    #1

    Kolumne: Softwareagenten können das Verhalten menschlicher Dilettanten offenbar bereits hervorragend simulieren. Willkommen im Zeitalter der Künstlichen Dummheit.

    Link Preview Image
    chrisstoecker@mastodon.socialC schmidt_fu@mstdn.socialS 2 Replies Last reply
    1
    0
    • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

      Kolumne: Softwareagenten können das Verhalten menschlicher Dilettanten offenbar bereits hervorragend simulieren. Willkommen im Zeitalter der Künstlichen Dummheit.

      Link Preview Image
      chrisstoecker@mastodon.socialC This user is from outside of this forum
      chrisstoecker@mastodon.socialC This user is from outside of this forum
      chrisstoecker@mastodon.social
      wrote last edited by
      #2

      Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
      🎁 https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6

      jamesbont@mastodon.socialJ ralpho@hessen.socialR sabbeljan@norden.socialS _tillwe_@mastodon.social_ nullbockgeneration@mastodon.socialN 6 Replies Last reply
      0
      • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

        Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
        🎁 https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6

        jamesbont@mastodon.socialJ This user is from outside of this forum
        jamesbont@mastodon.socialJ This user is from outside of this forum
        jamesbont@mastodon.social
        wrote last edited by
        #3

        @chrisstoecker

        Es stellt sich aber immer nur die Frage ob es wirklich eine KI war?

        Ich glaube viele vergessen da immer etwas entscheidendes: nämlich dass es immer noch vom Menschen erzeugte Algorithmen sind, mit dem diese leblosen Maschinen gefüttert werden.

        Es könnten also auch Angriffe oder Testversuche solcher gewesen sein.

        Sich deshalb vollständig auf diese KI zu verlassen kann also im schlimmsten Fall tödlich sein.

        chrisstoecker@mastodon.socialC 1 Reply Last reply
        0
        • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

          Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
          🎁 https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6

          ralpho@hessen.socialR This user is from outside of this forum
          ralpho@hessen.socialR This user is from outside of this forum
          ralpho@hessen.social
          wrote last edited by
          #4

          @chrisstoecker

          Abgesehen vom Artikel:

          "der werfe die erste Maus" danke für diesen Lacher den ich künftig häufig verwenden werde!

          1 Reply Last reply
          0
          • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

            Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
            🎁 https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6

            sabbeljan@norden.socialS This user is from outside of this forum
            sabbeljan@norden.socialS This user is from outside of this forum
            sabbeljan@norden.social
            wrote last edited by
            #5

            @chrisstoecker Danke. Auch für die launigen Beispiele, was Maschinen so angestellt haben. Und, wieder eine "Sorry, told you so" Kolumne.

            1 Reply Last reply
            0
            • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

              Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
              🎁 https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6

              _tillwe_@mastodon.social_ This user is from outside of this forum
              _tillwe_@mastodon.social_ This user is from outside of this forum
              _tillwe_@mastodon.social
              wrote last edited by
              #6

              @chrisstoecker Danke für den Artikel. Ich frage mich allerdings, ob "alignment" das Problem wirklich trifft - da schwingt ja sowas wie Willensfreiheit mit. Die einem LLM oder einem KI-Agenten zuzuschreiben, greift mir zu weit. Das Zauberlehrling-Beispiel scheint es mir eher zu treffen. Oder halt doch ... Goblins.

              chrisstoecker@mastodon.socialC 1 Reply Last reply
              0
              • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

                Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
                🎁 https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6

                nullbockgeneration@mastodon.socialN This user is from outside of this forum
                nullbockgeneration@mastodon.socialN This user is from outside of this forum
                nullbockgeneration@mastodon.social
                wrote last edited by
                #7

                @chrisstoecker Eigentlich hat die Menschheit ja genug Probleme mit der Klimakrise.
                Auch das noch!😁

                Link Preview ImageLink Preview Image
                1 Reply Last reply
                0
                • _tillwe_@mastodon.social_ _tillwe_@mastodon.social

                  @chrisstoecker Danke für den Artikel. Ich frage mich allerdings, ob "alignment" das Problem wirklich trifft - da schwingt ja sowas wie Willensfreiheit mit. Die einem LLM oder einem KI-Agenten zuzuschreiben, greift mir zu weit. Das Zauberlehrling-Beispiel scheint es mir eher zu treffen. Oder halt doch ... Goblins.

                  chrisstoecker@mastodon.socialC This user is from outside of this forum
                  chrisstoecker@mastodon.socialC This user is from outside of this forum
                  chrisstoecker@mastodon.social
                  wrote last edited by
                  #8

                  @_tillwe_ Ich würde Alignment nicht mit so schwierigen Vokabeln wie Willensfreiheit verknüpfen (das Thema haben wir ja nicht mal bei uns selbst ausdiskutiert :)). Es geht einfach darum, dass es mindestens sehr schwierig ist, ein Problem so exakt zu beschreiben, dass die Maschine beim Lösungsversuch nicht lauter nicht intendierte Dinge tut. Ich finde den Zauberlehrling und den Flaschengeist auch sehr passend.

                  mschfr@mastodon.socialM 1 Reply Last reply
                  0
                  • jamesbont@mastodon.socialJ jamesbont@mastodon.social

                    @chrisstoecker

                    Es stellt sich aber immer nur die Frage ob es wirklich eine KI war?

                    Ich glaube viele vergessen da immer etwas entscheidendes: nämlich dass es immer noch vom Menschen erzeugte Algorithmen sind, mit dem diese leblosen Maschinen gefüttert werden.

                    Es könnten also auch Angriffe oder Testversuche solcher gewesen sein.

                    Sich deshalb vollständig auf diese KI zu verlassen kann also im schlimmsten Fall tödlich sein.

                    chrisstoecker@mastodon.socialC This user is from outside of this forum
                    chrisstoecker@mastodon.socialC This user is from outside of this forum
                    chrisstoecker@mastodon.social
                    wrote last edited by
                    #9

                    @JamesBont Dazu steht einiges im Text.

                    1 Reply Last reply
                    0
                    • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

                      Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
                      🎁 https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6

                      werawelt@social.tchncs.deW This user is from outside of this forum
                      werawelt@social.tchncs.deW This user is from outside of this forum
                      werawelt@social.tchncs.de
                      wrote last edited by
                      #10

                      @chrisstoecker
                      #KI ist künstliche Imitation.
                      Deshalb kann diese so programmierte Software nur begrenzt etwas Sinnvolles veranlassen und gelungen in die Irre führen.
                      Es sind die Menschen, die mehr darin zu erkennen glauben.

                      Link Preview Image
                      KI im Spiegel der Gedanken - Werawelt-Blog

                      Wir Menschen projizieren unsere geistigen Inhalte in das Internet und konservieren sie dort. Das Internet spiegelt dadurch den Geist der Menschheit. Für KI werden massenhaft die Erzeugnisse des menschlichen Geistes im Internet abgegriffen. KI wird dadurch zum Spiegel des Spiegels der geistigen Inhalte der Menschheit. Wird nun etwas durch KI erzeugt, potenziert sich der Blick

                      favicon

                      Werawelt-Blog - Weltgeschehen, Wissenschaft, Weltsicht (blog.werawelt.de)

                      1 Reply Last reply
                      0
                      • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

                        Kolumne: Softwareagenten können das Verhalten menschlicher Dilettanten offenbar bereits hervorragend simulieren. Willkommen im Zeitalter der Künstlichen Dummheit.

                        Link Preview Image
                        schmidt_fu@mstdn.socialS This user is from outside of this forum
                        schmidt_fu@mstdn.socialS This user is from outside of this forum
                        schmidt_fu@mstdn.social
                        wrote last edited by
                        #11

                        @chrisstoecker
                        "To err is human, to really foul things up requires a computer." - attributed to Bill Vaughan or Agatha Christie

                        1 Reply Last reply
                        0
                        • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

                          @_tillwe_ Ich würde Alignment nicht mit so schwierigen Vokabeln wie Willensfreiheit verknüpfen (das Thema haben wir ja nicht mal bei uns selbst ausdiskutiert :)). Es geht einfach darum, dass es mindestens sehr schwierig ist, ein Problem so exakt zu beschreiben, dass die Maschine beim Lösungsversuch nicht lauter nicht intendierte Dinge tut. Ich finde den Zauberlehrling und den Flaschengeist auch sehr passend.

                          mschfr@mastodon.socialM This user is from outside of this forum
                          mschfr@mastodon.socialM This user is from outside of this forum
                          mschfr@mastodon.social
                          wrote last edited by
                          #12

                          @chrisstoecker @_tillwe_ Was ich da total interessant finde: Das gleiche Problem gibt es ja auch ohne KI mit echten Menschen in Staaten oder in Firmen. Goodhart's Law oder diese Kobra-Effekte sind ja bekannt und im Kern ja auch Ausdruck des gleichen Phänomen: Der Lösungsversuch macht dann diverse nicht intendierte Dinge und am Ende hast du eine Kobraplage.

                          1 Reply Last reply
                          0
                          • jamesbont@mastodon.socialJ This user is from outside of this forum
                            jamesbont@mastodon.socialJ This user is from outside of this forum
                            jamesbont@mastodon.social
                            wrote last edited by
                            #13

                            @gunchleoc @chrisstoecker

                            Otto?
                            Glaubst Du dass jedes Unternehmen sich die Hacker leisten kann die zur Absicherung des eigenes Netzwerkes nötig wären?

                            Das gilt auch für SW-Entwicklung. Denn viele sind nur kleine Klitschen, bestehend aus ein paar Leuten aber gleichzeitig gezwungen mithalten zu müssen.

                            Was viele dabei vergessen: es treibt auch die Kosten in die Höhe, was dann wiederum zu Preissteigerungen führt.

                            Da hat sich die IT-Branche einen richtig schönen Kreislauf gebildet ...

                            1 Reply Last reply
                            0
                            • R relay@relay.infosec.exchange shared this topic
                            Reply
                            • Reply as topic
                            Log in to reply
                            • Oldest to Newest
                            • Newest to Oldest
                            • Most Votes


                            • Login

                            • Login or register to search.
                            • First post
                              Last post
                            0
                            • Categories
                            • Recent
                            • Tags
                            • Popular
                            • World
                            • Users
                            • Groups