Skip to content
  • Categories
  • Recent
  • Tags
  • Popular
  • World
  • Users
  • Groups
Skins
  • Light
  • Brite
  • Cerulean
  • Cosmo
  • Flatly
  • Journal
  • Litera
  • Lumen
  • Lux
  • Materia
  • Minty
  • Morph
  • Pulse
  • Sandstone
  • Simplex
  • Sketchy
  • Spacelab
  • United
  • Yeti
  • Zephyr
  • Dark
  • Cyborg
  • Darkly
  • Quartz
  • Slate
  • Solar
  • Superhero
  • Vapor

  • Default (Cyborg)
  • No Skin
Collapse
Brand Logo

CIRCLE WITH A DOT

  1. Home
  2. Uncategorized
  3. Kolumne: Softwareagenten können das Verhalten menschlicher Dilettanten offenbar bereits hervorragend simulieren.

Kolumne: Softwareagenten können das Verhalten menschlicher Dilettanten offenbar bereits hervorragend simulieren.

Scheduled Pinned Locked Moved Uncategorized
13 Posts 9 Posters 0 Views
  • Oldest to Newest
  • Newest to Oldest
  • Most Votes
Reply
  • Reply as topic
Log in to reply
This topic has been deleted. Only users with topic management privileges can see it.
  • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

    Kolumne: Softwareagenten können das Verhalten menschlicher Dilettanten offenbar bereits hervorragend simulieren. Willkommen im Zeitalter der Künstlichen Dummheit.

    Link Preview Image
    chrisstoecker@mastodon.socialC This user is from outside of this forum
    chrisstoecker@mastodon.socialC This user is from outside of this forum
    chrisstoecker@mastodon.social
    wrote last edited by
    #2

    Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
    🎁 https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6

    jamesbont@mastodon.socialJ ralpho@hessen.socialR sabbeljan@norden.socialS _tillwe_@mastodon.social_ nullbockgeneration@mastodon.socialN 6 Replies Last reply
    0
    • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

      Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
      🎁 https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6

      jamesbont@mastodon.socialJ This user is from outside of this forum
      jamesbont@mastodon.socialJ This user is from outside of this forum
      jamesbont@mastodon.social
      wrote last edited by
      #3

      @chrisstoecker

      Es stellt sich aber immer nur die Frage ob es wirklich eine KI war?

      Ich glaube viele vergessen da immer etwas entscheidendes: nämlich dass es immer noch vom Menschen erzeugte Algorithmen sind, mit dem diese leblosen Maschinen gefüttert werden.

      Es könnten also auch Angriffe oder Testversuche solcher gewesen sein.

      Sich deshalb vollständig auf diese KI zu verlassen kann also im schlimmsten Fall tödlich sein.

      chrisstoecker@mastodon.socialC 1 Reply Last reply
      0
      • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

        Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
        🎁 https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6

        ralpho@hessen.socialR This user is from outside of this forum
        ralpho@hessen.socialR This user is from outside of this forum
        ralpho@hessen.social
        wrote last edited by
        #4

        @chrisstoecker

        Abgesehen vom Artikel:

        "der werfe die erste Maus" danke für diesen Lacher den ich künftig häufig verwenden werde!

        1 Reply Last reply
        0
        • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

          Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
          🎁 https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6

          sabbeljan@norden.socialS This user is from outside of this forum
          sabbeljan@norden.socialS This user is from outside of this forum
          sabbeljan@norden.social
          wrote last edited by
          #5

          @chrisstoecker Danke. Auch für die launigen Beispiele, was Maschinen so angestellt haben. Und, wieder eine "Sorry, told you so" Kolumne.

          1 Reply Last reply
          0
          • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

            Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
            🎁 https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6

            _tillwe_@mastodon.social_ This user is from outside of this forum
            _tillwe_@mastodon.social_ This user is from outside of this forum
            _tillwe_@mastodon.social
            wrote last edited by
            #6

            @chrisstoecker Danke für den Artikel. Ich frage mich allerdings, ob "alignment" das Problem wirklich trifft - da schwingt ja sowas wie Willensfreiheit mit. Die einem LLM oder einem KI-Agenten zuzuschreiben, greift mir zu weit. Das Zauberlehrling-Beispiel scheint es mir eher zu treffen. Oder halt doch ... Goblins.

            chrisstoecker@mastodon.socialC 1 Reply Last reply
            0
            • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

              Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
              🎁 https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6

              nullbockgeneration@mastodon.socialN This user is from outside of this forum
              nullbockgeneration@mastodon.socialN This user is from outside of this forum
              nullbockgeneration@mastodon.social
              wrote last edited by
              #7

              @chrisstoecker Eigentlich hat die Menschheit ja genug Probleme mit der Klimakrise.
              Auch das noch!😁

              Link Preview ImageLink Preview Image
              1 Reply Last reply
              0
              • _tillwe_@mastodon.social_ _tillwe_@mastodon.social

                @chrisstoecker Danke für den Artikel. Ich frage mich allerdings, ob "alignment" das Problem wirklich trifft - da schwingt ja sowas wie Willensfreiheit mit. Die einem LLM oder einem KI-Agenten zuzuschreiben, greift mir zu weit. Das Zauberlehrling-Beispiel scheint es mir eher zu treffen. Oder halt doch ... Goblins.

                chrisstoecker@mastodon.socialC This user is from outside of this forum
                chrisstoecker@mastodon.socialC This user is from outside of this forum
                chrisstoecker@mastodon.social
                wrote last edited by
                #8

                @_tillwe_ Ich würde Alignment nicht mit so schwierigen Vokabeln wie Willensfreiheit verknüpfen (das Thema haben wir ja nicht mal bei uns selbst ausdiskutiert :)). Es geht einfach darum, dass es mindestens sehr schwierig ist, ein Problem so exakt zu beschreiben, dass die Maschine beim Lösungsversuch nicht lauter nicht intendierte Dinge tut. Ich finde den Zauberlehrling und den Flaschengeist auch sehr passend.

                mschfr@mastodon.socialM 1 Reply Last reply
                0
                • jamesbont@mastodon.socialJ jamesbont@mastodon.social

                  @chrisstoecker

                  Es stellt sich aber immer nur die Frage ob es wirklich eine KI war?

                  Ich glaube viele vergessen da immer etwas entscheidendes: nämlich dass es immer noch vom Menschen erzeugte Algorithmen sind, mit dem diese leblosen Maschinen gefüttert werden.

                  Es könnten also auch Angriffe oder Testversuche solcher gewesen sein.

                  Sich deshalb vollständig auf diese KI zu verlassen kann also im schlimmsten Fall tödlich sein.

                  chrisstoecker@mastodon.socialC This user is from outside of this forum
                  chrisstoecker@mastodon.socialC This user is from outside of this forum
                  chrisstoecker@mastodon.social
                  wrote last edited by
                  #9

                  @JamesBont Dazu steht einiges im Text.

                  1 Reply Last reply
                  0
                  • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

                    Historisch: Wir erleben gerade die ersten Beispiele für ein Problem, das Theoretiker, die über KI nachdenken, schon vor mehr als sechzig Jahren vorhergesagt haben: das Alignment-Problem. Es wird uns den kommenden Jahren mehr und mehr beschäftigen.
                    🎁 https://www.spiegel.de/wissenschaft/mensch/kuenstliche-intelligenz-wie-kuenstliche-dummheit-ein-start-up-vernichtete-a-cb96006b-9a75-453d-8f7d-53a2a2717daf?giftToken=c034b6c6-3158-49ae-aaee-7e94c780bfc6

                    werawelt@social.tchncs.deW This user is from outside of this forum
                    werawelt@social.tchncs.deW This user is from outside of this forum
                    werawelt@social.tchncs.de
                    wrote last edited by
                    #10

                    @chrisstoecker
                    #KI ist künstliche Imitation.
                    Deshalb kann diese so programmierte Software nur begrenzt etwas Sinnvolles veranlassen und gelungen in die Irre führen.
                    Es sind die Menschen, die mehr darin zu erkennen glauben.

                    Link Preview Image
                    KI im Spiegel der Gedanken - Werawelt-Blog

                    Wir Menschen projizieren unsere geistigen Inhalte in das Internet und konservieren sie dort. Das Internet spiegelt dadurch den Geist der Menschheit. Für KI werden massenhaft die Erzeugnisse des menschlichen Geistes im Internet abgegriffen. KI wird dadurch zum Spiegel des Spiegels der geistigen Inhalte der Menschheit. Wird nun etwas durch KI erzeugt, potenziert sich der Blick

                    favicon

                    Werawelt-Blog - Weltgeschehen, Wissenschaft, Weltsicht (blog.werawelt.de)

                    1 Reply Last reply
                    0
                    • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

                      Kolumne: Softwareagenten können das Verhalten menschlicher Dilettanten offenbar bereits hervorragend simulieren. Willkommen im Zeitalter der Künstlichen Dummheit.

                      Link Preview Image
                      schmidt_fu@mstdn.socialS This user is from outside of this forum
                      schmidt_fu@mstdn.socialS This user is from outside of this forum
                      schmidt_fu@mstdn.social
                      wrote last edited by
                      #11

                      @chrisstoecker
                      "To err is human, to really foul things up requires a computer." - attributed to Bill Vaughan or Agatha Christie

                      1 Reply Last reply
                      0
                      • chrisstoecker@mastodon.socialC chrisstoecker@mastodon.social

                        @_tillwe_ Ich würde Alignment nicht mit so schwierigen Vokabeln wie Willensfreiheit verknüpfen (das Thema haben wir ja nicht mal bei uns selbst ausdiskutiert :)). Es geht einfach darum, dass es mindestens sehr schwierig ist, ein Problem so exakt zu beschreiben, dass die Maschine beim Lösungsversuch nicht lauter nicht intendierte Dinge tut. Ich finde den Zauberlehrling und den Flaschengeist auch sehr passend.

                        mschfr@mastodon.socialM This user is from outside of this forum
                        mschfr@mastodon.socialM This user is from outside of this forum
                        mschfr@mastodon.social
                        wrote last edited by
                        #12

                        @chrisstoecker @_tillwe_ Was ich da total interessant finde: Das gleiche Problem gibt es ja auch ohne KI mit echten Menschen in Staaten oder in Firmen. Goodhart's Law oder diese Kobra-Effekte sind ja bekannt und im Kern ja auch Ausdruck des gleichen Phänomen: Der Lösungsversuch macht dann diverse nicht intendierte Dinge und am Ende hast du eine Kobraplage.

                        1 Reply Last reply
                        0
                        • jamesbont@mastodon.socialJ This user is from outside of this forum
                          jamesbont@mastodon.socialJ This user is from outside of this forum
                          jamesbont@mastodon.social
                          wrote last edited by
                          #13

                          @gunchleoc @chrisstoecker

                          Otto?
                          Glaubst Du dass jedes Unternehmen sich die Hacker leisten kann die zur Absicherung des eigenes Netzwerkes nötig wären?

                          Das gilt auch für SW-Entwicklung. Denn viele sind nur kleine Klitschen, bestehend aus ein paar Leuten aber gleichzeitig gezwungen mithalten zu müssen.

                          Was viele dabei vergessen: es treibt auch die Kosten in die Höhe, was dann wiederum zu Preissteigerungen führt.

                          Da hat sich die IT-Branche einen richtig schönen Kreislauf gebildet ...

                          1 Reply Last reply
                          0
                          • R relay@relay.infosec.exchange shared this topic
                          Reply
                          • Reply as topic
                          Log in to reply
                          • Oldest to Newest
                          • Newest to Oldest
                          • Most Votes


                          • Login

                          • Login or register to search.
                          • First post
                            Last post
                          0
                          • Categories
                          • Recent
                          • Tags
                          • Popular
                          • World
                          • Users
                          • Groups