@evawolfangel Die Beschwichtigungen, das alles sei nur ein Rechte- und Konfigurationsproblem, halte ich auch für zu kurz gedacht.
LLMs verarbeiten Text. Sie unterscheiden nicht zwischen "authorisiertem" Text und externen Nutzereingaben. Selbst wenn man irgendwelche künstlichen Sonderzeichen einfügen würde, um zwischen beidem zu unterscheiden, so könnte man erst im Finetuning solche Nuancen einfügen. Das Modell kann aber jederzeit in sein Pretraining-Verhalten zurückfallen.
