Ich hab am Wochenende über #OpenClaw gelernt
-
Ich hab am Wochenende über #OpenClaw gelernt.
Ich schwanke zwischen Megahype und totale Panik.
Der Einsatz im #HomeLab mit einem lokal gehosteten Modell in #OpenLlama könnte ganz geil sein. Allerdings braucht es dafür vermutlich ne Höllenmaschine um die Modelle laufen zu lassen...
https://youtu.be/OwHnp9CFT68?si=mWJv8IH6QShAMrVt -
Ich hab am Wochenende über #OpenClaw gelernt.
Ich schwanke zwischen Megahype und totale Panik.
Der Einsatz im #HomeLab mit einem lokal gehosteten Modell in #OpenLlama könnte ganz geil sein. Allerdings braucht es dafür vermutlich ne Höllenmaschine um die Modelle laufen zu lassen...
https://youtu.be/OwHnp9CFT68?si=mWJv8IH6QShAMrVt@keineantwort Ich traue mich das noch nicht ran. Habe auch einiges gelesen und geschaut und auch den einen oder anderen Kollegen die damit erstaunliches realisieren, aber ich hab zu viel Respekt davor, das ich für einen wirklichen Nutzen Zugriff auf private Informationen geben muss und das dabei etwas schief geht. Aber spannende Entwcklung.
-
@keineantwort Ich traue mich das noch nicht ran. Habe auch einiges gelesen und geschaut und auch den einen oder anderen Kollegen die damit erstaunliches realisieren, aber ich hab zu viel Respekt davor, das ich für einen wirklichen Nutzen Zugriff auf private Informationen geben muss und das dabei etwas schief geht. Aber spannende Entwcklung.
@keineantwort @fischr wenn ihr euch die massiven Sicherheitslücken anguckt, ist es auch besser die Finger davon zu lassen
Und der "Dev" dahinter sagt nur "ja und was soll ich jetzt machen?" Während sein Projekt die Systeme mit Malware vollmüllt. -
@keineantwort @fischr wenn ihr euch die massiven Sicherheitslücken anguckt, ist es auch besser die Finger davon zu lassen
Und der "Dev" dahinter sagt nur "ja und was soll ich jetzt machen?" Während sein Projekt die Systeme mit Malware vollmüllt.@hannsr @keineantwort Klingt fast nach Kontrollverlust.
-
Ich hab am Wochenende über #OpenClaw gelernt.
Ich schwanke zwischen Megahype und totale Panik.
Der Einsatz im #HomeLab mit einem lokal gehosteten Modell in #OpenLlama könnte ganz geil sein. Allerdings braucht es dafür vermutlich ne Höllenmaschine um die Modelle laufen zu lassen...
https://youtu.be/OwHnp9CFT68?si=mWJv8IH6QShAMrVt@keineantwort experimentiere damit seit ein paar Wochen rum. Ist schon Geil 🫣 Läuft bisher aber auch nur bei mir Zuhause in einer VM die in einem isolierten VLAN ist. Zugriff erfolgt aktuell ausschließlich über Tailscale und via Signal Messenger.
Ziel ist es aber auch das ganze mal mit einer lokalen LLM zu betreiben, aber dafür fehlt mir aktuell die nötige Hardware. -
@keineantwort @fischr wenn ihr euch die massiven Sicherheitslücken anguckt, ist es auch besser die Finger davon zu lassen
Und der "Dev" dahinter sagt nur "ja und was soll ich jetzt machen?" Während sein Projekt die Systeme mit Malware vollmüllt.@hannsr @fischr Das ist der Panik-Teil. Ich versuche mich nicht nur auf die Risiken zu fokussieren. Ich glaube so kommen wir grundsätzlich nicht weiter. Ich versuche die Chancen zu sehen und dann mit den Risiken abzuwägen.
Kann sein, dass dieses konkrete Projekt eher ne Katastrophe ist. Die Idee ist allerdings grandios. In meinem Alltag wüsste ich adhoc etliche Anwendungsfälle dafür.
Die Security Leute bei uns würden vermutlich so reagieren. -
@hannsr @fischr Das ist der Panik-Teil. Ich versuche mich nicht nur auf die Risiken zu fokussieren. Ich glaube so kommen wir grundsätzlich nicht weiter. Ich versuche die Chancen zu sehen und dann mit den Risiken abzuwägen.
Kann sein, dass dieses konkrete Projekt eher ne Katastrophe ist. Die Idee ist allerdings grandios. In meinem Alltag wüsste ich adhoc etliche Anwendungsfälle dafür.
Die Security Leute bei uns würden vermutlich so reagieren.@keineantwort @fischr Ja mir ging es konkret um dieses Projekt. So als Beispiel wie ernst der Dev die Sicherheit der Nutzer nimmt.
Oder kurz gesagt: Wenn du es testen willst, nutze eine komplett von allem isolierte Umgebung und auf gar keinen Fall dein lokales Netz.
Jeder kann da im Moment alles rein laden und es werden gerade botnets und scraper en masse via Openclaw deployed
https://thepit.social/@peter/116016857956019818 -
@hannsr @fischr Das ist der Panik-Teil. Ich versuche mich nicht nur auf die Risiken zu fokussieren. Ich glaube so kommen wir grundsätzlich nicht weiter. Ich versuche die Chancen zu sehen und dann mit den Risiken abzuwägen.
Kann sein, dass dieses konkrete Projekt eher ne Katastrophe ist. Die Idee ist allerdings grandios. In meinem Alltag wüsste ich adhoc etliche Anwendungsfälle dafür.
Die Security Leute bei uns würden vermutlich so reagieren.@keineantwort @hannsr Da bin ich bei dir. Bin da auch eher offen und setze AI an vielen Stellen ein. Aber würde ausgerechnet dieses Ding aktuell noch nicht einsetzen. Aber ich schaue seh interessiert zu.
-
@keineantwort experimentiere damit seit ein paar Wochen rum. Ist schon Geil 🫣 Läuft bisher aber auch nur bei mir Zuhause in einer VM die in einem isolierten VLAN ist. Zugriff erfolgt aktuell ausschließlich über Tailscale und via Signal Messenger.
Ziel ist es aber auch das ganze mal mit einer lokalen LLM zu betreiben, aber dafür fehlt mir aktuell die nötige Hardware.@benny die nötige Hardware für den KI Stack ist auch mein Problem.
Meine ersten Gehversuche mit ollama waren nicht sehr erfolgreich. Es scheiterte an der nötigen Hardware. 
-
@benny die nötige Hardware für den KI Stack ist auch mein Problem.
Meine ersten Gehversuche mit ollama waren nicht sehr erfolgreich. Es scheiterte an der nötigen Hardware. 
@keineantwort Überlege auf einen neuen Mac Mini mit M5 Prozess zu warten. Die Mac Minis sollen ja sehr Energie Effizient sein. Auf dem Arbeits-MacBook (M1 32GB), kriege ich schon einige Modelle zum laufen, aber leider nicht die ganz großen. Die Frage wäre auch ob man das Braucht. Ich glaub man müsste zwischen „täglichen gebrauch“ und baue mir mal XYZ unterscheiden. Kann kann ja in OpenClaw mehrere Modelle einbinden.
-
@keineantwort Überlege auf einen neuen Mac Mini mit M5 Prozess zu warten. Die Mac Minis sollen ja sehr Energie Effizient sein. Auf dem Arbeits-MacBook (M1 32GB), kriege ich schon einige Modelle zum laufen, aber leider nicht die ganz großen. Die Frage wäre auch ob man das Braucht. Ich glaub man müsste zwischen „täglichen gebrauch“ und baue mir mal XYZ unterscheiden. Kann kann ja in OpenClaw mehrere Modelle einbinden.
@benny das ist schon finanziell ein ganz schönes commitment.
🫣 
-
@benny das ist schon finanziell ein ganz schönes commitment.
🫣 
@keineantwort also mein OpenClaw Bot hat mir gesagt, dass das auf dauer günstiger ist als wenn ich mit der Claude API alles mache

-
R relay@relay.an.exchange shared this topic