Wrzuciłem post o swoim setupie Claude Code - polecam jak ktoś się interesuje tematem.
-
Wrzuciłem post o swoim setupie Claude Code - polecam jak ktoś się interesuje tematem. Już było to zdecydowanie za długie na ten mikroblog...
Niby nic odkrywczego, ale dla 13 z 14 osób w zespole była to nowość, a potem rozeszło się jakoś szerzej, to może się i tu komuś przyda
https://www.rycerz.xyz/posts/how-i-use-claude-code/
#ai #claude #anthropic -
Wrzuciłem post o swoim setupie Claude Code - polecam jak ktoś się interesuje tematem. Już było to zdecydowanie za długie na ten mikroblog...
Niby nic odkrywczego, ale dla 13 z 14 osób w zespole była to nowość, a potem rozeszło się jakoś szerzej, to może się i tu komuś przyda
https://www.rycerz.xyz/posts/how-i-use-claude-code/
#ai #claude #anthropic@dawid Ja chyba claude nie odpalałem z pół roku, zato zostałem zagorzałym fanem opencode i crusta.
Chociaż z tego co widziałem claude jakoś tam się dalej rozwija, dodali do niego lsp, nice. Czy w dalszym ciągu claude jest głownie dla modeli Anthropica?
-
@dawid Ja chyba claude nie odpalałem z pół roku, zato zostałem zagorzałym fanem opencode i crusta.
Chociaż z tego co widziałem claude jakoś tam się dalej rozwija, dodali do niego lsp, nice. Czy w dalszym ciągu claude jest głownie dla modeli Anthropica?
@bluszcz Tak - ale znowu licencja "Max" na Anthropic się bardzo opłaca vs API, a i tak główne zużycie tokenów mam na modelu Opus.
Jak tam zauważyłeś w innym poście wspomagam się codex/gemini przy review planu i tam sobie już przez openrouter płacę za użyte tokeny i właśnie opencode podpiąłem lokalnie, a na instancji klienta mamy dodatkowo licencje copilota i przez to copilot cli (gdzie też można sobie różne modele wybrać).
Sam opencode jakoś mi nie siadł - miał duże zużycie tokenów, kulał przy parallelizacji w fazie wyszukiwania - jak miał zebrać informacje przez 5+ subagentów, i zwrócić do głównej sesji - to tam to trwało 2x (i więcej) dłużej.
Te narzędzia tak szybko się zmieniają, że pewnie za pół roku będzie coś innego... -
R relay@relay.infosec.exchange shared this topic
-
@bluszcz Tak - ale znowu licencja "Max" na Anthropic się bardzo opłaca vs API, a i tak główne zużycie tokenów mam na modelu Opus.
Jak tam zauważyłeś w innym poście wspomagam się codex/gemini przy review planu i tam sobie już przez openrouter płacę za użyte tokeny i właśnie opencode podpiąłem lokalnie, a na instancji klienta mamy dodatkowo licencje copilota i przez to copilot cli (gdzie też można sobie różne modele wybrać).
Sam opencode jakoś mi nie siadł - miał duże zużycie tokenów, kulał przy parallelizacji w fazie wyszukiwania - jak miał zebrać informacje przez 5+ subagentów, i zwrócić do głównej sesji - to tam to trwało 2x (i więcej) dłużej.
Te narzędzia tak szybko się zmieniają, że pewnie za pół roku będzie coś innego...@dawid opencode ma nowy release każdego dnia praktycznie, i super szybko dostają featury, więc pewnie warto go testować, zwłaszcza, że super działa też z lokalnymi llms :), co czasami się super przydaje, jak pracujesz nad jakimiś super touchy danymi, które nie chcesz aby opuszczały Twój localhościk. Miałem Claude MAX, jak jeszcze bawiłem się claudem, ale potem praktycznie zmniejszyłem wydatki 10 krotnie, przechodząc na z.ai do domowego kodowania.
-
@dawid opencode ma nowy release każdego dnia praktycznie, i super szybko dostają featury, więc pewnie warto go testować, zwłaszcza, że super działa też z lokalnymi llms :), co czasami się super przydaje, jak pracujesz nad jakimiś super touchy danymi, które nie chcesz aby opuszczały Twój localhościk. Miałem Claude MAX, jak jeszcze bawiłem się claudem, ale potem praktycznie zmniejszyłem wydatki 10 krotnie, przechodząc na z.ai do domowego kodowania.
@bluszcz Ah, to jest ta różnica
na moim laptopie żaden sensowny model nie pójdzie, a w kamperze porządna karta by pożarła cały zapas prądu