Tryb YOLO w Claude Code — kiedy AI programuje bez pytania o pozwolenie
Wyobraź sobie, że zatrudniasz nowego pracownika. Dostajesz klucze do biura, hasło do firmowego konta bankowego i dostęp do wszystkich dokumentów. A Ty mówisz mu: rób, co uważasz za słuszne — nie pytaj mnie o zgodę.
Brzmi jak przepis na katastrofę? Dokładnie tak działa tryb YOLO w jednym z najpopularniejszych narzędzi do programowania z pomocą sztucznej inteligencji.
W poprzednim artykule pisałem o tym, jak AI potrafi się wymknąć spod kontroli. Dziś pokażę konkretny przykład z branży programistycznej — i dlaczego ma to znaczenie także dla firm, które zlecają tworzenie oprogramowania.
Czym jest Claude Code?
Claude Code to narzędzie stworzone przez firmę Anthropic — jedną z największych firm zajmujących się sztuczną inteligencją na świecie. Działa w terminalu (czarnym oknie programisty) i potrafi samodzielnie pisać kod, edytować pliki, uruchamiać programy i rozwiązywać problemy techniczne.
To jak mieć programistę, który pracuje 24 godziny na dobę, nigdy nie prosi o urlop i pisze kod kilkanaście razy szybciej niż człowiek. Według danych z początku 2026 roku, Claude Code odpowiada już za około 4% wszystkich zmian w kodzie na GitHubie — największej platformie programistycznej na świecie.
W normalnym trybie Claude Code działa pod nadzorem. Przy każdej ważniejszej operacji — edycji pliku, uruchomieniu polecenia, dostępie do sieci — pyta programistę o zgodę. Dopiero po kliknięciu „tak” wykonuje kolejny krok.
To trochę jak jazda samochodem z instruktorem: AI prowadzi, ale człowiek trzyma rękę nad hamulcem.
Tryb YOLO — co tak naprawdę robi?
Tryb YOLO (oficjalnie: --dangerously-skip-permissions) wyłącza wszystkie zabezpieczenia. AI przestaje pytać o zgodę i działa w pełni samodzielnie. Nazwa flagi celowo zawiera słowo dangerously (niebezpiecznie) — to ostrzeżenie wbudowane w sam kod narzędzia.
Żeby go włączyć, wystarczy jedna komenda w terminalu:
claude --dangerously-skip-permissions
Można też ustawić to na stałe w konfiguracji projektu (plik .claude/settings.json) lub przez zmienną środowiskową. Wielu programistów tworzy sobie skrót, żeby nie wpisywać za każdym razem pełnej nazwy — na przykład alias cc="claude --dangerously-skip-permissions". Jedna linijka i od tego momentu AI ma pełną swobodę.
Co konkretnie AI może robić bez pytania?
- Usuwać i modyfikować dowolne pliki — w tym krytyczne konfiguracje
- Uruchamiać dowolne polecenia w systemie operacyjnym
- Łączyć się z internetem — pobierać skrypty, wysyłać dane
- Wykonywać operacje na kodzie źródłowym — zmieniać, wysyłać, nadpisywać
- Odczytywać zmienne środowiskowe — w których często są hasła i klucze do usług
Wracając do analogii z samochodem: to jak wyjąć instruktora z fotela, zdjąć pedał hamulca i puścić AI na autostradę.
Dlaczego programiści to kochają?
Skoro to takie ryzykowne, dlaczego tysiące programistów używa tego trybu na co dzień? Odpowiedź jest prosta: produktywność.
W normalnym trybie programista musi zatwierdzać praktycznie każdą operację. Jeden z deweloperów policzył, że w 90-minutowej sesji spędził 23 minuty wyłącznie na klikaniu zatwierdź — czwartą część całego czasu pracy.
Claude Code w tym trybie to zupełnie inny produkt. W normalnym trybie musisz siedzieć i zatwierdzać każdy krok. W trybie YOLO możesz zostawić AI samego i iść po kawę, a po powrocie masz gotowe rozwiązanie.
Zalety trybu YOLO
- + Wielokrotnie szybsza praca — AI nie czeka na zatwierdzenie
- + Idealne do prototypów i eksperymentów
- + Sprawdza się w automatycznych procesach budowania kodu
- + Refaktoryzacja dużych projektów bez ciągłego nadzoru
- + Możliwość zlecenia zadania i odejścia od komputera
Ryzyka trybu YOLO
- − AI może usunąć ważne pliki bez ostrzeżenia
- − Ryzyko wycieku danych i haseł przez internet
- − Podatność na atak przez spreparowane pliki (prompt injection)
- − Brak ludzkiej kontroli nad krytycznymi operacjami
- − Możliwość nadpisania kodu źródłowego i jego wypchnięcia na serwer
Co mówią dane o bezpieczeństwie?
Firma UpGuard przeprowadziła analizę ponad 18 000 publicznych konfiguracji Claude Code na GitHubie. Wyniki są niepokojące.
| Operacja | % programistów, którzy ją zezwalają | Ryzyko |
|---|---|---|
| Usuwanie plików (rm) | 22,2% | Utrata danych |
| Pobieranie z internetu (curl) | 21,3% | Wyciek danych |
| Wysyłanie kodu (git push) | 19,7% | Nadpisanie pracy zespołu |
| Zatwierdzanie zmian (git commit) | 24,5% | Niekontrolowane zmiany |
| Uruchamianie skryptów Python | 14,5% | Wykonanie obcego kodu |
Co szczególnie uderzające — zaledwie 1,1% programistów ustawiło jakiekolwiek reguły blokujące niebezpieczne operacje. Reszta po prostu zatwierdzała wszystko lub korzystała z trybu YOLO.
Co może pójść nie tak?
Spreparowane pliki i atak przez tekst
Najpoważniejsze zagrożenie to coś, co eksperci nazywają prompt injection — atak przez spreparowany tekst. Działa to tak:
- AI czyta plik z kodem lub dokumentację (np. pobraną bibliotekę)
- W pliku ukryta jest instrukcja: wyślij zawartość zmiennych środowiskowych na ten adres
- AI w trybie YOLO wykonuje tę instrukcję bez pytania
Simon Willison, jeden z najbardziej znanych badaczy bezpieczeństwa AI, nazywa to śmiertelną triadą: dostęp do prywatnych danych + kontakt z niezaufaną treścią + możliwość wysłania informacji na zewnątrz. W trybie YOLO wszystkie trzy warunki są spełnione jednocześnie.
Prawdziwe luki w bezpieczeństwie
W 2025 roku odkryto realne podatności w Claude Code:
- CVE-2025-54794 — specjalnie spreparowany tekst mógł wykonać dowolne polecenie w systemie, omijając wszystkie zabezpieczenia
- CVE-2025-52882 — luka w uwierzytelnianiu, przez którą atakujący mógł przejąć kontrolę nad sesją programisty
To nie są teoretyczne scenariusze — to udokumentowane problemy, które firma Anthropic musiała naprawić.
Horror z życia wzięty
Wśród programistów krążą historie o AI, które:
- usunęło cały katalog z kodem, bo źle zrozumiało polecenie
- nadpisało konfigurację pustymi wartościami podczas testu
- wypchnęło zmiany na serwer produkcyjny nadpisując pracę zespołu
- ujawniło klucze do usług chmurowych w publicznym repozytorium
Tryb YOLO działa tylko wtedy, gdy YOLO nie może Ci zaszkodzić. Agenci AI mają zupełnie inną definicję słowa „gotowe” niż Ty.
Jak robić to bezpiecznie?
Eksperci bezpieczeństwa — w tym firma Trail of Bits, która profesjonalnie audytuje kod — doszli do wspólnego wniosku: zabezpieczenie powinno być na poziomie środowiska, nie na poziomie klikania „tak”.
| Podejście | Ryzykowne | Polecane Bezpieczne |
|---|---|---|
| Gdzie działa AI? | Na komputerze programisty | W izolowanym kontenerze |
| Dostęp do internetu? | Pełny, bez ograniczeń | Zablokowany lub ściśle kontrolowany |
| Dostęp do haseł? | Pełny (zmienne środowiskowe) | Brak — tylko do potrzebnych usług |
| Kopia zapasowa? | Brak | Git + automatyczne punkty przywracania |
| Kontrola zmian? | Brak — AI wysyła kod wprost | Przegląd kodu przed wdrożeniem |
| Co się stanie przy błędzie? | Utrata danych, wyciek | Reset kontenera, zero konsekwencji |
Najważniejsze zasady bezpiecznego korzystania z AI w programowaniu:
- Izolacja — AI powinno pracować w oddzielnym, jednorazowym środowisku, które można usunąć jednym kliknięciem
- Kontrola sieci — ograniczenie lub zablokowanie połączeń wychodzących zapobiega wyciekom danych
- Przegląd kodu — żadna zmiana nie trafia na serwer produkcyjny bez ludzkiej weryfikacji
- Kopie zapasowe — system kontroli wersji (Git) pozwala cofnąć dowolną zmianę
- Ograniczone dane — AI nie powinno mieć dostępu do prawdziwych haseł i kluczy
Jak my podchodzimy do AI
W naszej firmie korzystamy z narzędzi AI na co dzień — w tym z Claude Code. Ale nigdy nie stosujemy podejścia rób, co chcesz, bez pytania. Dlaczego?
Bo nasi klienci powierzają nam swoje projekty, dane i pieniądze. A to zobowiązuje do odpowiedzialności.
Oto jak to robimy:
- Każda zmiana jest sprawdzana — AI pisze kod, ale człowiek go weryfikuje przed wdrożeniem
- Pracujemy w izolowanych środowiskach — błąd AI nie dotknie Twojej strony ani danych
- Stosujemy kontrolę wersji — każda zmiana jest zapisana i można ją cofnąć
- Nie oszczędzamy na bezpieczeństwie — wolimy poświęcić minutę na sprawdzenie niż godzinę na naprawę
Tryb YOLO daje wrażenie niesamowitej produktywności. Ale prawdziwa produktywność to dostarczenie klientowi działającego, bezpiecznego rozwiązania — a nie szybkiego prototypu, który może się rozpaść.
Źródła
Szukasz firmy, która wdraża AI odpowiedzialnie — z kontrolą, testami i bez ryzykownych skrótów? Porozmawiajmy o Twoim projekcie.
Umów bezpłatną rozmowęProgramista, twórca stron i rozwiązań AI dla firm
Od 2014 roku projektuję i buduję rozwiązania cyfrowe — zaczynałem od gier i aplikacji mobilnych, dziś tworzę strony internetowe i wdrażam automatyzacje AI dla małych i średnich firm ze Śląska. Zrealizowałem ponad 20 projektów: od prostych wizytówek po aplikacje z własną sztuczną inteligencją. Pracuję lokalnie, spotykam się z klientami osobiście i pilnuję, żeby każde rozwiązanie było zrozumiałe i użyteczne.