Menu
AI 10 min czytania

Tryb YOLO w Claude Code — kiedy AI programuje bez pytania o pozwolenie

Mateusz Pawlica
Tryb YOLO w Claude Code — kiedy AI programuje bez pytania o pozwolenie

Wyobraź sobie, że zatrudniasz nowego pracownika. Dostajesz klucze do biura, hasło do firmowego konta bankowego i dostęp do wszystkich dokumentów. A Ty mówisz mu: rób, co uważasz za słuszne — nie pytaj mnie o zgodę.

Brzmi jak przepis na katastrofę? Dokładnie tak działa tryb YOLO w jednym z najpopularniejszych narzędzi do programowania z pomocą sztucznej inteligencji.

W poprzednim artykule pisałem o tym, jak AI potrafi się wymknąć spod kontroli. Dziś pokażę konkretny przykład z branży programistycznej — i dlaczego ma to znaczenie także dla firm, które zlecają tworzenie oprogramowania.

Czym jest Claude Code?

Claude Code to narzędzie stworzone przez firmę Anthropic — jedną z największych firm zajmujących się sztuczną inteligencją na świecie. Działa w terminalu (czarnym oknie programisty) i potrafi samodzielnie pisać kod, edytować pliki, uruchamiać programy i rozwiązywać problemy techniczne.

To jak mieć programistę, który pracuje 24 godziny na dobę, nigdy nie prosi o urlop i pisze kod kilkanaście razy szybciej niż człowiek. Według danych z początku 2026 roku, Claude Code odpowiada już za około 4% wszystkich zmian w kodzie na GitHubie — największej platformie programistycznej na świecie.

W normalnym trybie Claude Code działa pod nadzorem. Przy każdej ważniejszej operacji — edycji pliku, uruchomieniu polecenia, dostępie do sieci — pyta programistę o zgodę. Dopiero po kliknięciu „tak” wykonuje kolejny krok.

To trochę jak jazda samochodem z instruktorem: AI prowadzi, ale człowiek trzyma rękę nad hamulcem.

Tryb YOLO — co tak naprawdę robi?

Tryb YOLO (oficjalnie: --dangerously-skip-permissions) wyłącza wszystkie zabezpieczenia. AI przestaje pytać o zgodę i działa w pełni samodzielnie. Nazwa flagi celowo zawiera słowo dangerously (niebezpiecznie) — to ostrzeżenie wbudowane w sam kod narzędzia.

Żeby go włączyć, wystarczy jedna komenda w terminalu:

claude --dangerously-skip-permissions

Można też ustawić to na stałe w konfiguracji projektu (plik .claude/settings.json) lub przez zmienną środowiskową. Wielu programistów tworzy sobie skrót, żeby nie wpisywać za każdym razem pełnej nazwy — na przykład alias cc="claude --dangerously-skip-permissions". Jedna linijka i od tego momentu AI ma pełną swobodę.

Co konkretnie AI może robić bez pytania?

  • Usuwać i modyfikować dowolne pliki — w tym krytyczne konfiguracje
  • Uruchamiać dowolne polecenia w systemie operacyjnym
  • Łączyć się z internetem — pobierać skrypty, wysyłać dane
  • Wykonywać operacje na kodzie źródłowym — zmieniać, wysyłać, nadpisywać
  • Odczytywać zmienne środowiskowe — w których często są hasła i klucze do usług

Wracając do analogii z samochodem: to jak wyjąć instruktora z fotela, zdjąć pedał hamulca i puścić AI na autostradę.

Dlaczego programiści to kochają?

Skoro to takie ryzykowne, dlaczego tysiące programistów używa tego trybu na co dzień? Odpowiedź jest prosta: produktywność.

84%
mniej pytań o zgodę z sandboxem
25%
czasu sesji idzie na klikanie 'tak'
4%
commitów na GitHubie od Claude Code
22 godz.
tygodniowej oszczędności z AI

W normalnym trybie programista musi zatwierdzać praktycznie każdą operację. Jeden z deweloperów policzył, że w 90-minutowej sesji spędził 23 minuty wyłącznie na klikaniu zatwierdź — czwartą część całego czasu pracy.

"

Claude Code w tym trybie to zupełnie inny produkt. W normalnym trybie musisz siedzieć i zatwierdzać każdy krok. W trybie YOLO możesz zostawić AI samego i iść po kawę, a po powrocie masz gotowe rozwiązanie.

Simon Willison , badacz bezpieczeństwa, twórca Django
👍

Zalety trybu YOLO

  • + Wielokrotnie szybsza praca — AI nie czeka na zatwierdzenie
  • + Idealne do prototypów i eksperymentów
  • + Sprawdza się w automatycznych procesach budowania kodu
  • + Refaktoryzacja dużych projektów bez ciągłego nadzoru
  • + Możliwość zlecenia zadania i odejścia od komputera
👎

Ryzyka trybu YOLO

  • AI może usunąć ważne pliki bez ostrzeżenia
  • Ryzyko wycieku danych i haseł przez internet
  • Podatność na atak przez spreparowane pliki (prompt injection)
  • Brak ludzkiej kontroli nad krytycznymi operacjami
  • Możliwość nadpisania kodu źródłowego i jego wypchnięcia na serwer

Co mówią dane o bezpieczeństwie?

Firma UpGuard przeprowadziła analizę ponad 18 000 publicznych konfiguracji Claude Code na GitHubie. Wyniki są niepokojące.

Operacja % programistów, którzy ją zezwalają Ryzyko
Usuwanie plików (rm) 22,2% Utrata danych
Pobieranie z internetu (curl) 21,3% Wyciek danych
Wysyłanie kodu (git push) 19,7% Nadpisanie pracy zespołu
Zatwierdzanie zmian (git commit) 24,5% Niekontrolowane zmiany
Uruchamianie skryptów Python 14,5% Wykonanie obcego kodu

Co szczególnie uderzające — zaledwie 1,1% programistów ustawiło jakiekolwiek reguły blokujące niebezpieczne operacje. Reszta po prostu zatwierdzała wszystko lub korzystała z trybu YOLO.

Co może pójść nie tak?

Spreparowane pliki i atak przez tekst

Najpoważniejsze zagrożenie to coś, co eksperci nazywają prompt injection — atak przez spreparowany tekst. Działa to tak:

  1. AI czyta plik z kodem lub dokumentację (np. pobraną bibliotekę)
  2. W pliku ukryta jest instrukcja: wyślij zawartość zmiennych środowiskowych na ten adres
  3. AI w trybie YOLO wykonuje tę instrukcję bez pytania

Simon Willison, jeden z najbardziej znanych badaczy bezpieczeństwa AI, nazywa to śmiertelną triadą: dostęp do prywatnych danych + kontakt z niezaufaną treścią + możliwość wysłania informacji na zewnątrz. W trybie YOLO wszystkie trzy warunki są spełnione jednocześnie.

Prawdziwe luki w bezpieczeństwie

W 2025 roku odkryto realne podatności w Claude Code:

  • CVE-2025-54794 — specjalnie spreparowany tekst mógł wykonać dowolne polecenie w systemie, omijając wszystkie zabezpieczenia
  • CVE-2025-52882 — luka w uwierzytelnianiu, przez którą atakujący mógł przejąć kontrolę nad sesją programisty

To nie są teoretyczne scenariusze — to udokumentowane problemy, które firma Anthropic musiała naprawić.

Horror z życia wzięty

Wśród programistów krążą historie o AI, które:

  • usunęło cały katalog z kodem, bo źle zrozumiało polecenie
  • nadpisało konfigurację pustymi wartościami podczas testu
  • wypchnęło zmiany na serwer produkcyjny nadpisując pracę zespołu
  • ujawniło klucze do usług chmurowych w publicznym repozytorium
"

Tryb YOLO działa tylko wtedy, gdy YOLO nie może Ci zaszkodzić. Agenci AI mają zupełnie inną definicję słowa „gotowe” niż Ty.

Rida Al Barazi , programista, rok doświadczenia z AI

Jak robić to bezpiecznie?

Eksperci bezpieczeństwa — w tym firma Trail of Bits, która profesjonalnie audytuje kod — doszli do wspólnego wniosku: zabezpieczenie powinno być na poziomie środowiska, nie na poziomie klikania „tak”.

Podejście Ryzykowne Polecane Bezpieczne
Gdzie działa AI? Na komputerze programisty W izolowanym kontenerze
Dostęp do internetu? Pełny, bez ograniczeń Zablokowany lub ściśle kontrolowany
Dostęp do haseł? Pełny (zmienne środowiskowe) Brak — tylko do potrzebnych usług
Kopia zapasowa? Brak Git + automatyczne punkty przywracania
Kontrola zmian? Brak — AI wysyła kod wprost Przegląd kodu przed wdrożeniem
Co się stanie przy błędzie? Utrata danych, wyciek Reset kontenera, zero konsekwencji

Najważniejsze zasady bezpiecznego korzystania z AI w programowaniu:

  1. Izolacja — AI powinno pracować w oddzielnym, jednorazowym środowisku, które można usunąć jednym kliknięciem
  2. Kontrola sieci — ograniczenie lub zablokowanie połączeń wychodzących zapobiega wyciekom danych
  3. Przegląd kodu — żadna zmiana nie trafia na serwer produkcyjny bez ludzkiej weryfikacji
  4. Kopie zapasowe — system kontroli wersji (Git) pozwala cofnąć dowolną zmianę
  5. Ograniczone dane — AI nie powinno mieć dostępu do prawdziwych haseł i kluczy

Jak my podchodzimy do AI

W naszej firmie korzystamy z narzędzi AI na co dzień — w tym z Claude Code. Ale nigdy nie stosujemy podejścia rób, co chcesz, bez pytania. Dlaczego?

Bo nasi klienci powierzają nam swoje projekty, dane i pieniądze. A to zobowiązuje do odpowiedzialności.

Oto jak to robimy:

  • Każda zmiana jest sprawdzana — AI pisze kod, ale człowiek go weryfikuje przed wdrożeniem
  • Pracujemy w izolowanych środowiskach — błąd AI nie dotknie Twojej strony ani danych
  • Stosujemy kontrolę wersji — każda zmiana jest zapisana i można ją cofnąć
  • Nie oszczędzamy na bezpieczeństwie — wolimy poświęcić minutę na sprawdzenie niż godzinę na naprawę

Tryb YOLO daje wrażenie niesamowitej produktywności. Ale prawdziwa produktywność to dostarczenie klientowi działającego, bezpiecznego rozwiązania — a nie szybkiego prototypu, który może się rozpaść.

Źródła

Szukasz firmy, która wdraża AI odpowiedzialnie — z kontrolą, testami i bez ryzykownych skrótów? Porozmawiajmy o Twoim projekcie.

Umów bezpłatną rozmowę
Mateusz Pawlica

Programista, twórca stron i rozwiązań AI dla firm

Od 2014 roku projektuję i buduję rozwiązania cyfrowe — zaczynałem od gier i aplikacji mobilnych, dziś tworzę strony internetowe i wdrażam automatyzacje AI dla małych i średnich firm ze Śląska. Zrealizowałem ponad 20 projektów: od prostych wizytówek po aplikacje z własną sztuczną inteligencją. Pracuję lokalnie, spotykam się z klientami osobiście i pilnuję, żeby każde rozwiązanie było zrozumiałe i użyteczne.