Mówi się często, że modele językowe są niedeterministyczne. To prawda, ale zwykle brzmi jak techniczne usprawiedliwienie dla sytuacji, w której ten sam prompt raz daje świetny wynik, a innym razem odpowiedź tylko poprawną, przeciętną albo wyraźnie chybioną.
Problem w tym, że słowo „niedeterminizm” niewiele wyjaśnia. Ono tylko nazywa efekt. Nie mówi, skąd ten efekt naprawdę się bierze.
Najprostsza odpowiedź jest taka: model nie podejmuje jednej decyzji, tylko tysiące małych decyzji po drodze. A im mniej z nich określisz sam, tym więcej oddajesz jemu.
To właśnie tam zaczyna się chaos.
Ten sam prompt, inny wynik
Większość osób zna ten moment. Jeden prompt działa świetnie. Wynik jest dokładnie taki, jak trzeba. Potem próbujesz wrócić do tego samego zadania i nagle okazuje się, że efekt jest inny. Niby podobny, ale nie ten sam. Czasem lepszy, czasem gorszy, często po prostu przesunięty.
Najłatwiej powiedzieć wtedy: AI jest niedeterministyczne.
Tylko że to trochę tak, jakby powiedzieć o źle zaprojektowanej sesji zdjęciowej, że aparat jest nieprzewidywalny. Aparat też nie podejmuje jednej decyzji. Ekspozycja, światło, ustawienie sceny, obiektyw, tło, odległość, kadr — wszystko wpływa na wynik. Im mniej kontrolujesz, tym więcej rzeczy dzieje się „same”.
Z modelami jest podobnie.
Model nie odpowiada. Model wybiera drogę
Kiedy zlecasz coś LLM-owi, on nie wyciąga gotowej odpowiedzi z szuflady. Buduje ją krok po kroku. To oznacza, że po drodze:
- interpretuje, czego właściwie chcesz,
- wybiera ton odpowiedzi,
- ustala, co jest ważne, a co poboczne,
- decyduje, czy ma być bardziej praktyczny, bardziej ogólny, bardziej zachowawczy albo bardziej kreatywny,
- dopowiada luki, których sam nie wypełniłeś.
Jeśli zadanie jest ogólne, model musi sam uzupełnić bardzo dużo brakujących elementów. To właśnie są te mikrodecyzje. Nie widzisz ich, ale to one składają się na końcowy wynik.
Im bardziej ogólne polecenie, tym więcej takich decyzji oddajesz.
Niedeterminizm to często nie wada modelu, tylko koszt ogólnego zadania
To jest moment, który warto nazwać wprost: bardzo często nie chodzi o to, że model „działa losowo”. Chodzi o to, że użytkownik zadał zbyt szerokie pytanie i zostawił modelowi zbyt dużą przestrzeń interpretacji.
Prompt typu:
napisz dobry tekst o bezpieczeństwie IT
brzmi sensownie, ale zostawia ogromną liczbę otwartych decyzji:
- dla kogo ma być ten tekst,
- jak głęboki,
- bardziej analityczny czy edukacyjny,
- czy ma tłumaczyć pojęcia,
- czy ma mieć tezę,
- czy ma być techniczny,
- czy ma być lekki,
- czy ma być bardziej pod SEO, czy pod myślenie.
Model to wszystko jakoś rozwiąże. Tylko że zrobi to według własnego najlepszego dopasowania do wzorca, nie według Twojej ukrytej intencji.
Właśnie dlatego odpowiedź może brzmieć dobrze, a mimo to nie być tym, o co naprawdę chodziło.
Kontekst nie znika. Kontekst decyduje
Na wynik wpływa nie tylko sam prompt, ale też to, co model dostał wokół niego.
Czasem jest to wcześniejsza rozmowa. Czasem dostarczone materiały. Czasem dokumenty dołączone do zadania. Czasem kontekst systemowy. Czasem przykłady, które były wcześniej. Czasem styl, w który model już wszedł kilka odpowiedzi wcześniej.
To dlatego dwa podobne polecenia mogą dawać różne rezultaty. Nie dlatego, że model „zwariował”, tylko dlatego, że buduje odpowiedź z różnych punktów startowych.
W praktyce oznacza to jedną rzecz: jeśli chcesz przewidywalnego wyniku, nie wystarczy pilnować samego promptu. Trzeba pilnować także kontekstu, w którym prompt pracuje.
Dobry wynik to nie to samo co zrozumienie
Tu pojawia się druga, dużo ważniejsza konsekwencja. AI potrafi dać poprawnie brzmiący wynik nawet wtedy, gdy użytkownik nie rozumie tematu głęboko. I właśnie dlatego tak łatwo pomylić trafną odpowiedź z własnym zrozumieniem.
To nie jest mały problem. To jest jedna z podstawowych pułapek pracy z modelami.
Jeżeli nie wiesz, jakie decyzje zostały podjęte po drodze, nie wiesz też:
- co w odpowiedzi jest solidne,
- co jest tylko uśrednionym wzorcem,
- gdzie kończy się użyteczność,
- a gdzie zaczyna ryzyko.
W praktyce wygląda to tak: ktoś dostaje dobrą odpowiedź i zaczyna myśleć, że rozumie temat. Tymczasem często rozumie tylko wynik, nie mechanizm, który do niego doprowadził.
Prompt jako projekt, nie jako życzenie
Dlatego najpraktyczniejsze podejście do AI nie polega na „wymyślaniu lepszych promptów”. Polega na ograniczaniu liczby decyzji, które model musi podejmować za Ciebie.
To oznacza:
- doprecyzowanie celu,
- określenie odbiorcy,
- wskazanie formy,
- ustawienie tonu,
- zdefiniowanie poziomu szczegółu,
- podanie materiału źródłowego,
- rozdzielenie etapów pracy.
Innymi słowy: nie prosisz o cud. Projektujesz ścieżkę dojścia do wyniku.
To jest dokładnie ta różnica, o której najrzadziej mówi się w materiałach o promptowaniu. Prompt, który działa raz, może być pomysłem. Prompt, który daje powtarzalny efekt, jest już projektem.
Im więcej chcesz kontroli, tym mniej możesz zostawić „domyślnie”
To jest być może najważniejszy wniosek z całego tematu.
Jeśli chcesz:
- spójnego stylu,
- powtarzalnego tonu,
- stabilnej jakości,
- przewidywalnego efektu,
to nie możesz zostawiać zbyt wielu rzeczy domyślnie.
Model bardzo dobrze radzi sobie z wypełnianiem luk. Problem w tym, że wypełnia je według własnego najlepszego dopasowania, a nie według Twojej niewypowiedzianej intencji.
I właśnie tam bierze się większość rozczarowań.
Nie z tego, że AI nie umie. Tylko z tego, że my zbyt łatwo oddajemy mu decyzje, których sami nie nazwaliśmy.
Najprostsza zasada na koniec
Jeśli wynik wydaje się przypadkowy, zwykle nie oznacza to, że model jest chaotyczny. Częściej oznacza to, że zadanie było zbyt ogólne, a kontrola nad procesem zbyt mała.
Niedeterminizm nie zaczyna się więc tam, gdzie działa model. Zaczyna się tam, gdzie użytkownik przestaje decydować.
I może właśnie dlatego najważniejszym pytaniem przy pracy z AI nie jest dziś:
jaki prompt wpisać?
Tylko raczej:
które decyzje chcę zostawić modelowi, a których nie powinien podejmować za mnie?