Gość (37.30.*.*)
W świecie inżynierii promptów (ang. prompt engineering) krąży wiele nietypowych technik, które mają na celu „wyciśnięcie” z modeli językowych tego, co najlepsze. Polecenie typu „Pomyśl pięć razy i zacznij” lub popularne w języku angielskim „Think step by step” faktycznie wpływa na jakość generowanych odpowiedzi. Choć sztuczna inteligencja nie „myśli” w ludzkim znaczeniu tego słowa, tego typu instrukcje aktywują mechanizmy, które znacząco poprawiają logikę i precyzję wypowiedzi.
Kluczem do zrozumienia, dlaczego to działa, jest koncepcja Chain of Thought (CoT). Modele językowe, takie jak GPT-4 czy Claude, generują tekst słowo po słowie (a właściwie token po tokenie), przewidując, co powinno wystąpić jako następne na podstawie kontekstu. Jeśli zadamy trudne pytanie i oczekujemy natychmiastowej odpowiedzi, model może „pójść na skróty” i podać najbardziej prawdopodobne, ale niekoniecznie poprawne rozwiązanie.
Kiedy dodajemy polecenie „Pomyśl pięć razy” lub „Przeanalizuj to krok po kroku”, zmuszamy model do wygenerowania wewnętrznej (lub widocznej) ścieżki rozumowania. Dzięki temu AI:
Liczba „pięć” w tym przypadku działa jako wzmocnienie instrukcji. Modele LLM (Large Language Models) reagują na wagę poleceń. Sugestia, że proces myślowy ma być wielokrotny lub szczególnie głęboki, sprawia, że model alokuje więcej „uwagi” (w sensie matematycznym, poprzez mechanizm attention) na analizę problemu niż na samo generowanie ładnie brzmiących zdań.
W praktyce model nie wykonuje fizycznie pięciu oddzielnych cykli myślowych w pętli, ale instrukcja ta zmienia jego „nastawienie” (system prompt) na bardziej analityczne. To trochę tak, jakbyśmy powiedzieli człowiekowi: „Zastanów się dobrze, zanim odpowiesz” – podświadomie taka osoba zacznie analizować więcej zmiennych.
Nie każda sytuacja wymaga proszenia AI o głębokie przemyślenia. Ta technika jest najskuteczniejsza w konkretnych przypadkach:
W przypadku prostych pytań, takich jak „Jaka jest stolica Francji?”, dopisywanie „Pomyśl pięć razy” jest zbędne i może jedynie niepotrzebnie wydłużyć czas generowania odpowiedzi.
Badania nad modelami językowymi (m.in. przeprowadzone przez naukowców z Google DeepMind) wykazały, że dopisanie do promptu frazy „Take a deep breath and work on this step by step” (Weź głęboki oddech i pracuj nad tym krok po kroku) dawało w niektórych testach matematycznych lepsze wyniki niż same instrukcje logiczne. Sugeruje to, że modele LLM, trenowane na ogromnych zbiorach danych zawierających ludzkie interakcje, „nauczyły się”, że po takich słowach zazwyczaj następuje tekst o wysokim stopniu skupienia i poprawności.
Warto pamiętać, że skuteczność tej metody zależy od konkretnego modelu. Nowsze modele, jak np. seria OpenAI o1, mają „zaszyte” wewnętrzne procesy myślowe (tzw. hidden chain of thought). W ich przypadku model sam z siebie „myśli” przed udzieleniem odpowiedzi, co widać w interfejsie jako proces trwający kilka lub kilkanaście sekund. W starszych modelach lub wersjach „lekki” (jak GPT-4o mini), ręczne dopisanie prośby o analizę jest niemal niezbędne, by uzyskać wysoką jakość przy trudnych zadaniach.
Podsumowując, polecenie „Pomyśl pięć razy i zacznij” nie jest magicznym zaklęciem, ale skutecznym narzędziem inżynierii promptów. Pozwala ono modelowi na lepszą organizację „przestrzeni roboczej” i zminimalizowanie błędów wynikających z pośpiechu algorytmicznego. Jeśli zależy Ci na precyzji, zdecydowanie warto dawać sztucznej inteligencji czas i wyraźne przyzwolenie na dłuższą analizę.