W trakcie weryfikacji przez człowieka

Data ostatniej aktualizacji:

Chain-of-Thought Prompting Elicits Reasoning in Large Language Models

Chain-of-Thought Prompting Elicits Reasoning in Large Language Models

Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed Chi, Quoc Le, Denny Zhou

Zapytaj o ten dokument AI

Kopuj link

Abstrakt

Kluczowe wnioski

Strategie z raportu

  • Zastosowanie Chain-of-Thought (CoT): Strategia ta polega na wymuszeniu przez odpowiednio skonstruowany prompt wygenerowania przez model całej sekwencji logicznych kroków przed podaniem ostatecznej odpowiedzi. Naśladuje to ludzki sposób systematycznego analizowania skomplikowanych problemów z obszaru "System 2".

Objaśnienie lub prompt

"Zadanie: Jeśli mam 5 jabłek i zjem 2, a potem dokupię 3, ile mam? Opisz swój proces decyzyjny krok po kroku, zanim ostatecznie stwierdzisz wynik (np. 'Początkowo: 5. Po zjedzeniu 2: 5-2=3. Po zakupie 3: 3+3=6')."


  • Uczenie na kilku przykładach z rozumowaniem (Few-Shot CoT): Zamiast podawania samych par pytań i odpowiedzi (Q&A), w samym zapytaniu dostarcza się modelowi pełne przykłady procesów wnioskowania. AI uczy się wtedy powielania formatu "drogi do celu".

Objaśnienie lub prompt

"Pytanie: Jan ma 3 koty. Kupuje 2 kolejne. Ile ma kotów? Rozumowanie: Jan zaczynał od 3 kotów. Dodając 2, ma 3+2=5. Odpowiedź: 5. Pytanie: Anna ma 10 psów. Oddała 3. Ile psów jej zostało? Rozumowanie:"


  • Alokacja mocy obliczeniowej w tokenach: Poprzez nakłonienie modelu do generowania pośrednich kroków obliczeniowych, w praktyce zmuszamy go do poświęcenia większej liczby zasobów (generowanych "tokenów") na rozwikłanie danego problemu. Model dzięki temu lepiej radzi sobie z matematyką i logiką.

Objaśnienie lub prompt

"Rozwiąż to złożone równanie finansowe firmy. Nie podawaj od razu wyniku końcowego. Rozpisz każdy etap swoich wyliczeń matematycznych w osobnej linijce tekstu."


Dobre praktyki

  • Wykorzystanie największych dostępnych modeli: Technika CoT daje świetne, a wręcz uderzające rezultaty, ale w głównej mierze zależy od skali modelu. Zdolności te stają się bardzo wyraźne w ogromnych sieciach LLM (np. powyżej 100 miliardów parametrów).

Objaśnienie lub prompt

Wybieraj najpotężniejsze płatne modele bazowe do trudnych zadań inżynieryjnych zamiast mniejszych darmowych alternatyw, jeśli zależy Ci na korzystaniu z wnioskowania metodą CoT.


  • Zachowanie interpretowalności ścieżki (Debugowanie AI): Generowanie kroków pośrednich daje wgląd w to, dlaczego model udzielił właśnie takiej odpowiedzi. Korzystaj z tej praktyki jako narzędzia do audytowania wyników i wprowadzania szybkich korekt.

Objaśnienie lub prompt

Wypisywanie każdego kroku analitycznego w procesie prawnym. Jeśli wniosek jest błędny, czytając prompt łatwo wskazać artykuł prawny, w którym AI popełniło błąd interpretacyjny.


  • Spójność merytoryczna przykładów wewnątrz promptu: Zadania użyte w charakterze demonstracyjnym (w metodzie few-shot) muszą odpowiadać typowi problemu docelowego. Dla zadania logicznego pokazuj logikę, dla arytmetyki – równania arytmetyczne.

Objaśnienie lub prompt

Jeśli prosisz model o rozwiązanie skomplikowanego algorytmu sortowania, umieść w prompcie przykład krokowego rozwiązywania innego algorytmu, a nie np. przykładu z chemii analitycznej.


Czego unikać?

  • Używania CoT w małych, podstawowych modelach językowych: Mniejsze modele przy nakazaniu im "myślenia krok po kroku" częściej produkują bardzo gładkie i przekonujące, jednak całkowicie niepoprawne logicznie wywody, co dodatkowo zaniża poprawność wyników.

Objaśnienie lub prompt

Odpalanie rozbudowanego promptu nakazującego dogłębną analizę na bardzo oszczędnym modelu uruchomionym lokalnie w telefonie.


  • Stosowania metody "Standard Prompting" przy złożonych problemach: Nigdy nie oczekuj, że model od razu i w pierwszej linijce tekstu poda bezbłędny wynik trudnego wieloetapowego działania z pominięciem drogi kalkulacji.

Objaśnienie lub prompt

"Zsumuj przychody z wszystkich kwartałów, odejmij podatek 19% i koszty pracownicze i podaj mi tutaj wyłącznie natychmiastowo ostateczną kwotę do wypłaty."


  • Porywania się na drogie dotrenowywanie modelu (Fine-Tuning): Przed poniesieniem kosztów na przygotowanie tysięcy przykładów treningowych do zadania, zawsze należy unikać pomijania fazy testowej, w której sprawdza się czy dodanie do promptu zaledwie 8 przykładów "chain-of-thought" nie rozwiąże problemu równie dobrze.

Objaśnienie lub prompt

Wysyłanie danych do drogiego procesu Fine-tuningu, podczas gdy zwykły tekst czatu: "Rozwiąż podobne zadanie na podstawie tych 5 opisanych kroków postępowania" przyniósłby 90% dokładności bez dodatkowych kosztów.

Wesprzyj ten projekt stawiając mi kawę ;)

Publikacje AI

Prompting

Bezpieczeństwo AI

O mnie

LinkedIn

Mój blog

Wsparcie projektu

Buy me a coffe

Create a free website with Framer, the website builder loved by startups, designers and agencies.