W trakcie weryfikacji przez człowieka

Data ostatniej aktualizacji:

Take a Step Back: Evoking Reasoning via Abstraction in Large Language Models

Take a Step Back: Evoking Reasoning via Abstraction in Large Language Models

Huaixiu Steven Zheng, Swaroop Mishra, Xinyun Chen, Heng-Tze Cheng, Ed H. Chi, Quoc V Le, Denny Zhou

Zapytaj o ten dokument AI

Kopuj link

Abstrakt

Kluczowe wnioski

Strategie z raportu:

  • Step-Back Prompting (Abstrakcja przed rozumowaniem): Technika polegająca na skłonieniu modelu do "zrobienia kroku w tył" i wygenerowania szerszego, bardziej ogólnego pytania na podstawie szczegółowego problemu, aby odzyskać zasady fizyczne, historyczne czy koncepcje wysokiego poziomu (first principles).

Objaśnienie lub prompt

"Zamiast od razu odpowiadać na pytanie 'Jakie było ciśnienie gazu w temperaturze 50 stopni i objętości 20 litrów?', zapytaj najpierw: 'Jakie uniwersalne prawo fizyczne łączy temperaturę, objętość i ciśnienie gazu?'"


  • Proces dwuetapowy (Abstraction-and-Reasoning): Strategia dzieląca proces rozwiązywania problemu na dwa wyraźne etapy: najpierw model generuje abstrakcyjne pojęcie, ramy czasowe lub zasadę dla danego zadania, a dopiero w drugim kroku wykorzystuje tę odzyskaną wiedzę bazową do przeprowadzenia ostatecznej dedukcji.

Objaśnienie lub prompt

"Krok 1: Wymień ogólne zasady dynamiki Newtona. Krok 2: Używając tych wymienionych zasad, oblicz z jaką siłą zderzyły się te dwa konkretne pojazdy z zadania."


  • Opieranie wnioskowania na fundamentalnych prawach (Grounding reasoning): Zmuszenie modelu do jawnego zadeklarowania i wyjaśnienia definicji, praw lub wzorów przed próbą jakichkolwiek matematycznych lub logicznych obliczeń, aby chronić się przed błędami w pośrednich krokach (tzw. Math/Reasoning Errors).

Objaśnienie lub prompt

"Zdefiniuj dokładnie czym jest zysk operacyjny i z jakich elementów się składa według standardów księgowych, a następnie na bazie tej czystej definicji oblicz go dla firmy X z poniższych danych."


Dobre praktyki:

  • Stosowanie pytań pomocniczych "krok w tył" w QA: W przypadku pytań o bardzo specyficzne ramy czasowe lub wąskie konteksty historyczne, warto najpierw poprosić model o wygenerowanie ogólnego życiorysu lub zarysu historii, z której model sam potem bezpiecznie wyciągnie żądane szczegóły.

Objaśnienie lub prompt

"Problem: 'Do jakiej szkoły chodziła Estella w sierpniu 1954?'. Zamiast pytać wprost, użyj promptu: 'Napisz ogólną historię edukacji Estelli, a potem na tej szerokiej podstawie określ, gdzie dokładnie była w sierpniu 1954 roku.'"


  • Połączenie abstrakcji z In-Context Learning (Few-Shot): Modele radzą sobie najlepiej z techniką Step-Back, gdy przedstawi im się w prompcie kilka przykładów referencyjnych, pokazujących jak poprawnie wyodrębniać "zasady wysokiego poziomu" z różnych, losowych zadań, zanim poprosi się o rozwiązanie celu.

Objaśnienie lub prompt

"Przykład 1: Jeśli pytanie dotyczy prędkości auta, odpowiednia abstrakcja to wzór V=s/t. Przykład 2: Jeśli pytanie dotyczy spalania paliwa, abstrakcja to zasada zachowania masy. Teraz spójrz na moje pytanie o lot rakiety, podaj właściwą abstrakcję i dopiero na jej podstawie rozwiąż problem."


  • Wykorzystywanie abstrakcji do ulepszenia RAG (Retrieval-Augmented Generation): Zastosowanie pytań "krok w tył" świetnie sprawdza się do przeszukiwania zewnętrznych baz danych. Szersze, abstrakcyjne zapytania często zwracają trafniejsze i bogatsze w kontekst dokumenty źródłowe, niż pytania wysoce szczegółowe.

Objaśnienie lub prompt

"Zanim każesz modelowi wyszukać w bazie firmy dokumentów odpowiedzi na bardzo wąskie zapytanie 'Ile wynosiła druga rata kredytu hipotecznego Jana Kowalskiego w marcu 2021?', nakaż wyszukać 'Umowa kredytowa i pełny harmonogram spłat Jana Kowalskiego'."


Czego unikać?

  • Bezpośredniego uderzania w wysoce szczegółowe problemy (Direct Prompting for constraints): Próba uzyskania od modelu bezpośredniej odpowiedzi na pytania mocno ograniczone specyficznymi warunkami (np. konkretny miesiąc i ułamek sekundy w historii) często skutkuje wymyślaniem faktów (halucynacjami), ponieważ model gubi szerszy obraz sytuacji.

Objaśnienie lub prompt

"Napisz mi dokładnie co robił prezydent 14 marca 2005 roku o godzinie 15:00, bez rozpisywania szerszego kalendarium jego prezydentury wokół tej daty."


  • Rozwiązywania zadań ścisłych (STEM) bez przywołania teorii: Wymaganie od modelu przeprowadzenia od razu wieloetapowych kalkulacji fizycznych czy chemicznych, bez wcześniejszego zdefiniowania praw rządzących danym zjawiskiem. Prowadzi to niemal zawsze do błędów w przypisywaniu zmiennych i ostatecznym wyniku.

Objaśnienie lub prompt

"Rozwiąż to długie zadanie z termodynamiki z wieloma zmiennymi i podaj mi sam wynik końcowy, bez tracenia czasu na wypisywanie praw fizyki i wzorów."


  • Ślepego zaufania do niewidocznych procesów myślowych: Należy unikać ukrywania etapu tworzenia definicji przez model. Jeśli model źle zdefiniuje zasadę bazową (tzw. Principle Error), całe dalsze rozumowanie będzie bezużyteczne. Zawsze należy wymuszać tekstowe wypisanie definicji, by móc je zweryfikować.

Objaśnienie lub prompt

"Zastosuj ukrytą w tle zasadę fizyczną i od razu podaj odpowiedź na mój problem, bez pokazywania mi w tekście, jaką zasadę założyłeś w swoim pierwszym kroku."


Wesprzyj ten projekt stawiając mi kawę ;)

Publikacje AI

Prompting

Bezpieczeństwo AI

O mnie

LinkedIn

Mój blog

Wsparcie projektu

Buy me a coffe

Create a free website with Framer, the website builder loved by startups, designers and agencies.