Data ostatniej aktualizacji:
23 lut 2026
Re-Reading Improves Reasoning in Large Language Models
Re-Reading Improves Reasoning in Large Language Models
Re-Reading Improves Reasoning in Large Language Models
Xiaohan Xu, Chongyang Tao, Tao Shen, Can Xu, Hongbo Xu, Guodong Long, Jian-guang Lou, Shuai Ma
Zapytaj o ten dokument AI
Kopuj link
Abstrakt
Kluczowe wnioski
Strategie z raportu:
Metoda Re2 (Re-Reading): Polega na podaniu modelowi językowemu tego samego pytania (lub problemu) dwukrotnie wewnątrz jednego promptu. Pozwala to na głębsze przetworzenie informacji i imituje ludzki proces wielokrotnego czytania trudnego polecenia przed przystąpieniem do rozwiązania.
Objaśnienie lub prompt
"Pytanie: Ile to jest 25 * 48? Przeczytaj ponownie pytanie: Ile to jest 25 * 48? Odpowiedź:"
Wzmocnienie "Dwukierunkowego" Kodowania (Bidirectional Encoding): Ponieważ większość modeli LLM generuje tekst tylko w jednym kierunku (od lewej do prawej), nie widzą całości kontekstu na raz na etapie planowania. Powtórzenie pytania sprawia, że przy drugim czytaniu model ma już zakodowany w "pamięci" ogólny zarys całego zadania, co poprawia jego skuteczność na dalszych etapach generowania tekstu.
Objaśnienie lub prompt
Podwojenie pytania o kluczowe dane, aby na końcu zapytania model miał najświeższy dostęp do liczb i warunków, do których ma się odnieść w obliczeniach.
Optymalna liczba powtórzeń (Optimal Repetitions): Badania z dokumentu wskazują, że najlepsze rezultaty osiąga się przy dwukrotnym lub najwyżej trzykrotnym przeczytaniu problemu.
Objaśnienie lub prompt
Zastosowanie w promptach konstrukcji blokowej: [Kontekst] -> [Pytanie] -> "Przeczytajmy to jeszcze raz" -> [Pytanie] -> [Generowanie rozwiązania].
Dobre praktyki:
Synergia z Chain-of-Thought (CoT Synergy): Technika Re2 skupia się na wejściu (lepsze zrozumienie problemu), podczas gdy CoT skupia się na wyjściu (lepsze wnioskowanie). Metoda powtarzania pytania działa doskonale połączona z frazą "pomyśl krok po kroku", wzmacniając ten proces na obu końcach.
Objaśnienie lub prompt
"Q: [Trudne zadanie inżynieryjne]. Przeczytaj ponownie Q: [Trudne zadanie inżynieryjne]. Let's think step by step."
Uniwersalność bez ingerencji w model (Model-Agnostic): Ponieważ jest to czysta inżynieria promptów, powinieneś stosować Re2 na każdym dostępnym modelu językowym jako szybką optymalizację, bez konieczności jego kosztownego dotrenowywania (fine-tuningu) czy aktualizowania wag.
Objaśnienie lub prompt
Wdrożenie podwójnego wklejenia polecenia jako standardowego, systemowego szablonu w kodzie własnej aplikacji bazującej na API OpenAI.
Zastosowanie w zadaniach matematycznych i logicznych: Technika przynosi największe zyski w konkretnych zadaniach, w których precyzyjne zrozumienie uwarunkowań i symboli matematycznych decyduje o ostatecznym sukcesie lub porażce.
Objaśnienie lub prompt
Skopiowanie i powtórzenie w prompcie skomplikowanej zagadki logicznej, zawiłego opisu systemu IT lub równania z wieloma zmiennymi.
Czego unikać?
Przesadnego powtarzania (Over-repetition): Unikaj wklejania tego samego pytania cztery lub więcej razy w jednym zapytaniu. Badania udowadniają, że prowadzi to do spadku jakości, ponieważ model skupia się na powtarzalności zamiast na rozwiązaniu zadania, a dodatkowo nadmiernie zużywa okno kontekstowe.
Objaśnienie lub prompt
"Pytanie: X. Pytanie: X. Pytanie: X. Pytanie: X. Pytanie: X. Podaj wynik." (Błędne marnowanie zasobów i wprowadzanie szumu do wejścia).
Zużywania tokenów na bardzo proste zadania: Skoro technika ta wydłuża prompt i koszty wejścia, unikaj jej używania w trywialnych pytaniach opartych o podstawową wiedzę, na które model odpowiada bezbłędnie za pierwszym razem.
Objaśnienie lub prompt
"Jakie jest najszybsze zwierzę lądowe? Przeczytaj ponownie: Jakie jest najszybsze zwierzę lądowe?" (Niepotrzebne zużycie tokenów przy bardzo oczywistej odpowiedzi).
Izolacji techniki od innych optymalizacji: Unikaj polegania wyłącznie na metodzie Re-Reading przy rozwiązywaniu najtrudniejszych problemów, zapominając o formatowaniu wyjścia. Sam Re2 jest tylko optymalizacją wstępnego rozumienia zadania, a nie kompleksowym rozwiązaniem.
Objaśnienie lub prompt
Powtórzenie pytania matematycznego dwa razy na wejściu, ale wymuszenie od modelu natychmiastowej odpowiedzi zawierającej wyłącznie gołą liczbę bez szansy na proces myślowy.
Abstrakt
Kluczowe wnioski
Strategie z raportu:
Metoda Re2 (Re-Reading): Polega na podaniu modelowi językowemu tego samego pytania (lub problemu) dwukrotnie wewnątrz jednego promptu. Pozwala to na głębsze przetworzenie informacji i imituje ludzki proces wielokrotnego czytania trudnego polecenia przed przystąpieniem do rozwiązania.
Objaśnienie lub prompt
"Pytanie: Ile to jest 25 * 48? Przeczytaj ponownie pytanie: Ile to jest 25 * 48? Odpowiedź:"
Wzmocnienie "Dwukierunkowego" Kodowania (Bidirectional Encoding): Ponieważ większość modeli LLM generuje tekst tylko w jednym kierunku (od lewej do prawej), nie widzą całości kontekstu na raz na etapie planowania. Powtórzenie pytania sprawia, że przy drugim czytaniu model ma już zakodowany w "pamięci" ogólny zarys całego zadania, co poprawia jego skuteczność na dalszych etapach generowania tekstu.
Objaśnienie lub prompt
Podwojenie pytania o kluczowe dane, aby na końcu zapytania model miał najświeższy dostęp do liczb i warunków, do których ma się odnieść w obliczeniach.
Optymalna liczba powtórzeń (Optimal Repetitions): Badania z dokumentu wskazują, że najlepsze rezultaty osiąga się przy dwukrotnym lub najwyżej trzykrotnym przeczytaniu problemu.
Objaśnienie lub prompt
Zastosowanie w promptach konstrukcji blokowej: [Kontekst] -> [Pytanie] -> "Przeczytajmy to jeszcze raz" -> [Pytanie] -> [Generowanie rozwiązania].
Dobre praktyki:
Synergia z Chain-of-Thought (CoT Synergy): Technika Re2 skupia się na wejściu (lepsze zrozumienie problemu), podczas gdy CoT skupia się na wyjściu (lepsze wnioskowanie). Metoda powtarzania pytania działa doskonale połączona z frazą "pomyśl krok po kroku", wzmacniając ten proces na obu końcach.
Objaśnienie lub prompt
"Q: [Trudne zadanie inżynieryjne]. Przeczytaj ponownie Q: [Trudne zadanie inżynieryjne]. Let's think step by step."
Uniwersalność bez ingerencji w model (Model-Agnostic): Ponieważ jest to czysta inżynieria promptów, powinieneś stosować Re2 na każdym dostępnym modelu językowym jako szybką optymalizację, bez konieczności jego kosztownego dotrenowywania (fine-tuningu) czy aktualizowania wag.
Objaśnienie lub prompt
Wdrożenie podwójnego wklejenia polecenia jako standardowego, systemowego szablonu w kodzie własnej aplikacji bazującej na API OpenAI.
Zastosowanie w zadaniach matematycznych i logicznych: Technika przynosi największe zyski w konkretnych zadaniach, w których precyzyjne zrozumienie uwarunkowań i symboli matematycznych decyduje o ostatecznym sukcesie lub porażce.
Objaśnienie lub prompt
Skopiowanie i powtórzenie w prompcie skomplikowanej zagadki logicznej, zawiłego opisu systemu IT lub równania z wieloma zmiennymi.
Czego unikać?
Przesadnego powtarzania (Over-repetition): Unikaj wklejania tego samego pytania cztery lub więcej razy w jednym zapytaniu. Badania udowadniają, że prowadzi to do spadku jakości, ponieważ model skupia się na powtarzalności zamiast na rozwiązaniu zadania, a dodatkowo nadmiernie zużywa okno kontekstowe.
Objaśnienie lub prompt
"Pytanie: X. Pytanie: X. Pytanie: X. Pytanie: X. Pytanie: X. Podaj wynik." (Błędne marnowanie zasobów i wprowadzanie szumu do wejścia).
Zużywania tokenów na bardzo proste zadania: Skoro technika ta wydłuża prompt i koszty wejścia, unikaj jej używania w trywialnych pytaniach opartych o podstawową wiedzę, na które model odpowiada bezbłędnie za pierwszym razem.
Objaśnienie lub prompt
"Jakie jest najszybsze zwierzę lądowe? Przeczytaj ponownie: Jakie jest najszybsze zwierzę lądowe?" (Niepotrzebne zużycie tokenów przy bardzo oczywistej odpowiedzi).
Izolacji techniki od innych optymalizacji: Unikaj polegania wyłącznie na metodzie Re-Reading przy rozwiązywaniu najtrudniejszych problemów, zapominając o formatowaniu wyjścia. Sam Re2 jest tylko optymalizacją wstępnego rozumienia zadania, a nie kompleksowym rozwiązaniem.
Objaśnienie lub prompt
Powtórzenie pytania matematycznego dwa razy na wejściu, ale wymuszenie od modelu natychmiastowej odpowiedzi zawierającej wyłącznie gołą liczbę bez szansy na proces myślowy.
Abstrakt
Kluczowe wnioski
Strategie z raportu:
Metoda Re2 (Re-Reading): Polega na podaniu modelowi językowemu tego samego pytania (lub problemu) dwukrotnie wewnątrz jednego promptu. Pozwala to na głębsze przetworzenie informacji i imituje ludzki proces wielokrotnego czytania trudnego polecenia przed przystąpieniem do rozwiązania.
Objaśnienie lub prompt
"Pytanie: Ile to jest 25 * 48? Przeczytaj ponownie pytanie: Ile to jest 25 * 48? Odpowiedź:"
Wzmocnienie "Dwukierunkowego" Kodowania (Bidirectional Encoding): Ponieważ większość modeli LLM generuje tekst tylko w jednym kierunku (od lewej do prawej), nie widzą całości kontekstu na raz na etapie planowania. Powtórzenie pytania sprawia, że przy drugim czytaniu model ma już zakodowany w "pamięci" ogólny zarys całego zadania, co poprawia jego skuteczność na dalszych etapach generowania tekstu.
Objaśnienie lub prompt
Podwojenie pytania o kluczowe dane, aby na końcu zapytania model miał najświeższy dostęp do liczb i warunków, do których ma się odnieść w obliczeniach.
Optymalna liczba powtórzeń (Optimal Repetitions): Badania z dokumentu wskazują, że najlepsze rezultaty osiąga się przy dwukrotnym lub najwyżej trzykrotnym przeczytaniu problemu.
Objaśnienie lub prompt
Zastosowanie w promptach konstrukcji blokowej: [Kontekst] -> [Pytanie] -> "Przeczytajmy to jeszcze raz" -> [Pytanie] -> [Generowanie rozwiązania].
Dobre praktyki:
Synergia z Chain-of-Thought (CoT Synergy): Technika Re2 skupia się na wejściu (lepsze zrozumienie problemu), podczas gdy CoT skupia się na wyjściu (lepsze wnioskowanie). Metoda powtarzania pytania działa doskonale połączona z frazą "pomyśl krok po kroku", wzmacniając ten proces na obu końcach.
Objaśnienie lub prompt
"Q: [Trudne zadanie inżynieryjne]. Przeczytaj ponownie Q: [Trudne zadanie inżynieryjne]. Let's think step by step."
Uniwersalność bez ingerencji w model (Model-Agnostic): Ponieważ jest to czysta inżynieria promptów, powinieneś stosować Re2 na każdym dostępnym modelu językowym jako szybką optymalizację, bez konieczności jego kosztownego dotrenowywania (fine-tuningu) czy aktualizowania wag.
Objaśnienie lub prompt
Wdrożenie podwójnego wklejenia polecenia jako standardowego, systemowego szablonu w kodzie własnej aplikacji bazującej na API OpenAI.
Zastosowanie w zadaniach matematycznych i logicznych: Technika przynosi największe zyski w konkretnych zadaniach, w których precyzyjne zrozumienie uwarunkowań i symboli matematycznych decyduje o ostatecznym sukcesie lub porażce.
Objaśnienie lub prompt
Skopiowanie i powtórzenie w prompcie skomplikowanej zagadki logicznej, zawiłego opisu systemu IT lub równania z wieloma zmiennymi.
Czego unikać?
Przesadnego powtarzania (Over-repetition): Unikaj wklejania tego samego pytania cztery lub więcej razy w jednym zapytaniu. Badania udowadniają, że prowadzi to do spadku jakości, ponieważ model skupia się na powtarzalności zamiast na rozwiązaniu zadania, a dodatkowo nadmiernie zużywa okno kontekstowe.
Objaśnienie lub prompt
"Pytanie: X. Pytanie: X. Pytanie: X. Pytanie: X. Pytanie: X. Podaj wynik." (Błędne marnowanie zasobów i wprowadzanie szumu do wejścia).
Zużywania tokenów na bardzo proste zadania: Skoro technika ta wydłuża prompt i koszty wejścia, unikaj jej używania w trywialnych pytaniach opartych o podstawową wiedzę, na które model odpowiada bezbłędnie za pierwszym razem.
Objaśnienie lub prompt
"Jakie jest najszybsze zwierzę lądowe? Przeczytaj ponownie: Jakie jest najszybsze zwierzę lądowe?" (Niepotrzebne zużycie tokenów przy bardzo oczywistej odpowiedzi).
Izolacji techniki od innych optymalizacji: Unikaj polegania wyłącznie na metodzie Re-Reading przy rozwiązywaniu najtrudniejszych problemów, zapominając o formatowaniu wyjścia. Sam Re2 jest tylko optymalizacją wstępnego rozumienia zadania, a nie kompleksowym rozwiązaniem.
Objaśnienie lub prompt
Powtórzenie pytania matematycznego dwa razy na wejściu, ale wymuszenie od modelu natychmiastowej odpowiedzi zawierającej wyłącznie gołą liczbę bez szansy na proces myślowy.
Publikacje AI
Prompting
Bezpieczeństwo AI
O mnie
Mój blog
Wsparcie projektu
Buy me a coffe
Create by Mateusz Jędraszczyk
