W trakcie weryfikacji przez człowieka

Data ostatniej aktualizacji:

A Systematic Survey of Prompt Engineering in Large Language Models: Techniques and Applications

A Systematic Survey of Prompt Engineering in Large Language Models: Techniques and Applications

Pranab Sahoo, Ayush Kumar Singh, Sriparna Saha, Vinija Jain, Samrat Mondal, Aman Chadha

Zapytaj o ten dokument AI

Kopuj link

Abstrakt

Kluczowe wnioski

Strategie z raportu

  • Zero-Shot Prompting: Technika polegająca na poleganiu wyłącznie na wbudowanej wiedzy wstępnie wytrenowanego modelu, bez dostarczania mu żadnych gotowych przykładów rozwiązania. Sprawdza się świetnie przy prostych i powszechnych zadaniach, gdzie AI może naturalnie uogólniać koncepcje z danych treningowych.

Objaśnienie lub prompt

"Zaklasyfikuj ten artykuł jako 'Sport' lub 'Polityka': 'Real Madryt wygrał wczorajszy mecz Ligi Mistrzów 3:1'."


  • Few-Shot Prompting: Strategia dostarczania modelowi kilku przykładowych par "wejście-wyjście" w samym prompcie przed zadaniem właściwego pytania. Pozwala to na naśladowanie przez AI oczekiwanego wzorca (meta-learning) i znacząco zwiększa dokładność przy niestandardowych zadaniach.

Objaśnienie lub prompt

"Recenzja: 'Świetny film!' -> Pozytywna. Recenzja: 'Nuda i strata czasu.' -> Negatywna. Recenzja: 'Aktorstwo było w porządku, ale fabuła słaba.' ->"


  • Chain-of-Thought (CoT) Prompting: Rozbudowana technika wymuszająca na modelu wygenerowanie pośrednich etapów rozumowania, zanim wskaże ostateczny wynik. Symuluje ludzki proces analityczny krok po kroku, radykalnie zwiększając skuteczność w trudnych problemach logicznych i arytmetycznych.

Objaśnienie lub prompt

"Zanim podasz ostateczny wynik, rozpisz krok po kroku swoje rozumowanie, aby obliczyć wiek Anny, zakładając, że jest dwa razy starsza od 10-letniego brata, a za 5 lat on będzie..."

Dobre praktyki

  • Budowanie silnego i szczegółowego kontekstu: Im więcej precyzyjnych informacji tła (rola modelu, cel biznesowy, grupa docelowa) znajdzie się w instrukcji, tym trafniejsza i mniej podatna na ogólnikowe odpowiedzi (tzw. halucynacje) staje się generowana treść.

Objaśnienie lub prompt

"Jesteś starszym ekspertem ds. SEO w agencji marketingowej. Twoim zadaniem jest stworzenie listy 5 długoogonowych słów kluczowych dla lokalnej kawiarni w Łodzi, kierowanych do studentów szukających miejsca do nauki."


  • Precyzyjne formatowanie wyników wyjściowych: Zawsze jasno określaj, w jakiej strukturze chcesz otrzymać odpowiedź (np. tabela, JSON, konkretna liczba akapitów, lista punktowana). Oszczędza to czas na ręczne formatowanie danych po stronie użytkownika.

Objaśnienie lub prompt

Praktyczny przykład w prosty sposób pokazujacy o co chodzi (promp lub krótki opis): "Przeanalizuj poniższy tekst i zwróć 3 najważniejsze wnioski. Przedstaw je w formie tabeli z dwiema kolumnami: 'Wniosek' oraz 'Cytat z tekstu potwierdzający wniosek'."


  • Iteracyjne udoskonalanie promptów (Iterative refinement): Proces pisania promptów rzadko jest jednorazowy. Obserwowanie błędów modelu i poprawianie zapytań o dodatkowe ograniczenia pozwala na systematyczne "kalibrowanie" ostatecznego wyniku w serii rozmów z asystentem.

Objaśnienie lub prompt

"Powyższy tekst jest dobry, ale ma zbyt naukowy ton. Zmodyfikuj go teraz tak, aby był zrozumiały dla ucznia szkoły podstawowej, zachowując przy tym wszystkie kluczowe fakty."


Czego unikać?

  • Używania niejednoznacznego lub bardzo ogólnikowego języka: Prompty, które zostawiają wiele miejsca na własną interpretację, zmuszają model do "zgadywania" intencji. Prowadzi to często do odpowiedzi, które są technicznie poprawne, ale bezużyteczne z perspektywy użytkownika.

Objaśnienie lub prompt

"Napisz mi coś ciekawego o komputerach i dlaczego są ważne."

  • Przeładowywania okna kontekstowego (Context Overload) w metodzie Few-Shot: Unikaj wstawiania zbyt dużej liczby rozwlekłych przykładów edukujących model. Zajmuje to cenne "tokeny" ograniczonej pamięci podręcznej LLM, podnosi koszty generowania i może sprawić, że AI zignoruje kluczowe instrukcje na samym dole promptu.

Objaśnienie lub prompt

Wklejanie 20 stron dokumentacji technicznej z przykładami tylko po to, aby ostatecznie zadać modelowi proste pytanie o to, jak poprawnie zamknąć dany tag w kodzie HTML.


  • Mieszania ze sobą ról i sprzecznych instrukcji: Wprowadzanie wielu niezwiązanych ze sobą zasad formatowania lub zderzanie ze sobą ról do odegrania w jednym małym bloku tekstu może przytłoczyć model, powodując gubienie kluczowych punktów zadania.

Objaśnienie lub prompt

"Bądź profesorem matematyki z XIX wieku, ale używaj współczesnego slangu Gen-Z. Twoja odpowiedź musi mieć dokładnie 40 słów, być napisana heksametrem i zawierać analizę finansową mojej firmy."


Wesprzyj ten projekt stawiając mi kawę ;)

Publikacje AI

Prompting

Bezpieczeństwo AI

O mnie

LinkedIn

Mój blog

Wsparcie projektu

Buy me a coffe

Create a free website with Framer, the website builder loved by startups, designers and agencies.