W trakcie weryfikacji przez człowieka

Data ostatniej aktualizacji:

LLMs Corrupt Your Documents When You Delegate

LLMs Corrupt Your Documents When You Delegate

Philippe Laban, Tobias Schnabel, Jennifer Neville

Zapytaj o ten dokument AI

Kopuj link

Abstrakt

Kluczowe wnioski

Strategie z raportu:

  • Sprawdzanie AI na długich dystansach (Round-trip Relay Simulations): Zamiast oceniać model po jednym prostym zadaniu, autorzy testowali go w długim, wieloetapowym procesie. Kolejne zadania bazowały na poprzednich wynikach, co pozwoliło wykryć, że z biegiem czasu AI gubi i zniekształca informacje.

Objaśnienie lub prompt

Poproś AI o dodanie danych do tabeli, potem w kolejnej wiadomości o przeliczenie walut, a na koniec o usunięcie duplikatów. Po każdym z tych kroków sprawdź upewniając się, czy AI po cichu nie skasowało innych ważnych rubryk.


  • Dodawanie "zmyłek" do zadań (Distractor Environment Setup): Badacze celowo dorzucali do środowiska pracy AI nieistotne, ale tematycznie podobne pliki. Celem było sprawdzenie, czy model potrafi skupić się tylko na edytowanym dokumencie i nie pomieszać danych.

Objaśnienie lub prompt

Wysyłasz modelowi nowy regulamin do poprawienia błędów gramatycznych, ale jako załącznik dodajesz też stary, nieaktualny regulamin sprzed lat, żeby zobaczyć, czy AI omyłkowo nie przeklei z niego starych zasad.


  • Śledzenie niewidocznych błędów (Silent Corruption Tracking): Modele potrafią tak zepsuć plik, że na pierwszy rzut oka wygląda on poprawnie, ale brakuje w nim ważnych fragmentów danych. Zastosowano więc specjalne systemy do stałego, linijka po linijce, porównywania wersji pliku.

Objaśnienie lub prompt

Użycie programu do automatycznego porównywania tekstu (tzw. "znajdź różnice") zaraz po tym, jak AI odda gotowy plik, aby wychwycić znikające słowa czy całe zdania.


Dobre praktyki:

  • Krótkie zadania zamiast długich maratonów (Short-horizon Workflows): Unikaj zmuszania AI do ciągłej pracy na jednym dokumencie w bardzo długich konwersacjach. Błędy AI nawarstwiają się i z każdą kolejną interakcją plik jest coraz bardziej zepsuty.

Objaśnienie lub prompt

Zamiast pisać z AI cały wielostronicowy raport w jednym oknie czatu, stwórz nową, czystą rozmowę dla każdego kolejnego rozdziału raportu.


  • Człowiek musi to sprawdzić (Human Review Validation): Nigdy nie ufaj bezgranicznie wynikom pracy sztucznej inteligencji. Ponieważ błędy często ukrywają się pod poprawnym wyglądem dokumentu, każda zmiana wprowadzona przez AI wymaga weryfikacji.

Objaśnienie lub prompt

Wklej tekst zwrócony przez sztuczną inteligencję do Worda lub Google Docs z włączoną funkcją "Śledzenie zmian", aby ręcznie zatwierdzić każdy dodany lub usunięty przez model fragment.


  • Daj AI tylko to, co niezbędne (Context Size Management): Nie wysyłaj AI całych ogromnych plików, jeśli ma poprawić tylko jeden fragment. Im więcej niepotrzebnego tekstu podasz modelowi, tym większe prawdopodobieństwo, że zacznie on gubić dane.

Objaśnienie lub prompt

Jeśli chcesz, aby model poprawił literówkę na stronie 50 swojego dokumentu, skopiuj i wyślij mu tylko ten jeden krótki akapit do poprawy, zamiast wgrywać cały stustronicowy plik.


Czego unikać?

  • Zostawiania AI samopas na długi czas (Blind Delegation of Long Workflows): Nie powierzaj sztucznej inteligencji dużych zadań edycyjnych bez nadzoru. Zaufanie, że AI samodzielnie przeprowadzi długi proces na plikach skutkuje tym, że wiodące modele psują bezpowrotnie nawet 25% treści.

Objaśnienie lub prompt

Wysłanie polecenia: "Przetłumacz i sformatuj moją książkę", po czym wyjście na kawę z założeniem, że plik, który dostaniesz po powrocie będzie w 100% spójny z oryginałem.


  • Ufania, że AI samo sprawdzi swoje błędy (Over-reliance on Agentic Tools): Nie myśl, że jeśli model ma dostęp do kalkulatora czy narzędzi zewnętrznych, to sam poprawi swoje pomyłki. Badania pokazały, że używanie tych narzędzi przez modele nie zmniejsza ilości cichych błędów w plikach.

Objaśnienie lub prompt

Zlecenie AI wyliczenia budżetu i uspokojenie się myślą: "Na pewno się nie pomyliła, bo przecież model sam napisał, że sprawdził to kalkulatorem".


  • Oceniania książki po okładce (Surface-level Trust): To, że plik przygotowany przez sztuczną inteligencję otwiera się poprawnie, ładnie wygląda i nie wyświetla błędów technicznych nie oznacza, że w środku pliku wszystko się zgadza.

Objaśnienie lub prompt

Rzucenie okiem na tabelkę wygenerowaną przez model, zachwyt nad ładnymi równymi kolumnami i wysłanie tego od razu do klienta, bez upewnienia się, czy AI nie ucięło w niej ostatniego tygodnia danych.


Wesprzyj ten projekt stawiając mi kawę ;)

Publikacje AI

Prompting

Bezpieczeństwo AI

O mnie

LinkedIn

Mój blog

Wsparcie projektu

Buy me a coffe

Create a free website with Framer, the website builder loved by startups, designers and agencies.