Data ostatniej aktualizacji:
Philippe Laban, Tobias Schnabel, Jennifer Neville
Zapytaj o ten dokument AI
Kopuj link
Abstrakt
Kluczowe wnioski
Strategie z raportu:
Sprawdzanie AI na długich dystansach (Round-trip Relay Simulations): Zamiast oceniać model po jednym prostym zadaniu, autorzy testowali go w długim, wieloetapowym procesie. Kolejne zadania bazowały na poprzednich wynikach, co pozwoliło wykryć, że z biegiem czasu AI gubi i zniekształca informacje.
Objaśnienie lub prompt
Poproś AI o dodanie danych do tabeli, potem w kolejnej wiadomości o przeliczenie walut, a na koniec o usunięcie duplikatów. Po każdym z tych kroków sprawdź upewniając się, czy AI po cichu nie skasowało innych ważnych rubryk.
Dodawanie "zmyłek" do zadań (Distractor Environment Setup): Badacze celowo dorzucali do środowiska pracy AI nieistotne, ale tematycznie podobne pliki. Celem było sprawdzenie, czy model potrafi skupić się tylko na edytowanym dokumencie i nie pomieszać danych.
Objaśnienie lub prompt
Wysyłasz modelowi nowy regulamin do poprawienia błędów gramatycznych, ale jako załącznik dodajesz też stary, nieaktualny regulamin sprzed lat, żeby zobaczyć, czy AI omyłkowo nie przeklei z niego starych zasad.
Śledzenie niewidocznych błędów (Silent Corruption Tracking): Modele potrafią tak zepsuć plik, że na pierwszy rzut oka wygląda on poprawnie, ale brakuje w nim ważnych fragmentów danych. Zastosowano więc specjalne systemy do stałego, linijka po linijce, porównywania wersji pliku.
Objaśnienie lub prompt
Użycie programu do automatycznego porównywania tekstu (tzw. "znajdź różnice") zaraz po tym, jak AI odda gotowy plik, aby wychwycić znikające słowa czy całe zdania.
Dobre praktyki:
Krótkie zadania zamiast długich maratonów (Short-horizon Workflows): Unikaj zmuszania AI do ciągłej pracy na jednym dokumencie w bardzo długich konwersacjach. Błędy AI nawarstwiają się i z każdą kolejną interakcją plik jest coraz bardziej zepsuty.
Objaśnienie lub prompt
Zamiast pisać z AI cały wielostronicowy raport w jednym oknie czatu, stwórz nową, czystą rozmowę dla każdego kolejnego rozdziału raportu.
Człowiek musi to sprawdzić (Human Review Validation): Nigdy nie ufaj bezgranicznie wynikom pracy sztucznej inteligencji. Ponieważ błędy często ukrywają się pod poprawnym wyglądem dokumentu, każda zmiana wprowadzona przez AI wymaga weryfikacji.
Objaśnienie lub prompt
Wklej tekst zwrócony przez sztuczną inteligencję do Worda lub Google Docs z włączoną funkcją "Śledzenie zmian", aby ręcznie zatwierdzić każdy dodany lub usunięty przez model fragment.
Daj AI tylko to, co niezbędne (Context Size Management): Nie wysyłaj AI całych ogromnych plików, jeśli ma poprawić tylko jeden fragment. Im więcej niepotrzebnego tekstu podasz modelowi, tym większe prawdopodobieństwo, że zacznie on gubić dane.
Objaśnienie lub prompt
Jeśli chcesz, aby model poprawił literówkę na stronie 50 swojego dokumentu, skopiuj i wyślij mu tylko ten jeden krótki akapit do poprawy, zamiast wgrywać cały stustronicowy plik.
Czego unikać?
Zostawiania AI samopas na długi czas (Blind Delegation of Long Workflows): Nie powierzaj sztucznej inteligencji dużych zadań edycyjnych bez nadzoru. Zaufanie, że AI samodzielnie przeprowadzi długi proces na plikach skutkuje tym, że wiodące modele psują bezpowrotnie nawet 25% treści.
Objaśnienie lub prompt
Wysłanie polecenia: "Przetłumacz i sformatuj moją książkę", po czym wyjście na kawę z założeniem, że plik, który dostaniesz po powrocie będzie w 100% spójny z oryginałem.
Ufania, że AI samo sprawdzi swoje błędy (Over-reliance on Agentic Tools): Nie myśl, że jeśli model ma dostęp do kalkulatora czy narzędzi zewnętrznych, to sam poprawi swoje pomyłki. Badania pokazały, że używanie tych narzędzi przez modele nie zmniejsza ilości cichych błędów w plikach.
Objaśnienie lub prompt
Zlecenie AI wyliczenia budżetu i uspokojenie się myślą: "Na pewno się nie pomyliła, bo przecież model sam napisał, że sprawdził to kalkulatorem".
Oceniania książki po okładce (Surface-level Trust): To, że plik przygotowany przez sztuczną inteligencję otwiera się poprawnie, ładnie wygląda i nie wyświetla błędów technicznych nie oznacza, że w środku pliku wszystko się zgadza.
Objaśnienie lub prompt
Rzucenie okiem na tabelkę wygenerowaną przez model, zachwyt nad ładnymi równymi kolumnami i wysłanie tego od razu do klienta, bez upewnienia się, czy AI nie ucięło w niej ostatniego tygodnia danych.
Publikacje AI
Prompting
Bezpieczeństwo AI
O mnie
Mój blog
Wsparcie projektu
Buy me a coffe
Create by Mateusz Jędraszczyk
