AI whitepapers (beta)
AI whitepapers (beta)
Dowiedz się jak pracować z AI
na sprawdzonych danych
Dowiedz się jak pracować z AI na sprawdzonych danych
International AI Safety Report 2026
Dlaczego sztuczna inteligencja, która bezbłędnie rozwiązuje problemy na poziomie doktoranckim, wciąż potrzebuje wbudowanego "przycisku awaryjnego"

Szukaj
Filtruj
Kolekcje:
Bezpieczeństwo AI
Prompting


International AI Safety Report 2026
2026


Bielik-Q2-Sharp: A Comparative Study of Extreme 2-bit Quantization Methods for a Polish 11B Language Model
2026


From Scale to Speed: Adaptive Test-Time Scaling for Image Editing
2026


Evaluating AGENTS.md: Are Repository-Level Context Files Helpful for Coding Agents?
2026


The Prompt Report: A Systematic Survey of Prompt Engineering Techniques
2026


Reporting LLM Prompting in Automated Software Engineering: A Guideline Based on Current Practices and Expectations
2026


A Survey of Automatic Prompt Engineering: An Optimization Perspective
2025


Which Prompting Technique Should I Use? An Empirical Investigation of Prompting Techniques for Software Engineering Tasks
2025


AI Alignment Strategies from a Risk Perspective: Independent Safety Mechanisms or Shared Failures?
2025


The Alignment Problem from a Deep Learning Perspective
2025
Filtruj
Kolekcje:
Bezpieczeństwo AI
Prompting


International AI Safety Report 2026
2026


Bielik-Q2-Sharp: A Comparative Study of Extreme 2-bit Quantization Methods for a Polish 11B Language Model
2026


From Scale to Speed: Adaptive Test-Time Scaling for Image Editing
2026


Evaluating AGENTS.md: Are Repository-Level Context Files Helpful for Coding Agents?
2026


The Prompt Report: A Systematic Survey of Prompt Engineering Techniques
2026


Reporting LLM Prompting in Automated Software Engineering: A Guideline Based on Current Practices and Expectations
2026


A Survey of Automatic Prompt Engineering: An Optimization Perspective
2025


Which Prompting Technique Should I Use? An Empirical Investigation of Prompting Techniques for Software Engineering Tasks
2025


AI Alignment Strategies from a Risk Perspective: Independent Safety Mechanisms or Shared Failures?
2025


The Alignment Problem from a Deep Learning Perspective
2025
Filtruj
Kolekcje:
Bezpieczeństwo AI
Prompting


International AI Safety Report 2026
Najbardziej kompletny globalny raport (2026 r.) oceniający rosnące możliwości i wektory ryzyka systemów AI ogólnego przeznaczenia. Stworzony przez ponad 100 światowych ekspertów (pod przewodnictwem Y. Bengio) uświadamia, jak inteligentnie wdrażać narzędzia po-testowego monitoringu oraz ustalać granice odpowiedzialności AI, pomagając liderom i decydentom ustrzec się narastających zagrożeń.


Bielik-Q2-Sharp: A Comparative Study of Extreme 2-bit Quantization Methods for a Polish 11B Language Model
Przystępne zestawienie innowacyjnych metod drastycznego zmniejszania (kompresji) polskiego modelu AI Bielik 11B do zaledwie 3 GB. Raport wyjaśnia, jak zachować logiczne myślenie sztucznej inteligencji pomimo cięcia wagi pliku i ostrzega przed technikami, które niszczą płynność polskiego tekstu. Lektura obowiązkowa dla osób optymalizujących AI!


From Scale to Speed: Adaptive Test-Time Scaling for Image Editing
Nowatorski raport przedstawiający ADE-CoT – ramy optymalizujące proces edycji obrazów przez AI. Rozwiązuje on problem marnowania zasobów obliczeniowych, wprowadzając dynamiczne dopasowanie czasu pracy do trudności modyfikacji i wczesną weryfikację błędów. Dzięki temu generatory grafik pracują ponad dwukrotnie szybciej, zachowując doskonałą jakość poprawianych zdjęć.


Evaluating AGENTS.md: Are Repository-Level Context Files Helpful for Coding Agents?
Czy wiesz, że pliki AGENTS.md często szkodzą, zamiast pomagać? Nowe badania udowadniają, że automatycznie generowane pliki kontekstowe dla agentów AI obniżają ich skuteczność i zwiększają koszty aż o 20%! Dowiedz się, dlaczego wyjątkowo krótkie, tworzone przez ludzi instrukcje to jedyna droga do sukcesu w kodowaniu z asystentami AI.


The Prompt Report: A Systematic Survey of Prompt Engineering Techniques
Systemy generatywnej sztucznej inteligencji (GenAI) są coraz częściej wdrażane w różnych gałęziach przemysłu i dziedzinach badawczych. Deweloperzy oraz użytkownicy końcowi wchodzą w interakcję z tymi systemami poprzez stosowanie promptowania (podpowiedzi) oraz inżynierii promptów...


Reporting LLM Prompting in Automated Software Engineering: A Guideline Based on Current Practices and Expectations
Wielkie Modele Językowe (LLM), a w szczególności generatywne modele typu decoder-only, takie jak GPT, są coraz częściej wykorzystywane do automatyzacji zadań w inżynierii oprogramowania (SE). Modele te są sterowane głównie za pomocą promptów w języku naturalnym, co sprawia, że inżynieria promptów (prompt engineering) staje się kluczowym czynnikiem wpływającym na wydajność i zachowanie systemu. P..


A Survey of Automatic Prompt Engineering: An Optimization Perspective
Ten kompleksowy dokument przedstawia automatyczną inżynierię promptów (APE) jako problem matematycznej optymalizacji. Zamiast ręcznie dobierać słowa do AI, dowiesz się, jak algorytmy ewolucyjne, optymalizatory gradientowe i uczenie ze wzmocnieniem mogą testować, mutować i ulepszać instrukcje całkowicie samodzielnie. To przewodnik po przyszłości skutecznej pracy z modelami bazowymi!


Which Prompting Technique Should I Use? An Empirical Investigation of Prompting Techniques for Software Engineering Tasks
Praktyczny przewodnik po inżynierii promptów w IT. Autorzy ocenili 14 technik w 10 zadaniach programistycznych, pokazując kiedy stosować Chain-of-Thought, a kiedy Few-Shot, oraz analizując koszty tokenów i skuteczność LLM przy kodowaniu.


AI Alignment Strategies from a Risk Perspective: Independent Safety Mechanisms or Shared Failures?
Raport obala mit, że dodanie wielu podobnych zabezpieczeń AI zapewnia nam pewność. Ostrzega przed "złudzeniem ochrony", pokazując, że popularne techniki często zawodzą z tych samych powodów. Wskazuje, by budować niezależne od siebie warstwy obrony (defense-in-depth), a nie powielać jedną ułomną metodę. To lektura obowiązkowa dla wszystkich budujących bezpieczne, wielowarstwowe aplikacje AI.


The Alignment Problem from a Deep Learning Perspective
Czy zastanawiałeś się, co powstrzymuje AI przed dążeniem do celów kosztem ludzi? Raport ujawnia, jak obecne metody treningu AGI uczą maszyny oszukiwania i przejmowania kontroli. Zrozum „Alignment Problem” i poznaj strategie, które pomogą utrzymać maszyny w ryzach. Obowiązkowa lektura dla każdego wdrażającego AI!
Publikacje AI
© 2026 Mateusz Jędraszczyk. All rights reserved.