Krótki przegląd regulacji UE dotyczących AI i dlaczego IT nie może tego zignorować
Czym jest AI Act i jak łączy się z innymi regulacjami UE
AI Act to rozporządzenie Unii Europejskiej, które po raz pierwszy kompleksowo reguluje wykorzystanie sztucznej inteligencji. Łączy w sobie elementy prawa produktowego (bezpieczeństwo), ochrony danych (RODO), prawa konsumenckiego oraz odpowiedzialności za szkodę. Z perspektywy zespołów IT to przede wszystkim nowy zestaw wymogów dla projektowania, dokumentowania i utrzymywania systemów z komponentami AI.
AI Act nie funkcjonuje w próżni. W praktyce nakłada się na już istniejące regulacje:
- RODO – gdy system AI przetwarza dane osobowe, dochodzą obowiązki dotyczące minimalizacji danych, podstawy prawnej, praw jednostki (np. sprzeciw wobec automatycznego profilowania) i DPIA (ocena skutków dla ochrony danych).
- DSA (Digital Services Act) – istotny głównie dla platform internetowych, rekomendacji treści, moderacji i reklam; AI może wpływać na treści wyświetlane użytkownikom.
- Dyrektywy produktowe i bezpieczeństwa – jeżeli AI jest elementem sprzętu lub oprogramowania, które jest traktowane jak produkt (np. medyczny, przemysłowy), dochodzą normy bezpieczeństwa i odpowiedzialności za wadliwy produkt.
Nowe regulacje dotyczące AI tworzą więc „warstwę nad” istniejącymi wymogami. System IT może podlegać jednocześnie kilku reżimom prawnym, a AI Act dokłada dodatkowy filtr: poziom ryzyka związanego z wykorzystaniem AI.
Podejście oparte na ryzyku, a nie zakazie technologii
Kluczową ideą AI Act jest podejście oparte na ryzyku. Regulacja nie próbuje zablokować technologii, ale dzieli przypadki użycia AI na kategorie w zależności od ich wpływu na ludzi. Oznacza to, że to nie algorytm jako taki jest problemem, lecz kontekst użycia i konsekwencje błędów.
Najważniejsze konsekwencje dla IT:
- ten sam model AI może mieć zupełnie inne wymogi, jeśli jest użyty w systemie rekomendacji filmów niż w systemie oceny kandydatów do pracy,
- im większe ryzyko dla praw i wolności użytkownika (zdrowie, dostęp do usług publicznych, zdolność kredytowa), tym bardziej rozbudowana dokumentacja, testy i procesy wytwórcze,
- część przypadków użycia będzie całkowicie zakazana (np. niektóre formy natrętnego wpływania na zachowania, masowa identyfikacja biometryczna w czasie rzeczywistym w miejscach publicznych).
W efekcie każdy zespół IT, który dotyka AI, będzie musiał umieć ocenić kategorię ryzyka projektu i zbudować odpowiednie procesy zgodności – od dokumentacji, przez testy, po monitoring w produkcji.
Dlaczego także małe zespoły i software house’y znajdą się w zasięgu AI Act
Częste złudzenie brzmi: „To dotyczy tylko Big Techu i gigantów chmurowych”. W świetle AI Act liczy się jednak nie wielkość firmy, tylko rola w łańcuchu dostaw systemu AI. Regulacja wyróżnia m.in.:
- dostawcę (provider) – podmiot, który rozwija lub wprowadza na rynek system AI pod własnym imieniem lub znakiem towarowym,
- użytkownika zawodowego (deployer) – organizacja, która system AI wdraża i używa w swojej działalności (np. bank korzystający z modelu scoringowego),
- dystrybutora – podmiot, który udostępnia system AI innym (np. marketplace z wtyczkami AI),
- importera – jeżeli system jest wprowadzany na rynek UE z zewnątrz.
Nawet niewielki software house, który buduje chatbota rekrutacyjnego dla klienta, może być formalnie dostawcą systemu wysokiego ryzyka. To oznacza konieczność:
- prowadzenia obszernej dokumentacji technicznej systemu AI,
- utworzenia wewnętrznych procedur zarządzania ryzykiem,
- zapewnienia zgodności z wymogami testów, monitoringu i jakości danych.
Równocześnie klient (np. firma HR) staje się deployerm – i również ma swoje obowiązki (np. związane ze szkoleniem personelu czy monitorowaniem skutków użycia). Projekty IT z AI przestają więc być „oddaniem kodu”; stają się współodpowiedzialnością za działanie systemu w realnym świecie.
AI ogólnego przeznaczenia (GPAI), system wysokiego ryzyka i zwykłe oprogramowanie – kluczowe rozróżnienia
AI Act wprowadza kilka ważnych pojęć, które trzeba rozumieć przy projektowaniu i dokumentowaniu systemów:
- AI ogólnego przeznaczenia (GPAI, General Purpose AI) – modele zdolne do wykonywania szerokiej gamy zadań (np. duże modele językowe, modele multimodalne). Mogą być wykorzystywane w różnych kontekstach, od czata dla użytkownika po analizę dokumentów medycznych.
- System wysokiego ryzyka – zastosowanie AI w obszarach z listy załączników AI Act (np. zatrudnienie, edukacja, dostęp do usług publicznych, krytyczna infrastruktura, zdrowie, wymiar sprawiedliwości). Wymogi są tu największe: pełny system zarządzania ryzykiem, szczegółowa dokumentacja, testy, monitoring, rejestrowanie zdarzeń.
- Systemy ograniczonego i minimalnego ryzyka – np. chatbot FAQ na stronie sklepu z ubraniami, filtr spamu w poczcie firmowej. Tu wymogi są lżejsze, ale dochodzą obowiązki informacyjne i zasady uczciwego traktowania użytkownika.
- Zwykłe oprogramowanie – narzędzia, które nie spełniają definicji AI według AI Act (np. prosta logika if/else bez uczenia się na danych). Dla nich AI Act nie dodaje nowych wymogów, choć nadal mogą podlegać RODO, DSA czy prawu konsumenckiemu.
Z perspektywy zespołu IT kluczowe jest zmapowanie, czy projekt wykorzystuje:
- model GPAI dostawcy zewnętrznego (np. API chmurowe) – wtedy dochodzą obowiązki współdzielenia odpowiedzialności,
- własny model uczenia maszynowego w obszarze wysokiego ryzyka – wtedy trzeba zbudować „grubą” warstwę dokumentacji i procesów,
- proste reguły lub analitykę – wtedy AI Act może nie mieć zastosowania, ale inne przepisy już tak.
Które projekty IT podpadają pod AI Act – praktyczna mapa dla zespołów
Jak rozpoznać, że system „wykorzystuje AI” w rozumieniu regulacji
AI Act definiuje system AI szerzej niż w potocznym rozumieniu. To nie tylko sieci neuronowe i deep learning, ale każdy system oparty na technikach uczenia maszynowego, statystycznych, bayesowskich, wyszukiwawczych i optymalizacyjnych, który generuje treści, prognozy, rekomendacje lub decyzje wpływające na środowisko.
Najprostszy praktyczny test dla zespołu IT:
- Czy system uczy się na danych, a nie tylko wykonuje z góry zaprogramowaną logikę?
- Czy w oparciu o te dane prognozuje, klasyfikuje, rekomenduje lub podejmuje decyzje (choćby pośrednio)?
- Czy wynik działania modelu wpływa na prawdziwych ludzi (kredyt, praca, leczenie, treści, ocena zachowania)?
Jeśli odpowiedź na dwa pierwsze pytania jest „tak”, jest bardzo prawdopodobne, że AI Act traktuje system jako AI. Jeżeli dodatkowo wpływ na ludzi jest istotny, konieczna staje się klasyfikacja poziomu ryzyka.
Kategorie ryzyka w AI Act i ich znaczenie dla projektów IT
Regulacja dzieli systemy na cztery główne kategorie ryzyka, z których każda przekłada się na inne obowiązki projektowe i dokumentacyjne.
| Kategoria ryzyka | Przykładowe zastosowania | Konsekwencje dla zespołu IT |
|---|---|---|
| Niedozwolone | Manipulacja podprogowymi bodźcami, masowa identyfikacja biometryczna w czasie rzeczywistym (z wyjątkami) | Zakaz wdrażania w UE; projekt trzeba przeprojektować lub porzucić |
| Wysokiego ryzyka | Rekrutacja, edukacja, kredyty, zarządzanie pracownikami, urządzenia medyczne, infrastruktura krytyczna | Pełny system zarządzania ryzykiem, rozbudowana dokumentacja, testy, rejestrowanie, monitoring, oceny zgodności |
| Ograniczone ryzyko | Chatboty obsługi klienta, systemy rekomendacji treści, niektóre systemy scoringu marketingowego | Przede wszystkim obowiązki informacyjne, zasady uczciwości, podstawowe logowanie i testy |
| Minimalne ryzyko | Filtry spamu, proste gry, narzędzia personalizacji o niskim wpływie | Brak dodatkowych wymogów poza ogólnymi zasadami prawa UE |
Niezależnie od kategorii, każdy system AI w praktyce będzie wymagał choćby minimalnej dokumentacji. Im wyższe ryzyko, tym bardziej formalne rozwiązania: procesy, rejestry, testy. To będzie miało bardzo konkretny wpływ na backlog, sprinty i „definition of done” w projektach IT.
Typowe przykłady systemów IT a kategorie ryzyka
Żeby przełożyć przepisy na coś namacalnego, można spojrzeć na kilka typowych projektów, które pojawiają się w software house’ach i działach IT.
- Chatbot obsługi klienta w e-commerce – zwykle kategoria ograniczonego ryzyka. System wspiera komunikację, odpowiada na pytania, rekomenduje produkty. Potrzebne będą: jasne oznaczenie, że użytkownik rozmawia z AI, możliwość kontaktu z człowiekiem, podstawowe logi decyzji i błędów.
- Scoring w aplikacji kredytowej – klasyczny przykład systemu wysokiego ryzyka, bo wpływa na dostęp do usług finansowych. Zespół IT będzie musiał wdrożyć: ścisłe zarządzanie danymi treningowymi, testy jakości i uprzedzeń, dokumentację procesu modelowania, rejestrowanie decyzji, mechanizmy wyjaśnialności dla klienta i audytora.
- System HR do preselekcji CV – również obszar wysokiego ryzyka (zatrudnienie). Nie wystarczy „dobra dokładność”; trzeba udowodnić brak systemowych dyskryminacji, udokumentować źródła danych, proces trenowania, a także przygotować procedury interwencji człowieka.
- Moduł rekomendacyjny w portalu z treściami – najczęściej ryzyko ograniczone. Jednak dla dużych platform (regulowanych przez DSA) pojawią się dodatkowe wymogi transparentności i kontroli nad personalizacją treści.
Dobrym nawykiem staje się wstępna klasyfikacja ryzyka na etapie discovery. Wystarczy prosty szablon: opis funkcji, dotknięte prawa użytkownika, kontekst użycia, wstępna kategoria. To pozwala od razu dobrać poziom rygoru dokumentacji i testów.
Integracja z cudzą AI – kiedy integrator staje się współodpowiedzialny
Coraz więcej projektów IT korzysta z zewnętrznych API AI – dużych modeli językowych, usług rozpoznawania obrazu czy gotowych modułów uczenia maszynowego w chmurze. Kuszące jest założenie, że cała odpowiedzialność leży po stronie dostawcy modelu. AI Act patrzy jednak na to bardziej szczegółowo.
Integrator (czyli zespół, który buduje system końcowy) może być uznany za:
- dostawcę systemu AI – jeśli łączy gotowy model z innymi komponentami w sposób tworzący nowy produkt z własną marką,
- użytkownika zawodowego – gdy wykorzystuje API w ramach własnej działalności, np. do wsparcia procesów wewnętrznych.
Odpowiedzialność integratora wzrasta, gdy:
- decyduje o konkretnym zastosowaniu modelu (np. do selekcji kandydatów, a nie tylko do generowania szkiców tekstów),
- łączy wynik modelu z logiką biznesową, która podejmuje finalne decyzje wobec użytkownika,
- ma wpływ na zestaw danych wejściowych i sposób ich przetwarzania.
W praktyce oznacza to, że nawet przy korzystaniu z „gotowej” AI trzeba:
- zadbać o własną dokumentację użycia modelu (konfiguracja, prompt, filtry, post-processing),
- zaplanować logowanie kluczowych decyzji i błędów,
- ocenić, czy zastosowanie nie wchodzi w obszary wysokiego ryzyka.
Nowy „must have” w dokumentacji: co się zmieni w sposobie opisywania systemów AI
Nowe elementy dokumentacji technicznej wymagane przez regulacje
Klasyczne „README plus kilka diagramów” przestają wystarczać przy systemach AI objętych AI Act. Regulacja wprost opisuje, jakie elementy musi zawierać dokumentacja techniczna systemu wysokiego ryzyka. Część z tych wymogów sensownie jest stosować także dla systemów o niższym ryzyku – choćby w wersji „light”.
Kluczowe bloki dokumentacji zgodnej z oczekiwaniami AI Act to m.in.:
Jak przełożyć wymagania regulacyjne na konkretne sekcje dokumentacji
Regulacje brzmią abstrakcyjnie, dopóki nie zostaną przełożone na konkretne pliki, rozdziały i pola w narzędziach typu Confluence czy Notion. Dobrze zdefiniowany szablon dokumentacji sprawia, że zespół nie musi za każdym razem “wymyślać zgodności od zera”.
Praktyczny szkielet dokumentacji technicznej dla systemu AI (szczególnie wysokiego ryzyka) może wyglądać tak:
- Karta systemu AI (AI System Card) – krótki, biznesowo-techniczny opis: cel, zakres, kategoria ryzyka, obszar zastosowania, główne ograniczenia.
- Opis architektury i komponentów
- Opis modelu lub modeli – typ modelu, wersja, dostawca lub repozytorium, sposób trenowania, hiperparametry kluczowe z punktu widzenia bezpieczeństwa i jakości.
- Zarządzanie danymi – skąd pochodzą dane treningowe i testowe, jakie licencje je obejmują, jakie są ograniczenia wynikające z RODO, jakie mechanizmy anonimizacji lub pseudonimizacji zastosowano.
- Analiza ryzyka i scenariusze niepożądane – identyfikacja zagrożeń, opis możliwych skutków dla użytkownika, strategie mitygacji.
- Testy, walidacja i monitoring – metryki, scenariusze testowe, wyniki testów, opis monitoringu produkcyjnego i progów alarmowych.
- Mechanizmy nadzoru ludzkiego – gdzie i jak człowiek może zainterweniować, jakie ma narzędzia, jak jest szkolony.
- Procedury aktualizacji i wersjonowania – jak wprowadzane są zmiany w modelu, jak są testowane, jak komunikowane interesariuszom.
Ten szkielet można zaimplementować jako zestaw sekcji w jednym dokumencie lub jako kilka powiązanych dokumentów. Najważniejsze, by każda nowa wersja systemu miała swoją konkretną, wersjonowaną dokumentację, a nie luźne notatki rozrzucone po różnych repozytoriach.
„Karta systemu AI” jako centralny punkt odniesienia
Dobrze działa wzorzec znany z dużych organizacji: jednostronicowa karta systemu AI. To dokument-wizytówka, który łączy świat biznesu, techniki i compliance. W wielu firmach staje się obowiązkowym artefaktem dla każdego projektu z AI.
Co powinna zawierać taka karta:
- Identyfikacja systemu – nazwa, właściciel biznesowy, właściciel techniczny, zespół odpowiedzialny.
- Cel i zakres użycia – do czego system jest przeznaczony i w jakich kontekstach nie wolno go używać.
- Kategoria ryzyka wg AI Act – wraz z krótkim uzasadnieniem, kto i kiedy tę klasyfikację zatwierdził.
- Interfejs użytkownika – w jaki sposób użytkownik wchodzi w interakcję z AI (API, GUI, chatbot, moduł rekomendacji w tle itd.).
- Źródła danych – wysoki poziom: typy danych, pochodzenie (wewnętrzne, publiczne, komercyjne), status prawny.
- Najważniejsze ryzyka dla użytkownika – 3–5 punktów zrozumiałych dla nietechnicznej osoby.
- Linki – do szczegółowej dokumentacji modelu, procesu ML, repozytoriów kodu, raportów z testów.
Taką kartę można wpiąć w system zarządzania portfelem projektów, a jej aktualizacja staje się częścią „definition of done” przy większych zmianach.
Śledzenie pochodzenia modeli i danych (model i data lineage)
AI Act wymusza, by zespół wiedział nie tylko, co wdrożył, ale też skąd to pochodzi. Pojęcie lineage (rodowód) dotyczy zarówno modeli, jak i danych. Bez tego trudno będzie przejść audyt lub odpowiedzieć na pytania regulatora czy klienta korporacyjnego.
W praktyce oznacza to prowadzenie rejestrów, w których dla każdego modelu zapisane są m.in.:
- źródło modelu (własny, open source, komercyjny, GPAI od dostawcy X),
- data pozyskania i aktualizacji,
- informacje o licencji, ograniczeniach użycia i odpowiedzialności,
- odniesienie do datasetów treningowych i walidacyjnych,
- historia eksperymentów: jakie konfiguracje były testowane, kto je zatwierdził.
Podobnie dla danych: zamiast ogólnego „wzięliśmy dane z CRM-u” przydaje się prosta tabela: nazwa zbioru, zakres dat, pola, źródło, podstawa prawna przetwarzania, zastosowane metody anonimizacji. Tak przygotowany „paszport danych” znacząco ułatwia późniejsze odpowiedzi na żądania użytkowników (np. dostęp do danych, sprzeciw) i kontrole.
Opis ograniczeń i przeznaczenia systemu – nie tylko dla prawników
Jednym z często pomijanych elementów dokumentacji jest jasny opis, do czego system nie jest przeznaczony. AI Act podkreśla znaczenie „zamierzonego celu” (intended purpose), co potem wpływa na ocenę ryzyka i odpowiedzialność.
Praktyczna forma tego opisu:
- krótkie zdanie dla ludzi: „System wspiera rekrutera w preselekcji CV, ale nie podejmuje ostatecznej decyzji o zatrudnieniu”,
- lista niedozwolonych zastosowań: np. „Nie stosować do oceny pracowników już zatrudnionych”, „Nie używać danych zdrowotnych jako wejścia”,
- informacja o znanych ograniczeniach jakościowych: „Model gorzej radzi sobie z CV w języku innym niż polski i angielski”.
Taki fragment warto powielić w kilku miejscach: w dokumentacji technicznej, w materiałach szkoleniowych dla użytkowników wewnętrznych oraz – w uproszczonej formie – w interfejsie systemu (np. w ekranie „o systemie”).

Architektura i projektowanie systemów AI pod nowe regulacje
Projektowanie „compliance by design” zamiast łatania po fakcie
Dużo taniej jest zaprojektować system zgodny z regulacjami, niż później dobudowywać logowanie, wyjaśnialność i nadzór ludzkim „na doczepkę”. W przypadku AI Act podejście „compliance by design” przekłada się na konkretne decyzje architektoniczne.
Na poziomie wysokopoziomowym oznacza to:
- wyraźne wydzielenie warstwy AI jako osobnego komponentu (mikrousługa, moduł),
- dodanie dedykowanej warstwy obserwowalności i audytu (logi, metryki, śledzenie decyzji),
- zaplanowanie interfejsów dla nadzoru ludzkiego – paneli, workflowów eskalacji, mechanizmów „pauzy” modelu,
- ścisłe sterowanie przepływem danych, szczególnie danych wrażliwych.
Na diagramach architektonicznych powinno być widać nie tylko klasyczne klocki (frontend, backend, baza), ale także: komponent AI, moduł risk & compliance, moduł monitoringu. To nie są dodatki – to równorzędne elementy systemu.
Warstwa AI jako „czarna skrzynka” z białą otoczką
Wiele nowoczesnych modeli, zwłaszcza głębokie sieci neuronowe i GPAI, ma charakter „czarnej skrzynki” – trudno prześledzić logikę każdej decyzji. AI Act nie zakazuje takich modeli, ale wymusza, by system jako całość był zrozumiały i kontrolowalny.
Praktyczny kompromis polega na tym, by:
- traktować model jako stosunkowo nieprzejrzysty komponent,
- otoczyć go „białą otoczką” – warstwą weryfikacji, reguł, filtrów i logiki biznesowej, która jest w pełni zrozumiała i opisowalna,
- dodać mechanizmy uproszczonej wyjaśnialności (np. wskazanie najważniejszych cech decydujących o wyniku, odwołania do przykładów).
Dobrym przykładem jest system rekomendacji w bankowości: sam model może być złożony, ale wokół niego można zbudować jasne reguły: kiedy rekomendacja nie może zostać zastosowana (np. przy niepełnych danych, konflikcie z politykami ryzyka, sprzeciwie klienta).
Separacja odpowiedzialności: kto odpowiada za co w architekturze
Architektura pod AI Act to także kwestia podziału odpowiedzialności. Nawet w małej firmie warto jasno zaznaczyć, które moduły i interfejsy są „własnością” jakich ról. To potem ułatwia audyty, przeglądy bezpieczeństwa i rozmowy z klientami.
Przykładowy podział w projekcie z modelem scoringowym:
- Moduł pozyskiwania danych – odpowiedzialność zespołu data engineering i inspektora ochrony danych (RODO, zgody, minimalizacja danych).
- Moduł modelowania – odpowiedzialność zespołu data science / ML, wspierana przez risk i compliance.
- API modelu / mikrousługa AI – odpowiedzialność zespołu backend, z myślą o SLA, wydajności i bezpieczeństwie.
- Warstwa prezentacji i interfejs użytkownika – odpowiedzialność product / UX i frontend; tu lądują obowiązki informacyjne, ostrzeżenia, kontrolki.
- Monitoring i audyt – wspólna odpowiedzialność IT operations/DevOps, ML ops i compliance.
Ten podział powinien znaleźć się nie tylko „w głowach”, ale też w dokumentacji architektonicznej i opisach ról w procesach.
Wbudowane mechanizmy nadzoru ludzkiego
AI Act podkreśla konieczność „human oversight” – realnej, a nie tylko deklaratywnej możliwości kontrolowania systemu przez człowieka. Architektura musi przewidywać, że ktoś (np. analityk, operator, lekarz, rekruter) będzie mógł:
- zatrzymać działanie modelu lub jego wpływ na decyzje,
- skorygować błędną decyzję i opisać powód,
- zgłosić incydent (np. podejrzenie dyskryminacji czy poważnej pomyłki),
- przejrzeć historię decyzji i związane z nimi dane wejściowe.
Technicznie oznacza to dodatkowe funkcje: przyciski „przeglądaj i zatwierdź”, workflowy akceptacji, kolejki zadań dla ludzi, panele z historią decyzji. Bez nich nadzór ludzki będzie tylko hasłem w prezentacjach.
Architektura dla wersjonowania i bezpiecznego rollout’u modeli
System z AI przestaje być „statyczną aplikacją”, a zaczyna przypominać organizm, który co jakiś czas dostaje nowy „mózg” w postaci modelu. AI Act wymusza, by każdy taki update był kontrolowany, testowany i odtwarzalny.
Przy projektowaniu warto przewidzieć:
- oddzielenie kodu aplikacji od artefaktów modeli (np. osobne repozytoria, rejestry modeli),
- mechanizmy canary release lub A/B testów dla nowych modeli,
- możliwość szybkiego wycofania się do poprzedniej wersji modelu (rollback),
- logikę decydującą, który model jest używany dla którego użytkownika lub segmentu danych.
W praktyce prowadzi to do powstania roli lub zespołu ML Ops – odpowiedzialnego za infrastrukturę, pipeline’y, monitorowanie i „życie po wdrożeniu” modeli.
Proces wytwórczy (SDLC) dla projektów z AI: co trzeba dołożyć do obecnych praktyk
„AI discovery” jako osobny etap przed klasycznym backlogiem
Dla projektów z AI całkowicie naturalne staje się dodanie krótkiego, ale konkretnego etapu AI discovery. To nie jest wyłącznie faza kreatywna – tu zapadają pierwsze decyzje o kategorii ryzyka, typach danych i potencjalnych ograniczeniach prawnych.
Elementy AI discovery:
- opis problemu biznesowego i roli AI (co ma robić model, a co człowiek),
- wstępna klasyfikacja ryzyka wg AI Act, powiązanie z innymi regulacjami (RODO, DSA itp.),
- mapa danych – jakie dane są potrzebne, skąd, jakie są ryzyka prawne i etyczne,
- ocena, czy wystarczy model GPAI dostawcy, czy potrzebny jest własny/trenowany model,
- decyzja o potrzebie formalnej oceny skutków dla ochrony danych (DPIA) lub podobnych analiz.
Wynik AI discovery powinien być artefaktem projektu: krótkim dokumentem, który trafi do backlogu jako zestaw wymagań niefunkcjonalnych.
Rozszerzone „definition of done” dla zadań związanych z AI
Tradycyjne kryteria zakończenia zadania („działa lokalnie”, „przeszło testy jednostkowe”) są niewystarczające przy funkcjach opartych na AI. Przydaje się dedykowana checklista DoD dla AI.
Może obejmować m.in.:
- zidentyfikowano i udokumentowano dane wejściowe i wyjściowe komponentu AI,
- zaktualizowano kartę systemu AI o nową funkcję lub zmianę,
- zostały wykonane testy jakości predykcji (z ustalonym progiem akceptacji),
Testy i walidacja modeli jako obowiązek, a nie „nice to have”
Przy systemach wysokiego ryzyka AI Act oczekuje udowodnienia, że model działa stabilnie i nie generuje systematycznych szkód. Samo „działa na moim zbiorze” przestaje być jakimkolwiek argumentem.
W praktyce oznacza to kilka poziomów testowania:
- weryfikację techniczną – czy model da się odtworzyć z kodu i danych treningowych, czy pipeline działa powtarzalnie,
- walidację jakości – klasyczne metryki typu accuracy, precision, recall, ale z jasno udokumentowanymi progami i zestawami testowymi,
- testy odporności – jak model reaguje na dane skrajne, brakujące, zniekształcone,
- testy etyczne i antydyskryminacyjne – sprawdzenie wyników dla różnych grup użytkowników, języków, kanałów wejścia.
Efektem nie powinny być tylko liczby w notebooku, ale raport walidacyjny dołączony do dokumentacji: jakie zbiory testowe, jakie wyniki, jaka interpretacja ryzyka. Ten raport staje się później jednym z kluczowych artefaktów przy audycie zgodności z AI Act.
Przeglądy „risk & compliance” jako stały element sprintów
W projektach z AI elementy regulacyjne przestają być jednorazową „fazą analizy”, a zaczynają przypominać ciągły strumień zadań. W praktyce bardzo pomaga drobna zmiana w rytmie sprintów.
Sprawdza się np. prosty mechanizm:
- na początku sprintu: quick review backlogu przez osobę z compliance / prawnika technologicznego – oznaczenie zadań, które dotykają danych wrażliwych, decyzji automatycznych, nowych integracji z modelami zewnętrznymi,
- w trakcie: krótka konsultacja przy większych zmianach (nowe feature’y decyzyjne, zmiana thresholdów modelu, rozszerzenie zakresu danych),
- na końcu: przegląd inkrementu pod kątem tego, czy nie trzeba zaktualizować dokumentacji systemu AI, klauzul informacyjnych, rejestru czynności przetwarzania danych.
W małej firmie rolę „mini-compliance” może pełnić nawet jeden product owner przeszkolony z podstaw AI Act i RODO, byle miał prawo weta przy ryzykownych decyzjach.
Operacjonalizacja zgód, sprzeciwów i praw użytkownika
Systemy z AI dotykają bezpośrednio praw osób, których dane są przetwarzane: prawa sprzeciwu wobec profilowania, prawa dostępu do danych, prawa do wyjaśnienia decyzji. AI Act nie zastępuje RODO – dopina je o nowe obowiązki.
SDLC musi uwzględnić zadania związane z tym, co w praktyce oznacza obsługa tych praw:
- czy jest techniczny sposób na wyłączenie danego użytkownika z profilowania przez model,
- czy system przechowuje wystarczające logi, by odpowiedzieć na pytanie „dlaczego podjęto wobec mnie taką decyzję”,
- jak wygląda ścieżka obsługi wniosku użytkownika (kto, w jakim czasie, z jakich narzędzi korzysta),
- czy istnieje procedura „zapomnienia” danych treningowych, jeżeli użytkownik skutecznie skorzysta z prawa do usunięcia danych (czasem jedyne realistyczne rozwiązanie to retraining na zaktualizowanym zbiorze).
Elementy te powinny być ujęte w user stories, a nie tylko w politykach prywatności. Inaczej IT dowie się o nich dopiero wtedy, gdy przyjdzie pierwszy wniosek użytkownika lub kontrola.
Dane treningowe i testowe pod lupą: licencje, prywatność, uprzedzenia
Rejestr pochodzenia danych zamiast „folderu na dysku”
Dane treningowe to paliwo modeli. Pod AI Act trzeba wiedzieć nie tylko „co” jest w zbiorze, ale też skąd i na jakich warunkach się tam znalazło. Prosty katalog plików przestaje wystarczać.
Podstawowym narzędziem staje się rejestr pochodzenia danych (data lineage). W najprostszej formie to tabela lub repozytorium, w którym przy każdym zbiorze danych zapisuje się:
- źródło (system wewnętrzny, dostawca zewnętrzny, web scraping, dane syntetyczne),
- podstawę prawną przetwarzania (zgoda, umowa, prawnie uzasadniony interes itp.),
- ograniczenia licencyjne (np. do użytku wewnętrznego, zakaz treningu modeli komercyjnych, wymóg atrybucji),
- datę pobrania oraz zakres filtracji (co zostało wycięte, zanonimizowane, zmaskowane).
Taki rejestr może być prostym arkuszem na początek, ale przy większej skali zwykle kończy się na dedykowanym narzędziu data catalog. Kluczowe jest to, by zespół ML nie trenował modeli na danych „znikąd”.
Licencje i warunki użycia: co wolno w treningu modeli
Jednym z praktycznych skutków regulacji jest większa wrażliwość na prawa autorskie i warunki licencyjne. Wiele popularnych zbiorów – od zdjęć po teksty – ma ograniczenia dotyczące treningu modeli komercyjnych.
Przy każdym zewnętrznym źródle danych trzeba zadać kilka prostych pytań:
- czy licencja wprost zezwala na użycie danych do treningu systemów AI,
- czy nie ma ograniczeń co do typu projektu (np. wyłącznie badawczy, niekomercyjny),
- czy pojawia się obowiązek oznaczenia źródła lub udostępniania pochodnych utworów na podobnej licencji (copyleft),
- jakie są warunki przechowywania i udostępniania danych (np. zakaz przenoszenia poza UE, zakaz dalszej redystrybucji).
Nawet w małych zespołach dobrze działa zasada: żaden dataset z internetu nie trafia do treningu bez krótkiej notki licencyjnej. Jedna strona tekstu potrafi zaoszczędzić tygodnie rozmów z prawnikami po fakcie.
Prywatność w danych treningowych: anonimizacja, pseudonimizacja i minimalizacja
Jeśli w danych pojawiają się informacje o osobach fizycznych, wjeżdża pełen pakiet RODO. AI Act dokłada od siebie wymóg minimalizacji ryzyk na poziomie projektowania i treningu modeli.
Technicznie sprowadza się to do kilku kroków:
- minimalizacja – usunięcie atrybutów, które nie są niezbędne do osiągnięcia celu modelu (np. PESEL, dokładny adres, imię i nazwisko tam, gdzie wystarczy ID użytkownika),
- pseudonimizacja – zastąpienie identyfikatorów użytkowników losowymi tokenami, przy zachowaniu możliwości powiązania ich w kontrolowany sposób po stronie administratora danych,
- anonimizacja – tam, gdzie to możliwe, trwałe usunięcie jakiejkolwiek możliwości powrotu do konkretnej osoby (warto udokumentować metodę anonimizacji),
- kontrola uprawnień – ograniczenie dostępu do surowych danych treningowych tylko do tych osób, które realnie ich potrzebują.
W projektach medycznych czy HR często kończy się na dwóch zestawach: surowym (ściśle chronionym) i zanonimizowanym (używanym w codziennej pracy ML). Kluczowe jest, by ten podział był opisany, a nie tylko „wiadomo w zespole, że tak robimy”.
Wykrywanie i redukcja uprzedzeń (bias) w danych
AI Act mocno akcentuje ryzyko dyskryminacji. Modele uczą się z historii, a historia bywa krzywdząca. Jeśli w danych treningowych są systematyczne przekrzywienia, model będzie je powielał lub nawet wzmacniał.
W praktyce potrzeba dwóch typów działań:
- analiza danych – sprawdzenie, czy niektóre grupy są nadreprezentowane lub niedoreprezentowane (np. jedna płeć, jedna grupa wiekowa, jedno miasto), czy istnieją korelacje między cechami wrażliwymi (jak płeć, pochodzenie etniczne, niepełnosprawność) a etykietami,
- analiza wyników modelu – porównanie metryk jakości (jak false positive rate, false negative rate) dla różnych segmentów użytkowników lub przypadków.
Jeśli wykryte zostaną istotne różnice, do gry wchodzą techniki korekcyjne: ważenie próbek, tworzenie zbalansowanych zbiorów treningowych, używanie metryk uwzględniających sprawiedliwość (fairness) jako dodatkowego kryterium optymalizacji. Co ważne, sam fakt podjęcia takich działań i wybór konkretnej metody warto jasno opisać w dokumentacji.
Testy danych w środowisku przedprodukcyjnym
Dane produkcyjne różnią się od tych „z folderu treningowego” – są brudniejsze, bardziej zróżnicowane, częściej pojawiają się nietypowe przypadki. Dlatego obok klasycznego rozdziału na dane treningowe, walidacyjne i testowe pojawia się jeszcze jeden element: testy na danych zbliżonych do produkcyjnych.
W praktyce wygląda to tak, że przed pełnym wdrożeniem modelu:
- tworzy się snapshot fragmentu strumienia danych produkcyjnych (odpowiednio zanonimizowanych / zmaskowanych),
- przepuszcza się je przez model w środowisku przedprodukcyjnym,
- analizuje się nie tylko metryki jakości, ale także rozkłady danych, liczbę błędów, nietypowe wejścia.
Wyniki takiego testu zasilają zarówno dokumentację modelu, jak i checklistę ryzyk operacyjnych. To często pierwszy moment, gdy widać, że np. użytkownicy inaczej wypełniają formularze niż „modelowy” klient z fazy projektowania.
Transparentność, wyjaśnialność i informowanie użytkownika – co trzeba będzie komunikować
Obowiązek informacyjny: gdzie, komu i w jakiej formie
AI Act wprowadza wymóg, by użytkownik wiedział, że ma do czynienia z systemem AI, zwłaszcza gdy wpływa on na jego prawa lub obowiązki. To nie może być ukryte w paragrafie drobnym drukiem.
W typowej aplikacji oznacza to kilka miejsc, gdzie pojawiają się jasne komunikaty:
- na ekranach, gdzie dochodzi do automatycznego profilowania lub rekomendacji – krótka informacja „Ta rekomendacja została wygenerowana z użyciem systemu sztucznej inteligencji”,
- w procesach składania wniosków, rekrutacji, oceny ryzyka – wskazanie, że część decyzji wspiera lub podejmuje system AI oraz że użytkownik ma prawo do interwencji człowieka,
- w politykach prywatności i regulaminach – opis roli AI w prostym języku, z odniesieniem do bardziej technicznej dokumentacji dla zainteresowanych.
Forma jest równie ważna jak treść: komunikat powinien być zrozumiały dla osoby nietechnicznej. Zamiast „system wykorzystuje zaawansowane algorytmy uczenia maszynowego”, lepiej napisać „system uczy się na podstawie wcześniejszych przykładów, aby przewidywać…”.
Poziomy wyjaśnialności: od prostego uzasadnienia po raport techniczny
Nie każdemu trzeba tłumaczyć model w ten sam sposób. Inny poziom szczegółowości przyda się użytkownikowi końcowemu, inny zespołowi supportu, a jeszcze inny audytorowi czy regulatorowi.
Dobrze działa podejście warstwowe:
- poziom 1 – dla użytkownika: krótkie uzasadnienie decyzji w języku naturalnym („Odrzucono wniosek, ponieważ dochód jest znacznie niższy niż wymagany próg i brakuje historii spłaty wcześniejszych zobowiązań”),
- poziom 2 – dla wsparcia i biznesu: dostęp do bardziej szczegółowych informacji – głównych cech wpływających na wynik, progów decyzyjnych, reguł nadpisujących model,
- poziom 3 – dla technicznych i audytorów: opis architektury modelu, procesu treningu, metryk, analizy bias, procedur monitoringu.
W systemach wysokiego ryzyka brak sensownego poziomu 1 i 2 w praktyce uniemożliwia obsługę reklamacji. Support nie jest w stanie wytłumaczyć użytkownikowi, co się stało, nawet jeśli „gdzieś w logach” są numeryczne wektory cech.
Projektowanie interfejsów pod informowanie i sprzeciw
Interfejs użytkownika staje się jednym z głównych narzędzi realizacji wymogów AI Act. To właśnie tam użytkownik:
- dowiaduje się, że działa system AI,
- może wyrazić sprzeciw wobec w pełni automatycznej decyzji lub poprosić o jej weryfikację przez człowieka,
- otrzymuje podstawowe wyjaśnienie wyniku.
Przy projektowaniu UI/UX opłaca się dodać kilka konkretnych elementów:
- czytelne oznaczenia decyzji i rekomendacji generowanych przez AI (ikona, tag „AI”),
- przycisk lub link typu „Nie zgadzam się z decyzją / Poproś o weryfikację” prowadzący do prostego formularza,
- sekcję „Jak to działa?” – krótkie objaśnienie mechanizmu działania systemu wraz z odnośnikiem do pełniejszej dokumentacji.
W systemach wewnętrznych (np. dla pracowników banku czy urzędników) podobne elementy pomagają także w szkoleniu – użytkownik widzi, które elementy interfejsu są „podparte AI”, a które wynikają z klasycznej logiki biznesowej.






