O dyskryminacji algorytmicznej

Paweł Sikora
01-05-2026

7 min

O dyskryminacji algorytmicznej 

Dr Paweł Sikora 

Systemy bazujące na sztucznej inteligencji (AI - ang. Artificial Intelligence) stają się coraz popularniejsze w każdej dziedzinie naszej aktywności i to zarówno prywatnej jak i gospodarczej. W działalności biznesowej stały się integralną częścią każdej wykonywanej pracy (porównania, analizy ryzyka). Co do procesów rekrutacyjnych wykorzystanie zaawansowanych aplikacji AI stało się codzinną praktyką. Są one powszechnie używane począwszy od automatycznego generowania ogłoszeń, przez analizę CV, po podejmowanie decyzji o zaproszeniu na rozmowę kwalifikacyjną konkretnych osób, a skończywszy na wysyłaniu do nich zautomatyzowanych zaproszeń. Wszelkie systemy AI wykorzystywane do analizy zgłoszeń, filtrowania aplikacji czy oceny kandydatów są sklasyfikowane jako systemy wysokiego ryzyka. To zaś związane będzie z koniecznością oceny ryzyka, raportowania, wreszcie sygnalizowania incydentów. Obowiązki te pojawią się jednak dopiero po uchwaleniu krajowej ustawy o systemach sztucznej inteligencji. Termin jej uchwalenia nie jest znany, lecz może się zejść z innym ważnym terminem, to jest z dniem 2-go sierpnia 2026 r. – z datą rozpoczęcia ogólnego stosowania większości przepisów AI Act. 

Zmiana regulaminów "sygnalistów"

Wprowadzenie narzędzi sztucznej inteligencji (AI) do procesów rekrutacyjnych nakłada na pracodawców nowe obowiązki wynikające z Aktu o Sztucznej Inteligencji (AI Act) oraz RODO, co z kolei wymaga dostosowania regulaminów zgłoszeń wewnętrznych (procedur zgłoszeń naruszeń prawa tzw. “sygnalistów”). Ci którzy wywiązali się z obowiązku ustawowego i takowy regulamin wdrożyli winni obecnie dokonać w nim zmian, jeśli jakiekolwiek narzędzie AI jest u nich stosowane. Ustawa o sygnalistach obejmuje wszystkie podmioty dystrybucyjne (agentów, brokerów, firmy ubezpieczeniowe) niezależnie od obrotów i ilości zatrudnionych pracowników. Choć wydać się to może dziwne - nawet brokerzy, czy agenci prowadzący jednoosobową działalność gospodarczą winny posiadać regulamin zgłoszeń wewnętrznych. Ci, którzy uznali, że obowiązek ten ich nie dotyczy moją obecnie okazję by nadrobić braki zanim zainteresuje się tym faktem Komisja Nadzoru Finansowego. 

Brak nadzoru - grzech główny

Kluczowe zmiany, jakie powinny zostać wprowadzone w regulaminach zgłoszeń wewnętrznych są następujące: 

Po pierwsze - regulaminy powinny wyraźnie wskazywać, że naruszenia przepisów Aktu o Sztucznej Inteligencji mogą być przedmiotem zgłoszenia przez sygnalistę. W kontekście rekrutacji dotyczy to w szczególności:

  • Stosowania systemów AI prowadzących do dyskryminacji (np. ze względu na płeć, wiek, pochodzenie etniczne lub orientację seksualną).
  • Używania zakazanych praktyk, takich jak systemy rozpoznawania emocji w miejscu pracy.
  • Naruszenia obowiązków w zakresie przejrzystości i nadzoru nad systemem wysokiego ryzyka.

To ostatnie naruszenie (brak nadzoru) to wbrew pozorom najbardziej prawdopodobne naruszenie prawa. Chodzi o to, że obecnie praktycznie każdy program do obsługi ma mechanizmy sztucznej inteligencji. Implementując go w firmie (czasem nawet przy niewiedzy zarządzających) naruszamy prawo.

Kto mnie wywalił z roboty?

Po drugie - zgodnie z AI Act, osoby, na które system AI wysokiego ryzyka wywarł wpływ (np. odrzuceni kandydaci), mają prawo do uzyskania jasnego i merytorycznego wyjaśnienia roli tego systemu w podjęciu decyzji.

  • Regulamin powinien określać ścieżkę składania wniosków o takie wyjaśnienia.
  • Należy wskazać jednostkę odpowiedzialną za udzielenie wyjaśnienia, biorąc pod uwagę dane z rejestrów zdarzeń (logów), które systemy wysokiego ryzyka muszą generować automatycznie.

Przyjmowanie zgłoszeń - wrażliwy punkt regulaminu

Po trzecie - jeśli pracodawca decyduje się na wykorzystanie narzędzi AI w samym procesie przyjmowania zgłoszeń (np. chatboty, automatyczna transkrypcja zgłoszeń ustnych), regulamin musi to uwzględniać przy zachowaniu następujących zasad:

  • Obowiązek informacyjny: Sygnalista musi zostać powiadomiony przed zgłoszeniem, że wchodzi w interakcję z systemem AI.
  • Gwarancja poufności: Narzędzia AI muszą zapewniać poufność tożsamości sygnalisty i osób trzecich, co jest fundamentalnym wymogiem dyrektywy i ustawy o ochronie sygnalistów.
  • Zgoda na dokumentowanie: W przypadku zgłoszeń ustnych dokumentowanych za pomocą AI (np. automatyczna transkrypcja), konieczne jest uzyskanie zgody sygnalisty na taką formę utrwalenia rozmowy.

Bez człowieka, ani rusz

Po czwarte - w regulaminie zgłoszeń wewnętrznych należy zapisać zasadę nadzoru ludzkiego nad procesem obsługi zgłoszeń. Sygnalista ma prawo do tego, aby decyzja o wstępnej kwalifikacji jego zgłoszenia lub podjęciu działań następczych nie była podejmowana wyłącznie przez algorytm (i tu powiem szczerze, że doskonale to rozumiem).

  • AI może pełnić jedynie rolę pomocniczą (np. wstępne filtrowanie), ale ostateczna decyzja musi należeć do człowieka.
  • Jest to szczególnie ważne, aby uniknąć błędów wynikających z niezrozumienia kontekstu wypowiedzi przez AI (AI cierpi jeszcze na tzw. halucynacje, czyli gdy czegoś nie rozumie to konfabuluje).

Kandydat, też człowiek

I w końcu - po piąte - należy pamiętać, że procedury zgłoszeń wewnętrznych są kierowane również do aplikujących o pracę. Muszą być dla nich dostępne. Cały unijny  pomysł dotyczący sygnalistów opierał się również na naruszeniach prawa jeszcze w trakcie przyjmowania do pracy. Jeśli zatem osoba taka uzyskałaby informację o naruszeniach prawa w trakcie procesu rekrutacji lub innych negocjacji przedumownych (nawet gdyby zgłoszenie nie pochodziło od tej osoby)  regulamin powinien precyzować, w jaki sposób kandydaci mogą uzyskać dostęp do kanałów zgłoszeniowych (np. informacja w ogłoszeniu o pracę lub na stronie kariery).

Zamiast podsumowania

Szczerze powiedziawszy ten akurat element prawnej ochrony przy wykorzystaniu AI dość dobrze rozumiem. Pracowałem kiedyś z agentem, który (jak to się mówi) “urodą nie grzeszył”. Oprócz innych pomniejszych wad urody, miał dziury w uzębieniu. Nie byłoby może problemu, gdyby nie miał zwyczaju śmiać się  od ucha do ucha - prezentując tym samym skutki działania próchnicy. Zapewne takiego kandydata na pracownika agenta czy brokera odrzucił by każdy algorytm - tak jak i średnio kochało go kierownictwo firmy ubezpieczeniowej, zmuszone wręczać mu co chwila kolejne nagrody, a to dlatego, że człowiek ten miał same sukcesy. Klienci mu ufali, chętnie płacili składkę. Tak właśnie rozumiem to co ustawodawca nazywa "dyskryminacją algorytmiczną". Ludzie coś akceptują, a AI nie koniecznie!