O dyskryminacji algorytmicznej
Dr Paweł Sikora
Systemy bazujące na sztucznej inteligencji (AI - ang. Artificial Intelligence) stają się coraz popularniejsze w każdej dziedzinie naszej aktywności i to zarówno prywatnej jak i gospodarczej. W działalności biznesowej stały się integralną częścią każdej wykonywanej pracy (porównania, analizy ryzyka). Co do procesów rekrutacyjnych wykorzystanie zaawansowanych aplikacji AI stało się codzinną praktyką. Są one powszechnie używane począwszy od automatycznego generowania ogłoszeń, przez analizę CV, po podejmowanie decyzji o zaproszeniu na rozmowę kwalifikacyjną konkretnych osób, a skończywszy na wysyłaniu do nich zautomatyzowanych zaproszeń. Wszelkie systemy AI wykorzystywane do analizy zgłoszeń, filtrowania aplikacji czy oceny kandydatów są sklasyfikowane jako systemy wysokiego ryzyka. To zaś związane będzie z koniecznością oceny ryzyka, raportowania, wreszcie sygnalizowania incydentów. Obowiązki te pojawią się jednak dopiero po uchwaleniu krajowej ustawy o systemach sztucznej inteligencji. Termin jej uchwalenia nie jest znany, lecz może się zejść z innym ważnym terminem, to jest z dniem 2-go sierpnia 2026 r. – z datą rozpoczęcia ogólnego stosowania większości przepisów AI Act.
Zmiana regulaminów "sygnalistów"
Wprowadzenie narzędzi sztucznej inteligencji (AI) do procesów rekrutacyjnych nakłada na pracodawców nowe obowiązki wynikające z Aktu o Sztucznej Inteligencji (AI Act) oraz RODO, co z kolei wymaga dostosowania regulaminów zgłoszeń wewnętrznych (procedur zgłoszeń naruszeń prawa tzw. “sygnalistów”). Ci którzy wywiązali się z obowiązku ustawowego i takowy regulamin wdrożyli winni obecnie dokonać w nim zmian, jeśli jakiekolwiek narzędzie AI jest u nich stosowane. Ustawa o sygnalistach obejmuje wszystkie podmioty dystrybucyjne (agentów, brokerów, firmy ubezpieczeniowe) niezależnie od obrotów i ilości zatrudnionych pracowników. Choć wydać się to może dziwne - nawet brokerzy, czy agenci prowadzący jednoosobową działalność gospodarczą winny posiadać regulamin zgłoszeń wewnętrznych. Ci, którzy uznali, że obowiązek ten ich nie dotyczy moją obecnie okazję by nadrobić braki zanim zainteresuje się tym faktem Komisja Nadzoru Finansowego.
Brak nadzoru - grzech główny
Kluczowe zmiany, jakie powinny zostać wprowadzone w regulaminach zgłoszeń wewnętrznych są następujące:
Po pierwsze - regulaminy powinny wyraźnie wskazywać, że naruszenia przepisów Aktu o Sztucznej Inteligencji mogą być przedmiotem zgłoszenia przez sygnalistę. W kontekście rekrutacji dotyczy to w szczególności:
To ostatnie naruszenie (brak nadzoru) to wbrew pozorom najbardziej prawdopodobne naruszenie prawa. Chodzi o to, że obecnie praktycznie każdy program do obsługi ma mechanizmy sztucznej inteligencji. Implementując go w firmie (czasem nawet przy niewiedzy zarządzających) naruszamy prawo.
Kto mnie wywalił z roboty?
Po drugie - zgodnie z AI Act, osoby, na które system AI wysokiego ryzyka wywarł wpływ (np. odrzuceni kandydaci), mają prawo do uzyskania jasnego i merytorycznego wyjaśnienia roli tego systemu w podjęciu decyzji.
Przyjmowanie zgłoszeń - wrażliwy punkt regulaminu
Po trzecie - jeśli pracodawca decyduje się na wykorzystanie narzędzi AI w samym procesie przyjmowania zgłoszeń (np. chatboty, automatyczna transkrypcja zgłoszeń ustnych), regulamin musi to uwzględniać przy zachowaniu następujących zasad:
Bez człowieka, ani rusz
Po czwarte - w regulaminie zgłoszeń wewnętrznych należy zapisać zasadę nadzoru ludzkiego nad procesem obsługi zgłoszeń. Sygnalista ma prawo do tego, aby decyzja o wstępnej kwalifikacji jego zgłoszenia lub podjęciu działań następczych nie była podejmowana wyłącznie przez algorytm (i tu powiem szczerze, że doskonale to rozumiem).
Kandydat, też człowiek
I w końcu - po piąte - należy pamiętać, że procedury zgłoszeń wewnętrznych są kierowane również do aplikujących o pracę. Muszą być dla nich dostępne. Cały unijny pomysł dotyczący sygnalistów opierał się również na naruszeniach prawa jeszcze w trakcie przyjmowania do pracy. Jeśli zatem osoba taka uzyskałaby informację o naruszeniach prawa w trakcie procesu rekrutacji lub innych negocjacji przedumownych (nawet gdyby zgłoszenie nie pochodziło od tej osoby) regulamin powinien precyzować, w jaki sposób kandydaci mogą uzyskać dostęp do kanałów zgłoszeniowych (np. informacja w ogłoszeniu o pracę lub na stronie kariery).
Zamiast podsumowania
Szczerze powiedziawszy ten akurat element prawnej ochrony przy wykorzystaniu AI dość dobrze rozumiem. Pracowałem kiedyś z agentem, który (jak to się mówi) “urodą nie grzeszył”. Oprócz innych pomniejszych wad urody, miał dziury w uzębieniu. Nie byłoby może problemu, gdyby nie miał zwyczaju śmiać się od ucha do ucha - prezentując tym samym skutki działania próchnicy. Zapewne takiego kandydata na pracownika agenta czy brokera odrzucił by każdy algorytm - tak jak i średnio kochało go kierownictwo firmy ubezpieczeniowej, zmuszone wręczać mu co chwila kolejne nagrody, a to dlatego, że człowiek ten miał same sukcesy. Klienci mu ufali, chętnie płacili składkę. Tak właśnie rozumiem to co ustawodawca nazywa "dyskryminacją algorytmiczną". Ludzie coś akceptują, a AI nie koniecznie!