AI w rekrutacji bez dyskryminacji: jak zbudować etyczny system
Etyka i sprawiedliwość AI w rekrutacji – jak uniknąć biasu i zbudować audyt systemu
Krótko rzecz ujmując: AI w rekrutacji może oszczędzić czas i pieniądze, ale bez odpowiednich zabezpieczeń może też nieświadomie wykluczać najlepszych kandydatów przez uprzedzenia zakodowane w algorytmach. Firmy, które nauczą się audytować swoje systemy AI, zyskają przewagę nad konkurencją i unikną kosztownych problemów prawnych.
Spis treści
Stronniczość AI w rekrutacji
Kiedy system AI odrzuca CV przed pierwszą rozmową, kandydat nie wie dlaczego. Może to być źle sformatowane CV, brak słów kluczowych, albo… sposób mówienia. W marcu 2025 roku ACLU (American Civil Liberties Union – amerykańska organizacja pozarządowa zajmująca się ochroną praw obywatelskich i wolności konstytucyjnych, działająca od 1920 roku) złożyła skargę przeciwko Intuit i HireVue za używanie AI, która dyskryminuje osoby głuche i niedosłyszące.
Technologia HireVue nie potrafi dokładnie rozpoznać i analizować mowy osoby głuchej, co skutkuje niższymi wynikami, a system ten ma również problemy z czarnoskórymi kandydatami, w tym rdzennymi użytkownikami języka angielskiego, których wzorce mowy mogą różnić się od białych ubiegających się o pracę.
Polski rynek pracy stoi przed podobnymi wyzwaniami. Według najnowszego raportu Polskiego Instytutu Ekonomicznego “AI na polskim rynku pracy”, aż 3,68 miliona Polaków pracuje w zawodach najbardziej narażonych na wpływ sztucznej inteligencji. To co piąty pracownik w kraju. Większość z nich, bo 60%, to kobiety, co oznacza, że bias w AI może szczególnie dotkliwie wpłynąć na polski rynek pracy.
60% firm korzysta z AI, ale czy etycznie?
Trudno wskazać firmy, które nigdy, choćby jednorazowo, nie skorzystały z AI przy działaniach HR lub rekrutacji. Problem polega na tym, że większość z nich wprowadza systemy oparte na sztucznej inteligencji bez żadnych mechanizmów kontroli.
Polski Instytut Ekonomiczny wskazuje, że finansiści, prawnicy, programiści, matematycy i sekretarki są wśród zawodów najbardziej zagrożonych wpływem AI.[1] To oznacza, że systemy rekrutacyjne w tych branżach będą miały największy wpływ na życie zawodowe tysięcy Polaków. Dobra wiadomość jest taka, że coraz więcej organizacji stara się ustrukturyzować swoje podejście do AI i już ma, albo pracuje nad strategią wykorzystywania sztucznej inteligencji.
Kiedy algorytmy uczą się uprzedzeń
W 2018 roku Amazon odkrył, że ich system AI systematycznie dyskryminował kobiety, obniżając punktację CV zawierających słowo “kobiety” lub wzmiankę o uczelniach tylko dla kobiet.[2] Firma szybko wycofała system z użycia, ale podobne problemy mogą pojawić się wszędzie, gdzie AI uczy się na historycznych danych.
W Polsce problem może być jeszcze większy ze względu na specyfikę naszego rynku pracy. Jeśli system AI uczy się na danych z branż tradycyjnie zdominowanych przez mężczyzn, np. IT czy finanse[3], może automatycznie faworyzować męskich kandydatów. Z drugiej strony, w branżach gdzie dominują kobiety – jak HR czy edukacja[4] – AI może dyskryminować mężczyzn.
Prawne konsekwencje nieetycznych systemów AI – nie tylko w USA
Podczas gdy Stany Zjednoczone wprowadzają pierwsze regulacje dotyczące AI w rekrutacji, Europa również nie pozostaje w tyle. 13 marca 2024 roku Parlament Europejski zatwierdził AI Act, który tworzy ramy prawne dla wykorzystania AI w rekrutacji.
W praktyce oznacza to, że polskie firmy działające na rynkach międzynarodowych lub współpracujące z korporacjami już teraz muszą myśleć o audytach bias. Przedsiębiorstwa, które ignorują te kwestie, mogą się znaleźć w sytuacji podobnej do iTutorGroup – firmy edukacyjnej, która w sierpniu 2023 roku ugodowo wypłaciła odszkodowanie w pierwszym w historii USA procesie o dyskryminację przez AI.[5]
Jak zbudować system AI w rekrutacji, który nie dyskryminuje?
Skuteczny audyt AI zaczyna się od zrozumienia, że bias to nie błąd w kodzie, ale odbicie społeczeństwa. Jeśli firma przez lata zatrudniała głównie mężczyzn na stanowiska kierownicze, AI “nauczy się”, że to właśnie mężczyźni są idealnymi kandydatami na te pozycje.
Etap 1: Audyt danych historycznych
Firma musi sprawdzić, czy jej dane rekrutacyjne z ostatnich lat nie zawierają ukrytych uprzedzeń. To oznacza m.in.:
- analizę składu demograficznego kandydatów,
- sprawdzenie wskaźników powodzenia dla różnych grup i
- zidentyfikowanie potencjalnych źródeł dyskryminacji.
Etap 2: Wybór i konfiguracja systemu AI
Po zbadaniu własnych danych, firma musi świadomie wybrać dostawcę technologii AI i odpowiednio skonfigurować system. O co pytać dostawców? O mechanizmy zapobiegania bias i dokumentację procesów audytów weryfikujących. Warto też upewnić się, że system będzie oceniał kandydatów na podstawie umiejętności zawodowych, a nie cech demograficznych.
Etap 3: Regularne testowanie systemu
Podobnie jak każdy produkt przed wprowadzeniem na rynek, systemy AI wykorzystywane w rekrutacji powinny być testowane pod kątem bezpieczeństwa – w tym przypadku bezpieczeństwa przed dyskryminacją. Najczęściej używaną metodą jest “reguła czterech piątych” amerykańskiej Komisji ds. Równych Możliwości Zatrudnienia, która mówi, że dyskryminacja występuje, gdy wskaźnik zatrudnienia grupy mniejszościowej wynosi mniej niż 80% wskaźnika grupy większościowej.
Brak specjalistów przy rosnącym zapotrzebowaniu na wykorzystanie AI
Według raportu PwC “Gotowi na sztuczną inteligencję”, aż 69% polskich organizacji nie zatrudnia wystarczającej liczby ekspertów z dziedziny AI. To oznacza, że większość firm wdrażających systemy AI robi to bez odpowiedniej wiedzy eksperckiej.
To może prowadzić do sytuacji, w której firmy wdrażają stronnicze systemy, nie mając świadomości problemów, które tworzą. Wspomniany wcześniej Polski Instytut Ekonomiczny wskazuje dodatkowo, że barierą przed szerszą implementacją sztucznej inteligencji są wciąż stosunkowo niskie, jak na warunki europejskie, koszty pracy, które nie motywują kadry zarządzającej do podjęcia kroków na rzecz automatyzacji.
Paradoksalnie, to może być przewaga polskich firm. Mając więcej czasu na przygotowanie się do szerokiego wdrożenia AI, można szybciej wprowadzić mechanizmy kontroli bias, unikając błędów popełnionych przez firmy w innych krajach.
Korzyści z wykorzystania etycznej AI w rekrutacji
- Automatyzacja rutynowych zadań pozwala rekruterom skupić się na budowaniu relacji z kandydatami i strategicznym planowaniu.
- Przetwarzanie większej liczby aplikacji umożliwia firmom dotarcie do szerszego grona kandydatów.
- Standaryzacja procesów oceny sprawia, że wszyscy kandydaci są oceniani według tych samych kryteriów.
- Redukcja czasu potrzebnego na wstępną selekcję kandydatów przyspiesza cały proces rekrutacyjny.
- Uniknięcie kosztownych problemów prawnych związanych z nieświadomą dyskryminacją chroni reputację firmy.
Przyszłość należy do firm odpowiedzialnych
Polskie społeczeństwo się starzeje. Według prognoz demograficznych GUS do 2060 roku liczba ludności w wieku senioralnym będzie rosnąć.[6] To oznacza, że za kilkanaście lat będziemy mieć po prostu mniej ludzi do pracy. W tej sytuacji każdy kandydat będzie na wagę złota, a firmy będą musiały walczyć o najlepszych.
Tu właśnie AI może się przydać. Ale tylko jeśli zostanie wdrożona mądrze. Kandydaci już dziś sprawdzają, jak firma traktuje swoich pracowników. Jeśli dowiedzą się, że algorytm niesprawiedliwie odrzucił ich CV, z dużym prawdopodobieństwem po prostu pójdą do konkurencji.
Firmy, które potrafią wykorzystać AI do sprawiedliwego oceniania umiejętności, a nie tylko dyplomów czy nazwisk, będą miały dostęp do większej puli talentów. Dziś jeszcze można to zrobić spokojnie i dobrze przemyśleć oraz zaplanować każdy krok wdrożenia AI do systemów rekrutacyjnych. Za parę lat, rynek pracy może się zupełnie zmienić, nasycić pracodawcami, którzy przy użyciu AI rekrutują etycznie i skutecznie. A wtedy okaże się, że na budowanie reputacji sprawiedliwego pracodawcy jest już trochę za późno.
Jak zacząć?
Nie trzeba czekać na regulacje prawne, żeby zacząć działać odpowiedzialnie. Pierwszy krok do wdrożenia sprawiedliwych systemów AI w rekrutacji? Audyt obecnych procesów i sprawdzenie, czy już teraz nie ma w nich ukrytych uprzedzeń. Kolejny to edukacja zespołów HR o ryzykach związanych z AI. Niezwykle ważne jest też transparentne komunikowanie kandydatom, że firma używa AI w procesie rekrutacji, i jakie mechanizmy kontroli ma wdrożone.
W świecie, gdzie AI ocenia nasze CV w ciągu sekund, sprawiedliwość algorytmu może zadecydować o naszej karierze. Ale to my, ludzie, decydujemy, czy te algorytmy będą sprawiedliwe.
[1] https://pie.net.pl/wp-content/uploads/2024/10/AI-na-polskim-rynku-pracy.pdf
[2] https://www.reuters.com/article/world/insight-amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK0AG/
[3] https://www.bankier.pl/wiadomosc/Branza-IT-zdominowana-przez-mezczyzn-W-Polsce-szczegolnie-8189761.html
[4] https://www.pap.pl/aktualnosci/nauczyciel-jest-kobieta-ponad-80-proc-polskich-nauczycieli-kobiety
[5] https://www.sullcrom.com/insights/blogs/2023/August/EEOC-Settles-First-AI-Discrimination-Lawsuit
[6] https://forsal.pl/gospodarka/demografia/artykuly/9389272,polskie-spoleczenstwo-sie-starzeje-to-zla-wiadomosc-ale-sa-i-dobre-informacje.html
Napisz do nas
Chętnie odpowiemy na wszystkie pytania