Wysyłasz dziesiątki CV, a mimo wszystko nikt się nie odzywa? Winny może być robot.

Jednym z obszarów, w których zauważalny jest wpływ sztucznej inteligencji na przepływ procesu, jest rynek pracy. Czy zdarza Ci się, że szukając nowej pracy trafiasz na stanowisko niczym „skrojone” pod Ciebie? Spełniasz dokładnie każde wymaganie i marzysz właśnie o tej posadzie. Wysyłasz CV, list motywacyjny i…po 4 miesiącach nadal nikt się nie odzywa albo, po krótkim czasie dostajesz automatyczną odpowiedź, że Twoje CV nie przeszło wstępnej weryfikacji…

Zastanawiasz się co poszło nie tak? Za tym bałaganem może stać automat oparty o sztuczną inteligencję.

Oprogramowanie na zamówienie często posiada algorytm dostosowany do potrzeb danego projektu. W przypadku rekrutacji, warunki ustawia się w określony sposób, aby to system przeprowadzał wstępną weryfikację napływających aplikacji. Wszystko po to, aby rekruterom oszczędzić konieczności przeglądania CV, zupełnie niespełniających wymagań stanowiska i poświęcić czas na tych, którzy tym wymaganiom sprostali. Niestety, okazuje się, że systemy wraz z rozwojem, stają się bardziej ułomne.

Roboty uprzedzone do płci, pochodzenia, koloru skóry…

Sztuczna inteligencja rozwija się dynamicznie. Nie można zaprzeczyć, że dzięki machine learning wiele procesów zostało zautomatyzowanych i to w różnych obszarach. Pozwoliło to zwiększyć efektywność zarówno wydajnościową jak i kosztową wielu przedsiębiorstw. W Stanach Zjednoczonych machine learning gości na co dzień w aplikacjach dedykowanych obsługujących obywateli. Instytucje finansowe i społeczne korzystają ze sztucznej inteligencji w celu usprawnienia analizy i przepływu dokumentów czy realizacji wniosków finansowych.

Okazuje się jednak, że wraz z postępem systemy zaczynają przejawiać ludzkie ograniczenia. Pojawia się coraz więcej uwidaczniających to przykładów.

Amerykański „Financial Times” podaje, że przez dyskryminujące zachowanie algorytmów w oprogramowaniach opartych na sztucznej inteligencji, instytucje, a także obywatele, zaczynają odczuwać realne straty. W stanie Idaho system Medicaid obniżył zasiłki aż 4 tysiącom osób niepełnosprawnych, z pobudek płciowych i pochodzeniowych.

Ostatecznie, Stan wycofał system z obsługi interesantów, a na wdrożenie oczekuje jego następca.  Choć już w fazie testów Medicaid wykazywał „objawy” czy „zachowania” ze znamionami uprzedzeń społecznych, nikt wówczas nie traktował poważnie takiego zagrożenia. Widać jednak, ze sztuczna inteligencja, jakkolwiek by na to nie spojrzeć – rozwija się zgodnie z założeniami i czerpie z przykładów, jakimi są ludzkie zachowania. W tym przypadku niestety tych negatywnych.

Software house na straży równości?

Niezależnie od prywatnych poglądów politycznych i własnych opinii, deweloperzy pracujący nad rozwojem systemów opartych o AI i rozwojem samego algorytmu, muszą pozostawać bezstronni. Oznacza to, że wypuszczane do obiegu systemy muszą być wolne od jakichkolwiek uprzedzeń, a zabezpieczenia związane z potencjalnym rozwojem algorytmu w tym kierunku – wzmocnione. IBM poinformował, że wszystkie systemy ze sztuczną inteligencją, wychodzące z ich „produkcji” zostaną oczyszczone z jakichkolwiek uprzedzeń i znamion dyskryminacji.

Okazuje się jednak, że nie tylko Medicaid stał się systemem opartym na uprzedzeniach. Z podobnym problem zetknęli się tacy giganci, jak Amazon czy Microsoft.

W przypadku tego pierwszego, algorytm uznał, że nie ma sensu wdrażać nowej usługi PRIME w dzielnicach zamieszkiwanych przez mniejszości rasowe.

Drugi zaś musiał się poważnie tłumaczyć się z zamieszczanych przez algorytm, dyskryminujących ruchy feministyczne komentarzy na Twitterze. Tutaj reakcja była niemal natychmiastowa, a bot został wyłączony w ciągu 24h. Jednak… uszczerbek na wizerunku mimo wszystko nastąpił.

Zobacz także

Ostatnie wpisy

<
>