23 października, 2023

Jak wyróżnić się na rynku pracy dzięki kompetencjom związanym z AI?

Wiele osób wyraża obawy, że AI może być początkiem końca wielu zawodów, które będą się automatyzować. Na obecnym etapie rozwoju tej technologii znacznie częściej to ona potrzebuje jednak wsparcia, aby dobrze funkcjonować. Jak wygląda zapotrzebowanie na kompetencje związane z AI na polskim rynku i na jakie wyzwania warto zwrócić uwagę przy pracy ze sztuczną inteligencją? Spróbujmy odpowiedzieć na te pytania. 

Źródło i autor zdjęcia: Freepik, pch.vector.

Z danych KPMG wynika, że aktualnie tylko 15 proc. firm w Polsce wykorzystuje technologię AI, a kolejne 13 proc. zamierza zacząć korzystać ze sztucznej inteligencji do końca tego roku. Tymczasem globalnie to już 4 na 10 firm. Różnica jest więc spora. Niestety, biznesy, które wdrażają AI, w większości nie mierzą skuteczności implementowanych technologii, chociaż te, które to robią, oceniają ją wysoko. 

Zapotrzebowanie na AI wśród polskich firm 

Sztuczna inteligencja w polskim biznesie jest przede wszystkim wykorzystywana do wsparcia działań marketingowych, obszaru produkcji czy łańcucha dostaw. Po narzędzia oparte o AI najchętniej sięgają firmy działające w branży IT, mediów i komunikacji oraz life sciences. A wraz z rosnącą popularnością sztucznej inteligencji można się spodziewać również zwiększenia popytu na kompetencje związane z jej obsługą.  

Szczególnie, że 31 proc. liderów biznesu chce zwiększyć produktywność pracowników dzięki tej technologii, jak można wywnioskować z tegorocznych badań Microsoftu. W aż 8 na 10 działach HR na całym świecie, w związku z rozwojem AI przewiduje się inwestycje w szkolenia i naukę w miejscu pracy, a także przyśpieszenie automatyzacji procesów. Z kolei w prawie połowie oczekuje się, że końcowym rezultatem będzie przesunięcie pracowników na bardziej rozwojowe stanowiska pracy. 

Kluczowe kompetencje w pracy z AI 

Ze statystyk magazynu „Time” wynika, że w latach 2021-2022 liczba ofert odwołujących się do popularnego chatbota ChatGPT, wzrosła o 51 procent. W Polsce już w kwietniu InPost jako pierwszy ogłosił poszukiwanie specjalistów od tzw. prompt engineeringu. W ofercie pracy podkreślono, że osoba na tym stanowisku będzie odpowiedzialna za wykorzystanie modeli generowania języka naturalnego do rozwiązywania problemów biznesowych. 

Ale prompt engineering został wskazany tylko przez 21 proc. liderów biznesu za kluczową kompetencję w nowym modelu pracy. Wyżej plasują się takie cechy jak: 

  • umiejętność oceny analitycznej (30 proc.), 
  • elastyczność (29 proc.), 
  • inteligencja emocjonalna (27 proc.), 
  • umiejętność kreatywnej ewaluacji (24 proc.), 
  • umiejętność dostrzegania uprzedzeń (22 proc.). 

To dość logiczne, biorąc pod uwagę, że sztuczna inteligencja wymaga ostrożnego podejścia. Chociaż modele językowe, takie jak ChatGPT czy Bard, są w stanie znacząco ułatwić nasze życie, do wyników generowanych przez nie należy podchodzić z odpowiednią dozą dystansu… 

 Problemy napotykane w AI 

Sztuczna inteligencja na obecnym etapie rozwoju nie jest bez wad. Chociaż szybko się uczy, nie zawsze w pełni reaguje na nasze polecenia (np. generuje krótsze teksty niż proszone), a do tego potrafi podawać nieprawdziwe informacje. Starsi czytelnicy z pewnością pamiętają, że podobne były początki Wikipedii. Chociaż w szkole wielu uczniom służyła jako źródło wiedzy, wśród nauczycieli panowało przekonanie, że nie należy w pełni ufać treściom zawartym na tym portalu z powodu braku weryfikacji. Z czasem Wikipedia doczekała się zespołu profesjonalnych weryfikatorów treści i trudno tam znaleźć poważniejsze błędy. W przypadku AI jeszcze musimy na to poczekać. 

Uważaj na to, co pisze AI 

Bing już teraz stara się podawać źródła, z których korzystał podczas generowania treści, a w Bardzie czasami wyświetla się możliwość weryfikacji, czy odpowiedź programu jest zgodna z tym, co można znaleźć w wyszukiwarce Google. Jednak nie są to mechanizmy doskonałe. Halucynacje (kłamstwa) zdarzają się każdemu modelowi językowemu, i to nie z winy użytkownika. Badacze z Indii poprosili ChatGPT o wylistowanie 178 źródeł potwierdzających słuszność danych, aby zbadać częstotliwość halucynacji.  

Z przebadanych odniesień do innych artykułów, aż 69 nie miało numeru DOI, powszechnie używanego w badaniach akademickich, co utrudniło ich znalezienie. Z kolei 28 nie można było znaleźć ani w wyszukiwarce Google, ani przez numer DOI, co sugerowałoby, że nie istnieją w ogóle. To pokazuje, że każdą odpowiedź udzieloną przez AI dobrze jest weryfikować, o czym przekonali się m.in. amerykańscy prawnicy, którzy posiłkowali się ChatGPT do generowania informacji o sprawach sądowych rozstrzygniętych w przeszłości. Skończyło się karą – nie tylko finansową, ale również zagrożeniem pozbawianie prawa do wykonywania zawodu. 

Niedopilnowane AI może dyskryminować 

A halucynacje to nie jest jedyne wyzwanie związane z pracą z AI. Musimy uważać też na uprzedzenia, po angielsku zwane biasami. Program trenowany na konkretnym rodzaju danych może potem preferować ten rodzaj, ponieważ zna go dużo lepiej. Przykładowo, system rozpoznawania twarzy trenowany na osobach wyłącznie białoskórych może mieć problem z rozpoznawaniem osób czarnoskórych, co generuje kolejne problemy, głównie na tle rasistowskim. Już w 2015 roku system Google Photos automatycznie rozpoznał dwóch Afroamerykanów jako „goryle”. W 2020 roku badacze z Harvarda alarmowali, że istnieje większe prawdopodobieństwo łączenia osób czarnoskórych ze zdjęciami osób aresztowanych. Amnesty International z kolei przytacza dane wskazujące, że Afroamerykanie w Stanach Zjednoczonych mogli być o 100 razy częściej błędnie identyfikowani w porównaniu z osobami białoskórymi. 

Chociaż w Polsce nie stykamy się zbyt często z kwestiami rasizmu, nie oznacza to braku obecności biasów. W większości korporacji przesyłane CV czyta najpierw nie człowiek, a tzw. ATS – system HR-owy oparty na AI. To tworzy ogromne pole do dyskryminacji pod wieloma względami: wygląd, płeć, pochodzenie, wykształcenie. Z tego względu badacze postulują, aby AI było fair i przestrzegało kwestii etycznych. Ale, mając na uwadze, że nie istnieje jeden zbiór etyczny, pod którym mógłby się podpisać każdy człowiek, fairness w AI może być trudne do osiągnięcia.  

Co nie oznacza, że niemożliwe. Dlatego tak istotne jest, aby z każdym modelem sztucznej inteligencji pracował człowiek – i to najlepiej nie jeden, a kilka osób. Różniących się perspektywą, tak aby szkolone AI mogło być wszechstronne i brać pod uwagę wiele różnych możliwości. W tej dziedzinie na pewno będzie rosnąć popyt na pracowników, którzy będą w stanie to wszystko okiełznać i podejść do tematu zdroworozsądkowo, przekuwając wygenerowane przez AI ciągi znaków na konkretną wiedzę dla firmy. 

 

Rodzaj treści: Artykuł,
Autor wpisu / Partner wpisu: Fundacja Digital Poland