Autor: Kazimierz Sedlak (Sedlak & Sedlak)
Ekonomiści behawioralni od wielu lat zawracają uwagę, że nie zawsze zachowujemy się racjonalnie i w codziennym funkcjonowaniu popełniamy wiele błędów poznawczych, z których nie zdajemy sobie sprawy (D. Khaneman 2012, R. Thaler, C. Sunstein 2017). Wiele z tych błędów dotyczy naszej samooceny. Bardzo często gdy porównujemy się z innymi to mamy tendencję do uważania się za lepszych. Jest to tzw. błąd ponadprzeciętności. Continue reading
Wystąpienie Antoniny Hołówko i Łukasza Sobkowicza (Oracle Polska) podczas wydarzenia o cyfryzacji (6 grudnia 2019), pt. „Cyfryzacja HR na świecie i w Polsce”.
Adam Pokrzywniak
Na jakie studia wysłać swoje dzieci?
Przytoczone w poprzednich częściach artykułu źródła wskazują, że wzrost zapotrzebowania na pracę może zbalansować lub przekroczyć efekt redukcji zatrudnienia. Łatwiej jednak odpowiedzieć kto straci, niż kto zyska, bo analizy nie są jednoznaczne jeśli spróbować zsyntetyzować ich wyniki. Wspólny dla w/w raportów jest jednak wniosek, że zawody obejmujące proste, powtarzalne i rutynowe czynności są najbardziej narażone na automatyzację. Uwzględniając wyłącznie aspekt technologiczny (pomijając np. społeczne i polityczne uwarunkowania) ubędzie pracy dla kasjerów, magazynierów, pracowników produkcji, księgowych, analityków wykonujących głównie raporty i zestawienia, kadrowców oraz innych pracowników administracyjnych, a także kierowców a nawet informatyków odpowiadających za niektóre zadania administracyjne. Zyskają na wartości umiejętności i zdolności właściwe głównie ludziom, takie jak: kreatywność, inteligencja emocjonalna czy rozwinięte umiejętności poznawcze, które będą kształtować takie kompetencje jak krytyczne myślenie, rozwiązywanie problemów, doradzanie, przekonywanie. Maszyny potrafią tworzyć muzykę oraz obrazy, a być może nawet potrafią pisać proste opowiadania dla dzieci czy kryminały klasy „b”, ale komunikacja z ludźmi, szczególnie jeśli ma być ciekawa i finezyjna wymaga znajomości kontekstu kulturowego. Sarkazm, miłość, współczucie, serdeczność, poczucie humoru czy zdrowy rozsądek wydają się trudne do automatyzacji (na szczęście). Rozwój w zakresie sztucznej inteligencji, wg niektórych, podważa wcześniejsze zdania. Maszyny bowiem, szczególnie w zakresie analizy informacji i podejmowania decyzji radzą sobie coraz lepiej, w niektórych obszarach lepiej niż ludzie. Odczytywanie ludzkich emocji i nastrojów może także z czasem wychodzić maszynom lepiej niż nam, ludziom. Inteligencja ta, nawet jeśli ma wymiar emocjonalny, pozostanie wszakże sztuczna. W czasach, gdy tyle się mówi o autentyczności, także w kontekście biznesowym, nie sądzę, abyśmy byli skłonni masowo zamienić relacje interpersonalne na kontakty z robotami. Ale oczywiście: pożyjemy – zobaczymy.
O ile ubędzie pracowników obsługi klienta, to przybędzie tych, którzy tych klientów mają zrozumieć i przekonać. Kasy w supermarketach staną się samoobsługowe, ale być może na hali supermarketów będzie więcej osób, które mogą doradzić jaki produkt wybrać. Za uzupełnienie towaru na półce będzie odpowiadać robot (pewnie taki, który nie będzie stwarzać zagrożenia dla ludzi), ale między tymi półkami być może będzie można spotkać specjalistów, którzy podzielą się poradą dietetyczną lub zademonstrują jak obsługuje się najnowocześniejszego robota kuchennego czy sprzątającego. Zwiększy się zapotrzebowanie na inżynierów sprzedaży, menedżerów, projektantów. Będziemy potrzebować więcej nauczycieli, mentorów czy coachów. Oby nie zabrakło lekarzy, pielęgniarzy, specjalistów opiekujących się dziećmi oraz osobami starszymi, a także psychoterapeutów.
Naturalnie, zmiany na poszczególnych rynkach nie będą jednorodne, tj. inaczej zmieni się struktura zatrudnienia w Indiach w porównaniu z krajami Europy zachodniej czy USA. Japonia i Chiny, mimo geograficznej bliskości, także będą realizować inne scenariusze. W dużym uproszczeniu, zgodnie z raportem MGI można będzie obserwować następującą zjawiska w zakresie popytu na pracę w poniższych kategoriach zawodowych:
Zgodnie z powyższą grafiką można się spodziewać następujących trendów:
– prosta praca fizyczne – mocne spadki zapotrzebowania w rozwiniętych gospodarkach, bez z zmian w gospodarkach rozwijających się
– obsługa klienta – bez zmian wielkości popytu w krajach rozwiniętych i znaczne wzrosty w krajach rozwijających się
– skomplikowana praca fizyczna, w nieprzewidywalnym środowisku – niewielkie spadki w krajach rozwiniętych i niewielkie wzrosty w krajach rozwijających się, itd…
Powyższe podsumowanie dotyczy zmian netto, tj. różnicy między wzrostami a spadkami. Niewielkie zmiany lub brak zmian nie oznaczają brak ruchu w danym obszarze. Utrzymanie zbliżonego poziomu popytu na pracowników obsługi klienta w gospodarkach rozwiniętych oznacza w istocie bardzo duże ruchy związane z redukcją stanowisk w infoliniach czy kasjerów, ale zwiększy się liczba inżynierów sprzedaży, przedstawicieli handlowych oraz osób, które mają zadbać o komfort klientów.
Zapotrzebowanie na lekarzy będzie rosnąć wszędzie. Nauczyciele szkolni także powinni notować wzrosty popytu zarówno w gospodarkach rozwiniętych oraz rozwijających się. Wzrośnie zapotrzebowanie na inżynierów, w tym szczególnie na informatyków. Dobrze powinni się mieć architekci, projektanci i artyści, choć w tym ostatnim przypadku pewnie najtrudniej jest przewidzieć pomyślność zatrudnienia. Niewątpliwie warto się uczyć długo i wytrwale. Analiza PWC pokazuje bardzo silny związek między wykształceniem a ryzykiem automatyzacje danego zawodu – korelacja między wykształceniem a tym ryzykiem wynosi 0.554 (grafika poniżej).
Przy okazji się wyborów politycznych (mimo tego żartu, dyskusji o bieżącej polityce wolałbym uniknąć J) warto zwrócić uwagę na plany wydatków na edukację różnych sił politycznych. Wysokość nakładów na szkolnictwo, obliczonych jako ich stosunek do PKB, wykazuje bardzo silny związek z ryzykiem automatyzacji istniejących stanowisk pracy – negatywna korelacja na poziomie -0.77. Podobna, choć słabsza jest zależność między wspomnianym ryzykiem a liczbą uczniów przypadających na jednego nauczyciela w szkołach podstawowych. Innymi słowy, im więcej poszczególne Państwa inwestowały w edukację, tym mniejsze jest prawdopodobieństwo, że osoby zatrudnione w tych krajach stracą pracę w wyniku postępującej automatyzacji. Patrząc na naszą cześć Europy niepokojąca jest wysoka siła związku między stopniem uprzemysłowienia (rozumianym jako udział osób zatrudnionych w firmach produkcyjnych w stosunku do wszystkich zatrudnionych) a ryzykiem automatyzacji pracy – korelacja 0.536 (grafika poniżej). Polskę może dotyczy to w mniejszym stopniu, ale udział zatrudnionych w przemyśle w takich krajach jak Czechy czy Słowacja wynosi prawie 30%.
(Nie)przyjazne chatboty
Choć rozwój technologii i jej aplikacja mogą zaskakiwać w niektórych odsłonach, to w dalszym ciągu w wielu obszarach ludzie wydają się niezastąpieni. Mimo postępu w zakresie prac nad językiem naturalnym (NLP – natural language procesing; pojęcie języka naturalnego pozwala odróżnić ten rodzaj języka od języków sztucznych, np. tych, których używają programiści), nie wynaleziono do tej pory chatbota, który byłby tak sprawny, że nieodróżnialny od człowieka. Testu Turinga nie przeszedł w stu procentach jeszcze żaden chatbot. Test ten zawdzięcza swoją nazwę Alanowi Turingowi, który w 1950 opisał system, który miałby naśladować ludzkie myślenie. Na razie żaden z robotów nie oszukał sędziów w takim stopniu, aby uwierzyli oni, że bot jest człowiekiem. Od blisko 30 lat przyznawana jest nagroda Leobnera, której kryteria opierają się na teście Turinga. W tym roku, we wrześniu po raz kolejny wygrał Mitsuku (most humanlike chatbot), ale w dalszym ciągu nie zdołał on udowodnić, że jest człowiekiem. W zasadzie to ona i każdy może spróbować z nią porozmawiać https://www.pandorabots.com/mitsuku/ Ja próbowałem pogadać o wojnie z terroryzmem. Odpowiedzi były mało roztropne, co oczywiście nie oznacza od razu, że nie rozmawiałem z człowiekiem J Postęp w rozwoju chatbotów jest ewidentny i niewątpliwie można zauważyć, że w ostatnim 10-leciu powstały aplikacje, których ludzkie cechy są coraz bardziej wyraźne. W 2014 roku, program udający nastolatka, Eugene’a Goostmana, „oszukał” 1/3 sędziów, co wywołało żywą dyskusję na temat tego czy bot przeszedł test Turinga.
W zeszłym roku na łamach czasopisma Zarządzanie Zasobami Ludzkimi ukazała się analiza funkcjonalności kilku znanych chatbotów stosowanych w rekrutacji, której dokonała związana z Uniwersytetem Ekonomicznym w Katowicach, Agata Berdowska. Porównanie obejmowało następujące narzędzia: Watson (firmy IBM), Tasha (firmy Sutherland), Mya (firmy Firstjob), SGT STAR (chatbot U.S Army), Pounce (firmy AdmitHub, używany m. in. przez Uniwersytet Stanu Georgia), Emplocity (pierwszy polskojęzyczny chatbot). Niewątpliwą zaletą tych aplikacji jest ich wysoka wydajność – np. sierżant STAR, przez kilkanaście lat zadał ponad 11 milionów pytań. Analiza wykazała jednak, że boty dobrze wykonują podstawowe zadania, jak odpowiadanie na proste pytania (jak będzie przebiegał proces rekrutacji?, jakie są dostępne wakaty?), czy zadawanie prostych pytań (ile masz lat doświadczenia? jakie masz wykształcenie? jaki jest twój zawód? jakiej pracy szukasz?). Choć niektóre z botów starają aktywnie pozyskiwać pasywnych kandydatów a także zadawać pytania przesiewowe i dokonywać wstępnej oceny kandydatów (Watson i Mya), to ich użyteczność sprowadza się raczej do asystenta ds. rekrutacji, którego kompetencje nie wykraczają poza umiejętności początkującego stażysty. Oczywiście, systemy te mają tę przewagę, że nie mają gorszych dni, nie chorują a nawet jeśli udzielą dziwnej odpowiedzi, to kandydat pewnie nie pomyśli: „jak w tej firmie traktują ludzi?”.
Źródło: Berdowska, A. (2018). Wspomaganie procesu rekrutacji pracowników za pomocą chatbotów – analiza wybranych rozwiązań. Zarządzanie Zasobami Ludzkimi, 5(124)
Nawet jeśli chatboty będą coraz bliższe ludziom, nie oznacza to automatycznie, że pracodawcy zastąpią nimi handlowców czy rekruterów. Załóżmy, że inteligencja maszyn, także w wymiarze społecznym dorówna ludziom. Swoją drogą trudno mi uwierzyć, że będzie można niebawem swobodnie porozmawiać z robotem o sztuce oraz opowiadać sobie wzajemnie dowcipy. To założenie rodzi pytanie czy my będziemy chcieli obcować z robotami tak jak obcujemy z ludźmi? W obecnych czasach terminy customer experience czy employee/candidate experience robią zawrotną karierę. Czy w świetle postulatów o humanizacji stosunków zawodowych wprowadzanie robotów do komunikacji z pracownikami lub kandydatami do pracy ma sens? Doświadczenia takich firm jak Unilever pokazują, że ma. Oprócz ewidentnych korzyści ekonomicznych, opinia pracowników, którzy doświadczyli kontaktu z botami, jest z grubsza pozytywna. Agata Berdowska powołując się na badanie firmy Allegis, wskazuje, że „58% kandydatów było zadowolonych z interakcji z rozwiązaniami z zakresu SI na wczesnych etapach rekrutacji.” a „66% osób było zadowolonych z możliwości skorzystania z narzędzi SI do przygotowania się do rozmowy kwalifikacyjnej i umówienia spotkania z rekruterem„ Nie oznacza to, że zagrożeń nie ma. Są!
Naukowcy z Akademii Leona Koźmińskiego i Uniwersytetu SWPS (Aleksandra Przegalinska, Leon Ciechanowski, Mikołaj Magnuski) oraz MIT (Peter Gloor) przeprowadzili bardzo ciekawe eksperymentalne studium polegające na badaniu psychofizjologicznych reakcji osób poddanych interakcji z chatbotem. Uczestnicy tego eksperymentu byli podłączeni do aparatu EMG (elektromiografia służy do diagnostyki czynności elektrycznej mięśni – w tym przypadku przedmiotem zainteresowania były ruchy brwi), RSP (respirometr – urządzenie służy do badania oddechu), EKG (pewnie większość z nas przechodzi takie badanie) oraz aparatu mierzącego reakcję skórno-galwaniczną. Badani byli podzieleni na dwie grupy. Pierwsza czatowała z komputerem wyłącznie za pomocą znaków tekstowych, tj. uczestnik pisał na klawiaturze, a robot odpowiadał tekstem pisanym. W przypadku drugiej grupy, awatar widoczny na ekranie komputera dodatkowo czytał swoje odpowiedzi. Oprócz pomiaru reakcji psychofizjologicznych uczestnicy wypełnili kwestionariusz, w którym mogli wyrazić swój stosunek do chatbota oraz ocenić jego podobieństwo do ludzkiej istoty. Wyniki kwestionariusza wyraźnie pokazały, że awatar wzbudził więcej negatywnych emocji niż zwykły, tekstowy chatbot. Nie dość tego – awatar był postrzegany jako mniej kompetentny. Jednocześnie uczestnicy uważali, że był mniej ludzki i dziwny (inhuman & weird), przy czym bardziej przypominał człowieka. Badanie reakcji psychofizjologicznych także wykazało istotne różnice między grupami, np. interakcja z awatarem prowadziła do podwyższenia tętna. Odkryto interesujące związki z wynikami kwestionariusza, np. im chatbot był postrzegany jako mniej kompetentny, tym wywoływał silniejszą reakcję skórno-galwaniczną. Jednym zdaniem, obcowanie z tekstowym chatbotem było przyjemniejsze niż z awaterem. Jak to jednak jest, że im robot jest bardziej podobny do człowieka tym jest postrzegany jako bardziej „nieludzki” i wywołuje negatywną emocjonalną reakcję? Wyniki przytoczonego studium potwierdzają rezultaty innych badań, które opisują tzw. uncanny valley effect (tłumaczone jako dolina niesamowitości, zainteresowanych odsyłam do wikipedii https://en.wikipedia.org/wiki/Uncanny_valley). Badania z udziałem zarówno dorosłych jak i dzieci wykazały, że interakcja z maszyną czy innym obiektem, który nie przypomina człowieka jest przyjemniejsza w porównaniu do kontaktu z humanoidem. Są także badania, które podobne zjawisko dokumentują w odniesieniu do małp. Ciekawe są hipotezy, które tłumaczą ten efekt. Maszyna, która jest bardzo podobna do człowieka, ale jednak tym człowiekiem nie jest wywołuje reakcje podobne do tych wynikających interakcji z chorym człowiekiem (np. zarażonym patogenem), co z biologicznego punktu widzenia jest całkiem sensowne – unikając chorych, unikamy zarażenia. Są też inne wytłumaczenia, odnoszące się norm religijnych czy kulturowych i choć to bardzo ciekawe, to zbyt odległe od przedmiotu tego artykułu, aby wątek rozwijać. Niezależnie od biologicznej, ewolucyjnej czy kulturowej przyczyny efektu uncanny valley, autorzy wspomnianego studium wprost sugerują ostrożność w projektowaniu chatbotów, które do złudzenia przypominają ludzi „chatbots should not be designed to pretend to be human — at least not if they do so ineptly.”
Następny odcinek artykułu będzie w dalszym ciągu poświęcony ograniczeniom, które może napotkać automatyzacja… Będzie to ostatnia zaplanowana część artykułu.
Artykuł pochodzi z serwisu prawo.pl
Artykuł pochodzi z serwisu Prawo.pl.