Znacie pojęcia churn, x-sell czy upsell? Wiecie, co to jest sztuczna inteligencja (#AI) i uczenie maszynowe za pomocą głębokich sieci neuronowych (deep learning / #DL)? Czy wiecie, czym jest analiza sentymentu języka naturalnego? A umiecie sobie wyobrazić że te słowa mogą mieć wspólny mianownik, jakim jest praca osób z #niepełnosprawnościami?
Kilkanaście miesięcy temu spotkałem Marka. Poznaliśmy się prawie dwa lata temu na spotkaniach Warsaw Society of Fellows (#WSoF) – organizacji master mindowej dla właścicieli firm, głównie z branży technologicznej. Marek Bardoński jest właścicielem firmy AI Revolution, robiącej cuda ze sztuczną inteligencją. Ma 26 lat ale już w wieku 19 lat był Project Managerem w #NASA, gdzie zarządzał stworzeniem algorytmu do optymalizacji trajektorii pod względem ilości energii zebranej z paneli słonecznych Międzynarodowej Stacji Kosmicznej #ISS! Udziela wywiadów dla Bloomberga czy Financial Times #FT. Ostatnio miał wykład dla #AXA na Filipinach na zaproszenie Jay Sabido i Alberta Gavino.
Od ponad 10 lat pracuję na swoim. W styczniu 2009 roku opuściłem ostatnie korpo, gdzie pracowałem. Wcześniej były to przede wszystkim duże i bardzo duże instytucje finansowe, jak Bank Millennium czy PZU Życie. Ale, jak wiele osób mówi, człowiek może opuścić korpo ale korpo z człowieka – niekoniecznie. Dobrze się czuję na Mordorze i w CBD, w biurowcach, wśród ludzi w garniturach i krawatach, na open spejsie…
Moje pierwotne wykształcenie i umiejętności są związane z cyframi, budżetami, analizami. Może nie jestem jak Sheldon Cooper, dla którego liczby pierwsze smakują na różowo, ale kilka rzeczy umiem zrobić. W Banku Millennium, pracując z Marcinem Dyczakiem czy Pawłem Marczukiem odpowiadaliśmy za rozwój produktów kart płatniczych, wykorzystując zaczątki big data – dane transakcyjne, dane demograficzne czy behawioralne. Rozumiem, co to znaczy #churn czy x-sell / upsell i jakże ważny jest wskaźnik retencji lub uproduktowienia klienta.
Od kilku lat większość moich aktywności biznesowych związanych jest z pracą osób z niepełnosprawnościami. Widziałem call centra, firmy księgowe, agencje interaktywne, programistów, copywriterów, grafików, ludzi produkujących explainer video. Właściwie każda praca, która może być wykonywana przez komputer, internet i telefon może być wykonywana przez osoby z niepełnosprawnością. Jednak od kilku lat wydawało się, ze wykorzystanie tzw. „elementu białkowego” (jak niekiedy firmy zajmujące się nowymi technologiami określają pracę ludzi) ma się ku końcowi. Ponieważ coraz więcej maszyn i systemów może wykonać coraz więcej czynności zarezerwowanych dla ludzi. Przykłady? Proszę bardzo:
- Janek Zając z Sotrendera ostatnio napisał podsumowanie swojego wyjazdu na Social Media Week London 2019 (#SMWLDN) z wykorzystaniem właśnie narzędzi automatyzujących – do przeczytania tutaj i tutaj.
- Elwira Pyk otworzyła studia z zakresu robotyzacji procesów #RPA na Koźmińskim,
- W USA mówi się o automatyzacji zadań wykonywanych przez adwokatów.
Jak patrząc na to wszystko można mówić o tym, ze praca z osób z niepełnosprawnościami ma znaczenie?
W trakcie spotkań z zarządami wielu polskich banków i ubezpieczycieli, często słyszałem, ze nie mają co zaproponować osobom pracującym zdalnie. Że nie mają pomysłu na wykorzystanie takiej pracy, zwłaszcza dla grup liczących po kilkaset osób. Że łatwiej jest tym firmom płacić miesięcznie setki tysięcy / miliony złotych mandatu PFRON miesięcznie niż zatrudnić osoby, których przydatność z ich punktu widzenia jest co najwyżej mierna. Powody najczęściej są następujące:
- „skąd mam wiedzieć, że pracują, przecież siedzą w domach”,
- „przecież ich wydajność jest niższa, mają krótszy czas pracy i więcej urlopu”,
- „łatwiej mi zatrudnić kontraktora niż bawić się w jakieś umowy o pracę”.
Razem z Markiem zastanowiliśmy się nad tym, jak możemy połączyć nasze umiejętności. Jego poprzednie projekty były nastawione na rynek amerykański, głównie duże korporacje z listy Fortune500. Zajmował się tam np. projektami połączonymi z analizą języka naturalnego. I wpadliśmy na pomysł.
Firmy z branży finansowej (ale nie tylko) mają dostęp do niewiarygodnych ilości danych. Każdy przelew (szkoła, prąd, wycieczka, itp), każda płatność kartą (za paliwo, za książkę, za biżuterię, itp) jest powiązana z jej właścicielem (wiek, płeć, stan małżeński, itp). Jeśli do tego dodamy geotagowanie (przecież płatności są wykonywane telefonem albo w danym terminalu kartowym), to zaczyna się robić prawdziwy obraz nas samych (co robimy, kiedy, jak często). Przecież już w 2010 roku sieć Target umiała przewidzieć ciążę swojej klientki. Dzisiaj #Netflix podpowiada nam, jakie filmy powinniśmy obejrzeć a #Spotify sugeruje nam muzykę (tak np. odkryłem Victor and His Demons).
A jakby móc te dane jeszcze bardziej wzbogacić? Jakby dodać dodatkową wartość do już istniejącej bazy?
Przy większości komercyjnych projektów związanych ze sztuczną inteligencją, potrzebne jest wykonanie dużej ilości manualnej pracy polegającej na opracowaniu i weryfikacji danych treningowych, tak aby algorytm mógł zostać wytrenowany na ‘czystych’ zbiorach danych.
Obecnie zespoły analityków danych, po krótkim przeszkoleniu, w sposób manualny muszą przejrzeć tysiące wierszy danych, aby upewnić się co do ich jakości, oznaczyć wyjątki i zatwierdzić finalny zbiór treningowy. Często jeden punkt danych musi być zweryfikowany niezależnie przez 2 lub 3 osoby, aby mieć pewność co do jego poprawnej klasyfikacji. Jakość zbioru treningowego ma istotny wpływ na finalną dokładność algorytmu.
Przykładowe działania to sprawdzenie jakości danych, oznaczenie natężenia emocjonalnego tekstu, klasyfikacja tekstu (np. recenzji użytkownika czy fragmentu dokumentu) na jedną z subkategorii specyficznych dla biznesu klienta czy wyszukanie niespójnych danych.
Może np. oznaczyć #emocje związane z daną transakcją? Albo z danym zachowaniem (wizyta w oddziale, telefon na infolinię)? Ostatnio PKO BP uruchomiło projekt pilotażowy, w którym wspólnie z Quantum CX monitorują uśmiechy pracowników i klientów. Ale to tylko liczenie uśmiechów. Są np. API do oznaczania emocji w języku polskim.
A jakby dodać więcej informacji związanych z emocjami? Najczęściej problemem jest albo czasochłonność takich działań („kto to będzie robił” albo „komu się będzie chciało”) albo ich koszt. Po co to wszystko? Po to, aby poprawić efektywność danej firmy, czyli:
- zmniejszyć churn – zidentyfikować osoby, które chcą zrezygnować z produktów danej firmy,
- zwiększyć uproduktowienie – czyli znaleźć osoby którym można zaproponować daną usługę, które są podobne do innych osób, które już taką usługę mają.
Jednak takie wnioski można dzisiaj już wyciagnąć z systemów transakcyjnych korporacji działających w segmencie #B2C. Są to m.in.:
- banki,
- ubezpieczalnie,
- supermarkety i dyskonty z ich programami lojalnościowymi,
- firmy medyczne,
- czy telekomy.
Ale wiele rzeczy umyka analizie, właśnie z powodu emocji (czy raczej braku oznaczenia emocji związanych z danym zachowaniem). Ciężko oflagować daną transakcję, nadając jej znaczenie emocjonalne.
I tutaj pojawiła się #synergia sztucznej inteligencji i pracy osób z niepełnosprawnościami. Możemy te osoby zaangażować (także w grupach po kilkaset osób), do oznaczania emocji poszczególnych transakcji, tych, które nie nadają się do wykorzystania w procesie uczenia maszynowego. Ten #businesscase jest korzystny z punktu widzenia wszystkich interesariuszy:
- korporacji – ma samofinansujące się narzędzie AI / ML poprawiające efektywność biznesową,
- ustawodawcy – osoby z niepełnosprawnościami mają pracę a taki jest cel ustawy o rehabilitacji zawodowej i społecznej,
- osób z niepełnosprawnościami – mają pracę i dochody i w ten sposób rehabilitują się i są częścią społeczeństwa.
Praktycznym przykładem, gdzie trzeba wykonać taką heroiczną pracę, jest praca przy klasyfikacji obiektów za pomocą dronów. Marek miał okazję zatrudniać zespół 15 studentów, które przez kilka miesięcy wyszukiwały na #YouTube filmy przedstawiające konkretne pojazdy, a następnie klatka po klatce oznaczali pozycję pojazdu i rodzaj aktywności który wykonuje. Uzyskany w ten sposób zbiór danych pomógł w przygotowaniu algorytmu który potem w sposób autonomiczny rozpoznawał pojazdy na drogach oraz ich aktywność.
A jak to działa w praktyce? To już temat na inny wpis.
Autor: Piotr Konopka