/ We know how

Fauxtomation – jak rozpoznać fałszywą automatyzację i nie wpaść w złe wnioski?

Inteligentne procesy, automatyzacja i robotyzacja, automatyzacja kognitywna oraz Sztuczna Inteligencja – te „catch phrases” całkiem słusznie przykuwają uwagę firm, które chciałyby wznieść się na kolejny poziom cyfrowej transformacji. Co się jednak stanie, jeśli automatyzacja nie będzie przeprowadzona w sposób w pełni świadomy, jej potencjał zostanie przeceniony, zostanie zrealizowana połowicznie lub… w ogóle nie będzie miała miejsca, mimo odmiennych ustaleń z dostawcą?  

 

 

Fałszywa automatyzacja (fauxtomation) – czym jest?

 

Fauxtomation, czyli fałszywa automatyzacja, to termin ukuty przez Astrę Taylor, kanadyjską aktywistkę obywatelską i dokumentalistkę, która jest między innymi autorką tekstów pt. „The Automation Charade” oraz „The Faux-bot Revolution”. W swoich pracach opisuje ona zjawisko polegające na wykorzystaniu “niewidzialnej” ludzkiej pracy celem utrzymania złudzenia, że maszyny i systemy są mądrzejsze, niż faktycznie są. W praktyce sprowadza się ono do tego, że płynąc na fali popularności rozwiązań kognitywnych, część dostawców oferuje rozwiązania, które w rzeczywistości nie mają wiele wspólnego z Artificial Intelligence (AI), a są przez nich reklamowane, jako narzędzia wyposażone w silniki Machine Learning (ML).

 

 

Jakie jest ryzyko wdrożenia fałszywej automatyzacji? 

 

Nie da się ukryć, że np. boty RPA mają niezwykły potencjał, jeśli chodzi o wprowadzanie procesowych usprawnień, np. w controllingu. W chwili obecnej praca tzw. cyfrowych asystentów jest jednak często wspomagana przez ludzkich moderatorów treści (stąd termin faux-bot w tytule jednego z tekstów). Użytkownik końcowy nie widzi ich aktywności, jednak pomagają oni podtrzymywać iluzję, że współczesne rozwiązania AI są na tyle zaawansowane, że potrafią sobie poradzić z naprawdę złożonymi zadaniami.

 

Warto wiedzieć, że Sztuczna Inteligencja nie osiągnęła jeszcze poziomu obiecywanego przez niektórych dostawców i konsultantów. O tyle, o ile podstawowa i przemyślana automatyzacja staje się coraz łatwiejsza do wdrożenia i prostsza w utrzymaniu, ryzyko nieadekwatnej implementacji rośnie w przypadku, gdy w grę wchodzi automatyzacja kognitywna.

 

Andrzej Sobczak sugeruje zatem ostrożność w stosunku do zasłyszanych deklaracji, gdyż może okazać się, że obiecany robot, który miał być zasilany uczeniem maszynowym, to tak naprawdę „student wspomagany mniej lub bardziej skomplikowanym oprogramowaniem”. W przypadku rozwiązań z udziałem AI oraz ML kluczowy będzie więc wybór dostawcy, który stawia na podejście bazujące na dowodach oraz faktach, czyli tzw. „Evidence based Management”.

 

Mindbox może pochwalić się bogatym doświadczeniem w tym zakresie i wieloma udanymi wdrożeniami, o których możesz poczytać na naszym blogu lub porozmawiać z nami. Oczywiście na obniżenie ryzyka fauxtomation wpływa również wybór odpowiednich procesów do automatyzacji, w czym także służymy radą i pomocą.

 

 

Jakie są skutki wdrożenia fałszywej automatyzacji? 

 

Fauxtomation niesie za sobą wiele negatywnych konsekwencji. Astra Taylor, jako aktywistka, która często zgłębia zagadnienia demokratyczne, w swoich tekstach koncentruje się przede wszystkim na aspektach etycznych i społecznych związanych z tym zjawiskiem. Wspomina między innymi o skrajnych scenariuszach, tj. wykonywaniu fragmentarycznych zadań za płacę niższą od minimalnej krajowej, przy jednoczesnym straszeniu pracowników, że ich obowiązki mogą z łatwością zostać przejęte przez roboty.

 

Z biznesowego punktu widzenia trzeba wziąć pod uwagę przede wszystkim wysoce prawdopodobny brak zwrotu z inwestycji oraz ryzyko wyciągnięcia niewłaściwych wniosków, niosące za sobą potencjalne straty finansowe i utratę przewagi konkurencyjnej.

 

 

Jak zidentyfikować fauxtomation w przedsiębiorstwie? 

 

Rozwiązania „pseudo-AI” są z pozoru trudne do wychwycenia, jeśli jeszcze nie zmagamy się z ich konsekwencjami. Warto przed podjęciem współpracy dopytać, w jaki sposób będą wdrażane i używane, aby uniknąć ryzyka fauxtomation. Oto kilka niepokojących sygnałów, sugerujących że dostawca niezbyt zna się na rzeczy, na które warto zwrócić uwagę w rozmowie:

 

  • Produkt wymaga minimalnej ilości danych uczących. Aby działać z pożądanym poziomem dokładności, podstawowe modele uczenia maszynowego potrzebują tysięcy przykładów, zaś bardziej zaawansowane – setek tysięcy lub milionów.
  • AI wykonuje zadania w oparciu o reguły. Chociaż Sztuczna Inteligencja może być używana do automatyzacji, tego typu działania należą zwykle do mniej zaawansowanych systemów, takich jak RPA.
  • Nie mamy aktualnie case studies, którymi moglibyśmy się podzielić. Wiele firm reklamuje swoje umiejętności związane ze Sztuczną Inteligencją, jednak nie potrafi zaprezentować dowodu na to, że faktycznie ma doświadczenie w tym obszarze. Warto dopytać więc o szczegóły dotyczące danych, modeli uczenia i uzyskanych wyników, które wykraczają poza zwiększoną wydajność lub oszczędności.
  • Rozwiązanie nie będzie się zmieniać. Sprawdzając narzędzie pod kątem możliwości związanych z AI, warto zapytać, w jaki sposób system się uczy. Jeśli dostawca nie jest w stanie w zadowalający sposób zademonstrować przykładów tego, jak było ono wdrażane u innych klientów i jak wyglądał jego rozwój z biegiem czasu, to prawdopodobnie nie jest ono oparte na Sztucznej Inteligencji.

 

Czerwona lampka powinna zapalić się również wówczas, gdy nie jesteś w stanie się dowiedzieć, w jaki sposób mają działać dane narzędzia. Dostawca powinien wymienić modele i algorytmy, które będą „zasilać” ich rozwiązania i potrafić o nich opowiedzieć. Jeśli odpowiedź będzie wydawać się niejasna, a zastosowania – niepraktyczne, najprawdopodobniej masz do czynienia z próbą wdrożenia fauxtomation.

 

Oceniając określone działania pod kątem fałszywej automatyzacji należy pamiętać także o tym, że ludzie nie mają takich możliwości skalowania (a więc i aktywności), jak boty, zaś te drugie nie są tak inteligentne jak ich ludzkie odpowiedniki.

 

 

Czy fałszywą automatyzację da się zastąpić prawdziwą, która przynosi realne zyski? 

 

Odpowiedź brzmi – to zależy. Jeśli procesy zostały wybrane bez starannej selekcji, a finalny wynik nie jest tylko i wyłącznie rezultatem tego, że dostawca nie wywiązał się do końca z obietnic, warto najpierw ponownie ocenić potencjał oraz gotowość przedsiębiorstwa do automatyzacji. Chętnie posłużymy swoją pomocą, wiedzą i doświadczeniem zarówno w takim przypadku, jak i w sytuacji, gdy wspomniane kwestie zostały już wstępnie przeanalizowane. Zapraszamy do rozmowy!