Clean Architecture – zalety tworzenia czystej architektury dla przedsiębiorstwa

Istotą Clean Architecture jest taki dobór architektury i sposobów kodowania systemów, aby zredukować koszty ich wytworzenia, użytkowania, rozwijania i modernizacji w całym cyklu życia. W ten sposób minimalizuje się całkowite koszty posiadania systemu  i jednocześnie maksymalizuje produktywność zespołu programistów. Robert C. Martin, twórca koncepcji Clean Architecture, napisał kiedyś, że „każda organizacja projektująca system, tworzy jego architekturę na wzór struktury komunikacyjnej organizacji”[i]. W tym stwierdzeniu jest dużo prawdy – staranność w projektowaniu i kodowaniu ma ścisły związek z kulturą organizacyjną całej firmy. Prawidłowe wybory na etapie projektu i wysoka jakość pracy programistów powodują, że kod jest łatwy do zrozumienia, rozwijania i utrzymania, a samo wdrożenie przebiega szybko i bezproblemowo. 

 

 

Czym tak właściwie jest Clean Architecture?

 

U podstaw Clean Architecture legło założenie, że sformułowane wymagania biznesowe powinny w minimalnym stopniu mieć związek z konkretną technologią i szczegółami implementacyjnymi. Zatem wszystkie warstwy tworzące strukturę projektu powinny mieć wyraźnie wydzielone zadania i odpowiedzialność, dając się jednocześnie ławo wyizolować od całości rozwiązania. Idąc dalej, Robert C. Martin zaproponował, żeby tak projektować systemy, aby dało się możliwie dużo kodu współdzielić pomiędzy wieloma środowiskami. W jego oryginalnej propozycji można było wydzielić cztery warstwy:

  1. aplikacji,
  2. prezentacji
  3. logiki domenowej/biznesowej

Dwie główne warstwy: prezentacji i logiki domenowej są niezależne od technologii użytej do tworzenia aplikacji i mogą być współdzielone, a warstwy aplikacji i danych są ściśle związane ze środowiskiem uruchomieniowym i używanymi narzędziami. Zatem po ich połączeniu w całość, mamy sytuację, w której można raz napisać logikę domenową, a potem współdzielić ją w aplikacjach mobilnych na iOS i Androida, jak też w systemach webowych i desktopowych.

Wspólną cechą tak zdefiniowanych warstw jest ich niezależność od frameworków, które są traktowane wyłącznie jako narzędzia. Poza tym są one łatwo testowalne, bo logika biznesowa jest oddzielona od trudno testowalnych elementów takich, jak bazy danych, czy interfejsy użytkownika.

W koncepcji Clean Code Architecture warstwa aplikacji jest najmocniej połączona z konkretną technologią i narzędziami. Jej zadaniem jest zapewnienie graficznej oprawy i wizualizacji  danych. Warstwa aplikacji decyduje o tym, jak wyświetlać dostarczone dane i jak reagować na zadania  napływające z warstwy prezentacji. Z jednej strony musi ona zawierać reguły wyświetlania, a z drugiej potrafić informować warstwę prezentacji o wszelkich akcjach użytkownika, który reaguje na pojawiające się dane i zdarzenia.

W warstwę prezentacji wbudowane są mechanizmy sterujące całą aplikacją, poszczególnymi ekranami, reakcjami na działanie użytkownika, czy obsługą danych. W tej warstwie zapadają także decyzje, w jaki sposób obsłużyć dane zadania albo jaką część aplikacji i w jakiej kolejności pokazać użytkownikowi. Interfejsy warstwy prezentacji komunikują się z widokami, ale jest to komunikacja jednokierunkowa – do widoków. Prawidłowe zaprojektowanie warstwy prezentacji wymaga poznania działania realnych procesów biznesowych. Doskonale się do tego nadają rozwiązania klasy Business Process Discovery (BPD).

Warstwa prezentacji może zostać zbudowana z wykorzystaniem jednego z dostępnych wzorców projektowych takich, jak: Model View Controller (MVC)[ii], Model View Intent (MVI)[iii], Model View ViewModel (MVVM), czy Model View Presenter (MVP). Wybór jest sprawą drugorzędną i programiści samodzielnie decydują o wyborze wzorca.

 

 

Clean architecture – najważniejsze pojęcia

 

Czystą architekturę można zwizualizować jako współśrodkowe okręgi odpowiadające poszczególnym warstwom architektury, gdzie w środku znajduje się warstwa najwyższego poziomu. Zatem w centrum mamy logikę domenową i encje, czyli obiekty biznesowe. Warto pamiętać, że logika domenowa lub w nieco węższym pojęciu – biznesowa[iv], dotyczy reguł funkcjonujących w danym obszarze aktywności człowieka. Takie niezmienniki funkcjonują niezależnie od tego, czy powstało jakieś oprogramowanie wykorzystujące tę logikę. Przykładem może być obliczanie np. podatku dochodowego albo proces śledzenia przesyłki do klienta. W tej warstwie swoje odbicie muszą znaleźć także wszystkie istotne procesy biznesowe i przepływy pracy. Do składowych warstwy logiki domenowej, można zaliczyć:

  1. UseCase – składnik, którego zadaniem jest odwzorowanie prawdziwych i realnych wymagań biznesowych oraz dostarczenie warstwie prezentacji dostępu do operacji na danych – np. do pobierania lub modyfikowania wartości poprzez obliczenia. Co ciekawe, UseCase to jedyny sposób wymiany danych pomiędzy warstwą prezentacji a warstwą logiki domenowej.
  2. Model – to zbiór danych uporządkowanych zgodnie z wybranymi regułami, które są wykorzystywane przez logikę biznesową. Modele w tej warstwie mogą się znacząco różnić od modeli z warstwy danych, łącząc np. kilka modeli w jedną całość, w zależności od potrzeb.
  3. Logika – to miejsce w strukturze, które służy do przechowywania wydzielonych klas opisujących skomplikowane przypadki logiki domenowej, a które są rzadziej wykorzystywane. Dzięki temu unika się nadmiernie rozbudowanych UseCase.
  4. DataSource – decydują o miejscu pobierania i zapisywania danych oraz mają dostęp do wszystkich źródeł danych udostępnianych przez warstwę danych. Są one zatem jedynym połączeniem pomiędzy warstwami logiki domenowej i danych. Zadaniem DataSource jest przygotowanie danych do przetwarzania w UseCase.
  5. Mappery – dbają o spójność i kompletność danych dostarczanych przez warstwę danych tak, aby logika domenowa mogła działać bez zarzutu. Mappery często integrują kilka obiektów z różnych źródeł w warstwie danych w celu utworzenia jednego, ale za to zawierającego wszystkie niezbędne z punktu widzenia logiki domenowej dane.

Zadaniem warstwy danych jest zapewnianie dostępu do wszelkich źródeł danych i modeli odwzorowujących te dane. Dostęp do metod zawartych w tej warstwie jest możliwy wyłącznie za pośrednictwem własnych interfejsów. Warto zwrócić uwagę, że warstwa danych jest bardzo silnie związana z platformą i narzędziami wykorzystywanymi przez czystą architekturę systemów IT. Wśród najważniejszych konstrukcji w tej warstwie można znaleźć:

  1. Data Transfer Object (DTO), czyli model do dwukierunkowego przesyłania danych. Są one wykorzystywane tylko w tej warstwie, a z ich usług korzystają mappery lub modele biznesowe, w zależności od kierunku przesyłania danych.
  2. Data – są to miejsca pobierania i zapisywania danych wykorzystywanych w pozostałych modułach systemu. Odpowiednie interfejsy umożliwiają łatwą i szybką wymianę źródeł danych – wystarczy podać odpowiednie obiekty implementujące te interfejsy, aby podmienić dane napływające poprzez Bluetooth na strumień danych z internetu, systemu GPS, czy kamery. Takie zastępowanie źródeł danych najczęściej wykorzystuje się w sytuacji obsługi różnych typów serwerów albo korzystania z danych testowych.

W literaturze na temat Clean Architecture spotyka się także pojęcie adaptera interfejsów, czyli połączenia UseCase z interfejsami systemu i adaptacją danych dla obu sąsiednich warstw.

 

 

Jakie są zalety podejścia Clean Architecture?

 

Najważniejszą i najpoważniejszą zaletą stosowania Clean Architecture jest łatwość utrzymania i rozwijania kodu projektu. Lokalizowanie i naprawianie wszelkich błędów jest w tym podejściu bardzo proste. Już nawet na poziomie nadawania nazw zmiennym, Robert C. Martin zalecał, aby dokładać takiej samej staranności, co z nadawaniem imienia pierwszemu dziecku. Długa opisowa nazwa jest lepsza niż krótka i enigmatyczna, a jeszcze lepsza niż długi opisowy komentarz. Dzięki temu prostsze staje się zarządzanie zmianą. Podejście Clean Architecture, dzięki małym klasom z wydzielonymi odpowiedzialnościami, pozwala szybko i łatwo modyfikować kod pod kątem nowych wymagań. Podobnie wygląda dodawanie nowych funkcjonalności bez obawy o konsekwencje w pozostałych częściach projektu.

Wspomniana duża liczba małych klas i interfejsów pozwala na lepsze i staranniejsze testowanie każdego fragmentu kodu, a to redukuje dług technologiczny[v], który z reguły powstaje w sytuacji zwiększonej presji czasu i wymagań biznesowych. Wszystko to przekłada się na niższe koszty zarządzania projektem i późniejszą eksploatację i rozwój aplikacji.

 

 

Jakie są wady podejścia Clean Architecture?

 

Oczywiście zły kod można zawsze wyczyścić i poprawić, ale z reguły jest to bardzo kosztowne i co najgorsze – czasochłonne, a czas to jedyny zasób, którego nie można odtworzyć.

Stosując reguły Clean Architecture trzeba pamiętać, ze wymagają one ok. 10%  dodatkowego zaangażowania na planowanie i pisanie kodu. Do wad tego podejścia wypada zaliczyć także wysoki próg wejścia – aby stosować czystą architekturę systemów IT potrzebna jest po prostu zaawansowana wiedza. Dla wielu praktyków duża liczba małych klas i interfejsów oznacza także dużo plików do zarządzania, co przy większej skali projektu może być osobnym wyzwaniem. Zupełnie osobnym zagadnieniem jest obszar zastosowań Clean Architecture – nie do każdego typu aplikacji będzie to odpowiednie podejście, czasami lepsze może się okazać RAD (Rapid Application Development), szczególnie przy szybkim tworzeniu prototypów lub aplikacjach o znanym już cyklu życia, z jasnym i dobrze zdefiniowanym celem. Brak daleko posuniętej uniwersalności także można zaliczyć do słabości tej koncepcji.

 

 

W jakich projektach najbardziej sprawdzi się Clean Architecture?

 

Clean Architecture to działo większego kalibru. Zatem warto je wytaczać do projektów o odpowiedniej skali, gdzie wymagana jest wysoka wydajność i zróżnicowana funkcjonalność. Przy zbyt małych zadaniach nakłady czasowe na dodatkowe prace są po prostu zbyt duże. Trzeba być jednak ostrożnym – czasami z czegoś małego może się wykluć całkiem duża i pokaźna aplikacja. Wczesne zastosowanie Clean Architecture pozwala uniknąć powstania znacznego długu technologicznego, który na długo może utrudnić rozwijanie obiecującego projektu. Warto zatem wziąć sobie do serca uwagi Roberta C. Martina, który stwierdził, że czysty kod zawsze wygląda tak, jakby został napisany przez kogoś, kogo ten kod obchodzi.

[i] Robert C. Martin, Clean Code: A Handbook of Agile Software Craftsmanship, Financial Times Prentice Hall; Edycja I, (14 sierpnia 2008).

[ii] https://cycle.js.org/model-view-intent.html#model-view-intent-what-mvc-is-really-about

[iii] https://cycle.js.org/model-view-intent.html#model-view-intent

[iv] http://tymoteuszkestowicz.com/2019/01/logika-biznesowa-to-nie-jest-logika-aplikacji/

[v] https://goodpoint.blog/dlug-technologiczny-czym-nim-zarzadzac/

Business Process Standardization (BPS) jest sposobem na wyjście z chaosu dla organizacji, które nie korzystają z rozwiązań outsourcingowych. Chroni przed marnotrawstwem zasobów, zwiększa stabilność produkcji i ułatwia zarządzanie podobnymi procesami z zachowaniem odpowiedniej jakości. Przede wszystkim jednak pozwala firmom zdziałać więcej w krótszym czasie i w oparciu o z góry określony wzorzec.

 

W dzisiejszym artykule przyglądamy się istocie standaryzacji procesów biznesowych, jej znaczeniu dla organizacji oraz podpowiadamy, jak krok po kroku wdrożyć BPS i tym samym zwiększyć wydajność produkcji.

 

 

Business Process Standardization (BPS) – definicja. Business Process Standardization a integracja

 

BPS oznacza w praktyce, że firma autoryzuje jeden określony sposób realizacji danego procesu. Zawsze będzie więc on wykonywany tak samo. Jest to możliwe dzięki wdrożeniu tzw. dobrych praktyk, zaprojektowanych w celu maksymalizacji wydajności i efektywności procesów. Zwykle należy do nich m.in. automatyzacja. „Best practices” zmieniają się wraz z tym, jak ewoluują procesy.

 

Dla przykładu, wycena ubezpieczenia samochodu obejmuje zebranie różnych danych i wykonanie kilku kroków. BPS określa te ostatnie oraz ich kolejność, dzięki czemu proces będzie realizowany w ten sam sposób za każdym razem, gdy klient wyśle zapytanie.

 

Standaryzacja zaprowadza porządek i zapewnia jednolitość. Pozwala też szybko odnaleźć osobę odpowiedzialną za dany element oraz eksponuje wszystkie potencjalne problemy, które mogą się pojawić „po drodze”. Aby działała bez zarzutu, konieczna jest integracja systemów, procesów i oprogramowania, w tym platformy BPM, jeśli jest używana. Te dwie praktyki łączą i konsolidują ważne informacje w jednym miejscu oraz tworzą jednolity i spójny sposób realizacji przepływów pracy.

 

 

Jakie są zalety standaryzacji procesów biznesowych?

 

Do największych korzyści płynących z BPS należą:

 

  • Zwiększenie wydajności

Użytkownicy mogą realizować procesy przy jak najmniejszych zasobach, jednocześnie optymalizując wartość, jaką z nich uzyskają. Prowadzi to do ogólnej redukcji kosztów, co jest naturalnym efektem zwiększonej wydajności. Szacuje się, że przed końcem 2023 roku standaryzacja procesów biznesowych będąca wsparciem hiperautomatyzacji doprowadzi do redukcji kosztów operacyjnych aż o 30%.

 

  • Wyższa produktywność

Gdy organizacje optymalizują procesy biznesowe przy użyciu najlepszych praktyk, mogą znacznie zwiększyć swoją produktywność. Jako jeden z pierwszych kroków we wdrażaniu inteligentnej automatyzacji, BPS ma zasadnicze znaczenie dla redukcji czasu przetwarzania, której poziom może wynieść nawet 60%!

 

  • Poprawa wskaźników customer satisfaction

Kolejną korzyścią wynikającą ze standaryzacji procesów jest poprawa poziomu zadowolenia klientów (m. in. z obsługi). Zwiększona produktywność i efektywność procesów skracają bowiem cenny czas oczekiwania, np. na wizytę u lekarza.

 

  • Zgodność z przepisami

Biznesy działające w ściśle regulowanych obszarach, takich jak finanse czy opieka zdrowotna, muszą przestrzegać wielu przepisów. Niestosowanie się do nich może potencjalnie skutkować karami w wysokości setek tysięcy, jeśli nie milionów złotych. Za samo naruszenie ustawy RODO grozi utrata nawet 4% rocznych przychodów. Standaryzacja procesów gwarantuje, że pracownicy podejmują właściwe kroki, aby zachować zgodność z przepisami i nie narażać firm na wysokie kary.

 

  • Możliwość weryfikacji informacji

Organizacje nie muszą już tracić czasu na zastanawianie się, co skłoniło je do podjęcia określonej decyzji lub w jaki sposób zostały utracone jakieś dane. Przejrzystość ustandaryzowanych procesów umożliwia przeprowadzanie audytów poszczególnych obszarów, aby dokładnie sprawdzić, co wydarzyło się w przypadku określonej funkcji biznesowej.

 

 

Czy są wady standaryzacji procesów w przedsiębiorstwie?

 

Jeśli w grę wchodzi migracja procesu z poziomu lokalnego na całe przedsiębiorstwo (tzw. global business process standardization), oprócz korzyści, takich jak pozytywny wpływ na transparentność, komunikację i współpracę, należy wziąć pod uwagę również koszty. Do tych ostatnich zaliczyć można m.in. brak możliwości wdrażania innowacji i ulepszeń w poszczególnych działach czy jednostkach firmy.

 

Ważne jest też, aby zrozumieć, że każda organizacja ma inne potrzeby i zasoby, pod które powinna opracować całą strategię jakości. Znajdą się wiec przypadki, w których globalna standaryzacja procesów nie będzie mieć sensu. Dzieje się tak najczęściej gdy organizacje mają ograniczone zasoby IT lub poszczególne oddziały firmy różnią się znacząco pod względem biznesowym.

 

 

Jak wdrożyć BPS w przedsiębiorstwie?

 

Standaryzację procesów biznesowych i integrację odpowiednich źródeł danych można rozpocząć wykonując trzy kluczowe kroki. Dzięki temu procesy będą nie tylko jednolite, ale także tak wydajne i korzystne, jak to tylko możliwe. Na wdrożenie BPS składają się:

 

  • Analiza procesów (np. metodą BPD)

Jest to punkt wyjścia, w którym organizacje badają różne sposoby realizacji procesów i decydują, który zapewnia największą wartość, jednocześnie redukując czas i zasoby wymagane do osiągnięcia celów.

 

Ważne jest, aby wziąć pod uwagę wszystkie zduplikowane procedury, aby ostatecznie wybrać tą najlepszą. Dzięki uwzględnieniu każdej możliwej opcji można wybrać to, co najlepsze z poszczególnych z nich, aby zmaksymalizować produktywność.

 

  • Tworzenie i wdrażanie stadardów

Drugim krokiem do standaryzacji procesu jest powtarzanie go w tej samej formie za każdym razem, gdy jest to wymagane. Nie wystarczy po prostu stworzyć wytyczne, trzeba też upewnić się, że są one wcielane w życie. Należy przy tym pamiętać, że automatyzacja może usprawnić i przyspieszyć te procesy, dzięki czemu organizacje mogą zoptymalizować ich ogólną użyteczność.

 

  • Ciągłe doskonalenie procesów

Ostatnim krokiem jest ocena procesów pod kątem punktów zmian, ulepszeń i uzupełnień. Dzięki regularnej analizie organizacje mogą być spokojne, że pozostają one rentowne i tak pomocne, jak to tylko możliwe. Dla przykładu, dobrym pomysłem będzie sprawdzenie, gdzie wykorzystać aspekty uczenia maszynowego i AI, aby jeszcze bardziej je przyspieszyć.

 

 

Czy kolejnym krokiem BPS jest BPM (Business Process Managment)?

 

Odpowiedź brzmi: tak! Standaryzacja procesów biznesowych jest jednym z pierwszych kroków w kierunku automatyzacji z użyciem BPM. Co więcej, przewiduje się, że do 2026 roku rynek Business Process Management wzrośnie aż do 16 miliardów dolarów!

 

Automatyzacja ustandaryzowanych procesów jest kluczowa z punktu widzenia transparentności, możliwości identyfikowania określonych elementów i analizy rezultatów końcowych. Dla przykładu, w firmie ubezpieczeniowej możliwe jest dzięki temu sprawne przygotowywanie orzeczeń w odpowiedzi na roszczenia klientów. Automatyzacja dysponuje też szeregiem strategii i narzędzi, które są w stanie integrować się ze sztuczną inteligencją (jak np. Shift Left), które jeszcze bardziej zwiększają wydajność.

 

 

BPS a DAP-y (Digital Adoption Platforms)

 

Kolejnym z rozwiązań, które pomagają organizacjom uzyskać dostęp do najnowocześniejszych technologii za pośrednictwem procesów jest cyfrowa platforma adaptacyjna (Digital Adoption Platform, czyli DAP). Wiele biznesów nie korzysta z pełni możliwości, które oferują współczesne aplikacje ponieważ nie potrafi efektywnie zarządzać danymi podstawowymi. Najczęściej jednak dzieje się tak właśnie dlatego, że ich procedury są przestarzałe lub w ogóle nie działają.

 

DAP-y dostarczają rozwiązania, które zapewniają wszystkie procesy niezbędne do integracji określonych technologii. Oferują wsparcie w ich wdrożeniu oraz opisywanej w niniejszym artykule standaryzacji. Dzięki temu nowe aplikacje włączane są do codziennej pracy, stając się integralną częścią biznesów.

Monitoring i zarządzanie wydajnością aplikacji to bardzo ważne procesy, które pozwalają zdiagnozować występujące w niej problemy, a co za tym idzie utrzymać oczekiwany poziom usług. Służą do tego narzędzia Application Performance Monitoring (APM), które umożliwiają wielopoziomową kontrolę wydajności. Czym dokładnie one są? Dlaczego APM jest istotny w testowaniu wydajności aplikacji? Odpowiedzi na te inne pytania znajdują się w niniejszym artykule.

 

 

Czym są narzędzia Application Performance Monitoring (APM)?

 

Zgodnie z definicją, oprogramowanie do monitorowania wydajności aplikacji (APM) pozwala monitorować metryki wydajności swoich aplikacji krytycznych dla działalności biznesowej, bezzwłocznie otrzymywać alerty w przypadku wystąpienia problemów z wydajnością oraz generować raporty dla okresowej analizy wydajności. Dlatego też narzędzia APM wykorzystywane są do monitorowania i zarządzania wydajnością kodu, zależnościami aplikacji, czasami transakcji oraz ogólnym doświadczeniem użytkownika. APM pozwala mierzyć zaawansowane wskaźniki dotyczące m.in. wydajności aplikacji, map usług, czy transakcji użytkowników w czasie rzeczywistym. Celem wykorzystania APM jest więc stałe monitorowanie wydajności aplikacji oraz rozwiązywanie pojawiających się problemów. Narzędzia te pozwalają znaleźć i zrozumieć przyczyny ewentualnych problemów z wydajnością, co umożliwia ich błyskawiczne usunięcie.

 

 

Dlaczego application performance monitoring jest istotny w testowaniu wydajności aplikacji?

 

Wykorzystanie APM w testowaniu wydajności aplikacji jest istotne, ponieważ pozwala śledzić każdą transakcję generowaną przez daną aplikację. Takie działanie umożliwia zaobserwowanie m.in. do jakich żądań najczęściej uzyskuje się dostęp oraz które funkcjonalności działają wolno i wymagają poprawy. Narzędzia APM wykorzystywane do monitoringu wydajności aplikacji śledzą jej działanie w czasie rzeczywistym, dzięki czemu umożliwiają zdecydowanie szybszą reakcję na pojawiające się incydenty i błędy. Pozwala to również unikać przestojów w funkcjonowaniu aplikacji, a tym samym ograniczyć ryzyko ewentualnych strat. Dzięki temu firma uzyskuje przewagę konkurencyjną, dzięki której może się rozwijać oraz zwiększać swoje przychody. Monitoring wydajności pozytywnie wpływa również na zadowolenie użytkowników końcowych, którzy mogą korzystać z wzorowo działającej aplikacji.

 

 

Co tak właściwie mierzy APM?

 

Zgodnie z definicją APM monitoruje wydajność aplikacji. Co kryje się pod tym pojęciem? Monitoring wydajności należy w tym przypadku rozumieć jako mierzenie wszystkich aplikacji we wszystkich środowiskach. W tym również środowiskach testowych i produkcyjnych, co jest jedynie kwestią odpowiedniej konfiguracji. Podstawowe zadania Application Performance Monitoring polegają więc na:

  • monitorowaniu serwerów,
  • śledzeniu dzienników, co pozwala sprawdzić jak często wykorzystywana jest dana usługa i w jakim czasie,
  • śledzeniu i monitorowaniu błędów aplikacji,
  • monitorowaniu ruchu w sieci w celu wykrycia opóźnień,
  • śledzeniu zależności aplikacji, takich jak Interfejsy API i bazy danych,
  • wykorzystanie Google Analytics, co pozwala uniknąć opóźnień.

 

 

Jakie są największe problemy związane w narzędziami APM?

 

Największe problemy związane z narzędziami APM to ręczne wdrażanie rozwiązań mających na celu poprawę wydajności aplikacji. Wykorzystanie Application Performance Monitoring wymaga więc odpowiedniej współpracy zespołu specjalistów IT, którzy będą szybko reagowali na pojawiające się incydenty obniżające wydajność aplikacji. Doświadczony zespół czuwa nad całym procesem monitorowania wydajności, co w połączeniu z umiejętnością przewidywania problemów gwarantuje poprawność działania aplikacji. Specjaliści muszą również odpowiednio interpretować otrzymywane w wyniku testów wskaźniki, dzięki którym mogą wdrożyć działania zaradcze poprawiające wydajność aplikacji.

 

 

Najlepsze narzędzia APM

 

Na rynku dostępnych jest wiele narzędzi APM, a do najlepszych zalicza się się m.in.:

  • AWS – w ofercie wiodącego dostawcy usług w chmurze można znaleźć narzędzia do monitorowania aplikacji takie jak AWS X-Ray, Amazon CloudWatch ServiceLens czy Amazon CloudWatch Synthetics. Umożliwiają one m.in. reagowanie na zmiany wydajności, identyfikowanie nietypowych zachowań w środowiskach oraz optymalizację wydajności aplikacji podczas skalowania;
  • Datadognarzędzie, które pozwala na dokładny monitoring wydajność aplikacji w czasie rzeczywistym. Analiza wszystkich danych z jednego miejsca umożliwia wykrycie krytycznych błędów przed zauważeniem ich przez użytkowników końcowych;
  • Zabbix – rozwiązanie open source, które umożliwia monitorowanie w czasie rzeczywistym tysięcy danych z serwerów, maszyn wirtualnych, aplikacji, czy urządzeń sieciowych. Wskaźniki monitorowania, takie jak wykorzystanie sieci, obciążenie procesora, czy zużycie miejsca na dysku pozwalają na ekspresowe wykrycie problemów;
  • Grafana – kolejne narzędzie open source, które umożliwia tworzenie zapytań oraz wizualizowanie wskaźników wydajności aplikacji przy wykorzystaniu dostosowanych danych. Dostosowanie narzędzia do potrzeb ułatwia możliwość tworzenia pulpitów nawigacyjnych zawierających panele reprezentujące konkretne metryki w określonym przedziale czasu.

 

 

APM a UXM

 

User-experience management (UXM), czyli zarządzanie doświadczeniem użytkownika to przyszłość APM. Wynika to z faktu, że monitorowanie rzeczywistego doświadczenia użytkowników aplikacji pozwala zdiagnozować opóźnienia, a następnie zoptymalizować elementy, które są dla nich najważniejsze. Testując aplikację pod obciążeniem w ukierunkowany sposób możliwe jest wykrycie i rozwiązanie konkretnych problemów, zanim użytkownik końcowy zdąży złożyć skargę o problemach z wydajnością. Wykorzystanie UXM pozwala więc skupić się na monitorowaniu tych zasobów aplikacji, które są najistotniejsze z punktu widzenia użytkownika końcowego, a ich optymalizacja przyniesie zauważalną różnicę w jego doświadczeniu.

Mierzenie wydajności aplikacji przy użyciu narzędzi APM to skuteczne rozwiązanie, które pozwala optymalizować ich działanie. W rezultacie może się to bezpośrednio przełożyć na poprawę wyników uzyskiwanych przez firmę, a co za tym idzie rozwój i zatrudnienie kolejnych specjalistów w organizacji.

Nowoczesne organizacje działają w konkurencyjnym, zorientowanym na klienta świecie, gdzie muszą być w stanie szybko i dokładnie odpowiadać na zapytania konsumentów. Kluczem do ich właściwej obsługi jest zaś dobra organizacja i wydajna struktura. Zapewnia je szereg inteligentnych rozwiązań – od stosunkowo prostych (jak automatyzacja arkuszy), po bardziej złożone (np. intelligent numbering na produkcji) i naprawdę zaawansowane (typu AI/IA)  

 

U podstaw wszystkich z nich leży jednak odpowiednie zawiadywanie zbiorami danych, co umożliwiają rozmaite platformy, ale przede wszystkim przemyślane systemy zarządzania dokumentami (najlepiej w formie cyfrowej). Sprawdzą się one zarówno w małych przedsiębiorstwach, jak i dużych organizacjach, zaś mnogość dostępnych na rynku opcji pozwoli dopasować rozwiązanie do możliwości portfela (DMS open source również wchodzi w grę).

 

 

DMS (Document Management System) – do czego służy? Jakie są podstawowe funkcje systemu DMS?

 

DMS, czyli Document Management System, to zautomatyzowane oprogramowanie służące do digitalizacji, indeksowania, przechwytywania, zabezpieczania, organizowania, i przechowywania plików biznesowych. Istnieje kilka jego typów (m.in. przyjazna środowisku opcja w Chmurze), jednak każdy z nich ułatwia śledzenie dokumentów oraz umożliwia wykonywanie ich kopii zapasowych w dowolnym momencie. A wszystko to m.in. dzięki  jednej, scentralizowanej lokalizacji oraz bezproblemowym integracjom.

 

Do pozostałych funkcji systemu DMS należą zaś:

 

  • Zdalny dostęp

System zarządzania dokumentami elektronicznymi powinien umożliwiać wielu użytkownikom dostęp do tych samych dokumentów z różnych lokalizacji.

 

  • Kontrola dostępu

Dzięki opcji personalizacji ustawień stopień kontroli bezpieczeństwa będzie dostosowany do użytkownika i jego uprawnień.

 

  • Redagowanie i OCR

Pliki skanowane do systemu DMS mogą zostać poddane redakcji w celu ochrony poufnej zawartości, a optyczne rozpoznawanie znaków umożliwi ich dalszą edycję.

 

  • Kontrola wersji

Document Management Software śledzi wszystkie modyfikacje powstałe od daty utworzenia pliku oraz przechowuje historię edycji, dzięki czemu łatwo można zidentyfikować użytkownika, który naniósł zmiany. Dokumenty można również przywracać do poprzednich wersji.

 

  • Indeksowanie i wyszukiwanie plików

System zarządzania dokumentami umożliwia również wyszukiwanie informacji za pomocą słów-kluczy.

 

  • Szyfrowanie danych

W przypadku niektórych użytkowników wymagane może być uzyskanie klucza dostępu, co stanowi dodatkową warstwę ochrony.

 

 

Czym powinien wyróżniać się dobry system DMS? Wady i zalety systemów DMS

 

Dobry DMS łączy wiele funkcji, aby zapewnić maksymalną ochronę zarówno przed zagrożeniami fizycznymi, jak i elektronicznymi. Przechowywane informacje mogą być obwarowane dodatkowymi zabezpieczeniami, np. w postaci haseł. Z kolei w przypadku zetknięcia z czynnikami takimi jak ogień i woda, z którymi papierowe dokumenty nie mają szans, istnieje możliwość wykonania kopii zapasowej w zewnętrznej lokalizacji.

 

Kolejną zaletą systemów tego typu jest możliwość usprawnienia i uproszczenia codziennych procesów biznesowych. Dostęp do plików z poziomu komputera eliminuje czas potrzebny na wyszukiwanie i ponowne archiwizowanie dokumentów papierowych. Odpada również problem żmudnego tworzenia duplikatów – zadbają o nie narzędzia do kontroli wersji, które umożliwiają edycję treści i śledzenie historii zmian.

 

Zamiana dokumentów papierowych na elektroniczne stworzy również więcej przestrzeni, pozwalając na wykorzystanie pomieszczeń firmy do bardziej produktywnych celów. Co więcej, organizacja dokona oszczędności pośrednich, przestając płacić za czas stracony na ręczną walkę z kumulującymi się stosami umów czy faktur.

 

Jak wszystkie inne systemy, DMS-y nie są jednak pozbawione wad. Tego typu zależność od technologii (a w zasadzie Internetu) może w przyszłości okazać się problemem, chociażby ze względu na hakerów, dla których informacje biznesowe zawsze stanowić będą łakomy kąsek. Trzeba wziąć pod uwagę również koszty – system do zarządzania dokumentami typu open source to jedno, ale chcąc dokonać digitalizacji należy liczyć się z zakupem sprzętu, który umożliwi zeskanowanie tak dużej ilości danych.

 

 

Kiedy firma potrzebuje systemu DMS? Jak wdrożyć system DMS w firmie?

 

Każda firma będzie korzystała ze swojego DMS-a inaczej, aby jak najlepiej zaspokoić swoje unikalne potrzeby, ale konieczność posiadania jakiegoś systemu do zarządzania plikami cyfrowymi jest oczywista. Nawet małe firmy mają dostęp do poufnych danych i korzystają ze strategii, których nie mogą narazić na szwank.

 

Systemy zarządzania dokumentami mają różne formy i możliwości. Na rynku dostępne są zarówno pakiety podstawowe, z minimalnym zakresem funkcji, jak i złożone programy, zapewniające multum unikalnych usług. Aby znaleźć odpowiedni system DMS dla swojej organizacji, przeanalizuj i zrozum jej potrzeby, a następnie poszukaj dostawcy, który oferuje bespokowe rozwiązania (jak np. Palette). Powinien on pomóc ci osiągnąć jak najwyższą wydajność bez nadmiernego komplikowania procesów w firmie.

Każdego dnia produkowane są niezliczone ilości danych. Według Rzeczpospolitej już w 2025 roku  średni zużywany pakiet wzrośnie w Polsce do 21,84 GB.

 

Wraz z tym, jak organizacje poszukują coraz bardziej inteligentnych procesów (obejmujących m.in. systemy ERP), działy IT mierzą się ze znalezieniem odpowiednich rozwiązań również w zakresie Big Data Management (takich jak np. technologia Cloud Native). Niesie to za sobą wiele wyzwań, od zarządzania wzrostem ilości danych, po generowanie update’ów i integrację różnych źródeł. Nie bez znaczenia w tym wszystkim są również kwestie związane z bezpieczeństwemśrodowiskiem.

 

Właściwa strategia zarządzania danymi o dużym wolumenie potrafi jednak zdziałać cuda. Oprócz przyspieszonego pozyskiwania informacji i uproszczonych analiz w czasie rzeczywistym, zapewnia ona również m.in. kontrolę kosztów i wszelkich obciążeń systemowych.

 

 

Big Data – co to jest? Co wchodzi w skład zarządzania Big Data?

 

Zarządzanie Big Data to szeroki koncept, który obejmuje wszystkie procedury i technologie używane do gromadzenia, przechowywania i organizacji dużych repozytoriów danych. Może obejmować ich czyszczenie, migrację, integrację oraz przygotowanie do wykorzystania w raportowaniu i analityce.

 

Zarządzanie zbiorami danych tego typu ma bowiem na celu zapewnienie ich wysokiej jakości i dostępności pod kątem aplikacji związanych m.in. z Business Intelligence. Korporacje, agencje rządowe i inne organizacje stosują strategie Big Data w obliczu ogromu informacji, którymi są bombardowane każdego dnia w różnych formatach. Skuteczne przetwarzanie zbiorów danych (w tym nieustrukturyzowanych i pochodzących z różnych źródeł) umożliwia im m.in. zlokalizowanie najbardziej istotnych (z biznesowego punktu widzenia) rekordów.

 

Analiza Big Data wykracza zwykle poza tradycyjne platformy czy programy klasy WMS, wykorzystując technologie umożliwiające pracę na nietransakcyjnych formatach. Powstają w ten sposób nowe architektury i systemy łączące duże zbiory danych.

 

Częścią Big Data Management jest również odpowiednia klasyfikacja. Firmy muszą zdecydować, jakie dane powinny zachować i poddać analizie (np. w celu usprawnienia bieżących procesów biznesowych lub zapewnienia przewagi konkurencyjnej), a których mogą się pozbyć. Dzięki temu cały ten proces przebiegać będzie znacznie szybciej i wydajniej.

 

 

Zarządzanie Big Data – specjalność na studiach

 

Świadome tego, że kluczem do podejmowania trafnych decyzji biznesowych oraz zrozumienia zasad, które rządzą wyborami konsumentów jest właściwa interpretacja dostępnych informacji są także uczelnie. Big Data Developer nie powinien bowiem być jedynym zawodem, który przychodzi na myśl w związku z dużymi wolumenami danych. Wiele uniwersytetów w Polsce dysponuje ciekawą ofertą dla osób, które chciałyby w przyszłości pracować np. na stanowiskach związanych z analityką przemysłową, biznesową, czy gospodarczą.

 

Dla przykładu, UTH w Warszawie proponuje interdyscyplinarne studia licencjackie, których program obejmuje wiedzę z zakresu:

 

  • projektowania i zarządzanie bazami SQL oraz narzędzi IT do realizacji procesów na danych,
  • przetwarzania danych z różnych źródeł (bazy danych, pliki multimedialne i tekstowe, strony www, dane geolokacyjne, dane pochodzące z usług i systemów teleinformatycznych itd.),
  • zagadnień Machine Learning wykorzystywanych podczas analizy danych,
  • projektowania i administrowania systemami komputerowymi służącymi do analizy danych,
  • narzędzi statystycznych oraz przeprowadzania analiz danych w środowisku programistycznym,
  • modelowania i prowadzenia analiz statystycznych danych,
  • infrastruktury i narzędzi umożliwiających zbieranie, przechowywanie i przetwarzanie dużej ilości danych,
  • modelowania procesów gospodarczych.

 

 

Do czego może się przydać w firmie osoba do zarządzania Big Data? Sektory rynku, w których szczególnie przydaje się zarządzanie Big Data

 

Wybór odpowiedniej osoby do współpracy w zakresie Big Data zależeć będzie od specyfiki działalności konkretnej organizacji, jej skali (a więc i wolumenu gromadzonych danych), tempa wzrostu i zapotrzebowania zgłaszanego przez biznes. W przypadku gwałtownie postępującego rozwoju może się okazać, że zwykli analitycy (np. BI) nie wystarczą i konieczne będzie zatrudnienie specjalistów Data Science. Podczas gdy ci pierwsi mają na celu identyfikację określonych zdarzeń, które miały miejsce w przeszłości i zaproponowanie rozwiązań problemów, drudzy będą badać powód danego stanu rzeczy i próbować przewidywać, co się dopiero wydarzy (a czasem i temu zapobiec).

 

Data Scientist to dosyć nowy zawód, który powstał w odpowiedzi na potrzeby rynku i rosnące znaczenie Big Data, będące szczególnie widoczne w przedsiębiorstwach produkcyjnych, firmach telekomunikacyjnych oraz ubezpieczeniowych, bankach, administracji publicznej, zaawansowanych centrach badawczych, branży marketingowej, farmaceutycznej czy e-commerce. Zajmuje się on zarówno analizą danych, jak i statystyką oraz informatyką. Posiada kompetencje miękkie na wysokim poziomie oraz dysponuje takim zrozumieniem biznesu, które pozwala mu na trafne diagnozowanie problemów i identyfikowanie potrzeb. Podejmuje też działania, które mają przełożyć się na realne korzyści dla organizacji, które znajdą odzwierciedlenie w konkretnych liczbach. Innymi słowy, ma on zadbać o efektywne zmonetyzowanie wartości drzemiącej w danych.

 

 

Główne wyzwania związane z zarządzaniem Big Data

 

Przetwarzanie i zarządzanie Big Data nie należy jednak do najłatwiejszych zadań. Objętość, różnorodność i tempo aktualizacji to tylko niektóre z utrudnień. Do pozostałych wyzwań należą:

 

  • skala wolumenów, która zwykle stoi na przeszkodzie efektywnego zarządzania danymi,
  • rozproszenie danych na różnych platformach przetwarzania i w repozytoriach pamięci masowej,
  • brak konsekwencji we wprowadzaniu czy formatowaniu danych, co powoduje problemy związane z jakością, takie jak błędy, rozbieżności czy zduplikowane wpisy,
  • integracje zbiorów danych, które często pochodzą z różnych źródeł (również zewnętrznych), wobec czego konieczne jest wyjście poza metodę ETL (Extract, Transform, Load), czyli wyodrębnianie, przekształcanie i ładowanie,
  • przygotowanie danych na potrzeby analizy, które jest czasochłonne ponieważ często wymaga konsolidowania, filtrowania, porządkowania i weryfikacji pod kątem poszczególnych aplikacji,
  • zapewnienie odpowiedniej skalowalności systemów Big Data, która dostarczy wymaganą wydajność przetwarzania bez niepotrzebnych kosztów dla firmy,
  • obecność nieustrukturyzowanych lub jedynie częściowo ustrukturyzowanych danych,
  • nadzór nad danymi wrażliwymi.

 

 

Technologie związane z zarządzaniem Big Data

 

Na rynku dostępna jest szeroka gama platform i narzędzi do zarządzania Big Data. Wiele z nich występuje również w wersji open source. Lista technologii Big data, które często można wdrażać równolegle, obejmuje m.in.:

 

  • systemy rozproszonego przechowywania i przetwarzania typu Hadoop i Spark,
  • silniki przetwarzania strumieni danych,
  • usługi przechowywania obiektów w Chmurze,
  • oprogramowania do zarządzania klastrami,
  • bazy danych NoSQL,
  • platformy hurtowni danych,
  • rozwiązania klasy Data Lake,
  • silniki do zapytań SQL.

 

Aby umożliwić łatwiejszą skalowalność i większą elastyczność, wdrożenia związane z dużymi zbiorami danych są coraz częściej realizowane w Chmurze, gdzie firmy mogą konfigurować własne systemy lub korzystać z ofert przygotowanych przez dostawców oraz zewnętrznych konsultantów. Wśród liderów w tym zakresie wymienić należy oczywiście AWS, Google i Microsoft Azure, a także Clouderę i Databricks.

 

Masz pytania odnośnie Big Data? Napisz!

Rakieta Saturn V, która zawiozła ludzi Księżyc składała się z ponad 3 mln części[i]. Najpopularniejszy na świecie samolot pasażerski Boeing 737 to jakieś 600 000 części[ii], a typowy samochód to ledwie 30 000 części. Widać zatem, że bez wydajnego i dobrze zaplanowanego systemu numerowania części nie jest możliwa produkcja jakiegokolwiek złożonego wyrobu przemysłowego. Nic dziwnego, że inżynierowie już od dekad głowią się nad tym, jak sobie poradzić z tym problemem.

 

Nowy produkt to często tysiące części do zaprojektowania, obszerna dokumentacja śledząca zmiany i liczne modyfikacje bibliotek elementów składowych. Zarządzanie takimi procesami jest złożone i kosztowne. Ich fundamentem jest sprawny schemat numerowania części, bez którego nie może działać produkcja.

 

 

Intelligent Numbering – na czym polega inteligentne numerowanie w produkcji?

 

W zasadzie istnieją dwie szkoły numerowania części. Pierwsza z nich, nazwijmy ją szkołą „Inteligentnego Numerowania” zakłada, że numer, czy raczej symbol części w inteligentny sposób powinien opisywać daną część, jej podstawowe przeznaczenie, cechy, wariant, odmianę itp. Druga szkoła zwolenników prostoty i efektywności może nosić nazwę „Prostego Numerowania”. Jej zwolennicy używają po prostu liczb o długości najczęściej do pięciu lub siedmiu cyfr i sekwencyjne, po kolei numerują części, niezależnie od tego czym one są i jakie jest ich przeznaczenie.

Jeśli fabryka części elektronicznych jest zwolennikiem pierwszej szkoły, to oznaczenie kondensatora elektrolitycznego do montażu powierzchniowego o pojemności 1000 μF, tolerancji 10% i napięciu pracy 250 V, w siódmej odmianie produktowej może mieć np. formę: COND-SM-1000-10-250-07. Ten sam wyrób w konkurencyjnej firmie, która reprezentuje „Proste numerowanie” może być oznaczony po prostu jako 132764. Kolejny numer może dotyczyć rezystora, układu scalonego, czy transformatora, nie ma to żadnego znaczenia.

 

Jak widać, w szkole „Inteligentnego Numerowania” numer części może potencjalnie obejmować praktycznie wszystko: wymiary fizyczne, materiały i właściwości, typy plików projektowych, ograniczenia środowiskowe, zgodność z umowami i przepisami, identyfikatory klienta lub projektu, ograniczenia licencyjne lub prawne, zasady postępowania księgowego, okresy konserwacji i serwisowania, procedury kontrolne i testowe i wiele innych atrybutów. W efekcie inteligentny numer części może być dłuższy niż jej opis.

 

 

Czy inteligentne numerowanie na produkcji jest lepsze od zwykłego numerowania produktów?

 

W teorii każdy system numerowania, który jednoznacznie i spójnie identyfikuje części w całym cyklu ich życia jest jednakowo dobry. Nowy numer pojawia się nie tylko z nową częścią, ale także w sytuacji, gdy zmiany w produkcji wpływają na formę, parametry, czy pełnioną funkcję danej części. Dobrze zaprojektowany system numerowania pozwala na odróżnienie części, jeśli różnice miedzy nimi są istotne, jak i pomijanie cech nieistotnych np. w procesie zaopatrzenia lub produkcji.

Inteligentne numerowanie to głównie lepsza wydajność wyszukiwania. Dzięki inteligentnej numeracji można grupować podobne części w dokumentacji projektowej lub arkuszach kalkulacyjnych, w których mechanizmy filtrowania znacznie ułatwiają odnalezienie konkretnej części. Również fizyczne jej zlokalizowanie w magazynie jest prostsze, bo szukając np. kondensatorów łatwo dostrzec etykiety rozpoczynające się np. od „COND”. Dzięki inteligentnemu numerowaniu łatwiejsza jest identyfikacja części. Technik znający system oznaczeń może łatwo wyszukać tę część, która spełnia jego potrzeby. Tu docieramy do sedna problemu – na funkcjonowanie systemu numerowania części największy wpływ ma jego najsłabsze ogniwo, czyli człowiek.

 

 

Jakie są największe problemy inteligentnego numerowania?

 

Problemów jest bez liku[iii]. Pierwszy z nich wynika z faktu, że system jest konstruowany na bazie wstępnych założeń, a praktyka i codzienne decyzje nieuchronnie powodują, że pierwotna kategoryzacja staje się z czasem przestarzała. Wszyscy pracownicy, którzy korzystają z systemu muszą rozumieć i utrzymywać logikę systemu numerowania części, a zakresy numerów grup części muszą być zaplanowane z góry. Np. problematyczna staje się sytuacja, jeśli na oznaczenie kategorii produktu zaplanowano dwie cyfry, a pojawia się np. setna kategoria.

Na to wszystko nakładają się potencjalne błędy w kodowaniu – nietrudno sobie wyobrazić, że ktoś na bezpiecznik 10 A naniesie kod 1.0 A, a wtedy konsekwencje mogą być naprawdę poważne. W przypadku numerów nanoszonych na gotową część o wysokiej wartości np. przez grawerowanie lub trawienie na odlewach precyzyjnych, usunięcie lub poprawienie oznakowania może się wiązać albo ze znacznymi kosztami, albo wręcz ze zniszczeniem samej części. Jak by na to nie spojrzeć, koszt zmian technicznych w procesie renumeracji nieprawidłowo oznaczonej części może z łatwością zniweczyć wszelkie oczekiwane korzyści z inteligentnego systemu numerowania części.

Bardzo kłopotliwe są pomyłki w oznakowaniu szeregów elementów do siebie podobnych typu uszczelki, śruby, rezystory, podzespoły elektronicznie, gdzie jedno złe przypisanie numeru części blokuje przyszłe przypisania, a to potem wymaga zmian w numeracji całej serii.

Konia z rzędem temu, kto rozstrzygnie czy dioda LED to tylko dioda, czy może źródło światła? Może to emiter albo urządzenie złączowe? Czy za kilka lat taki opis będzie poprawny?

Częstym problemem są niejednoznaczne i nakładające się nazwy kategorii typu „różne”, „osprzęt”, „wyposażenie” itp. Dodanie nowego parametru do istniejącego schematu numeracji może wymagać aktualizacji numerów wszystkich powiązanych części, co radykalnie zmniejsza trwałość i efektywność inteligentnego systemu numeracji części.

 

Cały system może się też okazać nadmiernie skomplikowany i rozbudowany. Jeśli w numerze części zakodowano materiał, z którego część jest wykonana, to mimo jej pełnej wymienności, użycie innego stopu, czy metali pociąga za sobą nowe oznaczenie, które de facto jest zbędne. Stopień komplikacji rośnie, jeśli firma wchłonie inną, albo uzna, że potrzebny jest nowy – wtedy koszty i czas na wdrożenie rosną w zastraszającym tempie. Pracownicy zawsze będą wywierać presję, aby numeracja była rozbudowywana, bo każdy z nich szuka innego fragmentu oznakowania z potrzebną mu informacją. Do tego niektóre kategorie będą przepełnione, będą dodawane nowe, aby odróżniać części do siebie podobne, a w konsekwencji początkowo inteligentny system numerowania części w produkcji staje się tak skomplikowany, że żadna inteligencja ani podręczna ludzka pamięć nie pomoże.

 

Zniwelowanie tych niedostatków i zredukowanie liczby błędów wymaga bądź to dodatkowych zasobów ludzkich, czyli kompetentnego i dobrze wyszkolonego zespołu fachowców, bądź zautomatyzowania i stałego monitorowania całego procesu numerowania przez specjalistyczne oprogramowanie. Zespół zajmujący się przydzielaniem numerów dużo czasu spędzi na szkoleniach, poznawaniu asortymentu i technologii produkcji, a wdrożenie nowego pracownika będzie długotrwałe i kosztowne. Sam proces przydzielania numeru staje się często wąskim gardłem, bo wymaga czasu, dyskusji i uzgodnień pomiędzy wieloma zespołami w firmie.

 

 

Intelligent Numbering a RPA – czy do numerowania można wykorzystać zrobotyzowaną automatyzację procesów?

 

Wyobraźmy sobie, że w magazynie podzespołów koniecznych do utrzymania produkcji nie ma części z danym numerem. Produkcja teoretycznie staje. Ale identyczne części z innym numerem są jednak są w magazynie. Jeśli w odpowiednim momencie problem zostanie wykryty i skorygowany, to pracy nie trzeba zatrzymywać. W praktyce tego typu rozwiązania już działają. Mindbox w Danone Polska wdrożył narzędzia RPA (Robotic Process Automation), które szybko i bezbłędnego korygują wszelkie usterki związane ze zmianami kodów materiałowych, które utrudniają poprawną realizację zamówień. Pracę wykonywaną przez sześcioosobowy zespół zastąpiono po prostu botem.

W ogólności, pracę z inteligentnym systemem numerowania części, gdzie dopuszcza się możliwość wystąpienia pomyłki, muszą wspierają programy RPA, które są w stanie zastąpić człowieka i odczytać, zbadać poprawność i w razie potrzeby skorygować w dokumentacji nieprawidłowe oznaczenia.

 

 

Jak wdrożyć inteligentne numerowanie w przedsiębiorstwie?

 

Wybierając schemat numerowania części w produkcji należy uwzględnić cele firmy, jej kulturę organizacyjną i techniczną oraz specyfikę produkcji. Liczy się także stopień informatyzacji i automatyzacji, możliwości posiadanego systemu ERP i jego podsystemów PLM (Product Lifecycle Management) oraz zarządzania jakością (QMS – Quality Management System).

Warto postawić zasadnicze pytanie – do czego będą używany numery części w całej organizacji? Czy planowany system Inteligent Numbering będzie wspierać procesy biznesowe? Jeden z najnowocześniejszych systemów ERP – Kinetic firmy Epicor pozwala na charakteryzowanie części za pomocą opisów, linii produktowych, typów i szerokiej gamy atrybutów. To ich można używać do wyszukiwania i identyfikowania produkowanych części bez konieczności wdrażania inteligentnego schematu numerowania. Nie bez znaczenia jest informacyjny zasięg numerowania – czy dotyczy on jedynie samej organizacji, czy będą z niego korzystać także kontrahenci?

Kluczem i sednem udanego wdrożenia schematu numerowania części jest prawidłowe zaplanowanie procesu generowania nowego numeru części. Musi on zapewnić nie tylko brak duplikatów, czyli różnych symboli tej samej części, ale także zapobiec przydzielaniu tego samego numeru dla różnych części. Jakiekolwiek usterki w działaniu tego procesu będą powodować poważne problemy, takie jak opóźnienia na linii produkcyjnej, zamieszanie w zestawieniach materiałowych (BOM – Bill of Materials) i nieprawidłowe zamawianie części. W efekcie – straty finansowe, czasami bardzo dotkliwe

[i] https://www.quora.com/Why-did-the-Saturn-V-rocket-require-so-many-parts-around-3-000-000-What-kind-of-systems-are-running-that-would-require-such-complexity-Does-all-of-the-original-documentation-for-construction-maintenance-operating-procedures-still-exist

[ii] http://www.b737.org.uk/production.htm

[iii] https://www.arenasolutions.com/wp-content/uploads/eBook-is-your-part-numbering-scheme-costing-you-millions.pdf

Czy znasz może film fantastycznonaukowy z 1968 roku w reżyserii Stanley’a Kubricka, zatytułowany „2001: Odyseja Kosmiczna” lub książkę Arthura C. Clarke’a o tym samym tytule? Jeśli tak, to zapewne zapadł ci też w pamięć komputer Hal 9000, najbardziej zaawansowany projekt Sztucznej Inteligencji, wyposażony w intelekt i system emocjonalny na poziomie człowieka. Wynikiem otrzymania sprzecznych poleceń, które starał się jak najlepiej zinterpretować, zabił prawie wszystkich członków załogi statku Discovery One, gdzie pełnił funkcję kontrolera.  Przetrwał jedynie dowódca, któremu udało się wyłączyć wyższe funkcje Hal’a.

 

Rzeczywistość jest o wiele bardziej prozaiczna, ale i optymistyczna. Choć taka forma Sztucznej Inteligencji jest daleka do osiągnięcia, nie należy się również obawiać buntu maszyn. Człowiek coraz lepiej radzi sobie bowiem z robotami software’owymi, w tym wszelkiego rodzaju asystentami wspomaganymi uczeniem maszynowym. Wysyp nowych technologii tego typu może jednak powodować, że coraz trudniej jest je od siebie odróżnić. Śpieszymy zatem z pomocą i wyjaśnieniami, dzisiaj w zakresie AI vs IA.

 

 

AI (Artificial Intelligence) vs IA (Intelligent Assistance) – czym się różnią? AI czy IA – co lepsze dla przedsiębiorstwa?

 

Sztuczna inteligencja (SI lub AI) i tzw. inteligentne systemy wspomagania (IA) stanowią dwie strony tego samego medalu, które odróżnia sposób, w jaki użytkownicy korzystają z obu technologii. Pod pewnym względami będą to więc bardzo podobne do siebie rozwiązania, zaś pod innymi – niezwykle odmienne.

 

Krótko mówiąc, maszyny AI odtwarzają i naśladują zachowania ludzi, podczas gdy rozwiązania IA mają za zadanie pomagać tym ostatnim. Idąc dalej tym tropem, SI rozwija możliwości kognitywne tzw. inteligentnych agentów, którzy funkcjonują w ramach wstępnie zdefiniowanych parametrów. Ich zdolności mierzone są zaś przez pryzmat tego, jak radzą sobie z rozwiązywaniem problemów, nauką nowych rzeczy czy przetwarzaniem języka naturalnego oraz wykorzystywane przez IA w służbie ludzkości.

 

Jeszcze bardziej upraszczając, termin „Intelligent Assitance” odnosić będzie się więc do wszystkich technologii stworzonych przez człowieka na jego użytek i działających według wyznaczonych przez niego wytycznych. Określenie „Artificial Intelligence” obejmuje zaś rozwiązania zaprojektowane przez ludzi i korzystające z dostarczonych przez nich danych do tego, aby wydedukować, jakie działania są im potrzebne i je wdrożyć bez udziału osób trzecich.

 

Dylematy spod znaku „AI vs IA” (czy „IA vs AI”) często nie będą mieć więc racji bytu, zwłaszcza gdy pojawi się kolejny wspólny mianownik, taki jak na przykład inteligentna automatyzacja. W niektórych firmach „wystarczą” bowiem rozwiązania spod znaku Intelligent Assistance (dedykowane aplikacje, rozpoznawanie głosu, rozsuwane drzwi, kontrola temperatury czy urządzenia  IoT). Inne przedsiębiorstwa skorzystają zaś na tym, jeśli pójdą o krok dalej i rozszerzą ich podstawowy silnik. AI może zatem zasilać IA, zaś IA być częścią AI.

 

W podjęciu decyzji odnośnie tego, w jaką technologię czy technologie inwestować na dany moment nie bez znaczenia będą posiadane i planowane w organizacji innowacje (takie, jak na przykład Chmura). W przypadku automatyzacji i robotyzacji niezbędne będzie wcześniejsze sprawdzenie ich opłacalności. Jeśli zaś tego typu rozwiązania zostały już wdrożone, można wykorzystać je do wykrycia procesów biznesowych, które również pomoże ustalić, czy dalsze „inteligentne” usprawnienia będą wskazane.

 

Sprawdź również teksty na pokrewne tematy:

Automatyzacja vs AI

Rozszerzona inteligencja

Demokratyzacja IT

 

 

Czy IA to rzeczywiście rewolucja? Czy aktualne IA to przyszłościowe rozwiązanie?

 

Jeśli chodzi o samą koncepcję, Intelligent Assistance nie jest niczym nowym. Można by się nawet pokusić o stwierdzenie, że prapoczątki tego typu wsparcia sięgają aż do momentu, w którym wynalezione zostało… koło. Jest ono w końcu dziełem człowieka (stworzonym po to, by mu pomóc), a zarazem jedną z pierwszych form technologii.

 

Czy jednak IA to rozwiązanie przyszłościowe? Oczywiście, jeśli tylko będzie napędzane uczeniem maszynowym. W końcu już dziś możemy rozmawiać z obiektami w naszych domach, które rozpoznają głosy, rozumieją pytania, a nawet i przewidują potrzeby. Giganci cyfrowi (Amazon, Apple, Google i Microsoft) będą więc kontynuować walkę o najlepszy human interface w dobie 5G. Powinni również zadbać o to, aby użytkownicy tych rozwiązań mieli poczucie, że nie stanowią one zagrożenia dla ich prywatności.

 

 

Które rozwiązania IA są aktualnie najpopularniejsze?

 

Od jakiegoś czasu prym w obszarze IA wiodą asystenci głosowi. Do najpopularniejszych z nich należą oczywiście Siri, Alexa i Google Assistant. Choć wciąż brzmią jak roboty i daleko im jeszcze do filmowych wyobrażeń, zakres ich umiejętności stale się poszerza. Oprócz inicjowania połączeń, czytania książek i umawiania spotkań, potrafią między innymi zlokalizować zagubione urządzenia, sprawdzić warunki na drodze czy zrobić zakupy online. Alexa wykazuje się nawet poczuciem humoru!

 

Największym obszarem do pracy, jeśli chodzi o asystentów głosowych są natomiast dialogi z użytkownikami. Próbują oni co prawda interpretować kontekst i szukać odpowiedzi w oparciu o bazę danych, która powstała w wyniku wcześniejszych interakcji, lecz w większości przypadków jest to nadal dalekie od perfekcji, oferując duże pole do popisu dla usprawnień Machine Learningowych. Narzędzia typu Google Duplex pozostają jednak dowodem na to, że ambicje amerykańskich przedsiębiorstw informatycznych są w tym zakresie bardzo duże.

 

Sprawozdania finansowe towarzyszą człowiekowi praktycznie od zawsze. Najstarsze zabytki sumeryjskiego pisma klinowego z IV w. p.n.e. dotyczą spraw księgowych i prowadzonego inwentarza[i]. Było zatem dość czasu, aby metody prowadzenia ksiąg rachunkowych i sporządzania sprawozdań dla fiskusa dopasować do aktualnego stanu rozwoju gospodarki, firm i ich wzajemnych powiązań. Na przestrzeni lat udało się wypracować uniwersalne i nadrzędne zasady rachunkowości[ii], które pozwalają na dokładny opis praktycznie każdej organizacji gospodarczej.

 

 

Financial Consolidation, czyli skonsolidowane sprawozdanie finansowe – na czym polega i do czego służy?

 

Najprościej mówiąc, skonsolidowane sprawozdanie finansowe to obraz stanu finansów i kondycji grupy kapitałowej. Grupę kapitałową tworzą powiązane ze sobą, prawnie samodzielne podmioty gospodarcze w postaci spółek kapitałowych. Relacja powiązania kapitałowego oznacza, że podmiot nadrzędny posiada udziały lub akcje w podmiotach podporządkowanych, może powoływać władze spółek zależnych lub kierować ich finansami i działaniami operacyjnymi. W każdej grupie kapitałowej wyróżnia się: jedną spółkę dominującą i spółki zależne, które są przez nią kontrolowane, i to właśnie spółka dominująca jest zobowiązana do sporządzenia skonsolidowanego sprawozdania finansowego.

Obejmuje ono zbiorczo dane i informacje o spółce dominującej i organizacjach od niej zależnych, bez względu na ich siedzibę i położenie w hierarchii grupy.

Sprawozdanie skonsolidowane musi być tak przygotowane, jakby grupa kapitałowa stanowiła jedną jednostkę. Oznacza to konieczność połączenia sprawozdań finansowych spółek wchodzących w skład grupy kapitałowej poprzez zsumowanie odpowiednich pozycji sprawozdań finansowych jednostki dominującej i spółek zależnych, z uwzględnieniem odpowiednich wyłączeń wynikających chociażby z transakcji wewnątrzgrupowych oraz korekt.

Obowiązek konsolidacji sprawozdań finansowych jest szczególnie ważny dla fiskusa. Informacje, które wynikają z takiego sprawozdania pozwalają ustalić, np. czy grupa przedsiębiorstw kontrolowana przez tych samych właścicieli nie ma dominującego udziału w rynku lub monopolu.  Analiza skonsolidowanego sprawozdania finansowego może wykazać, że np. zyski są transferowane do któregoś z rajów podatkowych albo ujawnić osobliwe transakcje wewnątrzgrupowe.

 

 

Jakie są elementy skonsolidowanego sprawozdania finansowego?

 

Ustawa o rachunkowości dość precyzyjnie określa składniki skonsolidowanego sprawozdania finansowego. Musi ono zawierać:

  • skonsolidowany bilans;
  • skonsolidowany rachunek zysków i strat;
  • skonsolidowany rachunek przepływów pieniężnych;
  • zestawienia zmian w skonsolidowanym kapitale własnym;
  • informacje dodatkowe obejmujące wprowadzenie do skonsolidowanego sprawozdania finansowego oraz dodatkowe informacje i objaśnienia istotne dla zrozumienia całości sprawozdania.

Z reguły do takiego skonsolidowanego sprawozdania finansowego dołącza się dużo bardziej interesujące sprawozdanie z działalności całej grupy kapitałowej. Pokazuje ono stan majątkowy i sytuację finansową jednostki wraz z oceną uzyskiwanych efektów i wskazaniem czynników ryzyka i opisem zagrożeń. W takim sprawozdaniu pokazuje się wskaźniki finansowe i niefinansowe, łącznie z informacjami dotyczącymi zagadnień środowiska naturalnego i zatrudnienia, a także dodatkowe wyjaśnienia do kwot wykazanych w sprawozdaniu finansowym. Stałym elementem są także informacje o udziałach czy akcjach własnych posiadanych zarówno przez jednostkę dominującą, jak i jednostki wchodzące w skład grupy kapitałowej oraz osoby działające w ich imieniu.

Zatem sytuacja jest dość klarowna – wiadomo co ma się znaleźć w skonsolidowanym sprawozdaniu finansowym, jakie informacje trzeba zgromadzić od spółek zależnych, ale już sama realizacja procesu konsolidacji nie jest taka prosta. Problemów nie brakuje.

 

 

Jak przebiega proces konsolidacji sprawozdań finansowych?

 

Proces konsolidacji sprawozdań finansowych musi być dobrze i odpowiednio wcześnie zaprojektowany i zainicjowany. Bez tego chaos informacyjny i opóźnienia mogą przyczynić się do niepowodzenia całego przedsięwzięcia. Musi być jasne kto i na jakim etapie będzie zaangażowany w proces, jaka będzie kolejność poszczególnych czynności związanych z gromadzeniem, przetwarzaniem i badaniem danych, jakie będą wzory dokumentów i wreszcie jaka będzie polityka bezpieczeństwa – kto będzie miał dostęp do danych i w jakim zakresie. Dobrze opisany i udokumentowany proces konsolidacji jest warunkiem koniecznym końcowego sukcesu.

W warstwie merytorycznej należy zadbać o spójne polityki księgowe w ramach całej grupy. Bez tego można oczekiwać trudności w agregacji danych i ingerencji audytora grupy. Zatem należy przygotować zalecenia w zakresie różnic w ujęciu transakcji zgodnie z polityką grupową a stosowaną przez spółkę polityką lokalną, instrukcje wypełniania formularzy i jeśli to możliwe – jednolity plan kont.  Dzięki temu można uzyskać spójne podejście do księgowania zdarzeń gospodarczych na tych samych kontach, a także poprzez mapowanie kont do pozycji sprawozdawczych, spójną ich prezentację w sprawozdaniu skonsolidowanym. Oszczędza to mnóstwo czasu i energii pracowników.

Wszystkie działania muszą być odpowiednio ułożone na osi czasu. Jeśli znany jest termin spełnienia  obowiązku konsolidacji sprawozdań finansowych, to planowanie wstecz jest najbardziej efektywną metodą planowania. Jednym z warunków powodzenia jest przedyskutowanie harmonogramu z  całym zespołem zajmującym się przygotowaniem sprawozdania i omówienie potencjalnych zagrożeń. Przyjęcie sensownego marginesu bezpieczeństwa pozwoli osobom odpowiedzialnym na spokojny sen. Praca pod zbyt dużą presją czasu prowadzi najczęściej do błędów, które trudno znaleźć i jeszcze większej frustracji.

Przed rozpoczęciem pierwszej konsolidacji warto poświęcić czas na znalezienie odpowiednich narzędzi informatycznych, które zapewnią danym bezpieczeństwo, ułatwią weryfikację liczb w dokumentach źródłowych i raportach finalnych, i które będą wspomagać zarządzanie całym procesem Financial Consolidation.

 

 

Jakie narzędzia pomagają w stworzeniu skonsolidowanego sprawozdania finansowego?

 

Jeśli ktoś się uprze i będzie bardzo chciał, to dla małej lokalnej grupy kapitałowej skonsolidowane sprawozdanie finansowe sporządzi w excelu. W przypadku większych grup, szczególnie o zasięgu międzynarodowym, skala problemu szybko rośnie. Istotne okazują się np. różnice w formatach danych, lokalnych ustawieniach w systemach operacyjnych, czy obsługiwanych standardach rachunkowości. Dobre narzędzie informatyczne powinno być na tyle elastyczne, aby poradzić sobie nie tylko z takimi zagadnieniami, ale także mieć wbudowane mechanizmy zapewniania bezpieczeństwa danych oraz kontroli uprawnień dla użytkowników.

Z punktu widzenia informatyki, w sprawozdaniach skonsolidowanych kluczowym pojęciem jest agregacja danych. Procesy pobierania danych, ich oczyszczania i przetwarzania doskonale nadają się do zautomatyzowania. Technologie takie, jak OCR (Optical Character Recognition), uczenie maszynowe ML (Machine Learning), czy sztuczna inteligencja AI (Artificial Intelligence) doskonale się sprawdzają w tego typu zadaniach, bez względu na to, czy są to dane ustrukturyzowane, czy bez wyraźniej struktury. Boty wykonają najbardziej żmudną i nużącą część pracy, ale człowiek także się przydaje, chociażby ze względu na różnorodność korekt konsolidacyjnych. Ktoś musi podejmować decyzje w najbardziej problematycznych, choć incydentalnych sytuacjach.

Każdy, kto choć raz zmierzył się z zadaniem zbudowania skonsolidowanego sprawozdania finansowego doceni chociażby fakt, że system informatyczny dokona automatycznego przeniesienia danych ze skonsolidowanego bilansu zamknięcia do skonsolidowanego bilansu otwarcia następnego okresu rozrachunkowego z uwzględnieniem zarówno danych pochodzących z oryginalnych sprawozdań finansowych jednostek objętych konsolidacją, jak i korekt konsolidacyjnych. Jest to olbrzymia oszczędność czasu i wysiłku, którego wymagało powtórzenie korekt konsolidacyjnych z lat ubiegłych.

Programy wspomagające tworzenie sprawozdań skonsolidowanych nie są potrzebne non stop. Dlatego warto z nich korzystać na zasadach SaaS (Software as a Service), z rozwiązań chmurowych, które mają większe możliwości optymalizacji kosztów usług IT.

 

 

Jak zoptymalizować proces konsolidacji sprawozdania finansowego?

 

Sprawnie i szybko przeprowadzona konsolidacja sprawozdań finansowych to oczywista oszczędność czasu, zasobów i środków działów raportowania. Warto zatem się pochylić nad przebiegiem całego procesu, nad wyszukaniem i usunięciem wąskich gardeł w przepływie informacji i pracy oraz miejsc, gdzie powstaje najwięcej błędów. Często bardzo pomocne staje się samo wdrożenie systemu informatycznego wspomagającego pracę działów finansowych, controllingowych i ogólnie sprawozdawczych. Jest wtedy okazja do namysłu i refleksji, co można zrobić lepiej. Na dodatek oprogramowanie jest tworzone na bazie najlepszych praktyk biznesowych i warto czasami dostosować własne metody do funkcjonalności i procesów obsługiwanych przed rzetelnie wybrany system IT.

W pierwszej kolejności należy wyeliminować manualne uzgadnianie rozliczeń w grupie kapitałowej i ręczne wielokrotne wprowadzanie danych oraz przeliczanie walut. Manualna praca człowieka to główne miejsce generowania trudnych do znalezienia błędów. Pomocne jest także wyeliminowanie arkuszy kalkulacyjnych, które często mają dużą liczbę tabel, niejasne opisy, a na dodatek ich aktualizacja zajmuje dużo czasu. Brak konsolidacji danych zarządczych wydłuża proces tworzenia skonsolidowanego sprawozdania finansowego tak samo, jak ręcznie liczone korekty, czy brak kompletności ujawnień.

Dostępne na rynku aplikacje pozwalają na prowadzenie archiwum dokumentów pomocniczych, na budowę centralnego rejestru danych finansowych, który można w dowolnym momencie poddać badaniu lub weryfikacji tak, aby rozstrzygnąć, czy rzeczywiste praktyki są zgodne z polityką i standardami rachunkowości spółki. Dostępność danych źródłowych i dokumentów pomocniczych bardzo ułatwia przejście audytów i ogranicza czas i środki niezbędne do ich pozytywnego zaliczenia.

Robotyzacja w tym obszarze sprawozdawczości dopiero raczkuje, ale jest to doskonały poligon do rozwijania narzędzi, które w niedalekiej przyszłości radykalnie zmienią i przyśpieszą procesy tworzenia skonsolidowanych sprawozdań finansowych.

[i] https://pl.wikipedia.org/wiki/Pismo_klinowe

[ii] https://poradnikprzedsiebiorcy.pl/-zasady-rachunkowosci-jako-podstawa-prowadzenia-ksiag-rachunkowych

Globalizacja rynku wymaga, aby wiedza w danej dziedzinie była stale rozwijana i doskonalona, a następnie przekazywana do wszystkich oddziałów firmy w różnych krajach. Dzięki temu możliwy jest nie tylko rozwój nowoczesnych technologii na światowym poziomie, ale i wypracowanie najwyższych standardów realizacji określonej usługi. Zarządzanie tego typu specjalistyczną wiedzą odbywa się za pośrednictwem tzw. Centers of Excellence (COE), czyli centrów doskonałości.  

 

 

Center of Excellence (COE) – co to jest? W jakich przedsiębiorstwach warto stworzyć COE?

 

COE (Center of Excellence lub centrum doskonałości) to jednostka zrzeszająca dedykowaną grupę specjalistów, których misją jest zapewnienie firmie dostępu do pożądanych, lecz często deficytowych funkcji, kompetencji i umiejętności. Zajmują się oni nie tylko szlifowaniem wiedzy w określonej dziedzinie, ale i standaryzacją najlepszych praktyk podczas wdrażania rozwiązania na szeroką skalę. Nadają oni również kierunek rozwoju swojej specjalności.

 

Według firmy Gartner COE istnieją, aby przekuć dostępne zasoby i fachową wiedzę w dyscyplinę, która będzie w stanie dostarczyć wartość na światowym poziomie. Łączą one zatem aspekt naukowy z nadzorem nad danym zagadnieniem. Mogą przy tym mieć różny charakter (stacjonarny lub wirtualny) i dotyczyć rozmaitych obszarów (wyróżnić można między innymi centrum doskonałości IT czy po prostu centrum doskonałości badań).

 

Dla przykładu, przedstawiciele różnych funkcji związanych z marketingiem kilku linii produktów mogą zrzeszyć się i stworzyć COE celem zaprojektowania najlepszego w swojej klasie systemu  obsługi klienta, który będzie korzystał ze spersonalizowanych treści. Będą zatem skupiać się na wypracowaniu najlepszych praktyk dla wszystkich zaangażowanych zespołów, zbierając od nich wszelkie możliwe dane i wnioski.

 

Z racji tego, że oficjalne stanowisko COE zakłada również proces szerzenia specjalistycznej wiedzy w całej firmie (niezależnie od jednostek biznesowych czy lokalizacji), centra doskonałości odnoszą szczególe sukcesy w obszarach operacyjnych czy związanych z IT. Często są więc komórkami tworzonymi wewnątrz dużych organizacji, które zajmują się rozwojem nowoczesnych technologii, takich jak:

 

 

 

Jakie są główne zadania centra doskonałości? COE a C4E

 

Wraz ze swoją ewolucją, COE zaczęły wyznaczać sobie różne misje. Niektóre z nich miały charakter taktyczny, inne zaś bardziej strategiczny. Obecnie oscylują one zwykle wokół jednego z trzech zadań, a mianowicie prowadzenia firmy, jej rozwoju lub transformacji.

 

W pierwszym z przypadków działalność COE obejmuje kwestie związane z wydajnością przedsiębiorstwa i wywieraniem wpływu na jego wyniki finansowe. Zajmuje się ono wówczas zmniejszeniem kosztów administracyjnych czy wsparciem operacyjnych decyzji. Wypracowane usprawnienia dotyczyć będą zatem raportowania wydatków i księgowości podatkowej (finanse), list płac oraz benefitów (HR), a nawet infrastruktury sieciowej (IT).

 

Centra doskonałości, których podstawowym zadaniem jest rozwój organizacji pracują z kolei nad poprawą jej skuteczności i produktywności. Ich głównymi celami będą więc zwiększenie przewagi konkurencyjnej, oszczędność kosztów czy optymalizacja usług wewnętrznych. Dokonują tego między innymi z użyciem analizy biznesowej i konsultingu. Zajmują się także tworzeniem aplikacji.

 

Wreszcie, centra doskonałości które są odpowiedzialne za transformację firmy mają za zadanie napędzać innowacje oraz odkrywać nowe możliwości, rynki, produkty i/lub modele biznesowe. Będą więc one zrzeszać wyspecjalizowane grupy badawcze.

 

Wspominając o zadaniach, z którymi mierzy się COE warto również wspomnieć o tzw. Center for Enablement (C4E), które jest jednym z modeli operacyjnych IT. Nie jest to jednak narzędzie do zarządzania, lecz struktura zorientowana na gromadzenie zasobów i interfejsów API. Jej głównym celem jest szybsze wdrażanie nowych rozwiązań za pomocą zebranej wiedzy i najlepszych z wypracowanych praktyk.

 

 

Jak wygląda struktura Center of Excellence?

 

Jak podaje portal KwF, „mechanizm przenoszenia procesów do Business Center of Excellence (BCoE) zakłada, że działania w obszarze styczności z klientem, tzw. front office, zostają oddzielone od zadań back office. Te pierwsze odbywają się w krajowej lub globalnej sieci obsługi, te drugie mogą być prowadzone gdzie indziej. Mogą przy tym odzwierciedlać strukturę firmy-matki, tworząc centralę (ang. headquaters), w której powstają wspomniane usprawnienia procesowe, oraz jej filie w różnych krajach”.

 

Centra doskonałości stanowią bowiem w zamyśle odrębne twory i nie są częścią jednostek biznesowych, którym służą. Jest to zabieg celowy, mający na celu zapewnienie maksymalnej elastyczności we wdrażaniu COE w całej organizacji, które to powinno być częścią strategii firmowej. Co ciekawe, termin „centrum doskonałości” jest często traktowany jako parasolowy i niesłusznie używany w odniesieniu do innych podmiotów, takich jak Shared Services Center czy Capability Center.

 

 

Jak stworzyć COE w firmie?

 

Aby stworzenie COE było możliwe, konieczne jest zaangażowanie sponsorów wykonawczych, którzy zapewniać będą stałe wsparcie finansowe zarówno na poziomie budżetu operacyjnego, jak i planowania strategicznego. Nie obejdzie się również bez interdyscyplinarnego zespołu, którego skład zależeć będzie od podstawowego celu danego centrum.

Finalnie w skład COE wchodzą na ogół wewnętrzni i zewnętrzni eksperci merytoryczni, a także interesariusze ze zróżnicowanym spojrzeniem na biznes (tj. procesy, grupy funkcjonalne, linie produktów, itp.) Ponadto zaangażować można pracowników o wysokim potencjale w danej dziedzinie, którzy przejawiają zainteresowanie i entuzjazm w stosunku do całego przedsięwzięcia. Ważne jest jednak, aby były to osoby, które mają zdolność uczenia się i udowodniły wcześniej, że potrafią „dowozić” wyznaczone im cele.