Intelligent Numbering – wady i zalety stosowania inteligentnego numerowania w produkcji?

Rakieta Saturn V, która zawiozła ludzi Księżyc składała się z ponad 3 mln części[i]. Najpopularniejszy na świecie samolot pasażerski Boeing 737 to jakieś 600 000 części[ii], a typowy samochód to ledwie 30 000 części. Widać zatem, że bez wydajnego i dobrze zaplanowanego systemu numerowania części nie jest możliwa produkcja jakiegokolwiek złożonego wyrobu przemysłowego. Nic dziwnego, że inżynierowie już od dekad głowią się nad tym, jak sobie poradzić z tym problemem.

 

Nowy produkt to często tysiące części do zaprojektowania, obszerna dokumentacja śledząca zmiany i liczne modyfikacje bibliotek elementów składowych. Zarządzanie takimi procesami jest złożone i kosztowne. Ich fundamentem jest sprawny schemat numerowania części, bez którego nie może działać produkcja.

 

 

Intelligent Numbering – na czym polega inteligentne numerowanie w produkcji?

 

W zasadzie istnieją dwie szkoły numerowania części. Pierwsza z nich, nazwijmy ją szkołą „Inteligentnego Numerowania” zakłada, że numer, czy raczej symbol części w inteligentny sposób powinien opisywać daną część, jej podstawowe przeznaczenie, cechy, wariant, odmianę itp. Druga szkoła zwolenników prostoty i efektywności może nosić nazwę „Prostego Numerowania”. Jej zwolennicy używają po prostu liczb o długości najczęściej do pięciu lub siedmiu cyfr i sekwencyjne, po kolei numerują części, niezależnie od tego czym one są i jakie jest ich przeznaczenie.

Jeśli fabryka części elektronicznych jest zwolennikiem pierwszej szkoły, to oznaczenie kondensatora elektrolitycznego do montażu powierzchniowego o pojemności 1000 μF, tolerancji 10% i napięciu pracy 250 V, w siódmej odmianie produktowej może mieć np. formę: COND-SM-1000-10-250-07. Ten sam wyrób w konkurencyjnej firmie, która reprezentuje „Proste numerowanie” może być oznaczony po prostu jako 132764. Kolejny numer może dotyczyć rezystora, układu scalonego, czy transformatora, nie ma to żadnego znaczenia.

 

Jak widać, w szkole „Inteligentnego Numerowania” numer części może potencjalnie obejmować praktycznie wszystko: wymiary fizyczne, materiały i właściwości, typy plików projektowych, ograniczenia środowiskowe, zgodność z umowami i przepisami, identyfikatory klienta lub projektu, ograniczenia licencyjne lub prawne, zasady postępowania księgowego, okresy konserwacji i serwisowania, procedury kontrolne i testowe i wiele innych atrybutów. W efekcie inteligentny numer części może być dłuższy niż jej opis.

 

 

Czy inteligentne numerowanie na produkcji jest lepsze od zwykłego numerowania produktów?

 

W teorii każdy system numerowania, który jednoznacznie i spójnie identyfikuje części w całym cyklu ich życia jest jednakowo dobry. Nowy numer pojawia się nie tylko z nową częścią, ale także w sytuacji, gdy zmiany w produkcji wpływają na formę, parametry, czy pełnioną funkcję danej części. Dobrze zaprojektowany system numerowania pozwala na odróżnienie części, jeśli różnice miedzy nimi są istotne, jak i pomijanie cech nieistotnych np. w procesie zaopatrzenia lub produkcji.

Inteligentne numerowanie to głównie lepsza wydajność wyszukiwania. Dzięki inteligentnej numeracji można grupować podobne części w dokumentacji projektowej lub arkuszach kalkulacyjnych, w których mechanizmy filtrowania znacznie ułatwiają odnalezienie konkretnej części. Również fizyczne jej zlokalizowanie w magazynie jest prostsze, bo szukając np. kondensatorów łatwo dostrzec etykiety rozpoczynające się np. od „COND”. Dzięki inteligentnemu numerowaniu łatwiejsza jest identyfikacja części. Technik znający system oznaczeń może łatwo wyszukać tę część, która spełnia jego potrzeby. Tu docieramy do sedna problemu – na funkcjonowanie systemu numerowania części największy wpływ ma jego najsłabsze ogniwo, czyli człowiek.

 

 

Jakie są największe problemy inteligentnego numerowania?

 

Problemów jest bez liku[iii]. Pierwszy z nich wynika z faktu, że system jest konstruowany na bazie wstępnych założeń, a praktyka i codzienne decyzje nieuchronnie powodują, że pierwotna kategoryzacja staje się z czasem przestarzała. Wszyscy pracownicy, którzy korzystają z systemu muszą rozumieć i utrzymywać logikę systemu numerowania części, a zakresy numerów grup części muszą być zaplanowane z góry. Np. problematyczna staje się sytuacja, jeśli na oznaczenie kategorii produktu zaplanowano dwie cyfry, a pojawia się np. setna kategoria.

Na to wszystko nakładają się potencjalne błędy w kodowaniu – nietrudno sobie wyobrazić, że ktoś na bezpiecznik 10 A naniesie kod 1.0 A, a wtedy konsekwencje mogą być naprawdę poważne. W przypadku numerów nanoszonych na gotową część o wysokiej wartości np. przez grawerowanie lub trawienie na odlewach precyzyjnych, usunięcie lub poprawienie oznakowania może się wiązać albo ze znacznymi kosztami, albo wręcz ze zniszczeniem samej części. Jak by na to nie spojrzeć, koszt zmian technicznych w procesie renumeracji nieprawidłowo oznaczonej części może z łatwością zniweczyć wszelkie oczekiwane korzyści z inteligentnego systemu numerowania części.

Bardzo kłopotliwe są pomyłki w oznakowaniu szeregów elementów do siebie podobnych typu uszczelki, śruby, rezystory, podzespoły elektronicznie, gdzie jedno złe przypisanie numeru części blokuje przyszłe przypisania, a to potem wymaga zmian w numeracji całej serii.

Konia z rzędem temu, kto rozstrzygnie czy dioda LED to tylko dioda, czy może źródło światła? Może to emiter albo urządzenie złączowe? Czy za kilka lat taki opis będzie poprawny?

Częstym problemem są niejednoznaczne i nakładające się nazwy kategorii typu „różne”, „osprzęt”, „wyposażenie” itp. Dodanie nowego parametru do istniejącego schematu numeracji może wymagać aktualizacji numerów wszystkich powiązanych części, co radykalnie zmniejsza trwałość i efektywność inteligentnego systemu numeracji części.

 

Cały system może się też okazać nadmiernie skomplikowany i rozbudowany. Jeśli w numerze części zakodowano materiał, z którego część jest wykonana, to mimo jej pełnej wymienności, użycie innego stopu, czy metali pociąga za sobą nowe oznaczenie, które de facto jest zbędne. Stopień komplikacji rośnie, jeśli firma wchłonie inną, albo uzna, że potrzebny jest nowy – wtedy koszty i czas na wdrożenie rosną w zastraszającym tempie. Pracownicy zawsze będą wywierać presję, aby numeracja była rozbudowywana, bo każdy z nich szuka innego fragmentu oznakowania z potrzebną mu informacją. Do tego niektóre kategorie będą przepełnione, będą dodawane nowe, aby odróżniać części do siebie podobne, a w konsekwencji początkowo inteligentny system numerowania części w produkcji staje się tak skomplikowany, że żadna inteligencja ani podręczna ludzka pamięć nie pomoże.

 

Zniwelowanie tych niedostatków i zredukowanie liczby błędów wymaga bądź to dodatkowych zasobów ludzkich, czyli kompetentnego i dobrze wyszkolonego zespołu fachowców, bądź zautomatyzowania i stałego monitorowania całego procesu numerowania przez specjalistyczne oprogramowanie. Zespół zajmujący się przydzielaniem numerów dużo czasu spędzi na szkoleniach, poznawaniu asortymentu i technologii produkcji, a wdrożenie nowego pracownika będzie długotrwałe i kosztowne. Sam proces przydzielania numeru staje się często wąskim gardłem, bo wymaga czasu, dyskusji i uzgodnień pomiędzy wieloma zespołami w firmie.

 

 

Intelligent Numbering a RPA – czy do numerowania można wykorzystać zrobotyzowaną automatyzację procesów?

 

Wyobraźmy sobie, że w magazynie podzespołów koniecznych do utrzymania produkcji nie ma części z danym numerem. Produkcja teoretycznie staje. Ale identyczne części z innym numerem są jednak są w magazynie. Jeśli w odpowiednim momencie problem zostanie wykryty i skorygowany, to pracy nie trzeba zatrzymywać. W praktyce tego typu rozwiązania już działają. Mindbox w Danone Polska wdrożył narzędzia RPA (Robotic Process Automation), które szybko i bezbłędnego korygują wszelkie usterki związane ze zmianami kodów materiałowych, które utrudniają poprawną realizację zamówień. Pracę wykonywaną przez sześcioosobowy zespół zastąpiono po prostu botem.

W ogólności, pracę z inteligentnym systemem numerowania części, gdzie dopuszcza się możliwość wystąpienia pomyłki, muszą wspierają programy RPA, które są w stanie zastąpić człowieka i odczytać, zbadać poprawność i w razie potrzeby skorygować w dokumentacji nieprawidłowe oznaczenia.

 

 

Jak wdrożyć inteligentne numerowanie w przedsiębiorstwie?

 

Wybierając schemat numerowania części w produkcji należy uwzględnić cele firmy, jej kulturę organizacyjną i techniczną oraz specyfikę produkcji. Liczy się także stopień informatyzacji i automatyzacji, możliwości posiadanego systemu ERP i jego podsystemów PLM (Product Lifecycle Management) oraz zarządzania jakością (QMS – Quality Management System).

Warto postawić zasadnicze pytanie – do czego będą używany numery części w całej organizacji? Czy planowany system Inteligent Numbering będzie wspierać procesy biznesowe? Jeden z najnowocześniejszych systemów ERP – Kinetic firmy Epicor pozwala na charakteryzowanie części za pomocą opisów, linii produktowych, typów i szerokiej gamy atrybutów. To ich można używać do wyszukiwania i identyfikowania produkowanych części bez konieczności wdrażania inteligentnego schematu numerowania. Nie bez znaczenia jest informacyjny zasięg numerowania – czy dotyczy on jedynie samej organizacji, czy będą z niego korzystać także kontrahenci?

Kluczem i sednem udanego wdrożenia schematu numerowania części jest prawidłowe zaplanowanie procesu generowania nowego numeru części. Musi on zapewnić nie tylko brak duplikatów, czyli różnych symboli tej samej części, ale także zapobiec przydzielaniu tego samego numeru dla różnych części. Jakiekolwiek usterki w działaniu tego procesu będą powodować poważne problemy, takie jak opóźnienia na linii produkcyjnej, zamieszanie w zestawieniach materiałowych (BOM – Bill of Materials) i nieprawidłowe zamawianie części. W efekcie – straty finansowe, czasami bardzo dotkliwe

[i] https://www.quora.com/Why-did-the-Saturn-V-rocket-require-so-many-parts-around-3-000-000-What-kind-of-systems-are-running-that-would-require-such-complexity-Does-all-of-the-original-documentation-for-construction-maintenance-operating-procedures-still-exist

[ii] http://www.b737.org.uk/production.htm

[iii] https://www.arenasolutions.com/wp-content/uploads/eBook-is-your-part-numbering-scheme-costing-you-millions.pdf

Czy znasz może film fantastycznonaukowy z 1968 roku w reżyserii Stanley’a Kubricka, zatytułowany „2001: Odyseja Kosmiczna” lub książkę Arthura C. Clarke’a o tym samym tytule? Jeśli tak, to zapewne zapadł ci też w pamięć komputer Hal 9000, najbardziej zaawansowany projekt Sztucznej Inteligencji, wyposażony w intelekt i system emocjonalny na poziomie człowieka. Wynikiem otrzymania sprzecznych poleceń, które starał się jak najlepiej zinterpretować, zabił prawie wszystkich członków załogi statku Discovery One, gdzie pełnił funkcję kontrolera.  Przetrwał jedynie dowódca, któremu udało się wyłączyć wyższe funkcje Hal’a.

 

Rzeczywistość jest o wiele bardziej prozaiczna, ale i optymistyczna. Choć taka forma Sztucznej Inteligencji jest daleka do osiągnięcia, nie należy się również obawiać buntu maszyn. Człowiek coraz lepiej radzi sobie bowiem z robotami software’owymi, w tym wszelkiego rodzaju asystentami wspomaganymi uczeniem maszynowym. Wysyp nowych technologii tego typu może jednak powodować, że coraz trudniej jest je od siebie odróżnić. Śpieszymy zatem z pomocą i wyjaśnieniami, dzisiaj w zakresie AI vs IA.

 

 

AI (Artificial Intelligence) vs IA (Intelligent Assistance) – czym się różnią? AI czy IA – co lepsze dla przedsiębiorstwa?

 

Sztuczna inteligencja (SI lub AI) i tzw. inteligentne systemy wspomagania (IA) stanowią dwie strony tego samego medalu, które odróżnia sposób, w jaki użytkownicy korzystają z obu technologii. Pod pewnym względami będą to więc bardzo podobne do siebie rozwiązania, zaś pod innymi – niezwykle odmienne.

 

Krótko mówiąc, maszyny AI odtwarzają i naśladują zachowania ludzi, podczas gdy rozwiązania IA mają za zadanie pomagać tym ostatnim. Idąc dalej tym tropem, SI rozwija możliwości kognitywne tzw. inteligentnych agentów, którzy funkcjonują w ramach wstępnie zdefiniowanych parametrów. Ich zdolności mierzone są zaś przez pryzmat tego, jak radzą sobie z rozwiązywaniem problemów, nauką nowych rzeczy czy przetwarzaniem języka naturalnego oraz wykorzystywane przez IA w służbie ludzkości.

 

Jeszcze bardziej upraszczając, termin „Intelligent Assitance” odnosić będzie się więc do wszystkich technologii stworzonych przez człowieka na jego użytek i działających według wyznaczonych przez niego wytycznych. Określenie „Artificial Intelligence” obejmuje zaś rozwiązania zaprojektowane przez ludzi i korzystające z dostarczonych przez nich danych do tego, aby wydedukować, jakie działania są im potrzebne i je wdrożyć bez udziału osób trzecich.

 

Dylematy spod znaku „AI vs IA” (czy „IA vs AI”) często nie będą mieć więc racji bytu, zwłaszcza gdy pojawi się kolejny wspólny mianownik, taki jak na przykład inteligentna automatyzacja. W niektórych firmach „wystarczą” bowiem rozwiązania spod znaku Intelligent Assistance (dedykowane aplikacje, rozpoznawanie głosu, rozsuwane drzwi, kontrola temperatury czy urządzenia  IoT). Inne przedsiębiorstwa skorzystają zaś na tym, jeśli pójdą o krok dalej i rozszerzą ich podstawowy silnik. AI może zatem zasilać IA, zaś IA być częścią AI.

 

W podjęciu decyzji odnośnie tego, w jaką technologię czy technologie inwestować na dany moment nie bez znaczenia będą posiadane i planowane w organizacji innowacje (takie, jak na przykład Chmura). W przypadku automatyzacji i robotyzacji niezbędne będzie wcześniejsze sprawdzenie ich opłacalności. Jeśli zaś tego typu rozwiązania zostały już wdrożone, można wykorzystać je do wykrycia procesów biznesowych, które również pomoże ustalić, czy dalsze „inteligentne” usprawnienia będą wskazane.

 

Sprawdź również teksty na pokrewne tematy:

Automatyzacja vs AI

Rozszerzona inteligencja

Demokratyzacja IT

 

 

Czy IA to rzeczywiście rewolucja? Czy aktualne IA to przyszłościowe rozwiązanie?

 

Jeśli chodzi o samą koncepcję, Intelligent Assistance nie jest niczym nowym. Można by się nawet pokusić o stwierdzenie, że prapoczątki tego typu wsparcia sięgają aż do momentu, w którym wynalezione zostało… koło. Jest ono w końcu dziełem człowieka (stworzonym po to, by mu pomóc), a zarazem jedną z pierwszych form technologii.

 

Czy jednak IA to rozwiązanie przyszłościowe? Oczywiście, jeśli tylko będzie napędzane uczeniem maszynowym. W końcu już dziś możemy rozmawiać z obiektami w naszych domach, które rozpoznają głosy, rozumieją pytania, a nawet i przewidują potrzeby. Giganci cyfrowi (Amazon, Apple, Google i Microsoft) będą więc kontynuować walkę o najlepszy human interface w dobie 5G. Powinni również zadbać o to, aby użytkownicy tych rozwiązań mieli poczucie, że nie stanowią one zagrożenia dla ich prywatności.

 

 

Które rozwiązania IA są aktualnie najpopularniejsze?

 

Od jakiegoś czasu prym w obszarze IA wiodą asystenci głosowi. Do najpopularniejszych z nich należą oczywiście Siri, Alexa i Google Assistant. Choć wciąż brzmią jak roboty i daleko im jeszcze do filmowych wyobrażeń, zakres ich umiejętności stale się poszerza. Oprócz inicjowania połączeń, czytania książek i umawiania spotkań, potrafią między innymi zlokalizować zagubione urządzenia, sprawdzić warunki na drodze czy zrobić zakupy online. Alexa wykazuje się nawet poczuciem humoru!

 

Największym obszarem do pracy, jeśli chodzi o asystentów głosowych są natomiast dialogi z użytkownikami. Próbują oni co prawda interpretować kontekst i szukać odpowiedzi w oparciu o bazę danych, która powstała w wyniku wcześniejszych interakcji, lecz w większości przypadków jest to nadal dalekie od perfekcji, oferując duże pole do popisu dla usprawnień Machine Learningowych. Narzędzia typu Google Duplex pozostają jednak dowodem na to, że ambicje amerykańskich przedsiębiorstw informatycznych są w tym zakresie bardzo duże.

 

Sprawozdania finansowe towarzyszą człowiekowi praktycznie od zawsze. Najstarsze zabytki sumeryjskiego pisma klinowego z IV w. p.n.e. dotyczą spraw księgowych i prowadzonego inwentarza[i]. Było zatem dość czasu, aby metody prowadzenia ksiąg rachunkowych i sporządzania sprawozdań dla fiskusa dopasować do aktualnego stanu rozwoju gospodarki, firm i ich wzajemnych powiązań. Na przestrzeni lat udało się wypracować uniwersalne i nadrzędne zasady rachunkowości[ii], które pozwalają na dokładny opis praktycznie każdej organizacji gospodarczej.

 

 

Financial Consolidation, czyli skonsolidowane sprawozdanie finansowe – na czym polega i do czego służy?

 

Najprościej mówiąc, skonsolidowane sprawozdanie finansowe to obraz stanu finansów i kondycji grupy kapitałowej. Grupę kapitałową tworzą powiązane ze sobą, prawnie samodzielne podmioty gospodarcze w postaci spółek kapitałowych. Relacja powiązania kapitałowego oznacza, że podmiot nadrzędny posiada udziały lub akcje w podmiotach podporządkowanych, może powoływać władze spółek zależnych lub kierować ich finansami i działaniami operacyjnymi. W każdej grupie kapitałowej wyróżnia się: jedną spółkę dominującą i spółki zależne, które są przez nią kontrolowane, i to właśnie spółka dominująca jest zobowiązana do sporządzenia skonsolidowanego sprawozdania finansowego.

Obejmuje ono zbiorczo dane i informacje o spółce dominującej i organizacjach od niej zależnych, bez względu na ich siedzibę i położenie w hierarchii grupy.

Sprawozdanie skonsolidowane musi być tak przygotowane, jakby grupa kapitałowa stanowiła jedną jednostkę. Oznacza to konieczność połączenia sprawozdań finansowych spółek wchodzących w skład grupy kapitałowej poprzez zsumowanie odpowiednich pozycji sprawozdań finansowych jednostki dominującej i spółek zależnych, z uwzględnieniem odpowiednich wyłączeń wynikających chociażby z transakcji wewnątrzgrupowych oraz korekt.

Obowiązek konsolidacji sprawozdań finansowych jest szczególnie ważny dla fiskusa. Informacje, które wynikają z takiego sprawozdania pozwalają ustalić, np. czy grupa przedsiębiorstw kontrolowana przez tych samych właścicieli nie ma dominującego udziału w rynku lub monopolu.  Analiza skonsolidowanego sprawozdania finansowego może wykazać, że np. zyski są transferowane do któregoś z rajów podatkowych albo ujawnić osobliwe transakcje wewnątrzgrupowe.

 

 

Jakie są elementy skonsolidowanego sprawozdania finansowego?

 

Ustawa o rachunkowości dość precyzyjnie określa składniki skonsolidowanego sprawozdania finansowego. Musi ono zawierać:

  • skonsolidowany bilans;
  • skonsolidowany rachunek zysków i strat;
  • skonsolidowany rachunek przepływów pieniężnych;
  • zestawienia zmian w skonsolidowanym kapitale własnym;
  • informacje dodatkowe obejmujące wprowadzenie do skonsolidowanego sprawozdania finansowego oraz dodatkowe informacje i objaśnienia istotne dla zrozumienia całości sprawozdania.

Z reguły do takiego skonsolidowanego sprawozdania finansowego dołącza się dużo bardziej interesujące sprawozdanie z działalności całej grupy kapitałowej. Pokazuje ono stan majątkowy i sytuację finansową jednostki wraz z oceną uzyskiwanych efektów i wskazaniem czynników ryzyka i opisem zagrożeń. W takim sprawozdaniu pokazuje się wskaźniki finansowe i niefinansowe, łącznie z informacjami dotyczącymi zagadnień środowiska naturalnego i zatrudnienia, a także dodatkowe wyjaśnienia do kwot wykazanych w sprawozdaniu finansowym. Stałym elementem są także informacje o udziałach czy akcjach własnych posiadanych zarówno przez jednostkę dominującą, jak i jednostki wchodzące w skład grupy kapitałowej oraz osoby działające w ich imieniu.

Zatem sytuacja jest dość klarowna – wiadomo co ma się znaleźć w skonsolidowanym sprawozdaniu finansowym, jakie informacje trzeba zgromadzić od spółek zależnych, ale już sama realizacja procesu konsolidacji nie jest taka prosta. Problemów nie brakuje.

 

 

Jak przebiega proces konsolidacji sprawozdań finansowych?

 

Proces konsolidacji sprawozdań finansowych musi być dobrze i odpowiednio wcześnie zaprojektowany i zainicjowany. Bez tego chaos informacyjny i opóźnienia mogą przyczynić się do niepowodzenia całego przedsięwzięcia. Musi być jasne kto i na jakim etapie będzie zaangażowany w proces, jaka będzie kolejność poszczególnych czynności związanych z gromadzeniem, przetwarzaniem i badaniem danych, jakie będą wzory dokumentów i wreszcie jaka będzie polityka bezpieczeństwa – kto będzie miał dostęp do danych i w jakim zakresie. Dobrze opisany i udokumentowany proces konsolidacji jest warunkiem koniecznym końcowego sukcesu.

W warstwie merytorycznej należy zadbać o spójne polityki księgowe w ramach całej grupy. Bez tego można oczekiwać trudności w agregacji danych i ingerencji audytora grupy. Zatem należy przygotować zalecenia w zakresie różnic w ujęciu transakcji zgodnie z polityką grupową a stosowaną przez spółkę polityką lokalną, instrukcje wypełniania formularzy i jeśli to możliwe – jednolity plan kont.  Dzięki temu można uzyskać spójne podejście do księgowania zdarzeń gospodarczych na tych samych kontach, a także poprzez mapowanie kont do pozycji sprawozdawczych, spójną ich prezentację w sprawozdaniu skonsolidowanym. Oszczędza to mnóstwo czasu i energii pracowników.

Wszystkie działania muszą być odpowiednio ułożone na osi czasu. Jeśli znany jest termin spełnienia  obowiązku konsolidacji sprawozdań finansowych, to planowanie wstecz jest najbardziej efektywną metodą planowania. Jednym z warunków powodzenia jest przedyskutowanie harmonogramu z  całym zespołem zajmującym się przygotowaniem sprawozdania i omówienie potencjalnych zagrożeń. Przyjęcie sensownego marginesu bezpieczeństwa pozwoli osobom odpowiedzialnym na spokojny sen. Praca pod zbyt dużą presją czasu prowadzi najczęściej do błędów, które trudno znaleźć i jeszcze większej frustracji.

Przed rozpoczęciem pierwszej konsolidacji warto poświęcić czas na znalezienie odpowiednich narzędzi informatycznych, które zapewnią danym bezpieczeństwo, ułatwią weryfikację liczb w dokumentach źródłowych i raportach finalnych, i które będą wspomagać zarządzanie całym procesem Financial Consolidation.

 

 

Jakie narzędzia pomagają w stworzeniu skonsolidowanego sprawozdania finansowego?

 

Jeśli ktoś się uprze i będzie bardzo chciał, to dla małej lokalnej grupy kapitałowej skonsolidowane sprawozdanie finansowe sporządzi w excelu. W przypadku większych grup, szczególnie o zasięgu międzynarodowym, skala problemu szybko rośnie. Istotne okazują się np. różnice w formatach danych, lokalnych ustawieniach w systemach operacyjnych, czy obsługiwanych standardach rachunkowości. Dobre narzędzie informatyczne powinno być na tyle elastyczne, aby poradzić sobie nie tylko z takimi zagadnieniami, ale także mieć wbudowane mechanizmy zapewniania bezpieczeństwa danych oraz kontroli uprawnień dla użytkowników.

Z punktu widzenia informatyki, w sprawozdaniach skonsolidowanych kluczowym pojęciem jest agregacja danych. Procesy pobierania danych, ich oczyszczania i przetwarzania doskonale nadają się do zautomatyzowania. Technologie takie, jak OCR (Optical Character Recognition), uczenie maszynowe ML (Machine Learning), czy sztuczna inteligencja AI (Artificial Intelligence) doskonale się sprawdzają w tego typu zadaniach, bez względu na to, czy są to dane ustrukturyzowane, czy bez wyraźniej struktury. Boty wykonają najbardziej żmudną i nużącą część pracy, ale człowiek także się przydaje, chociażby ze względu na różnorodność korekt konsolidacyjnych. Ktoś musi podejmować decyzje w najbardziej problematycznych, choć incydentalnych sytuacjach.

Każdy, kto choć raz zmierzył się z zadaniem zbudowania skonsolidowanego sprawozdania finansowego doceni chociażby fakt, że system informatyczny dokona automatycznego przeniesienia danych ze skonsolidowanego bilansu zamknięcia do skonsolidowanego bilansu otwarcia następnego okresu rozrachunkowego z uwzględnieniem zarówno danych pochodzących z oryginalnych sprawozdań finansowych jednostek objętych konsolidacją, jak i korekt konsolidacyjnych. Jest to olbrzymia oszczędność czasu i wysiłku, którego wymagało powtórzenie korekt konsolidacyjnych z lat ubiegłych.

Programy wspomagające tworzenie sprawozdań skonsolidowanych nie są potrzebne non stop. Dlatego warto z nich korzystać na zasadach SaaS (Software as a Service), z rozwiązań chmurowych, które mają większe możliwości optymalizacji kosztów usług IT.

 

 

Jak zoptymalizować proces konsolidacji sprawozdania finansowego?

 

Sprawnie i szybko przeprowadzona konsolidacja sprawozdań finansowych to oczywista oszczędność czasu, zasobów i środków działów raportowania. Warto zatem się pochylić nad przebiegiem całego procesu, nad wyszukaniem i usunięciem wąskich gardeł w przepływie informacji i pracy oraz miejsc, gdzie powstaje najwięcej błędów. Często bardzo pomocne staje się samo wdrożenie systemu informatycznego wspomagającego pracę działów finansowych, controllingowych i ogólnie sprawozdawczych. Jest wtedy okazja do namysłu i refleksji, co można zrobić lepiej. Na dodatek oprogramowanie jest tworzone na bazie najlepszych praktyk biznesowych i warto czasami dostosować własne metody do funkcjonalności i procesów obsługiwanych przed rzetelnie wybrany system IT.

W pierwszej kolejności należy wyeliminować manualne uzgadnianie rozliczeń w grupie kapitałowej i ręczne wielokrotne wprowadzanie danych oraz przeliczanie walut. Manualna praca człowieka to główne miejsce generowania trudnych do znalezienia błędów. Pomocne jest także wyeliminowanie arkuszy kalkulacyjnych, które często mają dużą liczbę tabel, niejasne opisy, a na dodatek ich aktualizacja zajmuje dużo czasu. Brak konsolidacji danych zarządczych wydłuża proces tworzenia skonsolidowanego sprawozdania finansowego tak samo, jak ręcznie liczone korekty, czy brak kompletności ujawnień.

Dostępne na rynku aplikacje pozwalają na prowadzenie archiwum dokumentów pomocniczych, na budowę centralnego rejestru danych finansowych, który można w dowolnym momencie poddać badaniu lub weryfikacji tak, aby rozstrzygnąć, czy rzeczywiste praktyki są zgodne z polityką i standardami rachunkowości spółki. Dostępność danych źródłowych i dokumentów pomocniczych bardzo ułatwia przejście audytów i ogranicza czas i środki niezbędne do ich pozytywnego zaliczenia.

Robotyzacja w tym obszarze sprawozdawczości dopiero raczkuje, ale jest to doskonały poligon do rozwijania narzędzi, które w niedalekiej przyszłości radykalnie zmienią i przyśpieszą procesy tworzenia skonsolidowanych sprawozdań finansowych.

[i] https://pl.wikipedia.org/wiki/Pismo_klinowe

[ii] https://poradnikprzedsiebiorcy.pl/-zasady-rachunkowosci-jako-podstawa-prowadzenia-ksiag-rachunkowych

Globalizacja rynku wymaga, aby wiedza w danej dziedzinie była stale rozwijana i doskonalona, a następnie przekazywana do wszystkich oddziałów firmy w różnych krajach. Dzięki temu możliwy jest nie tylko rozwój nowoczesnych technologii na światowym poziomie, ale i wypracowanie najwyższych standardów realizacji określonej usługi. Zarządzanie tego typu specjalistyczną wiedzą odbywa się za pośrednictwem tzw. Centers of Excellence (COE), czyli centrów doskonałości.  

 

 

Center of Excellence (COE) – co to jest? W jakich przedsiębiorstwach warto stworzyć COE?

 

COE (Center of Excellence lub centrum doskonałości) to jednostka zrzeszająca dedykowaną grupę specjalistów, których misją jest zapewnienie firmie dostępu do pożądanych, lecz często deficytowych funkcji, kompetencji i umiejętności. Zajmują się oni nie tylko szlifowaniem wiedzy w określonej dziedzinie, ale i standaryzacją najlepszych praktyk podczas wdrażania rozwiązania na szeroką skalę. Nadają oni również kierunek rozwoju swojej specjalności.

 

Według firmy Gartner COE istnieją, aby przekuć dostępne zasoby i fachową wiedzę w dyscyplinę, która będzie w stanie dostarczyć wartość na światowym poziomie. Łączą one zatem aspekt naukowy z nadzorem nad danym zagadnieniem. Mogą przy tym mieć różny charakter (stacjonarny lub wirtualny) i dotyczyć rozmaitych obszarów (wyróżnić można między innymi centrum doskonałości IT czy po prostu centrum doskonałości badań).

 

Dla przykładu, przedstawiciele różnych funkcji związanych z marketingiem kilku linii produktów mogą zrzeszyć się i stworzyć COE celem zaprojektowania najlepszego w swojej klasie systemu  obsługi klienta, który będzie korzystał ze spersonalizowanych treści. Będą zatem skupiać się na wypracowaniu najlepszych praktyk dla wszystkich zaangażowanych zespołów, zbierając od nich wszelkie możliwe dane i wnioski.

 

Z racji tego, że oficjalne stanowisko COE zakłada również proces szerzenia specjalistycznej wiedzy w całej firmie (niezależnie od jednostek biznesowych czy lokalizacji), centra doskonałości odnoszą szczególe sukcesy w obszarach operacyjnych czy związanych z IT. Często są więc komórkami tworzonymi wewnątrz dużych organizacji, które zajmują się rozwojem nowoczesnych technologii, takich jak:

 

 

 

Jakie są główne zadania centra doskonałości? COE a C4E

 

Wraz ze swoją ewolucją, COE zaczęły wyznaczać sobie różne misje. Niektóre z nich miały charakter taktyczny, inne zaś bardziej strategiczny. Obecnie oscylują one zwykle wokół jednego z trzech zadań, a mianowicie prowadzenia firmy, jej rozwoju lub transformacji.

 

W pierwszym z przypadków działalność COE obejmuje kwestie związane z wydajnością przedsiębiorstwa i wywieraniem wpływu na jego wyniki finansowe. Zajmuje się ono wówczas zmniejszeniem kosztów administracyjnych czy wsparciem operacyjnych decyzji. Wypracowane usprawnienia dotyczyć będą zatem raportowania wydatków i księgowości podatkowej (finanse), list płac oraz benefitów (HR), a nawet infrastruktury sieciowej (IT).

 

Centra doskonałości, których podstawowym zadaniem jest rozwój organizacji pracują z kolei nad poprawą jej skuteczności i produktywności. Ich głównymi celami będą więc zwiększenie przewagi konkurencyjnej, oszczędność kosztów czy optymalizacja usług wewnętrznych. Dokonują tego między innymi z użyciem analizy biznesowej i konsultingu. Zajmują się także tworzeniem aplikacji.

 

Wreszcie, centra doskonałości które są odpowiedzialne za transformację firmy mają za zadanie napędzać innowacje oraz odkrywać nowe możliwości, rynki, produkty i/lub modele biznesowe. Będą więc one zrzeszać wyspecjalizowane grupy badawcze.

 

Wspominając o zadaniach, z którymi mierzy się COE warto również wspomnieć o tzw. Center for Enablement (C4E), które jest jednym z modeli operacyjnych IT. Nie jest to jednak narzędzie do zarządzania, lecz struktura zorientowana na gromadzenie zasobów i interfejsów API. Jej głównym celem jest szybsze wdrażanie nowych rozwiązań za pomocą zebranej wiedzy i najlepszych z wypracowanych praktyk.

 

 

Jak wygląda struktura Center of Excellence?

 

Jak podaje portal KwF, „mechanizm przenoszenia procesów do Business Center of Excellence (BCoE) zakłada, że działania w obszarze styczności z klientem, tzw. front office, zostają oddzielone od zadań back office. Te pierwsze odbywają się w krajowej lub globalnej sieci obsługi, te drugie mogą być prowadzone gdzie indziej. Mogą przy tym odzwierciedlać strukturę firmy-matki, tworząc centralę (ang. headquaters), w której powstają wspomniane usprawnienia procesowe, oraz jej filie w różnych krajach”.

 

Centra doskonałości stanowią bowiem w zamyśle odrębne twory i nie są częścią jednostek biznesowych, którym służą. Jest to zabieg celowy, mający na celu zapewnienie maksymalnej elastyczności we wdrażaniu COE w całej organizacji, które to powinno być częścią strategii firmowej. Co ciekawe, termin „centrum doskonałości” jest często traktowany jako parasolowy i niesłusznie używany w odniesieniu do innych podmiotów, takich jak Shared Services Center czy Capability Center.

 

 

Jak stworzyć COE w firmie?

 

Aby stworzenie COE było możliwe, konieczne jest zaangażowanie sponsorów wykonawczych, którzy zapewniać będą stałe wsparcie finansowe zarówno na poziomie budżetu operacyjnego, jak i planowania strategicznego. Nie obejdzie się również bez interdyscyplinarnego zespołu, którego skład zależeć będzie od podstawowego celu danego centrum.

Finalnie w skład COE wchodzą na ogół wewnętrzni i zewnętrzni eksperci merytoryczni, a także interesariusze ze zróżnicowanym spojrzeniem na biznes (tj. procesy, grupy funkcjonalne, linie produktów, itp.) Ponadto zaangażować można pracowników o wysokim potencjale w danej dziedzinie, którzy przejawiają zainteresowanie i entuzjazm w stosunku do całego przedsięwzięcia. Ważne jest jednak, aby były to osoby, które mają zdolność uczenia się i udowodniły wcześniej, że potrafią „dowozić” wyznaczone im cele.

Czy wiecie co to jest RPC? To oczywiście skrót od remote procedure call, czyli zdalnego wywołania procedury. Umożliwia ona programom (klientom) wysyłanie przez sieć żądań wykonania sparametryzowanych działań przez określone zdalne komputery (serwery). Jako idea pojawiła się już na początkowych etapach rozwoju rozproszonych systemów przetwarzania, czyli w latach 60-tych ubiegłego wieku, natomiast pierwsze praktyczne i od razu biznesowe zastosowania datowane są na początek lat 80-tych. Bardzo szybko pojawiały się nowe implementacje. Jedną z najpopularniejszych jest implementacja RPC na Unix zrealizowana przez firmę Sun.

Z czasem w jednak, w miarę rozwoju systemów informatycznych oraz Internetu, popularyzacją urządzeń mobilnych i eksplozją danych, pojawiła się potrzeba opracowania nowego frameworku RPC, który odpowiadałby na nowe potrzeby i wyzwania. Taka jest właśnie geneza stworzonego przez Google gRPC.

 

 

gRPC – czym jest?

 

Programiści Google już od wielu lat pracowali z architekturą mikro usługową, wieloma językami, technologiami, usługami własnymi i zewnętrznymi. Mieli przez to coraz większe trudności m.in. z uwierzytelnianiem, autoryzacją, logowaniem i monitorowaniem, co przede wszystkim wpływało na szybkość ich działania. Potrzebę zmiany zaczęli odczuwać już blisko dwie dekady temu. Dlatego przez blisko 15 lat, konsekwentnie rozwijano wewnętrzny framework Stubby. Celem było stworzenie implementacji RPC, która byłaby w stanie obsłużyć „skalę internetową”, w której napływające żądania liczone są w dziesiątkach miliardów na sekundę. W 2016 firma postanowiła udostępnić Stubby jako projekt open source pod nazwą gRPC.

gRPC to nowoczesny, niezwykle wydajny framework RPC, który może działać w dowolnym środowisku. Umożliwia efektywne łączenie usług w obrębie jednego centrum danych, jak również pomiędzy wieloma ośrodkami a przy tym ułatwia wiele innych rzeczy np. równoważenie obciążeń, monitorowanie czy uwierzytelnianie. Doskonale sprawdza się także podczas rozszerzania usług na urządzenia końcowe i zainstalowane na nich oprogramowanie, w szczególności na urządzenia mobilne.

Dzięki gRPC podłączanie, obsługa czy debugowanie w systemach rozproszonych staje się równie proste jak wykonywanie tych czynności lokalnie. Za rozwiązanie wszystkich problemów pojawiających się, kiedy trzeba świadczyć usługi bardzo wysokiej jakości odpowiada framework.

 

 

Jak działa gRPC?

 

Podstawowa idea pozostaje taka sama: aplikacja kliencka bezpośrednio wywołuje metodę na aplikacji działającej na serwerze jakby to był obiekt lokalny. Podobnie jak w innych implementacjach RPC, gRPC opiera się na idei definiowania usługi. Metody, które mogą być wywoływane zdalnie wraz z ich parametrami i zwrotnymi informacjami są ściśle określone. Po stronie serwera wymagany jest odpowiedni serwer gRPC, który będzie obsługiwał wywołania klienta. Po stronie klienta, działa „stub”, który udostępnia te same metody co serwer.

Co jest nowe to fakt, że klient i serwer gRPC mogą ze sobą współpracować i komunikować się tak, jakby były jednym środowiskiem, bez względu na to w jakim języku zostały napisane. Przykład podany we Wprowadzeniu na stronie gRPC.io  to serwer gRPC napisany w Javie działający z klientami napisanymi w Go, Pythonie czy Ruby.

Najważniejszym wyróżnikiem gRPC jest wykorzystanie zamiast JSON/XML jako domyślnego języka definiującego interfejs Protocol Buffers, opracowanego przez Google, niezależnego do języka programowania sposobu (a także zestawu narzędzi) na binarną serializację strukturalnych danych.

Jego użycie polega na zdefiniowaniu struktury danych jako wiadomości i zapisanie ich w pliku proto – to standardowy plik tekstowy z rozszerzeniem .proto. Każda wiadomość to porcja informacji składająca się z serii part nazwa-wartość. To tzw. pola. Następnie przy pomocy kompilatora protoc ze specjalna wtyczką tworzone są w wybranym języku klasy dostępu do danych. To prosty sposób dostępu dla każdego pola a także metody do serializacji czy parsowania całej struktury do albo z surowych bajtów.

 

 

Jakie są główne zalety i wady gRPC?

 

gRPC niesie ze sobą, w zależności od konkretnej sytuacji, wiele zalet. Skupmy się jednak na czterech podstawowych. Pierwsza, to wyjątkowo proste definiowanie usług z wykorzystaniem Protocol Buffers. Przy tym pisane tak wiadomości są o wiele mniejsze w porównaniu do JSON. Druga to możliwość szybkiego uruchomienia a później łatwego, praktycznie nieograniczonego skalowania. Do zainstalowania środowiska deweloperskiego i uruchomieniowego wystarczy jedno polecenie. Przy tym ocenia się, że gRPC jest kilkukrotnie bardziej wydajne w porównaniu do JSON. Trzecia – interoperacyjność. gRPC działa niezależnie od języka czy platformy. Automatycznie generuje potrzebne do realizacji usługi obiekty stub dla klienta i serwera. Wreszcie czwarta, to dwukierunkowa komunikacja i zintegrowana autentykacja wykorzystująca transport HTTP/2.

Czy gRPC ma jakieś wady? Pomimo tego, że technologia została udostępniona kilka lat temu, stosunkowo powoli zyskuje sobie popularność. Większość ekspertów to nadal pracownicy Google. Być może dlatego, że opanowanie Protocol Buffers i narzędzi wymaga poświęcenie więcej czasu i wysiłku niż JSON.

 

 

Do czego najlepiej nadaje się gRPC?

 

Pomimo wysiłku, jaki trzeba włożyć w opanowanie Protocol Buffers już dzisiaj z gRPC korzysta poza Google wiele organizacji. Przykłady zastosowania obejmują scenariusze, w których łączonych jest od kilku do kilkuset usług, zarówno w środowiskach lokalnych jak również chmurowych. Najważniejsze z nich efektywne łączenie usług zbudowanych z wykorzystaniem różnych języków i platform w architekturze mikrousługowej, wymiana informacji między usługami w czasie rzeczywistym, łączenie urządzeń i aplikacji mobilnych z systemów biznesowych, szybkie budowanie RPC API.

 

 

Przykłady użycia gRPC przez duże firmy

 

Jednym z użytkowników gRPC jest Netflix. Firma początkowo używała bazującego na HTTP/1.1 własnego stosu technologicznego umożliwiającego komunikację między usługami. Z czasem zaczął być on jednak pewnym obciążeniem. Wymagał ręcznego dokodowywania a jednocześnie utrudniał wykorzystywanie API. Dlatego firma zaczęła poszukiwać rozwiązania umożliwiającego działanie programów klienckich niezależnie od konkretnego języka. Podjęte zostały próby stworzenia własnej implementacji RPC, ale jednak stosunkowo szybko zdecydowano, że lepszym wyborem będzie gRPC.

Jakie przyniosło to efekty? W przypadku każdego klienta setki linii kodu można było zastąpić kilkoma liniami konfiguracji w proto. Zamiast poświęcać np. 3 tygodnie na stworzenie programu klienckiego, dzisiaj można to zrobić w kilka minut. To znacznie przełożyło się na szybkość wprowadzania nowych produktów i usług na rynek. Pojawia się także mniej błędów – wynika to z faktu, że klient nie zawiera już pisanego ręcznie kodu.

Inna znana firma, która zastąpiła własny stos technologiczny i używa gRPC to Spotify. Zadecydowała o tym przede wszystkim szybko rosnąca skala działania. Na początku własne rozwiązania były wystarczające, ale szybko zaczęły być ograniczeniem. gRPC w szczególności ułatwia Spotify m.in. projektowanie API.

Pełne opisy case studies dotyczące Netflix, Spotify, a także innych organizacji korzystających z gRPC można znaleźć na stronie Cloud Native Computing Foundation.

Start-upy decydują się na ten krok ponieważ nie mają dostatecznych zasobów, aby zbudować zespół i na tyle rozwinąć funkcje wspierające, by móc wykonywać procesy we własnym zakresie. Firmy o ugruntowanych pozycjach przeprowadzają z kolei research i korzystają z tej praktyki, jeśli okazuje się, że może im ona zapewnić lepsze efekty w ramach niższych kosztów.

 

Mowa oczywiście o outsourcingu procesów biznesowych. Bez względu na wielkość przedsiębiorstwa i typ usługi (nearshoring, onshoring czy offshoring), organizacje, które rozważają BPO muszą nie tylko znaleźć najlepszych dostawców, ale i liczyć się z dużą zmianą m.in. na poziomie personelu i istniejących przepływów pracy. Warto więc najpierw zapoznać się z tematem od podszewki.

 

 

BPO (outsourcing procesów biznesowych) – definicja

 

Outsourcing procesów biznesowych (z ang. Business Process Outsourcing, a w skrócie BPO) to praktyka, w ramach której firma zawiera umowę z zewnętrznym dostawcą usług w celu realizacji określonych zadań.

 

Zazwyczaj odbywa się to w ten sposób, że organizacja najpierw identyfikuje, a następnie wybiera do tego przedsięwzięcia proces, który jest niezbędny dla jej działalności, ale nie jest częścią jej podstawowej oferty. Krok ten wymaga jednak, aby BPO management stało na wysokim poziomie.

 

Outsourcing procesów biznesowych jest więc dobrym rozwiązaniem w przypadku działań, które są wykonywane tak samo lub podobnie w różnych firmach, takich jak np. prowadzenie list płac czy księgowości. Z racji tego, że na ogół nie odróżniają one jednej organizacji od drugiej, Business Process Outsourcing Manager i inne osoby decyzyjne często dochodzą do wniosku, że nie ma sensu, aby wykonywane były one przez pracowników wewnętrznych. Co więcej, zaangażowanie firm specjalizującej się w tych procesach może zarówno przynieść lepsze wyniki, jak i pomóc skuteczniej zarządzić ludzkim potencjałem.

 

 

W jakich sektorach szczególnie sprawdza się BPO?

 

BPO ma swoje korzenie w branży produkcyjnej. To producenci jako pierwsi zaczęli zatrudniać zewnętrznych dostawców do obsługi części ich łańcuchów dostaw. Okazało się, że mogą oni wnieść do procesu więcej umiejętności niż zespół wewnętrzny, a w dodatku wykonać go szybciej i jeszcze zaoszczędzić koszty. Z czasem praktykę tę przyjęły organizacje z innych branż.

 

Obecnie international BPO kwitnie i jest wykorzystywane zarówno przez firmy nastawione na zysk, jak i NGO czy nawet sektor publiczny. Szczególnie „płodna” jest w tym zakresie branża IT, która dysponuje największą ilością narzędzi umożliwiających optymalizację procesów. Outsourcingowi podlega w tym zakresie m.in. zarządzanie rozmaitymi systemami, np. MES czy ERP (dotyczy to również małych przedsiębiorstw), a także rozwiązaniami RPA w Chmurze.

 

 

Czy Business Process Outsourcing jest popularny w Polsce?

 

Branża BPO to jeden z najbardziej dynamicznie rozwijających się rynków pracy w Polsce, zwłaszcza w dobie pandemii, która narzuciła konieczność zdalnego zarządzania projektami. W Europie Środkowo-Wschodniej jesteśmy obecnie liderem pod względem ilości funkcjonujących centrów i osób w nich zatrudnionych. Na naszą korzyść przemawia nie tylko centralne położenie, ale przede wszystkim wykształcona i wykwalifikowana kadra pracownicza, sprawnie posługująca się językami obcymi.

 

 

Jakie są zalety i wady korzystania z outsourcingu procesów biznesowych?

 

Według Global Outsourcing Survey, które zostało przeprowadzone przez firmę Deloitte w 2020 roku, firmy wykorzystują BPO do osiągnięcia następujących celów:

 

  • oszczędności kosztów (70% ankietowanych liderów przedsiębiorstw),
  • elastyczność (40% ankietowanych),
  • zwiększenie tempa wprowadzania produktów i usług na rynek (20% ankietowanych),
  • dostęp do określonych narzędzi i procesów (15% ankietowanych),
  • wprowadzenie zwinnej kultury (15% ankietowanych).

 

Wśród największych zalet tego typu rozwiązań respondenci wymieniali zaś aspekty takie jak:

 

  • Korzyści finansowe

Dostawcy usług BPO często mogą przeprowadzić proces biznesowy niższym kosztem lub zadbać o budżet firmy w inny sposób, na przykład za pośrednictwem oszczędności podatkowych.

  • Większa elastyczność

W ramach umowy firmy mogą zwykle liczyć na możliwość modyfikacji sposobu realizacji outsourcowanego procesu biznesowego, co umożliwia im szybsze reagowanie na zmieniającą się dynamikę rynku.

  • Zwiększona przewaga konkurencyjna

BPO umożliwia organizacji skupienie większej ilości zasobów na operacjach, które wyróżniają ją na rynku.

  • Wyższa jakość i lepsza wydajność

Ponieważ obsługa procesów biznesowych stanowi podstawę ich działalności, dostawcy BPO są dobrze przygotowani do wykonywania swojej pracy. Dzięki temu firmy mają zagwarantowaną większą dokładność, wydajność i szybkość realizacji.

  • Dostęp do innowacji w procesie biznesowym

Dostawcy usług BPO częściej wiedzą o postępach w obszarach procesów, w których się specjalizują. Oznacza to, że są bardziej skłonni do inwestowania w nowe technologie (takie jak np. automatyzacja), które mogą poprawić szybkość i jakość pracy, a także obniżyć jej koszty.

  • Rozszerzony zasięg

Organizacje, które potrzebują całodobowej obsługi, np. telefonicznej, mogą uzyskać taką możliwość zawierając umowę z dostawcą usług BPO, który obsługuje różne lokalizacje geograficzne i strefy czasowe w modelu 24 h/7.

 

Outsourcing procesów biznesowych nie jest jednak pozbawiony wad. Do głównych z nich należą:

 

  • Ryzyko związane z naruszeniem bezpieczeństwa

Połączenie technologiczne między firmą zatrudniającą a dostawcą usług BPO tworzy nie tylko konieczny punkt styku, ale i otwiera drzwi do wycieku informacji. Organizacje często muszą też udostępniać outsourcerom poufne dane, co stanowi kolejne potencjalne zagrożenie.

  • Nieoczekiwane koszty

Organizacje mogą nie doszacować kosztów, jakimi zostaną obciążone ponieważ np. błędnie obliczyły liczbę godzin przewidzianych na daną usługę lub nie doprecyzowały, co zawiera się w cenie.

  • Wyzwania związane z komunikacją

Firmy mogą też napotkać problemy komunikacyjne ze swoimi zewnętrznymi dostawcami lub odkryć, że istnieją bariery kulturowe, które mogą osłabić korzyści płynące z BPO.

  • Zbyt duża zależność

Przedsiębiorstwa muszą ponadto tak zarządzać relacjami z dostawcami, aby zapewnić spełnienie kluczowych celów po uzgodnionych kosztach. W przeciwnym razie mogą one mieć trudności z przywróceniem niektórych operacji i ich realizacją we własnym zakresie. Problematyczne może okazać się nawet przeniesienie umowy i zlecenie usług innej firmie zewnętrznej.

  • Zwiększony potencjał zakłóceń

Organizacje powinny również stale monitorować sytuację pod kątem problemów, które mogłyby przerwać lub trwale zakończyć współpracę z zewnętrznym dostawcą. Obejmują one kwestie takie jak finanse, niestabilność geopolityczna, klęski żywiołowe czy zmiany sytuacji gospodarczej. Firmy muszą być świadome tego typu ryzyka i opracować strategię zapewnienia ciągłości biznesowej oraz reagowania w przypadku awarii.

 

 

Najpopularniejsze usługi BPO

 

Gdyby pokusić się o stworzenie listy zatytułowanej „BPO: usługi” lub „Top BPO”, prym wiodłyby z pewnością dwa główne obszary: back-office (np. księgowość, płatności, HR czy IT) i front-office (m.in. marketing, sprzedaż i obsługa klienta). Outsourcing może obejmować cały dział lub określone procesy. Dla przykładu, organizacja może powierzyć firmie zewnętrznej pieczę nad listą płac, ale wszystkie inne czynności HR-owe wykonywać samodzielnie.

 

Według ankiety przeprowadzonej przez  Clutch, małe przedsiębiorstwa najczęściej outsourcują bardziej techniczne zadania (przy czym 37% z nich pochodzi z obszaru księgowości, 37% dotyczy IT, a 34% – marketingu cyfrowego). W przypadku dużych firm zakres usług oferowanych przez branżę BPO znacznie się poszerzył w ostatnich dziesięcioleciach. Niektóre z nich zlecają na zewnątrz również strategiczne zadania, takie jak eksploracja i analiza danych, które okazały się niezbędnymi elementami utrzymania przewagi konkurencyjnej w gospodarce cyfrowej.

 

 

BPO (Business Process Outsourcing) a SSC (Shared Services Centers)

 

Dotykając tematu BPO nie sposób nie wspomnieć o tzw. Shared Services Centers (SSC), które pozwalają na outsourcing w ramach organizacji. Zgodnie z definicją, są to „wydzielone, wewnętrzne centra usługowe pracujące na rzecz jednej lub kilku połączonych ze sobą firm.” Mogą one wyłonić się zarówno z macierzystych działów przedsiębiorstwa, jak i stanowić samodzielne podmioty gospodarcze znajdujące się poza granicami kraju.

 

Cytując za portalem KwF:

„Najczęściej organizatorem centrum SSC jest koncern międzynarodowy, posiadający oddziały w wielu państwach. Nie chcąc powielać działów we wszystkich krajach, korporacje tworzą jedno własne centrum informatyczne w jednym kraju, ma obsłużyć wszystkie oddziały spółki w danym regionie/całym świecie. W ten sposób instytucje, koncerny czy organizacje pozostawiają sobie możliwość kontroli procesów zachodzących w danej dziedzinie.

 

Centrum usług wspólnych umożliwia redukcję kosztów oraz lepszą organizację pozostałych oddziałów, a firma może skoncentrować się na swojej głównej działalności. W sektorze SCC praca wykonywana jest dla tej samej firmy, w związku z czym procedury i organizacja pracy jest zwykle bardziej stabilna i przewidywalna.”

W dobie pandemii, kiedy to zarządzanie projektami rządzi się własnymi, zdalnymi prawami, rozwiązania chmurowe i cała „kultura” cloudowa rosną w siłę jeszcze bardziej, niż dotychczas. Dodanie do tego równania aspektu ekologii wynosi zaś wspomnianą technologię na kolejny poziom. W dodatku nie tylko w zakresie odpowiedzialności społecznej, ale i korzyści biznesowych. 

 

 

Czym tak właściwie jest Green Cloud („zielona” Chmura)?

 

Green Cloud (dosł. „zielona Chmura”) to pojęcie, które odnosi się do potencjalnych korzyści środowiskowych i finansowych, jakie usługi informatyczne dostarczane przez Internet z udziałem technologii cloud computing mogą zaoferować społeczeństwu.

 

Według badań rynkowych przeprowadzonych przez Pike Research, powszechna adaptacja Chmury może bowiem doprowadzić do zmniejszenia światowych wydatków na energię w centrach danych nawet o około 40%. Oszczędności zostałyby osiągnięte przede wszystkim przez ich konsolidację, jak i maksymalizację wydajności zużycia, a także usprawnienie działań związanych z recyklingiem, obniżenie emisji dwutlenku węgla i gazów oraz zminimalizowanie zużycia wody potrzebnej do chłodzenia wszystkich ośrodków.

 

 

Jaki jest główny cel Green Cloud?

 

Strategia „Green Cloud” ma dwa główne cele – oszczędność energii oraz obniżenie wydatków związanych z przechowywaniem danych. Postępy w technologiach dysków SAS, zautomatyzowana deduplikacja, a także wirtualizacja i konwergencja pamięci masowej pomagają bowiem zmniejszyć nie tylko ślad węglowy, ale i koszty operacyjne oraz kapitałowe, które generują centra danych.

 

Jako że kolor zielony jest również kojarzony z dolarowymi banknotami, etykieta „zielona Chmura” jest czasami używana do opisania opłacalności inicjatyw spod znaku cloud computing.

 

 

Podstawowe filary Green Cloud

 

Rozwiązania chmurowe dla firm w duchu „eco” obejmują kilka aspektów. Do podstawowych z nich należą wirtualizacja oraz użycie serwerów terminalowych, a także podejście do zasilania i zarządzania energią.

 

Wirtualizacja to proces, w którym wiele systemów operacyjnych działa jednocześnie w ramach jednego systemu komputerowego. Uruchomione aplikacje wyglądają tak, jakby były przypisane do odrębnych maszyn. Korzystanie ze wspólnych serwerów i współdzielenie terminala pozwala zaś zaoszczędzić energię aż o 80%.

 

Warto wiedzieć też, że podczas gdy „tradycyjne” przesyły wiązały się nawet z 40%-ową utratą mocy, rozwiązania chmurowe zgodne z założeniami Green Cloud  używają tzw. zielonego algorytmu, który zmniejsza zużycie energii pobieranej przez maszyny. Dzięki temu jest ona wykorzystywana w bardziej efektywny sposób.

 

 

Dlaczego przedsiębiorstwo powinno zainteresować się zagadnieniami Green Cloud?

 

Chmura firmowa „w zielonym ujęciu” kusi nie tylko ze względu na kwestie związane z odpowiedzialnością społeczną przedsiębiorstwa, ale i z uwagi na liczne korzyści, które oferuje jako rozwiązanie dla biznesu. Do najważniejszych zalet strategii Green Cloud należą bowiem:

 

  • Oszczędność energii

Technologia przetwarzania w Chmurze w dużym stopniu zmniejszyła zużycie energii. Wcześniej serwery znajdowały się w specjalnych serwerowniach i wymagały jej stałego dopływu do działania. Zasilanie potrzebne było również systemom chłodzenia, które miały za zadanie nie dopuścić do tego, aby komponenty się przegrzewały.

 

Dzięki technologii cloud computing ilość potrzebnego sprzętu znajdującego się w różnych lokalach ulega redukcji, a co za tym idzie, zużycie energii jest mniejsze. Duże oszczędności w tym zakresie mają również miejsce na etapie, gdy żywotność serwerów i systemów chłodzących dobiega końca i konieczna jest ich utylizacja.

 

  • Zmniejszony ślad węglowy

Cloud dla firm to również możliwość pracy z dowolnego miejsca na świecie o każdej porze. Tego typu elastyczność zwiększa produktywność i zmniejsza częstotliwość dojazdów do biura. W konsekwencji, praca zdalna redukuje zużycie paliwa i emisję dwutlenku węgla do atmosfery. Przynosi również organizacjom korzyści w zakresie obniżenia kosztów wynajmu lokali oraz zużycia energii w pomieszczeniach biurowych.

 

  • Redukcja lub eliminacja dokumentów papierowych

Przechowywanie plików w Chmurze jest bezpieczne i korzystne ponieważ umożliwia dostęp do dokumentów w wybranym przez siebie miejscu i czasie. Nie ma również takiego ryzyka utraty danych, jak w przypadku dysków twardych w serwerowniach.

 

Co więcej, przetwarzanie w Chmurze i „zielone” technologie dają organizacjom kilka możliwości całkowitego wyeliminowania papieru. Ekologiczne opcje przechowywania danych z udziałem OneDrive, SharePoint, Google Drive czy Dropbox stają się już coraz bardziej popularne. Stosowane w parze z rozwiązaniami typu Adobe Sign i DocuSign praktycznie eliminują potrzebę drukowania dokumentów. Narzędzia te umożliwiają bowiem użytkownikom podpisywanie, przechowywanie i wysyłanie umów oraz innych dokumentów prawnych w ciągu kilku sekund, za pomocą zaledwie kilku kliknięć.

 

  • Mniej e-odpadów

Ilość odpadów elektronicznych rośnie z każdą dekadą, a ich utylizacja zagraża zarówno ekosystemom, jak i zdrowiu ludzkiemu. Gdy zużyty sprzęt trafia na złom, tylko jego wybrane elementy są ponownie wykorzystywane, zaś reszta jest spalana i często trafia do rzek, powodując ich zanieczyszczenie. Chmura wymaga mniej elektroniki niż inne rozwiązania, a zatem przyczynia się do redukcji elektrośmieci.

 

 

Czy Green Cloud to tylko głośny trend? Największe wady Green Cloud

 

Cloud computing wspomaga zarządzanie zasobami technologicznymi przy jednoczesnej poprawie produktywności i zmniejszeniu kosztów. Dzięki użyciu specjalnego algorytmu, „zielona” architektura pamięci masowej w Chmurze pozwala też zredukować zużycie energii bez utraty jakości usług.

 

Green Cloud to jednak nie tylko same zalety. Decydując się na tego typu rozwiązania należy liczyć się z dużą inwestycją początkową z uwagi na wysokie koszty implementacji. Ekologiczne przetwarzanie danych nie jest więc jeszcze dostępne dla wszystkich. Co więcej, technologia „zielonej” Chmury wciąż ewoluuje, więc nie każda organizacja zaadaptuje ją w mgnieniu oka i bez jakichkolwiek problemów (zwłaszcza, że może ona niekorzystnie wpływać na aplikacje, które wymagają dużej mocy do działania).

 

 

Od czego zacząć wdrożenie Green Cloud w przedsiębiorstwie?

 

Rozwiązania Green Cloud znajdują zastosowanie w obszarach takich jak:

 

  • zarządzanie energią w centrum danych,
  • sieci bezprzewodowe,
  • przetwarzanie równoległe z udziałem Big Data,
  • obliczenia z udziałem algorytmu.

 

Chmura sama w sobie może również zostać wykorzystana np. do implementacji RPA w różnych konfiguracjach (w tym w opcji outsourcingowej) lub być obok Business Process Discovery po prostu jednym z narzędzi wspierających optymalizację procesów. O tym, co wdrażać i w jakiej kolejności decyduje seria czynników (w tym dojrzałość technologiczna przedsiębiorstwa), ale i cele oraz potrzeby organizacji. Chętnie porozmawiamy z tobą o tym, co dla ciebie ważne.

Narzędzia cyfrowe dla firm to między innymi rozwiązania dla pracy zdalnej, stanowiące swoisty must-have w dobie pandemii. Na tym jednak nie koniec. Odpowiednia kombinacja programów, platform i aplikacji wraz z optymalnym wykorzystaniem czynnika ludzkiego to tak naprawdę na obecną chwilę klucz do wypracowania przewagi konkurencyjnej.

W poniższym tekście analizujemy wybrane z dostępnych na rynku możliwości, które pomogą przekształcić Twoją firmę w organizację przyszłości. Więcej informacji i szczegółowe opisy wielu z prezentowanych rozwiązań znajdziesz na naszym blogu.

 

 

Przegląd oprogramowania dla biznesu niezbędnego do poprawy wydajności zespołów i zwiększenia efektywności pracy

Każda firma, która dąży do usprawnienia pracy zespołowej, zarówno pod kątem szybkości, jak i wyników, prędzej czy później stanie przed wyzwaniem wyboru oprogramowania do zarządzania przedsiębiorstwem. Nowoczesne systemy Enterprise Resource Planning (w skrócie ERP), bo to o nich mowa, stwarzają szereg możliwości, które znacznie wykraczają poza modelowanie procesów.

Zaawansowany „ERP” posiada dedykowane i wyspecjalizowane rozwiązania (również zautomatyzowane), nie ma problemów z integracją wewnętrzną i zewnętrzną, dysponuje rozbudowanymi, lecz prostymi w obsłudze systemami raportowymi, działa w „chmurze” i oczywiście ma przystępny interfejs. A przy tym może być rozbudowany o elementy związane ze sztuczną inteligencją i uczeniem maszynowym.

Wszystkie powyższe kryteria spełniać będą odpowiednio skonfigurowane i dopasowane pod kątem potrzeb użytkownika programy firmy Epicor, takie jak Epicor ERP czy Epicor iScala. Jeśli chcesz dowiedzieć się więcej o ich funkcjonalnościach i przeprowadzonych przez nas wdrożeniach, skontaktuj się z nami lub przejrzyj materiały na naszym blogu.

 

 

 

Top 5 najlepszych systemów CRM do zarządzania klientami i planowania sprzedaży: Pipedrive, Freshworks, Zoho, HubSpot, Salesforce

Dobry system ERP wyposażony jest oczywiście również w rozwiązania wspierające relacje z klientami czy wspomagające sprzedaż. Dokonując przeglądu „CRM-ów”, warto zwrócić szczególną uwagę na następujące z nich:

  • Pipedrive – proces sprzedażowy jest tutaj zwizualizowany w formie etapów obejmujących priorytetyzację zaplanowanych działań i szans zamknięcia transakcji, zaś wiadomości e-mail są automatycznie śledzone i uzupełniane.
  • Freshworks – pozwala na maksymalne wykorzystanie sztucznej inteligencji w dotarciu do potencjalnych klientów i zwiększeniu ich zaangażowania.
  • Zoho – jeden z najchętniej wybieranych systemów CRM na świecie, który wspiera ponad 150 000 firm w 180 krajach.
  • HubSpot – bezpłatne narzędzie oferujące kompleksowe wsparcie dla sprzedawców, marketingowców, zespołów obsługi klienta czy właścicieli firm.
  • Salesforce – działa w całości w „chmurze”, oferuje rozwiązania mobilne, miesięczny okres próbny i przystępne ceny.

 

Efektywne zarządzanie projektami w firmie: Jira, Slack, Confluence

Wszystkie informacje dotyczące projektu z łatwością wyświetlisz natomiast dzięki oprogramowaniu takiemu jak:

  • Jira Core – pozwala na monitorowanie szczegółów (między innymi dzięki wysyłanym powiadomieniom) i mierzenie wydajności, a przy tym posiada szereg rozwiązań chmurowych (takich jak np. tablica do pracy zdalnej), opartych o funkcję drag & drop. Dobrze sprawdzi się w zespołach, które działają w oparciu o proces.
  • Slack – doskonale współpracuje z innymi popularnymi narzędziami, które są używane do zarządzania projektami. Umożliwia automatyzację rutynowych zadań oraz udostępnianie dokumentów lub plików w kanałach projektu, tak aby nawet nowi pracownicy mieli informacje potrzebne do dalszej pracy.
  • Confluence – zda egzamin zarówno w zakresie zarządzania projektami, jak i wiedzą, stanowiąc pojedyncze źródło rzetelnych informacji na temat organizacji. Posiada szeroki zakres rozmaitych funkcji, takich jak zaawansowane wyszukiwanie, wysyłanie powiadomień, drzewo stron, szablony, edycja w czasie rzeczywistym i komentowanie. Możliwa jest również integracja z systemem Jira.

 

 

Zarządzenie projektem w dobie pandemii – systemy do komunikacji grupowej: Zoom, Grape.io, Google Meet

Pandemia spowodowała zaś boom na narzędzia do zdalnej pracy, które w dobie globalizacji i zdywersyfikowanych zespołów już wcześniej miały się całkiem nieźle. Wiele firm doceniło korzyści płynące z tego typu rozwiązań i rozważa przynajmniej częściowe pozostanie w trybie online nawet po ustaniu zagrożenia epidemiologicznego. O naszych refleksjach związanych z zarządzaniem projektem wdrożenia w warunkach pandemii pisaliśmy między innymi tutaj. A rozwiązania dla pracy zdalnej, które trzeba znać to między innymi:

Zoom, czyli platforma do pracy online, w tym wideokonferencji, prowadzenia spotkań, szkoleń czy webinarów. Ogromną zaletą jest między innymi prostota użytkowania, wysokiej jakości audio i wideo HD, dostępność zarówno wersji stacjonarnej, jak i mobilnej oraz możliwość nagrywania. Zoomowe spotkania „pomieszczą” do 1000 uczestników, zaś webinary – aż 10 000 widzów!

Grape.io – opierając się na silniku zasilanym przez sztuczną inteligencję z elementami NLP, Grape posiada szereg funkcji – od połączeń video, poprzez chat, aż po wyszukiwarkę zintegrowaną z innymi aplikacjami lub programami. Dostępny jest zarówno tradycyjny hosting, jak i „chmura”.

Google Meet, czyli rozwiązanie, które umożliwia prowadzenie rozmów video z wieloma osobami jednocześnie bez zbędnej konfiguracji czy wtyczek – wystarczy jedynie udostępnić link. Usługa ma specjalnie zaprojektowane aplikacje na Androida oraz IOS i jest oczywiście zintegrowana z innymi narzędziami Google dla firm.

 

 

 

Efektywna komunikacja w zespole – codzienne spotkania (m.in. daily standup)

Narzędzia komunikacji zdalnej będą szczególnie istotne w przypadku zespołów (np. agile’owych), które praktykują codzienne spotkania o raczej ustrukturyzowanym charakterze. W ich przypadku warto skorzystać z Microsoft Teams. Dzięki funkcji o nazwie „tryb razem” użytkownik może „usiąść” razem z innymi ze wspólnym tłem wirtualnym, tak aby wszyscy poczuli się, jakby byli w tym samym pomieszczeniu. Pozostałe opcje, które oferują inne komunikatory (m.in. udostępnianie plików w czasie rzeczywistym) są również dostępne.

 

 

 

Aplikacje mobilne w biznesie: co posłuży w lepszych powiadomieniach?

Większość z omawianych powyżej narzędzi dla firm w Internecie jest też dostępna w wersji mobilnej. Wybierając pomiędzy kilkoma rozwiązaniami, dla których dostępne są aplikacje, warto sprawdzić, czy jest możliwość odbierania powiadomień Mobile Push. Zaprowadzą one użytkowników prosto do konkretnego miejsca, maksymalnie skracając ścieżkę dotarcia. Co więcej, pojawiają się one natychmiast na ekranie telefonu odbiorcy, nawet bez konieczności jego odblokowania.

 

 

 

Oszczędność czasu = oszczędność pieniędzy – automatyzacja procesów biznesowych (RPA)

Kolejnym aspektem, którego nie sposób pominąć pisząc o rozwiązaniach cyfrowych, jest automatyzacja procesów biznesowych, która stanowi jeden z ostatnich kroków na drodze do pełnej dojrzałości technologicznej przedsiębiorstwa. Aby miała sens, musi jednak zostać przeprowadzona etapami i w sposób świadomy. Podstawowe informacje na temat Robotic Process Automation i wdrożenia robotyzacji w organizacji znajdziesz tutaj.

 

 

 

Wsparcie od Google na rozwój biznesu – program Firmy Jutra

Co ciekawe, oprócz oferowanych internetowych narzędzi dla przedsiębiorców, Google uruchomił również nowy program szkoleniowo-rozwojowy: Firmy Jutra. Może wziąć w nim udział aż 15 000 organizacji, a jego celem jest zwiększenie innowacyjności oraz wsparcie przedsiębiorstw w transferze swojej działalności do Internetu, jak i dotarciu do klientów, którzy również przenieśli się do świata online. Zapisać do programu możesz się tu.

 

 

 

Sprawdź dofinansowania i formy wsparcia mikro, małych, średnich i dużych przedsiębiorstw – jakie granty z PARP czekają?

Nie tylko Google wspiera przedsiębiorców w postępującej cyfryzacji – w rozwoju kompetencji i finansowaniu firmy pomaga także Polska Agencja Rozwoju Przedsiębiorczości. Na pomoc mogą liczyć zarówno istniejące, jak i dopiero powstające biznesy. Szczegółowa lista aktualnych programów dostępna jest tutaj. Potencjalnych inwestorów zainteresowanych współpracą z nami zapraszamy z kolei tu.

Mindbox, po kilkunastu latach obecności na rynku, przechodzi prawdziwą metamorfozę. W spółce wydzielamy dwa brandy: Mindbox oraz Mindworkers. Dlaczego? Z powodu dynamicznego rozwoju oraz rozszerzenia wachlarza oferty, o nowe produkty i usługi. Wszystkie działania, jakie podejmujemy, realizujemy je wyłącznie z z myślą o klientach. Ale – po kolei…

Narodziny

Zaczęło się kilkanaście lat temu. Narodziła się marka Mindbox, której misją była odpowiedź na istotną potrzebę rynku: rozwiązywanie problemów biznesowych organizacji za pomocą coraz szerzej dostępnych technologii, u progu cyfrowej rewolucji . Koniec pierwszej dekady XXI wieku był momentem dynamicznych zmian na styku biznesu i nowych technologii. Wówczas to takie rozwiązania jak Cloud czy Big Data przestały być efektowną ideą, a stawały się istotnym źródłem zmian i przewag w firmach. Kto zaniechał cyfryzacji, zostawał w tyle.

Przejście cyfrowego zwrotu stawało się żywotnym wyzwaniem firm. Bez względu na wielkość, rodowód czy sektor rynku. My zaś – dostarczając konkretne, ogólne czy też szyte na miarę i potrzeby danej organizacji rozwiązania i technologie – odpowiadamy na te żywotne potrzeby biznesu. Dostarczając gotowe rozwiązania IT, personalizując i wdrażając je – zwiększamy efektywność procesów biznesowych naszych klientów.

Wzrost

Od ponad dekady naszą flagową ofertą był i pozostanie system ERP. Jesteśmy największą firmą w regionie EMEA wdrażającą rozwiązania amerykańskiego producenta Epicor Software. W tym czasie wdrożyliśmy kilkaset projektów w Polsce i na świecie. Wiele z nich obejmowało kompleksową obsługę – od analizy, przez zaprojektowanie architektury rozwiązania, po wdrożenie i serwis. Naszymi klientami są zarówno rodzime firmy, jak i działające globalnie międzynarodowe korporacje. Do tej porty zrealizowaliśmy projekty dla przedsiębiorstw z przeszło pięćdziesięciu krajów.

Ale to nie wszystko. Od początku istnienia, bowiem, nie tyle poszukiwaliśmy nisz do zagospodarowania, ile po prostu – odpowiadaliśmy na faktyczne potrzeby naszych klientów, te zaś, bez ustanku pojawiały się w postaci nowych wyzwań. Rozwój technologii, wdrażanych przez Mindbox, pozwala klientom pójść krok dalej, eliminować źródło strat, które do tej pory bywało codziennością albo też znieść koszty, które wcześniej wydawały się nieodzowne. Każdy proces – o ile tylko pozwalają na to narzędzia i rozwiązania IT – można udoskonalić, usprawnić i unowocześnić- aby na koniec odnotować wzrost efektywności całego biznesu. To właśnie sens naszego działania. Od samego początku.

Technologię traktujemy w sposób instrumentalny. Ma służyć wyłącznie realizacji celów naszych Klientów, a nie zaspokajać nasze ambicje. Rzetelność i uczciwość to wartości, którymi się kierujemy od powstania firmy w 2007 roku. Takie podejście umożliwia nam dynamiczny rozwój, oparty na długookresowej partnerskiej współpracy z Klientami, ale również Pracownikami i Dostawcami – podkreśla Piotr Żeromski, CEO w Mindbox

Teraz łatwiej zrozumieć, że przez długi czas mogliśmy rosnąć organicznie, opierając tę ewolucję niemal wyłącznie na znakomitych opiniach i rekomendacjach dotychczasowych klientów. Dlatego też wdrożenia ERP to nie wszystko. Wspieramy transformację cyfrową firm, dzięki czemu organizacja staje się rzeczywiście innowacyjną firmą. Poza tym – przeprowadzamy analizy, a na ich podstawie – usprawnienia i automatyzację procesów biznesowych firm. Z niemal wszystkich sektorów produkcji i usług.

…i rozwój. Całkiem nowe obszary

Technologie to źródło inspiracji, rozwoju i nowych potrzeb. Ale za każdą firmą stoją przede wszystkim ludzie. Nie inaczej jest u nas. Naszą organizację tworzy już dwustu ekspertów – praktyków specjalizujących się różnorodnych obszarach szeroko rozumianej branży IT. Nieźle przez te lata urośliśmy, prawda? Dodajmy, że w parze z ilością niezmiennie idzie jakość.

Łatwo się domyślić, że kompetencje naszych pracowników dostrzegają również klienci. Wszak to ostatecznie człowiek stoi za dobrą analizą, uszyciem na miarę konkretnych rozwiązań, a później ich wdrożeniem i serwisem. Nic zatem dziwnego, iż z czasem coraz częściej klienci prosili nas o pomoc w pozyskaniu dobrych fachowców od IT, którzy po naszym wdrożeniu zaspokoją wewnętrzne potrzeby organizacji związane z cyfryzacją i należytym utrzymaniem procesów.

Z tych potrzeb zrodził się nowy unit. Nowy dział i nowy rozdział w historii firmy: zajęliśmy się profesjonalnym doradztwem i rekrutacją ekspertów ds. IT na rynku i rekomendowaniem wybranych ludzi do konkretnych firm. Trzeba zaś pamiętać, że zatrudnienie właściwego człowieka od nowych technologii, specjalistycznego oprogramowania czy narzędzi teleinformatycznych może być nie lada wyzwaniem. Takim, któremu… my tylko potrafimy sprostać. Naprawdę.

Problemy związane ze znalezieniem potencjalnego pracownika, przekonaniem go, aby przyjął nową ofertę, ale i sprawdzeniem jego doświadczeń i kompetencji to zadanie dla fachowców. Takich jak my. W ten zatem sposób narodził się dział Mindworkers, który odpowiada na potrzeby de facto z zakresu specjalistycznego, branżowego HR.

Nasza oferta w tym zakresie jest równie zróżnicowana i szyta na miarę, jak w przypadku rozwiązań IT usprawniających procesy biznesowe. Możemy bowiem tylko pośredniczyć w wyselekcjonowaniu właściwej osoby do konkretnych zadań. Możemy też zatrudnić takich ludzi u siebie i outsourcować zasoby na potrzeby wybranego klienta albo wręcz konkretnego projektu czy rozwiązania. Oferujemy usługę Sourcing as a Service, w ramach której zajmujemy się całym procesem zatrudnienia odpowiednich kandydatów. Ostatecznie, oferujemy naszym klientom całe zespoły złożone ze zgranych specjalistów pracujących pod okiem Project Managera. Co więcej – jak doskonale wszyscy wiemy, istnieje zarówno rynek pracownika, jak i pracodawcy. Dlatego też potencjalni kandydaci, szukający nowych wyzwań, jeśli odzywają się do nas – prawdopodobnie trafiają pod najlepszy z możliwych adresów.

Problem i wyzwanie

No dobrze, ale jak wyjaśnić to nowym bądź wracającym do nas klientom? Jesteśmy firmą skupiającą w swoich szeregach ekspertów ds. IT, najlepszych praktyków i wdrażamy rozwiązania cyfrowe? Czy zajmujemy się rekrutacją tych specjalistów? Więc może nasza działka to headhunting – mógłby ktoś pomyśleć. Eksperci ds. IT, jak zdążyliśmy już zauważyć, poznają się na innych ze swojej branży, więc czemu nie?

Nie są to tylko teoretyczne rozważania o strategicznej randze, lecz faktyczny problem. Wyzwanie, ponieważ klienci faktycznie mieli wątpliwości i pytali. Postawiliśmy sobie zatem konkretny cel. Jest problem, jest wyzwanie. Musi być również rozwiązanie. Jasne zakomunikowanie otoczeniu rynkowemu. Obecnym i przyszłym klientom: kim jesteśmy, czym się zajmujemy? Dokąd zmierzamy i dlaczego?

Jak zatem wyjść z tego informacyjnego chaosu, aby przekazać światu klarowny komunikat i rzeczywisty obraz naszej organizacji?

Idea. Żywoty równoległe

Cel był jasny. Idea także zdawała się coraz bardziej wyraźna. Mamy dwa główne obszary, w których – odpowiadając na realne potrzeby klientów – przyszło nam działać. Po pierwsze, rozwiązania IT. Po drugie, eksperci branżowi na rynku.

Reasumując: mieliśmy, tak jak do tej pory, specjalizować się w projektowaniu i wdrażaniu różnorodnych rozwiązań cyfrowych, które usprawniają procesy naszych klientów. A poza tym – równolegle – poszukiwać i rekrutować na potrzeby tychże klientów odpowiednich dla nich ekspertów z różnych dziedzin IT.

Obszary na pozór tylko odległe od siebie, a faktycznie – bardzo bliskie. Oba ze sobą spójne i mogące nawzajem się wspierać. Siostrzane.

Mamy zatem dwa siostrzane obszary. Żywoty równoległe. Rozwiązania IT, które stały u początków i były zalążkiem naszej firmy – czyli Mindbox – oraz specjalistyczny HR – a więc Mindworkers.

Rozwiązanie

Tak postanowiliśmy. Dwa odrębne byty, równoległe: Mindbox oraz Mindworkers. Żeby było jasne dla każdego obecnego na rynku. Tak idea przekuta została w praktyczne rozwiązanie: powołaliśmy do życia dwa odrębne brandy, które obdarzyliśmy samodzielnym życiem.


Postawiliśmy na usamodzielnienie się obu obszarów poprzez rozdzielenie ich formalnie w osobne brandy.

Oto my: dwie siostry- Mindbox i Mindworkers. Dzień dobry. Miło nam Cię poznać. Don’t worry. Na pewno któraś z nas odpowie na Twoje wyzwanie i rozwiąże ten problem. Długo nas słuchałeś. Teraz my zamieniamy się w słuch.