Budowanie przewagi konkurencyjnej w oparciu o analizę danych produkcyjnych

Szef działu produkcji ma wiele odpowiedzialnych zadań. Koordynuje i nadzoruje pracę kierowników zmian lub brygadzistów, motywuje zespół do efektywnego działania, pracuje nad zapewnianiem terminowej realizacji planu produkcyjnego.

2019-07-17 08:33:40

Budowanie przewagi konkurencyjnej w oparciu o analizę danych produkcyjnych

Szef działu produkcji ma wiele odpowiedzialnych zadań. Koordynuje i nadzoruje pracę kierowników zmian lub brygadzistów, motywuje zespół do efektywnego działania, pracuje nad zapewnianiem terminowej realizacji planu produkcyjnego. Musi kontrolować parametry efektywności i wydajności swojego działu. Jest odpowiedzialny za jakość, koszty i bezpieczeństwo. To kierownik produkcji zazwyczaj inicjuje działania mające na celu wdrożenie usprawnień w celu doskonalenia i optymalizacji procesu produkcyjnego. Systematycznie podwyższa standardy, by dział produkcji osiągał coraz lepsze wyniki. Między innymi dzięki jego pracy firma ma szansę na wypracowanie nowych przewag konkurencyjnych. Przyjrzyjmy się w związku z tym zagadnieniu analizy danych produkcyjnych oraz temu, w jaki sposób może ona przybliżyć kierownika produkcji do osiągania lepszej jakości i wyników działu.

Pozyskiwanie i zbieranie danych

Każda firma produkcyjna dysponuje ogromem informacji na własny temat, które generowane są podczas codziennej pracy. A raczej dysponowałaby, gdyby je zbierała. Wciąż nie jest to jednak popularną praktyką, szczególnie w mniejszych zakładach dysponujących mniejszym budżetem na innowacje. Istnieje wiele metod pozyskiwania informacji na temat produkcji, pośród których wymienić można:

  • systemy sensoryki przemysłowej,
  • pomiary wykonywane podczas pracy maszyn,
  • rozmowy z pracownikami.

Pod pojęciem sensoryki przemysłowej kryje się wiele rozwiązań, które można wykorzystać do pozyskiwania danych na temat produkcji. Prócz tradycyjnych czujników obecnych w większości zakładów produkcyjnych zarówno do weryfikacji stanu otoczenia produkcji, jak i biorących udział w sterowaniu procesem, coraz częściej instalowane są systemy wizyjne, a także wbudowane w mechanizm poszczególnych maszyn układy czujników własnych, monitorujących pracę danego urządzenia, a nie procesu jako całości.

System wizyjny to specyficzny układ czujników – najczęściej kamer – dzięki którym możliwe jest nagranie lub monitorowanie procesu produkcyjnego okiem maszyny. Rozwiązania tego typu wykorzystywane są jako element sprzężenia zwrotnego w sterowaniu procesem jako narzędzie do obserwacji procesu i zbierania danych o nim lub jako np. proces wspierający – kontrola jakości wyrobu. System wizyjny jako element struktury sterującej może być wykorzystany np. do monitorowania przepływów. Jeśli struga materiału zwiększa swoją objętość lub wysokość poziomu poza ustaloną normę, algorytm sterujący obniża parametry, czego skutkiem jest ograniczenie przepływu. Jeśli zawartość materiału docelowego w materiale wsadowym przekracza ustalony poziom, system ogranicza ilość materiału wsadowego przetwarzanego na raz. Dokładność systemów wizyjnych zależy od takich parametrów, jak rozdzielczość kamery, jakość kalibracji urządzeń, długość i jakość okablowania lub transferu bezprzewodowego, elementy obliczeniowe czujników i ustawiona w nich dokładność pomiarowa, dokładność zapisu danych. Kamerę dodatkowo łatwo zachlapać, ubrudzić czy przesunąć, przez co cały pomiar nie nadaje się do wykorzystania. Dlatego systemy wizyjne najlepiej sprawdzają się w produkcji czystej, zainstalowane w trudno dostępnym miejscu. Czasami jednak proces wytwórczy wymaga systemu wizyjnego nawet w otoczeniu brudnym, gdzie łatwo o zaburzenie pomiaru. Przykładem mogą być np. niektóre etapy  przetwórstwa rud metali.

Kolejną innowacją, z której można skorzystać w celu pozyskania większej liczby wartościowych informacji o produkcji są parametry pracy maszyn. Do tej grupy należą zarówno parametry wynikowe, np. liczba operacji wykonanych na minutę, jak i dane pozyskane dzięki układowi sensoryki zainstalowanemu w kluczowych obszarach pracy maszyny. Pomiary te, zgodnie z myślą Total Productive Maintenance,  pozwalają na zaprojektowanie przeglądów i konserwacji maszyny w taki sposób, by jak najwięcej czasu poświęcić na właściwą pracę urządzenia. Wiedza uzyskana dzięki instalacji czujników umożliwia zastosowanie podejścia predykcyjnego. Na podstawie danych historycznych można w procesie analizy wyszczególnić korelacje pomiędzy zmianą poszczególnych parametrów pracy maszyny a jej usterkami lub błędnym funkcjonowaniem. Następnie projektuje się szereg warunków, dzięki którym dopuszczenie do usterki maszyny, której konsekwencją jest nieplanowany przestój w pracy, staje się coraz trudniejsze. Zyskowność maszyny wzrasta, a koszt jej utrzymania spada z czasem.

Analiza danych

W poprzednim przykładzie dotknęłam już zagadnienia analizy danych i tego, co ona umożliwia. Jest to jednak przykład wyjęty ze znacznie szerszego kontekstu możliwości analitycznych, z których większość firm wciąż nie korzysta. Liczba danych, którymi dysponuje produkcja, jest wręcz nieograniczona. Gdyby możliwe było zapisywanie ich wszystkich do późniejszej analizy, możliwości, które są wynikiem takiego postępowania, byłyby trudne do wyobrażenia dla laika. Terabajty danych poddanych weryfikacji to coś, co ciężko zwizualizować. Ciężko również przeprowadzić tego typu analizę bez odpowiedniego przygotowania merytorycznego oraz infrastruktury umożliwiającej zaawansowane obliczenia.

Kilka warunków musi zostać spełnionych, jeśli możliwa ma być zaawansowana analiza danych produkcyjnych, są to:

  • dysponowanie informacjami do analizy,
  • dysponowanie algorytmami analitycznymi,
  • dysponowanie przestrzenią dyskową do zapisu danych,
  • dysponowanie infrastrukturą obliczeniową.

Informacje do analizy pozyskuje się dzięki obecności systemów pomiarowych, zainstalowanych w przestrzeni produkcyjnej firmy. Dane też można następnie zapisać na serwerach wewnętrznych firmy lub też w prywatnej przestrzeni chmurowej o odpowiednim poziomie zabezpieczeń. Dane antyczne wykorzystywane do optymalizacji nie są w produkcji potrzebne ciągle. Nie są one w całości wykorzystywane do sterowania procesem ani nawet do monitorowania stanu maszyn. Oznacza to, że mogą one być przechowywane centralnie, nie zaś lokalnie – blisko stanowisk pracy poszczególnych urządzeń czy etapów procesu. Można więc zdecydować się na zbudowanie serwerowni i przechowywanie informacji we własnej przestrzeni dyskowej lub na inwestycję w chmurę prywatną, dzięki czemu niewymagane jest dysponowanie ani odpowiednim sprzętem, ani dedykowanym pomieszczeniem.

Do analizy danych trzeba wykorzystać konkretny sposób, w jaki chcemy dokonać analizy, a przede wszystkim należy określić jej cel. Przy ograniczonej liczbie parametrów dotyczących wąskiego etapu procesu analiza ta jest relatywnie prosta. To dlatego coraz więcej firm wdraża TPM i przechodzi na predykcyjne utrzymanie ruchu. Dosyć łatwo jest przeanalizować posiadane wartości parametrów pracy maszyny w odcinku czasu i wyodrębnić istotne korelacje pomiędzy nimi. Jest to jednak kropla w morzu produkcyjnych potrzeb. Chęć zoptymalizowania całego procesu produkcyjnego wymaga szerszego podejścia do tematu i bardziej zaawansowanych narzędzi. Z pomocą mogą przyjść np. sieci neuronowe. Sieć neuronowa to warstwowy układ neuronów obliczeniowych, z których każdy wykonuje pojedyncze działanie matematyczne. Suma poszczególnych obliczeń daje wynik pojedynczej warstwy. W zależności od poziomu skomplikowania obliczeń sieć może mieć od jednej do nieograniczonej liczby warstw, z czego każda sieć posiada warstwę wejściową, wyjściową oraz n warstw ukrytych. Warstwa wejściowa to ta, do której wprowadza się dane do analizy. Warstwa wyjściowa daje wynik obliczeń sieci. Sieci neuronowe można w różny sposób projektować, tak aby spełniały określone cele.

Z pomocą przy analizie dużej liczby informacji różnego typu przychodzi także tzw. deep learning, czyli uczenie głębokie. Deep learning jest jedną ze składowych machine learningu, czyli uczenia maszynowego. Algorytm uczący na podstawie danych treningowych – historycznych danych produkcyjnych – wyciąga logiczne wnioski na przyszłość. Algorytm „uczy się”, jak klasyfikować dane wsadowe. Deep learning korzysta między innymi z tzw. głębokich sieci neuronowych, czyli sieci o większej liczbie warstw ukrytych. Wynikiem deep learningu może być opracowanie skutecznego schematu postępowania w oparciu o występowanie korelacji różnych parametrów. Największą zaletą deep learningu jest to, że sieć sama uczy się, na jakie parametry zwracać uwagę, a które zignorować, ponieważ żadne zachowanie pozostałych parametrów od nich nie zależy. Sieć może być moderowana, algorytm uczący zmieniany, jednak gro obliczeń wykonywanych jest przez układ sam w sobie.

Dostępność informacji

Ostatnim etapem optymalizacji z wykorzystaniem innowacji obliczeniowych jest dostępność informacji. Dzięki rozwiązaniom chmurowym z odpowiednim poziomem zabezpieczenia możliwy jest dostęp do posiadanych informacji i analiz z każdego miejsca na ziemi spełniającego szereg stawianych przez firmę warunków. O ile w kontekście danych biorących udział w procesie sterowania przechowywanie takich informacji w chmurze nie jest bezpieczne i zagraża procesowi produkcyjnego, o tyle korzystanie z chmury w kontekście przeprowadzanych analiz dalekosiężnych wydaje się bardzo korzystne. Jednym z powodów jest np. możliwość udostępnienia pliku wsadowego firmie zewnętrznej, która po zobligowaniu się do zachowania poufności może zaprojektować algorytmy obliczeniowe dla swojego produkcyjnego klienta. Uczenie maszynowe to stosunkowo nowa dziedzina nauki i nie każda firma dysponuje zasobami – głównie ludzkimi – by wdrożyć u siebie tak zaawansowaną innowację. Zdobywanie przewagi konkurencyjnej wymaga odwagi. Odwagą jest także otwarcie się na zewnętrznych specjalistów, ich wiedzę, a także opinię. Jednak możliwości optymalizacji procesów płynące z wiedzy o tym, co konkretnie dzieje się na poszczególnych etapach produkcji i jak różnego rodzaju parametry wynikowe oddziałują na siebie, daje nieograniczone pole do popisu w zakresie obniżania kosztów produkcji, zwiększania jakości, bezpieczeństwa oraz dbania o zużycie zasobów i ekologię. Warto więc otworzyć się na to, co nowe i nieznane, by jako jeden z pierwszych w branży móc pochwalić się produkcją na zupełnie nowym poziomie zrozumienia procesów.


Autor: Agnieszka Hyla, prowadzi 20-osobowy zespół tworzący oprogramowanie szyte na miarę, rozwiązujące różnego rodzaju problemy firm, budowane z wykorzystaniem elementów sztucznej inteligencji, uczenia maszynowego czy sieci neuronowych. Zajmuje się optymalizacją procesów i zagadnieniami związanymi z zarządzaniem i motywacją.

partnerzy
  • ZETO
  • Berendsen
  • Ingersoll Rand
  • MADevice
  • Elokon
  • HF Inverter
  • Efaflex
  • NTN SNR
  • Expo Silesia
  • Albeco
  • Exxon Mobil
  • Rittal
  • Nowimex
  • Sternet
  • Lobo Solutions
  • Tubes
  • Lean Action Plan
  • Flir
  • TEST Systemy Uszczelniajace
  • Karcher
  • Parker Hanifin
  • SEW Eurodrive
  • IGUS
  • Pilz
  • BTC AG
  • EMTSystems
  • Colt International
  • Hansford Sesnsors
  • Habasit
  • Finder
  • NSK
  • Heico
  • Elmodis
  • Tribotec
  • Hormann
  • AS Instrument
  • Cold Jet
  • Queris
  • ABUS
  • Optibelt
  • Elesa Ganter
  • HI VIB
  • Protekt
  • VIMS
  • CC JENSEN
  • Lotos Oil
  • Pruftechnik Wibrem
  • Cantoni
  • FESTO
  • Orlen Oil
  • BalticBerg
  • Staubli
  • Conrad
  • Schmersal
  • Tsubaki
  • ISL
  • TQM Soft
  • SSI Schaefer
  • EURO Pro Group
  • Amargo
  • Ecol
  • Apator
  • Cert Partner
  • GT85
ZNAJDŹ NAS: