Treści

Jak zwiększyć kontrolę nad procesem produkcyjnym – na przykładzie modernizacji zrealizowanej w firmie Krynica Vitamin

Automatyzacja

Jak zwiększyć kontrolę nad procesem produkcyjnym – na przykładzie modernizacji zrealizowanej w firmie Krynica Vitamin

Kiedy proces produkcyjny wymaga ciągłej kalibracji w zależności rodzaju od produktów poddawanych obróbce, sprawdza się system automatycznego sterowania. Daje elastyczność, szybkość i większą kontrolę. Wyposażenie w niego działających maszyn jest tańsze niż zakup nowych.

Gdy kupujemy gazowany napój, zwracamy uwagę na kolorowe opakowanie z wyrazistym logo. Pijąc go, koncentrujemy się na smaku i aromacie. Rzadko zastanawiamy się, gdzie został wyprodukowany. Gdybyśmy jednak to robili, doszlibyśmy do wniosku, że bardzo często pite przez nas napoje pochodzą z Krynicy Vitamin – firmy, z siedzibą w Warszawie, będącej wiodącym producentem napojów bezalkoholowych i niskoalkoholowych. Skalę produkcji obrazuje konkretna liczba: 500 milionów.   

Właśnie tyle napojów – zarówno w puszkach jak i opakowaniach PET – jest produkowanych rocznie w zakładzie Krynicy Vitamin mieszczącym się w miejscowości Dziadkowskie-Folwark na Podlasiu. Ze względu na wieloletnią współpracę z firmą ASTOR, Eugeniusz Grykowski – główny automatyk firmy – pozwolił nam obejrzeć efekt modernizacji urządzenia służącego do pasteryzacji napojów – pasteryzatora tunelowego.

Analizując ten projekt, pochylimy się nad kwestiami takimi jak: skuteczne zwiększenie kontroli nad procesem produkcyjnym, skuteczna i sprawna odpowiedź na zaburzenia w parametrach środowiskowych, a także elastyczność w sterowaniu i zmianie nastaw produkcji.

Pasteryzacja jest ważną częścią składową procesu produkcji żywności, nie tylko napojów. Dzięki podgrzaniu produktów do określonej temperatury zabijamy bakterie, drożdże i pleśń powodujące przedwczesne psucie się produktów. Proces ten nie pogarsza jednak smaku ani wartości odżywczych. Pasteryzacja pozwala na wydłużenie okresu przydatności do spożycia, a co za tym idzie, na dłuższe przechowywanie produktu i transportowanie go na dłuższym dystansie.

Obraz 1. Obudowa i wnętrze pasteryzatora z produktami, które są pasteryzowane.

W Krynicy Vitamin proces pasteryzacji realizowany jest w ten sposób, że puszki z napojami na specjalnej taśmie przemieszczają się od strefy do strefy, a w każdej z nich są ogrzewane płaszczem wody o innej temperaturze – początkowo niższej, następnie coraz wyższej (maksymalnie około 68-75 stopni Celsjusza), a na koniec znów niższej. W strefie wysokiej temperatury puszki przebywają około 15 minut. Całość procesu pozwala na zachowanie wydajności na poziomie ponad 50 tys. puszek na godzinę, przy 40-minutowym cyklu pracy.

Obraz. 1 Wnętrze pasteryzatora.

Obraz 2. Podglądowy schemat temperatury w poszczególnych strefach maszyny wraz z obiegiem wody w pasteryzatorze tunelowym.

Przed modernizacją sterowanie procesem odbywało się za pomocą przekaźników i regulatorów temperatury. Wiązało się to z pewnymi ograniczeniami wynikającymi z faktu, że parametry procesu zależne są od kilku zmiennych, takich jak kształt puszki czy rodzaj napoju, który ma być pasteryzowany. Dostosowywanie do tych zmiennych wymagało od operatorów częstego dokonywania ręcznych przezbrojeń i zmiany nastaw.

Taki system sterowania generował duże ograniczenia nadzoru nad procesem. Operator musiał stale monitorować układ, by móc wykrywać ewentualne odchylenia od normy w pracy maszyny i w porę rozpoznać oznaki awarii. To operator zatrzymywał maszynę, gdy widział pierwsze niepokojące sygnały. Ciągłe diagnozowanie układu bywało nużące, bo nie wszystkie niepokojące zjawiska są widoczne na pierwszy rzut oka. Utrzymanie ruchu wymagało więc dokonywania regularnych przeglądów komponentów systemu. Wymagało od operatora dużej czujności i doświadczenia.

„Pierwszy kapitalny remont maszyny przeprowadzono 13 lat temu. Remont przywrócił jedynie pierwotną funkcjonalność urządzenia. Pasteryzator został wyprodukowany w 1992 roku. Zastosowane w nim rozwiązania techniczne znacząco odbiegały od standardów obowiązujących we współczesnych urządzeniach tego typu — zarówno pod względem wydajności, jak i precyzji kontroli parametrów procesu. W celu utrzymania wysokiej jakości produkcji firma przeprowadziła analizę techniczno-ekonomiczną, rozważając dwa warianty: zakup nowego pasteryzatora lub modernizację istniejącego urządzenia. Wyniki analizy wykazały, że modernizacja obecnie używanego modelu jest rozwiązaniem bardziej opłacalnym, zarówno pod względem kosztów inwestycyjnych, jak i integracji z istniejącą infrastrukturą produkcyjną”

– mówi Eugeniusz Grykowski.

Kompletny remont systemu sterowania został obwarowany kilkoma założeniami. Ustalono, że zmodernizowany system ma pozwalać na:

  • dokładny pomiar i kontrole parametrów, wprowadzenie alarmów w razie wystąpienia zaburzenia (za niska temperatura w danej strefie, krótki czas pasteryzacji);
  • udostępnianie informacji na zewnątrz do systemu SCADA dla systemów raportowych i laboratorium;
  • wizualizację dla operatorów – kontrolę przebiegu procesu pasteryzacji, jak i parametryzowanie produkcji poprzez listę zdefiniowanych receptur;
  • kontrolę dostępu do konkretnych funkcji aplikacji realizowaną poprzez tagi RFID.

Spełnienie tych wymogów było możliwe dzięki zastosowaniu kontrolera logicznego CPE210. Moduł ten pozwala na precyzyjne sterowanie pracą napędów i pomp, a także kontrolę temperatury w trakcie procesu pasteryzacji. Pozwala zbierać dane bezpośrednio z warstwy fizycznej. Na łatwość implementacji i konfiguracji nowego systemu sterowania wpłynęło zastosowanie protokołu profinet jako standardu.

O wyborze jednostki i kontrolera z rodziny PACSystems zdecydowała prostota w obsłudze i utrzymaniu – zaletą tej rodziny sterowników jest kompatybilność wsteczna w kontekście środowiska deweloperskiego. Dzięki niej nie ma konieczności utrzymywania różnych wersji oprogramowania narzędziowego dla kontrolerów, które zostały wyprodukowane w różnym czasie. Pozwala to ograniczyć nakłady na zasoby sprzętowe dla automatyków.

Sama wizualizacja wraz z modułem recepturowym oraz synoptykami została stworzona na komputerze panelowym Emerson przy użyciu oprogramowania Movicon. Rozwiązanie to zostało wybrane ze względu na łatwość w tworzeniu projektu, a także szerokie możliwości komunikacyjne – poza standardowymi protokołami przemysłowymi, aplikacja wykorzystuje połączenia do baz danych, co było ważne dla modułu recepturowego. Możliwość prowadzenia bezpiecznej, zdalnej diagnozy awarii i kontroli produkcji, była kolejnym czynnikiem, który przesądził o wyborze rozwiązania.

Modernizacja została przeprowadzona przez wydział automatyki we współpracy z działem utrzymania ruchu i w ocenie Grykowskiego można uznać ją za sukces. Podniosła poziom bezpieczeństwa procesu poprzez kontrole dostępu. Zmniejszyła ilości dokumentów papierowych w obiegu. Pozwoliła wprowadzić dokładny pomiar parametrów pracy, a także umożliwiła udostępnianie danych na potrzeby raportów w sposób autonomiczny. Implementacja pokazuje, że doświadczenie, które idzie w parze ze świadomością możliwości technologicznych, pozwala podjąć takie działania, które nie tylko ułatwiają utrzymanie ruchu, poprawiają bezpieczeństwo, ale i komunikację między różnymi działami w przedsiębiorstwie – pozwalając na osiągnięcie większych korzyści i większej efektywności biznesowej.

Obraz. 2 Okna synoptyczne dla kontroli i parametryzacji pracy pasteryzatora.

Avatar photo

Adam Gniadzik

Specjalista ds. systemów sterowania w ASTOR.

Temat jest dla Ciebie interesujący? Napisz wiadomość do autora i zdobądź ciekawy kontakt.

Czytaj więcej

Czytaj więcej
Czytaj więcej
Czytaj więcej

Treści

Fałszywe poczucie bezpieczeństwa – mity na temat cyfrowych zagrożeń w przemyśle

Cyberbezpieczeństwo

Fałszywe poczucie bezpieczeństwa – mity na temat cyfrowych zagrożeń w przemyśle

W powszechnym odczuciu, kwestie cyberbezpieczeństwa dotyczą małych i średnich przedsiębiorstw w ograniczonym stopniu. Oto, dlaczego takie myślenie może prowadzić na manowce.

W 2022 roku Parlament Europejski przyjął kolejną odsłonę dyrektywy znanej jako „Network and Information Security” – w skrócie NIS. Jej celem jest standaryzacja poziomu cyberbezpieczeństwa krajów członkowskich. Zmiany ustawodawcze, stawiające kolejne wymagania operatorom usług w zakresie cyberbezpieczeństwa, wywołały niemałe poruszenie w sektorze Małych i Średnich Przedsiębiorstw. Czy słusznie?

Analizując raport firmy Fortinet („2024 State of Operational Technology and Cybersecurity Report”) trudno się nie zauważyć, że cyberataki to coraz poważniejszy problem. Dane jasno wskazują na rosnącą liczbę incydentów, a także na ich negatyw wpływ na działalność przedsiębiorstw. Te jednak wciąż zdają się nie dostrzegać problemu. Pokazujemy, jak najczęściej firmy produkcyjne uzasadniają swoją bezczynność i dlaczego powinny zmienić podejście do kwestii bezpieczeństwa cyfrowego.

Mit1: Nasza sieć przemysłowa jest odseparowana i nie ma dostępu do Internetu, więc jest bezpieczna.

Rysunek 1. Architektura sieci, którą zazwyczaj można spotkać podczas audytów w MŚP.

Na rysunku 1. widzimy architekturę cyfrową większości zakładów przemysłowych. Mimo, że jest odseparowana, nie jest wolna od zagrożeń. Oto najważniejsze z nich:

  • Sieci biurowe z racji na dane, które przetwarzają oraz zainstalowane oprogramowanie wymagają połączenia z internetem. Działy IT integrują wiele mechanizmów zapewniających bezpieczeństwo (serwery proxy, firwewall’e, IDS’y), jednakże, w przypadku błędnie skonfigurowanych reguł intruz wciąż może wejść do sieci biurowej lub bezpośrednio do warstwy produkcyjnej.
  • W sieciach bezprzewodowych w warstwie produkcyjnej często brakuje szyfrowania danych (np. WPA3) oraz autoryzacji przed dostępem do sieci, co zwiększa podatność na ataki.
  • Niekiedy w sieci działają nieudokumentowane urządzenia dodane przez automatyków w trakcie napraw, wymian czy aktualizacji sprzętowej, które nie zostały zgłoszone, toteż nie zostały podjęte próby ich zabezpieczenia przed nieautoryzowanym dostępem. To dodatkowe ryzyko.
  • Zdarza się, że urządzenia wpinane do sieci nie są weryfikowane. Chodzi o komputery, pamięci USB, czy dyski pochodzące spoza zakładu. Jeżeli zainfekowane urządzenie sami wepniemy w sieć, intruz nie będzie potrzebował dostępu do Internetu.

Mit 2: Mamy firewall, więc czym mamy się przejmować?

Dobrze zintegrowany firewall, z pewnością utrudni dostęp do systemów firmowych i pomoże walczyć z intruzami. Niestety największą podatnością takich systemów wciąż jest czynnik ludzki. Brak przeprowadzanych regularnych audytów konfiguracji firewall’a, pozostawienie otwartych portów czy brak aktualizacji oprogramowania mogą doprowadzić do incydentu. W takim przypadku intruz może rozpocząć proces skanowania sieci i numeracji portów (FTP, SSH czy RDP, są niemalże zaproszeniem) lub rozpocząć proces IP spoofingu, czy szukaniu luk w warstwie aplikacyjnej sieci.

Mit 3: Hakerzy nie rozumieją systemów automatyki przemysłowej.

Niestety, ataki na sieci przemysłowe są coraz powszechniejsze. W 2010 roku odkryto robaka komputerowego o nazwie „Stuxnet”, który służył do ataków na systemy przemysłowe oparte o technologie firmy Siemens. Stuxnet po zainfekowaniu sprawdzał, czy komputer jest podłączony do PLC, po czym w razie wykrycia urządzenia, destabilizował procesy produkcyjne.

Zgodnie z raportem CISA pt. „Stuxnet Malware Mitigation (Update B)”, Stuxnet zawiera liczbę linii kodu porównywalną do niektórych komercyjnych produktów programistycznych. Złożony kod jest zbudowany obiektowo i wykorzystuje wiele technologii, które świadczą o zaawansowanej wiedzy z wielu dziedzin, w tym z systemu operacyjnego Windows, Microsoft SQL Server, oprogramowania firmy Siemens i sterowników PLC firmy Siemens. Złośliwe oprogramowanie wykorzystuje również wiele zaawansowanych technik anty-analizy, które utrudniają i wydłużają czas inżynierii wstecznej. […]”

Mit 4: Mamy zintegrowane systemy bezpieczeństwa, więc jesteśmy bezpieczni.

Rysunek 2. Różnica między systemami bezpieczeństwa wg normy IEC-61511.

W krytycznych miejscach instalacji procesowych z sektora petrochemicznego, chemicznego lub farmaceutycznego można spotkać tzw. systemy bezpiecznego odstawiania instalacji ESD (Emergency Shutdown System). Ich zadaniem jest zapobieganie wypadkom, w razie wykrycia alarmu krytycznego, poprzez wszczęcie procedur bezpiecznego odstawienia instalacji w sposób szybki i niezawodny (Rys.2). Urządzenia wykonawcze w ramach systemu ESD również muszą posiadać odpowiedni poziom nienaruszalności bezpieczeństwa (tzw. SIL – System Integrity Level) który zapewnia minimalizacje poziomu ryzyka dla eksploatowanych urządzeń.

Niestety, w razie cyberataku nie możemy polegać w pełni polegać na takich systemach, nawet jeżeli poziom nienaruszalności bezpieczeństwa jest bardzo wysoki. W 2017 zakład zajmujący się przetwórstwem ropy naftowej w Arabii Saudyjskiej został zaatakowany przy użyciu robaka HATman (znanego również jako Triton lub Trisis). Celem ataku był sabotaż systemów bezpieczeństwa zakładu, co z kolei miało doprowadzić do eksplozji. Wirus składał się z dwóch części: plików które komunikowały się ze stacjami inżynierskimi (które wykrywały i wykonywały program nawet bez środowiska deweloperskiego) oraz złośliwych plików binarnych, które były wgrywane do kontrolera bezpieczeństwa.

Rysunek 3. Algorytm działania oprogramowania HatMAN (źródło: NCCIC „MAR-17-352-01 HATMAN—SAFETY SYSTEM”)

Mimo że atak był nieskuteczny i ostatecznie nie doprowadził do sytuacji zagrożenia życia, to zademonstrował jak podobne cyberataki mogą doprowadzić do zniszczeń na dużą skalę.

Mit5: Nie jesteśmy przedsiębiorstwem definiowanym jako kluczowe lub ważne. Dlaczego powinniśmy się interesować cyberbezpieczeństwem?

Przedstawiona poniżej tabela z raportu CISA (Cybersecuirty &Infrestructure Security Agency) obrazuje medianę, a także minimalne i maksymalne koszty incydentu. Przytoczone badania statystyczne zostały przeprowadzane przez osoby i organizacje z branży cyberbezpieczeństwa.

Średni koszt na incydent w komercyjnych bazach danych (zaznaczonych na szaro) waha się od 394 000 do 19,9 miliona dolarów wg danych z rynku amerykańskiego i przekracza 40 milionów dolarów w danych globalnych. Mediana szacunków waha się od około 56 000 do prawie 1,9 miliona dolarów. Raport stwierdza: „[…] straty z tytułu cyberincydentów są znacznie niższe niż straty z tytułu innych ryzyk operacyjnych, takich jak niewłaściwe praktyki biznesowe lub rynkowe, katastrofy i inne zdarzenia, wady produktów, kradzież i oszustwa.”

Warto jednak zaznaczyć, że dokładne szacowanie strat i ryzyka generowanych przez incydenty cyberbezpieczeństwa nie jest prostym zagadnieniem. Problem jest asymetryczny – niewielka liczba luk w zabezpieczeniach może doprowadzić do znacznych konsekwencji. Nie jest zasadne porównywanie ryzyka cybernetycznego z innymi jasno określonymi kosztami operacyjnym wynikającym z zarządzania ryzykiem w przedsiębiorstwie (ERM). Czasami identyfikacja braków w zabezpieczeniach może nastąpić dopiero, gdy podjęte próby zapewnienia bezpieczeństwa przed nieuprawnionym dostępem zawiodą, a incydent zostanie wykryty i zidentyfikowany. Atakujący mogą również odnieść sukces wykorzystując dobrze znane, stare luki w zabezpieczeniach nieaktualizowanych systemów.

Rysunek 4. Raport (CISA: COST OF A CYBER INCIDENT: SYSTEMATIC REVIEW AND CROSS-VALIDATION).

Podsumowując:

Dla efektywnego działania współczesnych organizacji, a przede wszystkim bezpieczeństwa ich danych, wdrożone systemy zarządzania informacją powinny podlegać ciągłemu doskonaleniu i monitorowaniu. Dotyczy to nie tylko dużych przedsiębiorstw, ale również małych i średnich, coraz częściej narażonych na ataki cyfrowe. Optymalizacja ilości zabezpieczeń, prawidłowa implementacja i konfiguracja mechanizmów kontroli, a także regularne szkolenie personelu w zakresie cyber-higieny to czynniki, które z pewnością pomogą zminimalizować ryzyko wystąpienia groźnych incydentów.

Holistyczne podejście polegające między innymi na podnoszeniu poziomu wiedzy na temat cyber-zagrożeń jest związane ze sporym wysiłkiem i zmianą przekonań. Jednakże, zgodnie z powiedzeniem „lepiej zapobiegać niż leczyć”, inwestowanie w bezpieczeństwo ogranicza potencjalne koszty incydentów, których z każdym rokiem jest coraz więcej.

Cyberataki to nie wytwór XXI wieku

Choć nie jest to powszechnie znany fakt, pierwszy cyberatak, który przyniósł znaczące i dotkliwe szkody, został przeprowadzony jeszcze w 1982 r. W latach 70. ubiegłego stulecia. Związek Radziecki powołał specjalną jednostkę KGB której głównym celem było przejmowanie technologii i wartości intelektualnej z krajów Sojuszu Północnoatlantyckiego. W odpowiedzi służby wywiadowcze USA zaplanowały kontr-działania na masową skalę. Wprowadziły między innymi dodatkowe, destabilizujące funkcjonalności do systemów sterowania, które KGB przejęło od Digital Equipment Corporation (pierwszego, amerykańskiego producenta minikomputerów i procesorów 32-bitowych). To „zainfekowane” oprogramowanie zostało użyte przez Rosjan w systemach sieci przesyłowej gazu na Syberii. Po tygodniach bezproblemowej pracy, w październiku roku 1982, system wszedł w tryb „testu pracy układu”, przez co zupełnie dosłownie stał się bombą z opóźnionym zapłonem. Pierwszy robak komputerowy zmusił turbiny i pompy do podnoszenia ciśnienia w układzie rurociągów, czego efektem była eksplozja o sile trzech kiloton.

Źródło: Secure Sources Lacking for Weapons Electronics. – The New York Times

Avatar photo

Adam Gniadzik

Specjalista ds. systemów sterowania w ASTOR.

Temat jest dla Ciebie interesujący? Napisz wiadomość do autora i zdobądź ciekawy kontakt.

Czytaj więcej

Czytaj więcej
Czytaj więcej
Czytaj więcej