Pobierz
najnowszy numer

Newsletter

Zapisz się do naszego Newslettera, aby otrzymywać informacje o nowościach z branży!

Jesteś tutaj

Nowe technologie w ochronie infrastruktury krytycznej

Printer Friendly and PDF

lead.jpg Metodyka ochrony obiektów i organizacja systemów ochrony podlegają ciągłemu doskonaleniu w miarę rozwoju technologii i wprowadzania na rynek doskonalszych urządzeń. Stymulacja rozwoju nowych technologii wynika z potrzeby ciągłego „uszczelniania” ochrony obiektów publicznie dostępnych, a jednocześnie szczególnie ważnych w organizacji życia społecznego. Ogólnie nazywamy je obiektami szczególnego znaczenia objętymi obowiązkiem ochrony lub obiektami infrastruktury krytycznej (od ang.: Critical Infrastructure).

1. Wstęp

Do infrastruktury krytycznej zaliczamy rozległy wachlarz obiektów o zróżnicowanej strukturze użyteczności społecznej, np.:

  • obiekty przemysłowe: rafinerie, elektrownie, zakłady produkcji chemicznej, zakłady produkcji uzbrojenia itp.,
  • obiekty środków transportu: porty lotnicze, morskie, lądowe, samoloty, statki, pociągi, autobusy, tramwaje,
  • magazyny, zbiorniki i infrastrukturę zaopatrzenia ludności w żywność, wodę, „powietrze” oraz energię,
  • obiekty związane z bezpieczeństwem miast, zgromadzeń, imprez sportowych.

Obiekty infrastruktury krytycznej są zróżnicowane pod względem obszaru, budowy, rodzaju zagrożeń i ewentualnych skutków ataków przestępczych.

Niemniej jednak wszystkie wyżej wymienione obiekty można podporządkować pod unijny (europejski) model ochrony, wprowadzony przez Advisory Group of Security w 2005 r., który rozważa zabezpieczenie obiektów w trzech wymiarach: celu, zagrożenia i przeciwdziałania (targets, threats and countermeasures).

Celem i zadaniem zabezpieczenia każdego chronionego obiektu jest przeciwdziałanie możliwym zagrożeniom i uniemożliwienie wyrządzenia szkód, w tym poszkodowania osób, spowodowania strat materialnych czy zakłócenia funkcjonowania obiektu.

Zgodnie ze wspomnianym wcześniej modelem ochrony przeciwdziałanie to:

  • integracja działania systemów ochrony technicznej (wyposażenia),
  • integracja działania ludzi (obsługa systemów, interwencja fizyczna),
  • organizacja zarządzania bezpieczeństwem i procedury postępowania.

W pełnym opisie organizacji przeciwdziałania, czyli zabezpieczenia obiektu, należałoby przedstawić problemy trzech wymienionych podsystemów organizacji zabezpieczeń. Z uwagi na techniczny charakter publikacji rozpatrzony zostanie tylko rozwój technologii urządzeń ze wskazaniem na tendencje rozwojowe systemów ochrony z zastosowaniem urządzeń nowych technologii. Ogólnie biorąc, system ochrony technicznej obiektu infrastruktury krytycznej można rozważać jako współdziałanie trzech systemów:

  1. Systemu ochrony obwodowej (perymetrycznej) i otwartego obszaru obiektu;
  2. Systemu ochrony mienia i kontroli ruchu osób w obrębie zabudowy obiektu;
  3. Systemu monitoringu wizyjnego ogólnie dostępnych obiektów miast, stadionów, dworców, terminali lotniczych, obiektów handlowych, hal produkcyjnych itp.

Zakres zastosowania i rozbudowy danego systemu zależy od rodzaju rozważanego obiektu. Niemniej jednak technologie, na które zwrócona zostanie uwaga, mogą występować w różnych aplikacjach we wszystkich wymienionych wyżej systemach.

Dla właściwego zobrazowania postępu technologicznego przeciwstawione zostaną elementy systemu klasycznego i aktualnie wdrażanego.

  1. W systemach ochrony perymetrycznej występuje w tym przeciwstawieniu klasyczny system uzbrojonej obwodnicy (ogrodzenie, systemy detekcji wzdłuż obwodu obiektu oraz obserwacja kamerowa) i nowoczesny system radarowo-termowizyjny detekcji granicy ogrodzenia, obszaru otwartego i śledzenia intruza.
  2. Klasycznej obserwacji wizyjnej z operatorem analizującym obrazy z kilkunastu kamer przeciwstawiamy „inteligentną” komputerową analizę obrazów termowizyjnych z automatycznym wskazaniem zaprogramowanej sceny będącej celem obserwacji.
  3. Zamiast oddzielnej obserwacji ekranów wizualizacji wskazań radaru, kamer termowizyjnej i wizyjnej – fuzje na jednym ekranie ze zobrazowaniem i wskazaniem ruchu śledzonego obiektu i jego lokalizacji na mapie.
  4. Zamiast dedykowanej wewnątrzsystemowej telekomunikacji – otwarte sieciowe systemy teleinformatyczne.

Poszczególne rozdziały artykułu będą poświęcone omówieniu wyżej wymienionych zagadnień.

2. System ochrony perymetrycznej nowej generacji

Na rys. 1 przedstawiono budowę klasycznej obwodnicy w systemie ochrony perymetrycznej.

Systemy tego rodzaju rozwijały się głównie w celu ochrony obiektów wojskowych składnic i baz jako obiektów oddalonych od terenów zabudowanych i chronionych przez wydzielone oddziały wartownicze. Główne elementy systemu stanowiły: podwójne ogrodzenie (zewnętrzne i wewnętrzne), podwójny system detekcji (podsystemy dwóch różnych technologii) i (albo zamiast jednego z systemów detekcji) wizualna weryfikacja alarmu z oświetleniem całej obwodnicy.

rys1.gif

  Rys. 1. Przykładowy klasyczny system ochrony perymetrycznej

Koniecznym elementem takiego systemu jest kanalizacja rurowa do ułożenia kabli sygnałowych, wizyjnych i zasilania elektrycznego. Strefowy system zasięgu czujników, barier i kamer rzędu 100 m i oświetlenia (50 m) przy wielokilometrowym obwodzie chronionego obiektu rozrasta się do kilkudziesięciu elementów jednego podsystemu. Przy dwóch, trzech podsystemach obwodnicy liczba elementów (czujników ogrodzeniowych, barier naziemnych, kamer) sięga rzędu stu i więcej, co z kolei powoduje generowanie fałszywych alarmów w liczbie, która czyni system uciążliwym i mało skutecznym w codziennej eksploatacji. Zwłaszcza doświadczenia wieloletniej eksploatacji takich systemów przy słabej obsłudze serwisowej nie są zachęcające.

Poza wyżej wymienionymi problemami dowolny system ochrony perymetrycznej wykrywa naruszenie strefy tylko w wąskim pasie obwodnicy. Po przeniknięciu intruza przez pas chroniony ślad po nieproszonym gościu ginie, jako że teren między obiektem chronionym a obwodnicą nie jest monitorowany.

Patrol ochrony wyruszający na poszukiwanie intruza w kilku- lub kilkunastohektarowym terenie (często zalesionym) jest bardziej narażony na atak ze strony intruza niż poszukiwany intruz na ujawnienie.

W ciągu ostatniej dekady cele i zadania ochrony perymetrycznej uległy istotnej zmianie. Przebywanie wojsk wielu krajów w Afganistanie, Iraku, w zamkniętych, chronionych murem obozach, wytworzyło zapotrzebowanie na środki ochrony perymetrycznej z możliwością obserwacji poza ogrodzonym terenem obozu oraz możliwością wykrycia, rozpoznania, identyfikacji i śledzenia intruza bez względu na porę dnia i warunki atmosferyczne.

W krajach wysoko rozwiniętych, głównie w Ameryce i Europie, ochroną perymetryczną zostają objęte lotniska, elektrownie atomowe, fabryki chemiczne jako obiekty szczególnie narażone na ataki terrorystyczne.

W Polsce rozwija się grupa lotnisk regionalnych, które bazują głównie na byłych lotniskach wojskowych, oddalonych od aglomeracji miejskich, łatwo dostępnych ze skrytego podejścia do rozległego terenu. Typowy obwód tych lotnisk wynosi 12–15 km i obejmuje powierzchnię rzędu kilkuset hektarów. Tego rodzaju lotniska aktualnie poddaje się ochronie perymetrycznej. Z tego względu przyjmiemy typowe lotnisko jako przykładowy obiekt budowy ochrony perymetrycznej w nowej technologii.

Zgodnie z Zarządzeniem Urzędu Lotnictwa Cywilnego (ULC) realizującego zalecenia unijne ochrona lotnisk ma być zróżnicowana odnośnie środków i szczelności ochrony w zależności od strefy lotniska. Zarządzenie wyróżnia strefy – ogólnodostępną, zastrzeżoną, sterylną – i obiekty szczególnego znaczenia, takie jak płyta postojowa i obsługi statków powietrznych, wieża kontrolna, urządzenia naprowadzania do lądowania, magazyn paliw, stacje zasilania itp.

Ze względu na ochronę perymetryczną interesuje nas strefa zastrzeżona, która obejmuje cały teren lotniska objęty ogrodzeniem zewnętrznym. Zgodnie z zaleceniem ULC detekcja intruza ma nastąpić przy przekraczaniu ogrodzenia, ale wskazana jest obserwacja przedpola poza ogrodzeniem i śledzenie wykrytego intruza po przekroczeniu ogrodzenia na całym terenie otwartym lotniska oraz monitorowanie terenu lotniska, w tym pasa startowego i dróg kołowania.

A zatem ochrona rozległego obiektu infrastruktury krytycznej to nie tylko detekcja w pasie obwodnicy i odpowiedź na pytanie, czy intruz przekroczył obwodnicę czy nie, ale jeśli przekroczył, to także jego śledzenie i ciągłe przekazywanie jego obrazu oraz trasy ruchu patrolowi interwencji fizycznej. Zatem patrol interweniujący ma istotną przewagę taktyczną nad ewentualnym przeciwnikiem i szansę skutecznej interwencji.

Jak z tego wynika, funkcje ochrony obwodowej obiektów infrastruktury krytycznej w rozumieniu wytycznych unijnych uległy istotnemu rozszerzeniu. Tych wymagań ochrony nie spełni już żaden system w klasycznej organizacji w ramach obwodnicy jak na rys. 1. Niezbędne są bierne i aktywne systemy falowe, takie jak radary naziemne, kamery termowizyjne, kamery wizyjne, o zasięgach kilkusetmetrowych, wzajemnie sprzężone i wykrywające przekraczanie ogrodzenia oraz monitorujące w systemie okrężnym cały teren lotniska jako strefę zastrzeżoną. Rosną również wymagania względem Centrum Nadzoru w zakresie współpracy z załogą patrolu. Konieczne jest odwzorowanie terenu lotniska wraz z obiektami na mapie cyfrowej, lokalizacji intruza oraz patrolu we współrzędnych mapy i dynamiczne śledzenie wizyjne rozwoju wydarzeń w przypadku organizacji interwencji fizycznej.

Elementy współczesnego systemu ochrony rozległego obiektu infrastruktury krytycznej na przykładzie portu lotniczego zostały przedstawione na rys. 2.

rys2.gif

Rys. 2. Wycinek (sektor) systemu ochrony strefy zastrzeżonej portu lotniczego

Ogrodzenie aktywne, np. z czujnikiem światłowodowym z liniową detekcją miejsca zaburzenia, wyznacza granice strefy zastrzeżonej. Radar naziemny, kamera termowizyjna i kamera wizyjna mogą być montowane na jednej platformie lub oddzielnie sprzężone poprzez oprogramowanie Centrum Nadzoru. Radar o zasięgu rzędu 1200–1500 m obejmuje sektor ogrodzenia rzędu 2–3 km, posiada zdolność detekcji intruza odpowiednio do 800–1000 m i sięga „wzrokiem” poza ogrodzenie. Kamera termowizyjna i wizyjna ze sterowanym obiektywem (zoom) i z detekcją intruza na granicy ogrodzenia obserwuje wydzielony sektor. W przypadku wykrycia intruza przekraczającego ogrodzenie radar przejmuje sterowanie zespołem kamer i łącznie śledzą, rozpoznają i identyfikują intruza.

Centrum Nadzoru alarmuje patrol Służby Ochrony Lotniska (SOL), przekazuje wizyjnie obraz intruza i jego położenie na mapie lotniska i śledzi rozwój wydarzeń. Patrol lokalizuje swoje położenie za pomocą GPS i rejestruje swój ruch na mapie własnej i Centrum Nadzoru.

W przypadku wąskich obszarów strefy zastrzeżonej, wydłużonej wzdłuż pasa startu i lądowania, co występuje na lotniskach powojskowych, zespół kamerowy z radarem może objąć w przemiataniu dookolnym całą szerokość strefy zastrzeżonej. W sumie 2–3 zespoły radarowo-kamerowe są w stanie objąć monitoringiem 80–90% terenu lotniska. Warto w tym miejscu zaznaczyć, że stosując radarowo-kamerowy zestaw łączący aktywny radar z pasywną kamerą rejestrującą różnice termalne w polu widzenia i kamerą wizyjną, otrzymujemy zestaw „widzący” w dzień i w nocy w różnych warunkach pogodowych bez konieczności oświetlania granicy obszaru lotniska i terenu lotniska. Ponadto równolegle monitorowane są ważne obiekty portu lotniczego, np. pas startowy, droga kołowania i inne obiekty.

Wymienione zestawy radarowo-kamerowe stacjonarne lub mobilne maja podobne zastosowanie w ochronie portów morskich, granic i innych obiektów o podobnej strukturze.

3. Ewolucja sprzętowa rozpoznawania obrazowego w systemach ochrony

3.1. Kamery wizyjne

Kamery wizyjne z matrycowym czujnikiem obrazu CCD są stosowane w systemach ochrony od ponad pół wieku. Najważniejszą cechą kamery jest jakość obrazu, która zależy od wielu czynników zarówno technologicznych (doboru optyki, jakości matrycy, przetwarzania, transmisji i odtwarzania obrazu), jak i pogodowych. Ale najważniejszym kryterium pozyskania obrazu umożliwiającego rozpoznanie sceny jest poziom oświetlenia obszaru obserwacji. W praktyce oznacza to konieczność sztucznego doświetlania sceny obserwacji mimo stosowania różnych technik widzenia w warunkach słabego oświetlenia.

Ponadto matryca zobrazowania CCD stosowana w kamerach ma określoną liczbę pikseli, które są „nakładane” na pole widzenia kamery. Jeżeli pole widzenia powiększa się, to także liczba metrów kwadratowych terenu w polu widzenia jednego piksela powiększa się, a rozdzielczość obrazu maleje odwrotnie proporcjonalnie do pola widzenia. W rezultacie systemy wizyjne generalnie nie są dostosowane do obserwacji szerokokątnej, ale są bardzo użyteczne przy rozpoznawaniu sceny z odpowiednio dobranym obiektywem dostosowującym powierzchnie pola widzenia do zdolności rozdzielczej matrycy.

3.2. Kamery termowizyjne

Kamery wizyjne i termowizyjne różnią się zasadą fizyczną pozyskiwania obrazu. Kamera wizyjna rejestruje promieniowanie odbite pochodzące z postronnego (w odniesieniu do kamery i obiektu) źródła. Zasada działania kamery termowizyjnej eliminuje źródło zewnętrzne, gdyż kamera ta rejestruje kontrast termiczny miedzy obiektem i otoczeniem. Każdy obiekt w ruchu (biologiczny czy mechaniczny) generuje energię o natężeniu promieniowania termicznego (w podczerwieni) wyższą od statycznego otoczenia.

Eliminacja postronnego źródła doświetlania sceny powoduje, że dwie technologie – wizyjna i termowizyjna – wzajemnie uzupełniają się w systemach ochrony. Do niedawna głównym ograniczeniem użycia kamer termowizyjnych w systemach ochrony była cena. Wprowadzenie na rynek niechłodzonych i stosunkowo tanich termowizyjnych kamer, zbudowanych na bazie matryc bolometrycznych, udostępniło zastosowanie tej technologii w systemach ochrony.

Zasięg widzenia i kryterium detekcji rozpoznania i identyfikacji obu kamer wizyjnych i termowizyjnych są podobne i będą omówione w następnym rozdziale.

fot1.gif

Fot. 1. Ilustracja zestawów: a) kamerowych (kamery wizyjna i termowizyjna); b) radarowo-kamerowych (kamera po lewej stronie, radar po prawej)

Należy jeszcze podkreślić, że mimo różnej zasady fizycznej detekcji obiektu podatność obu kamer na wpływ opadów (deszczu, śniegu) i przezroczystość atmosfery (mgły) jest zbliżona. Np. mgła lub opady powodują tłumienie fal podczerwieni 8–12 μm i 3–5 μm, na których pracują kamery termowizyjne, zatem maleje zasięg „widoczności” kamery. Ponadto opady, np. śniegu i deszczu, schładzają zarówno obiekt, jak i otoczenie niwelujące różnice temperatur – maleje więc kontrast sceny. Zatem mimo zastosowania dwóch technologii nie możemy zapewnić stałego prawdopodobieństwa wykrycia intruza na założonej odległości dla optymalnych warunków.

3.3. Radary naziemne (perymetryczne)

Radar (ang. Radio Detection and Ranging) jest powszechnie znany jako mikrofalowe urządzenie wykrywające obiekty latające i określające ich położenie w przestrzeni wraz ze śledzeniem ich ruchu. Zdolność przenikania mikrofal (3– 30 GHz) przez dym, mgłę, opady oraz możliwość wykrywania obiektów na ziemi (tzw. dynamiczne odtwarzanie topologii terenu) w zakresie zasięgu radaru spowodowały, że małe gabarytowo i małej mocy (rzędu dziesiątek miliwatów) naziemne radary stały się ważnym elementem w systemach ochrony.

W literaturze anglojęzycznej ten typ radarów oznacza się skrótem PSRS (Perimeter Surveillance Radar System) albo PSR (Perimeter Surveillance Radar) lub nazwą Security Radar i zgodnie z tym nazewnictwem znajduje on zastosowanie głównie w systemach ochrony obszarów rozległych. Rynkowo dostępne są dwa rodzaje radarów:

  • radary działające na falach centymetrowych, tradycyjnie zwanych mikrofalami, w zakresie częstotliwości 3–30 GHz, są najczęściej stosowane, mają zasięg 2–5 km przy górnej granicy częstotliwości i 5–10 km przy dolnej granicy częstotliwości;
  • radary działające na falach milimetrowych w zakresie częstotliwości 30 ÷ 300 GHz, pozwalają na uzyskanie zasięgu detekcji rzędu 1–3 km.

Oba typy radarów prezentują aktywną technologię w odróżnieniu od pasywnych kamer wizyjnych i termowizyjnych, zatem są mniej zależne od warunków zewnętrznych. Stosowane długości fal są również mniej tłumione przez opady i mgły niż o wiele krótsze fale widzialne lub podczerwień.

Detekcja intruza i określenie położenia (odległość, azymut) za pomocą fal elektromagnetycznych mogą być realizowane na wiele sposobów. Najprostsza jest metoda impulsowa. Powracający impuls wąskokątnej wiązki sondującej odbity od obiektu określa odległość na podstawie różnicy czasu emisji i powrotu. Kątowe położenie obracającej się anteny kierunkowej wyznacza azymut położenia obiektu.

Jeżeli radar generuje wiązkę sondującą jako fazowo koherentną (tzn. znana jest różnica fazy między impulsem generowanym a odbitym), to na podstawie efektu Dopplera możliwe jest obliczenie prędkości ruchomego obiektu, zaś efektem śledzenia obiektu jest kreślenie śladu ruchu obiektu. Zatem radar nie daje obrazu wizyjnego obiektu, lecz rzutuje na ekranie punkt symbolizujący obiekt, zaś ruch punktu po ekranie kreśli drogę fizycznego ruchu obiektu.

Cechą charakterystyczną radarów naziemnych jest możliwość szybkiego sekundowego przeszukiwania przestrzeni w zakresie 360° lub w wyznaczonym sektorze z dużym prawdopodobieństwem wykrycia w ustalonych zakresach zasięgu i małą liczbą fałszywych alarmów.

Radary naziemne zostały dostosowane przez swoje oprogramowanie do pracy w systemach zabezpieczeń jako aktywne czujniki dookolnej detekcji intruza współpracujące z czujnikami detekcji na granicy ogrodzenia. W przypadku sygnalizowania alarmu z danej strefy czujników radar zmienia tryb pracy na przeszukiwanie danej strefy.

Radary naziemne z reguły posiadają zdolność naprowadzania kamer termowizyjnych lub sprzężonego zestawu tych kamer na wykryty obiekt w celu ułatwienia rozpoznania i identyfi kacji obiektu.

Najbardziej spektakularne jest użycie zestawu radarowokamerowego zbudowanego na jednej platformie obrotowej lub dwóch oddzielnych (dla radaru i zestawu kamerowego), sprzężonych z obiektywem ustawianym automatycznie na odległość podaną przez radar.

Wyposażenie radaru w odbiornik GPS umożliwia określenie pozycji radaru i naniesienie na mapie cyfrowej chronionego terenu. Dzięki temu obiekty w polu widzenia radaru są automatycznie lokalizowane na mapie chronionego terenu. Każdy nowy obiekt w terenie będzie traktowany jako generujący alarm, dopóki operator nie zaakceptuje jego pozycji. Dzięki wyposażeniu radarów w rozbudowane oprogramowanie i technikę telekomunikacyjną radary stały się kluczowymi urządzeniami w organizacji nowej generacji systemów ochrony obszarów rozległych.

4. Ewolucja oprogramowania w systemach kamerowych i radarowo-kamerowych

Analiza obrazów kamer wizyjnych, termowizyjnych i ekranów radarowych przez operatora przy dużej liczbie zestawów kamerowych lub radarowo-kamerowych jest trudna i mało efektywna. Jak wykazują badania publikowane chociażby przez Akademię Monitoringu (Kraków), operator w cyklu dwugodzinnym pracy może obsługiwać cztery monitory i do 16 kamer.

Aktualnie do analizy obrazów w systemach ochrony są aplikowane i rozwijane od ponad 20 lat technologie widzenia komputerowego (Machine Vision), zwane w systemach ochrony kamerami automatycznego (inteligentnego) rozpoznawania obrazów lub w skrócie kamerami inteligentnymi (Automatic Video Surveillance – AVS albo Intelligent Video Surveillance – IVS).

W kamerach lub dokładniej w systemach inteligentnych kamer odpowiednie oprogramowanie analizuje obraz wg kryteriów wprowadzanych przez operatora systemu. Zatem kamera sygnalizuje alarm w przypadku pojawienia się w polu widzenia zaprogramowanej sekwencji obrazu: człowiek, samochód, przedmiot itp.

Drugą nie mniej ważną technologią, jeszcze słabo rozpowszechnioną, jest fuzja obrazów, np. z kamery wizyjnej i termowizyjnej. Nałożenie na siebie dwóch obrazów pozyskanych w różnych technologiach poprawia wizualną jakość obrazu i skuteczność analizy komputerowej.

Najnowsze doniesienia wskazują na wprowadzenie do procesu fuzji danych pozyskanych z radaru (np. współrzędnych lokalizacji na mapie). Poniżej przybliżymy w skrócie tę problematykę.

4.1. Technologia automatycznej (inteligentnej) analizy obrazu

Technologia detekcji ruchu

Analiza ruchu (Video Motion Detection – VMD) była pierwszą technologią w zakresie oprogramowania mającą wspomóc operatora w analizie obrazu wizyjnego. Automatyczna detekcja ruchu była wprowadzana równolegle z cyfryzacją obrazów i cyfrowym zapisem (Digital Video Recorder – DVR). Oprogramowanie VMD jest do dzisiaj stosowane do analizy ruchu w polu widzenia kamer wizyjnych i termowizyjnych, jest również wykorzystywane w radarach.

Program VMD porównuje bieżący obraz pola widzenia kamery albo wydzielony obszar z poprzednim. W przypadku wykrycia zmian w porównywanych obrazach sygnalizuje alarm, a obraz z „alarmowej” kamery wyświetlany jest na ekranie operatora.

Podstawą tej technologii było założenie, że każdy ruch w obszarze sceny jest interesujący dla obserwatora. Okazało się jednak, że w przestrzeni otwartej występuje wiele poruszających się obiektów (gałęzie drzew, owady, liście itp.), które generują fałszywe alarmy. W praktyce technologia VMD znalazła zastosowanie w przypadkach pomieszczeń zamkniętych.

rys3.gif

Rys. 3. Porównanie systemów analizy ruchu VMD i inteligentnej analizy obrazu IVS: a) obraz źródłowy; b) VMD – z trudem wykrywa  biekt pływający przy ruchu otoczenia; c) yraźna detekcja obiektu

Inteligentna analiza obrazu (Intelligence Video Surveillance – IVS)

IVS jest komputerową analizą obrazu, w której program śledzi zmiany intensywności w obrębie poszczególnych pikseli. Generacja alarmu następuje wg zaprogramowanego kryterium zmiany natężenia światła grupy pikseli lub przemieszczania się zmian. Technologia aplikowana w systemach ochrony jest gałęzią głównego nurtu badań sztucznej inteligencji (Artifi cial Intelligence) w problematyce widzenia maszynowego.

Zastosowanie technologii IVS czyni kamerę (zarówno wizyjną, jak i termalną) szczególnym czujnikiem, który stosuje odpowiednie algorytmy do detekcji i śledzenia zaprogramowanego obiektu w polu widzenia kamery. IVS zawiera również algorytmy pozwalające na klasyfi kacje obiektów na podstawie fi gury zarysowanej przez grupę „dynamicznych” pikseli i zdolna jest wyróżnić zwierzę, człowieka, samochód lub inny przedmiot. W zależności od przeznaczenia IVS może być wyposażona w algorytmy zdalnej identyfi kacji osób według szczególnych cech zachowania lub cech ubioru.

IVS może być użyta do analizy obrazów kamer stacjonarnych i obrotowych po wykonaniu sekwencji obrotu. Może obsługiwać kamery czarno-białe, kolorowe, słabego oświetlenia oraz kamery termowizyjne. IVS może być stosowana wewnątrz i na zewnątrz pomieszczeń w różnych warunkach atmosferycznych. Może być również wykorzystana w różnych scenariuszach bezpieczeństwa, np. w celu detekcji intruza w systemach perymetrycznych, detekcji pozostawionych przedmiotów lub usunięcia przedmiotów obserwowanych przez kamerę, detekcji zatrzymania się lub odjazdu pojazdu z obserwowanego miejsca, detekcji osoby biegnącej lub przepychającej się w grupie osób itp.

System monitoringu kamerowego wyposażony w IVS spełnia wymagania systemu zabezpieczeń w bardzo szerokim zakresie. W odniesieniu do obiektów infrastruktury krytycznej technologia IVS może być włączona w system ochrony perymetrycznej w kamerach indywidualnych lub w zestawie kamerowym (wizyjna i termowizyjna), jak również w systemach monitoringu, ruchu osobowego w terminalach, na dworcach, stadionach, w miastach itp.

Kamery wyposażone w technologię IVS mogą być włączone w dowolny system zabezpieczeń w integracji z systemem czujnikowym czy kontroli dostępu. System IVS w istotnym stopniu wyręcza w pracy operatora, ponadto podnosi skuteczność monitoringu kamerowego i generuje małą liczbę fałszywych alarmów.

4.2. Kryterium detekcji, rozpoznania i identyfikacji w systemie IVS

W systemach kamerowych przy obserwacji wizyjnej obrazu przez obserwatora są powszechnie znane zdefi niowane kryteria:

  • monitorowanie tłumu, jeżeli zajmuje 5% ekranu;
  • wykrycie osoby, jeżeli zajmuje 20% ekranu;
  • rozpoznanie osoby, jeżeli zajmuje 50% ekranu;
  • identyfi kacja osoby, jeżeli zajmuje 120% ekranu.

Zdecydowanie inaczej defi niuje się kryteria i pojęcia detekcji, rozpoznania i identyfi kacji w systemach inteligentnej (automatycznej) analizy obrazów – IVS. W tym przypadku obowiązuje tzw. kryterium Johnsona, które zakłada, że krytyczny wymiar człowieka wynosi 0,75 m, oraz defi niuje kryterium 50% prawdopodobieństwa:

  • detekcji, gdy długość 0,75 m odwzorowuje 1,5 piksela, co oznacza 1,5/0,75 = 2 piksele na metr;
  • rozpoznania, gdy 0,75 m odwzorowuje 6 pikseli, co oznacza 6/0,75 = 8 pikseli na metr;
  • identyfikacji, gdy 0,75 m odwzorowuje 12 pikseli, co oznacza 12/0,75 = 16 pikseli na metr.

Ponadto przyjmuje się, że stojący człowiek ma wymiary 1,8 m wysokości i 0,5 m szerokości. Przeliczając powierzchnię człowieka na liczbę pikseli odwzorowania, otrzymamy: kryterium detekcji 1,8 x 2 = 3,6 piksela w pionie oraz 0,5 x 2 = 1 piksel w poziomie.

Podobnie określamy kryterium:

  • rozpoznania: 14,4 na 4 piksele na ekranie;
  • identyfikacji: 28,8 na 8 pikseli na ekranie.

Graficzne przedstawienie powyższych wyliczeń obrazuje rys. 4, na którym dla kontrastu zestawiono kryteria telewizji obserwacyjnej i telewizji widzenia komputerowego. W przypadku automatycznej analizy obrazu kryteria rozpoznania określa się jako:

  • detekcję – oznacza to wykrycie obecności obiektu w polu widzenia (jest lub nie ma);
  • rozpoznanie – oznacza to określenie rodzaju obiektu w sensie zwierzę, człowiek, samochód;
  • identyfi kacja – ma tutaj wojskowe znaczenie: swój czy obcy, w praktyce cywilnej oznacza możliwość określenia np. posiadania przedmiotów, bagażu itp.
rys4.gif

Rys. 4. Kryteria detekcji, rozpoznania i identyfi kacji w analizie obrazu przez człowieka (góra) i przy automatycznej analizie komputerowej (dół) – analiza automatyczna na przykładzie kamery termowizyjnej wg prospektu firmy FLIR

Oczywiste jest, że obraz człowieka odwzorowany na matrycy zobrazowania kamery zależy od pola obserwacji, które z kolei jest funkcją parametrów obiektywu i odległości. Zdolność automatycznego rozpoznawania obrazu w funkcji odległości podaje się w formie znormalizowanych nomogramów (jak na rys. 6) dla matryc o określonej liczbie pikseli i wymiarach piksela. Z liczby pikseli na 0,75 metra dla danej odległości oblicza się liczbę pikseli na metr i na człowieka, skąd wynika zdolność detekcji, rozpoznania, identyfi kacji w funkcji odległości (jak na rys. 5).

rys5.gif

Rys. 5. Nomogram bolometrycznej kamery termowizyjnej z matrycą 320 x 280 pikseli (wymiar piksela 38 μm)

rys6.gif

Rys. 6. Schemat procesu fuzji (nakładania) obrazów pozyskanych z kamer różnych technologii

W praktyce jednak należy uwzględnić warunki atmosferyczne (tłumienie), uwarunkowania kontrastu obrazu i tła. Dla kamer wizyjnych oznacza to oświetlenie i współczynnik odbicia światła obrazu i tła, a dla kamer termowizyjnych to różnica temperatury obrazu i tła. Zatem analizę parametrów konkretnej kamery, podawanych zwykle dla warunków optymalnych, należy odnieść do spodziewanych parametrów w warunkach ekstremalnych.

4.3. Fuzja obrazów

Jednoczesne pozyskanie obrazu z kamer różnej technologii, np. wizyjnej i termowizyjnej, zapewnia optymalne widzenie (na miarę dysponowanej techniki) w dzień/noc i w różnych warunkach pogodowych. Ale w rozdzielnej technologii przetwarzania obrazu otrzymujemy obrazy na różnych monitorach z wadami właściwymi każdej technologii, np. w przypadku kamer wizyjnych: słabo kontrastowe obrazy w nocy i przy złej pogodzie, na dużych odległościach w przypadku kamer termowizyjnych: mała rozdzielczość (brak szczegółów), słaby kontrast przy opadach, trudna intuicyjna interpretacja obrazu na dużych odległościach.

Technologia fuzji, czyli nałożenie obu obrazów z kamer różnych technologii i prezentacja wynikowego obrazu na jednym ekranie, poprawia jakość obrazu, niwelując słabsze strony łączonych technologii, oraz zwiększa efektywność i komfort pracy operatora [6.7].

Na rys. 6 przedstawiamy schemat fuzji obrazów jako procesu wstępnego przed poddaniem inteligentnej analizie (IVS) już wspólnego obrazu.

Na rys. 7 pokazano fotografi e prezentujące obrazy pojedynczych kamer i efekt fuzji. Najbardziej wyrazisty jest efekt sygnatury na rysunku 7d, otrzymany w wyniku analizy linii poziomej przecinającej obraz. Analiza linii pokazuje, że największy kontrast obiektu względem otoczenia daje obraz otrzymany w wyniku fuzji. Zatem obraz łączny poddany procesowi komputerowej analizy IVS istotnie zwiększa prawdopodobieństwo właściwego rozpoznania obrazu. Zwiększenie prawdopodobieństwa detekcji obiektu do poziomu 99% daje wprowadzenie do procesu fuzji obrazów z kamer danych radarowych. System wizyjny odwzorowuje kształt obiektu na ekranie, podczas gdy radar podaje odległość, azymut (lokalizuje na mapie) oraz kierunek ruchu i prędkość. Posiadając kształt obiektu i odległość, można określić przekrój obiektu (w pionie i poziomie) w celu jego klasyfi kacji. Wykrywany obiekt jest prowadzony radarem z takim sterowaniem pola widzenia kamer, aby utrzymać obiekt w środku pola widzenia, co umożliwia ciągłą weryfi kację identyfi kacji obiektu. W całym procesie śledzenia ruchu obiektu algorytm automatycznego rozpoznania dokonuje ciągłej korelacji wymiarów obiektu, odległości i szybkości.

rys7.gif

Rys. 7. Fotografi czna prezentacja wyników fuzji obrazów z dwóch kamer: a) obraz kamery wizyjnej, b) obraz kamery LWiR, c) obraz wynikowy fuzji, d) sygnatury pojedynczych brazów i złożonego obrazu

Fuzja danych trzech sensorów – kamer wizyjnych i termowizyjnej oraz radaru – daje najbardziej wiarygodne i skuteczne wyniki automatycznej detekcji, rozpoznania i identyfi kacji obiektu w systemach ochrony.

5. Ewolucja teletransmisji w systemach ochrony

Wiele systemów ochrony oferowanych zwłaszcza przez duże firmy bazuje na własnych wewnątrzsystemowych protokołach transmisji i dedykowanych sterownikach. Systemy takie nazywamy zamkniętymi z uwagi na trudności z dołączeniem urządzeń innych fi rm. Ale zagrożenia terrorystyczne, zwłaszcza w odniesieniu do obiektów infrastruktury krytycznej, wymagają integracji nie tylko samych technicznych systemów ochrony, takich jak SSWiN, SKD, telewizja dozorowa, systemy perymetryczne, ochrona fi zyczna, ale i zapewnienia wymiany informacji, w tym obrazowej, ze sztabem zarządzania bezpieczeństwem i służbami odpowiedzialnymi za bezpieczeństwo. Ponadto obserwujemy istotny wzrost informatyzacji systemów ochrony. Między innymi stąd wynika dążenie do budowy technicznych systemów ochrony na bazie profesjonalnych teleinformatycznych systemów spełniających wymagania telekomunikacji wewnątrzsystemowej, coraz bardziej zinformatyzowanych systemów i wymagania otwartej telekomunikacji w ramach organizacji zarządzania bezpieczeństwem.

Protokół internetowy (IP) implementowany w sieci Ethernet (głównie światłowodowej) i sieciowe elementy systemu (zwłaszcza urządzenia inteligentnej analizy obrazu) tworzą obecnie sieciocentryczne inteligentne systemy teletransmisyjne, które są bazą nowej generacji zintegrowanych systemów ochrony.

5.1. Ewolucja analogowej CCTV do sieciowej telewizji z automatyczną analizą obrazów

Najbardziej spektakularny przykład ewolucji technologii teletransmisji w systemach ochrony można przedstawić na przykładzie ewolucji transmisji od telewizji analogowej do cyfrowych inteligentnych systemów wizyjnych. Typowy system telewizji analogowej to kamera połączona z monitorem kablem koncentrycznym przez krosownicę (multiplekser z zapisem kasetowym). System wewnętrznie zamknięty był odwzorowany w nazwie Closed Circuit Television – CCTV.

Ewolucję systemów bezpieczeństwa, w tym telewizji dozorowej, stymuluje stopniowe przenikanie technologii informatycznych do przemysłu security. Istotny wpływ na informatyzację systemów ochrony wywarły:

  • cyfryzacja i cyfrowe przetwarzanie obrazu (umożliwiły kompresję obrazu, cyfrową transmisję i cyfrowe odtwarzanie),
  • adaptacja technologii widzenia komputerowego (umożliwiła automatyzację analizy i fuzji obrazów),
  • adaptacja sieci teleinformatycznych z oprzyrządowaniem i oprogramowaniem sieciowym (stworzyła otwartą sieć integrującą systemy ochrony).

Informatyzacja przeniknęła nie tylko do systemów, ale i do poszczególnych urządzeń.

Na rys. 9 przedstawiono inteligentną kamerę sieciową fi rmy AXIS, wykorzystującą technologię przetwarzania obrazu. Wprowadzenie inteligentnych kamer, czujników i innych czujek rewolucjonizuje konfi guracje systemów ochrony, co ewidentnie widać na rys. 10 przedstawiającym schemat inteligentnej telewizji sieciowej.

rys8.gif

Rys. 8. Analogowy system CCTV z zastosowaniem multipleksera

rys9.gif

Rys. 9. Przykładowa inteligentna kamera sieciowa fi rmy AXIS

rys10.gif

Rys. 10. W pełni sieciowy system wideo z inteligentnymi kamerami sieciowymi

 W sieciowej inteligentnej telewizji wszystkie nowe technologie, takie jak cyfryzacja, kompresja, zapis, IVS, interfejs sieciowy, mogą być zastosowane bezpośrednio w kamerach.

5.2. Sieciowa integracja systemów ochrony

Sieciowy, teleinformatyczny system telekomunikacji wewnątrzsystemowej jest budowany na strukturze sieci Ethernet z elementami oprzyrządowania First Ethernet – 100Mb/s i Gigabit Ethernet – 1 Gb/s. Mniejsze sieci mogą występować w konfi guracji 10/100 Mb/s Ethernet.

Na rys. 11 przedstawiono szkielet modelowej struktury sieciowej proponowanej dla systemu ochrony. Strukturę sieci tworzą profesjonalne urządzenia typowej sieci teleinformatycznej, takie jak przełączniki i rutery, umożliwiające zarządzanie siecią. Serwer kamer i mediakonwertery występują tutaj jako interfejsy sieciowe do podłączenia urządzeń ochrony: kamer analogowych, czujek, czytników.

rys11.gif

Rys. 11. Schemat szkieletowej sieci teleinformatycznej do zastosowań w systemach ochrony

Urządzenia końcowe w postaci serwerów, stacji roboczych są wyposażone w standardowe interfejsy sieciowe. Przedstawiona na rys. 11 struktura sieci z oprogramowaniem sieciowym, uzupełniona o oprogramowanie aplikacyjne, sieciowe serwery, inteligentną analizę obrazu oraz sieciowe urządzenia rejestracji obrazów, staje się szkieletową strukturą integrującą system ochrony, czyli Intelligence Network Security System.

6. Zakończenie

W pracy przeanalizowano trendy rozwojowe optoelektronicznych i radarowych urządzeń detekcji i zobrazowania w odniesieniu do systemów ochrony obiektów infrastruktury krytycznej.

Organizacja i struktura systemów ochrony jest uzależniona od technicznych i informatycznych możliwości stosowanych urządzeń. W ochronie dużych obiektów, jakimi są obiekty infrastruktury krytycznej, niezbędne staje się stosowanie:

  • mieszanych technologii detekcji (np. ogrodzeniowych czujników i radarów naziemnych),
  • mieszanych technologii zobrazowania w warunkach dzień/noc (np. kamer wizyjnych i termowizyjnych),
  • mieszanych technologii naprowadzania i śledzenia (np. radaru i zestawu kamer wideo oraz dodatkowo kamery termowizyjnej),
  • technologii automatycznego rozpoznawania, identyfikacji w czasie śledzenia intruza, w tym inteligentnego rozpoznania i fuzji obrazów z kilku czujników.

Skuteczne przeciwdziałanie integruje systemy, ludzi i procedury działania. Wymaga więc inteligentnej struktury integracyjnej. Aktualnym rozwiązaniem staje się sieciocentryczna struktura teleinformatyczna w konfi guracji sieci IP Ethernet. Szkielet sieci buduje się na profesjonalnych urządzeniach sieci teleinformatycznych, takich jak komputery, przełączniki, rutery – z konwerterami służącymi jako interfejsy do podłączenia urządzeń ochrony.

Sieciowy, teleinformatyczny system komunikacji wewnątrzsystemowej oraz automatyczna analiza obrazów stymuluje przemysł urządzeń security, zwłaszcza optoelektronicznych kamer do produkcji inteligentnych urządzeń sieciowych. Zatem rozwój technologii informatycznych i ich przenikanie do systemów ochrony rewolucjonizuje struktury systemów ochrony, a zwłaszcza obiektów infrastruktury krytycznej.

Mieczysław Szustakowski
Wiesław Ciurapiński
Janusz Wróbel

Instytut Optoelektroniki
Wojskowa Akademia Techniczna

Literatura

  1. GAO – 04-728 Aviation Security: Further Steps Needed to Strengthen the Security of Commercial Airport Perimeter and Access Control. www.gao.gov./new.items/ do4728.pdf
  2. Airport Security Transportation – THALES.
  3. F. Kapounek, M. Maki Inteli Fiber – The Next Generation Optic Fence Sensor 35th Annual 2001 ICC on Security Technology, London.
  4. M. Szustakowski, W. Ciurapinski, N. Palka, M. Zyczkowski: Recent Development of Fibre Optic Sensors for Perimeter Security, 35th Annual 2001 ICC on Security Technology, London.
  5. T. Riley, M. Smith: Image Fusion Technology for Security and Surveillance Application. Proc. of SPIE, Vol. 6402.
  6. M. Smith, J.P. Heather: Review of Image Fusion Technology in 2005, Proc. of SPIE, Vol. 5782.
  7. A. J. Lipton, Craig H. Heartwell: Critical Asset Protection, Perimeter and Threat Detection Using Automated Video Surveillance. www.objectvideo.com.
  8. K. Sage, S. Young, 32nd Annual 1998 ICC on Security Technology.
  9. A. J. Lipton, H. Fujiyoshi, R. S. Patil: Moving Target Detection and Classifi cation from Real-Time Video, Procc. of the IEEE Workshop on Application of Computer Vision. 1998.
  10. C. J. Baker, H. D Griffi ts: Bistatic and Multistatic Radar Sensor for Homeland Security, www.nato-asi.org/ sensors2005/papers/baker.pdf.
  11. P. Cory, H. R. Everett, Tracy Heath Pastore: Radar – Based Intruder Detector for a Robotic Security System, www.nosc.mil/robots/pubs/spie3525b.pdf.
  12. A. Browne, M. Bissonnett: High Resolution Millimeter Wave (MMW) Perimeter Surveillance Radar, www. amphitech.com/pdf/PSRwpMay2006.pdf.
  13. Technical guide to network video, www.axis.com.
  14. Mark Morris: Teleinformatics, J. Willey ltd., 2000.
  15. FFT Secure Fence installation overview, www.fft.com.au.
  16. B. Hennessey, R. B. Wesson: Security Simulation for Vulnerability Assessment, Proceedings of the SPIE, Volume 6227, pp. 622708 (2006)

Zabezpieczenia 5/2008

 

Wszelkie prawa zastrzeżone. Kopiowanie tekstów bez zgody redakcji zabronione / Zasady użytkowania strony