Jarosław Klimentowski Jarosław Klimentowski
2034
BLOG

O łataniu dziur w serze i just culture

Jarosław Klimentowski Jarosław Klimentowski Rozmaitości Obserwuj notkę 16

W wielu dziedzinach życia spotkamy się z taką oto piramidą zdarzeń:

 

O błędach ludzkich i polskiej kolei

Przytoczony przykład dotyczy energetyki jądrowej, ale identyczną piramidę wykreślimy dla lotnictwa czy dla kolei. Mówi ona tyle, że na jedną katastrofę zwykle zdarza się kilkanaście poważnych incydentów. Ale i na każdy poważny incydent przypada kilkanaście mniej istotnych incydentów, a na każdy taki incydent przypada wiele przypadków naruszenia przepisów, które incydentem się nie kończą. Przez zwykłe przemnożenie prawdopodobieństw dojdziemy do wniosku, że zanim nastąpi poważna katastrofa, mają miejsce setki, o ile nie tysiące zwykłych naruszeń przepisów, które nie mają poważniejszych konsekwencji.

Analiza tego faktu prowadzi do tzw. modelu Reasona (modelu sera szwajcarskiego):

O błędach ludzkich i polskiej kolei

Model ten mówi, że przed zaistnieniem katastrofy chroni nasz szereg barier. Bariery to np. kwestie licencjonowania, obsługi technicznej, szkolenia, procedur, zasad pracy i tak dalej. Każda z tych barier niestety ma dziury, lecz dopiero nałożenie się wszystkich dziur powoduje katastrofę. Przejście przez kilka dziur i zatrzymanie się na jednej z barier prowadzi do incydentu, a to ile dziur ominięto mówi o jego wadze. Oczywiście szansa pokrycia się większej liczby dziur jest znacznie mniejsza, niż dla mniejszej liczby. Analizując dowolną katastrofę dojdziemy do często zaskakującego wniosku, że wszystko sprzysięgło się przeciwko załodze. Każdy nawet drobny detal gdyby zaistniał w innej konfiguracji, to do katastrofy by nie doszło. Zawsze wygląda to tak, jakby ktoś specjalnie poukładał elementy tak, aby doszło do katastrofy.

Dla przykładu przypominając zderzenie samolotów nad Uberlingen. Wśród wielu czynników sprzyjających zaistnieniu katastrofy można by wymienić obciążenie pracą kontrolera (praca na dwóch sektorach na raz), problem z łącznością (który kontrolera zaabsorbował), brak łączności z sąsiednimi sektorami (inni kontrolerzy próbowali go ostrzec), wyłączenie systemu wykrywania potencjalnej kolizji w ośrodku kontroli, wreszcie pechową instrukcję kontrolera, która okazała się być przeciwna do instrukcji pokładowego systemu zapobiegania kolizjom i wywołała konsternacje w kokpicie. Ale i w tym wypadku, gdyby tylko przepisy jasno mówiły tak jak obecnie, że załoga ma wykonać polecenie systemu pokładowego, do katastrofy by nie doszło (dziura po stronie przepisów i szkoleń). Wszystko to jednak blednie wobec zdania sobie sprawy z prostego faktu. Wystarczy aby jeden z samolotów miały prędkość przelotową różną o 1km/h (!), bądź wystartował o minutę wcześniej czy później, a minęłyby się w odległości kilometrów...

O błędach ludzkich, lotnictwie i polskiej kolei

Już sam ten fakt sugeruje, że takich potencjalnych kolizji w powietrzu musiało być znacznie więcej, a niewykryty problem był tykającą bombą zegarową.

Oczywiście badanie katastrofy lotniczej przynosi zazwyczaj bardzo dużo danych i pozwala wyelimnować przyczynę na przyszłość, lecz jest to już niestety po fakcie. Profilaktyka powinna przede wszystkim zadziałać zanim dojdzie do katastrofy. Dlatego tak ważne jest badanie incydentów, których jest znacznie więcej niż katastrof i które nie powodują ofiar śmiertelnych. Problem polega jednak na tym, że o ile zgodnie z piramidą drobnych naruszeń i incydentów powinno być najwięcej, a więc powinny one dostarczać ogromnej wiedzy na temat dziur w serze modelu Reasona, to niestety te błahe incydenty najczęściej są ukrywane i przez to nie trafiają do śledzczych. Natura ludzka w obawie przed poniesieniem konsekwencji każe ukryć incydent, którego jesteśmy autorem i który ukryć się uda. Tak samo ciężko pisać raport na kolegę, czy nawet na anonimowego pilota czy kontrolera. W ten sposób wadliwie działające mechanizmy mogą funkcjonować niewykryte latami stanowiąc ogromną dziurę w serze i obniżając ogół bezpieczeństwa. Kilka takich dziur zbiegających się w jednym miejscu i czasie i katastrofa gotowa.

Dlatego też wymyślono pojęcie just culture. Mówi ono o tym, iż nie powinno się karać za drobne błędy nie będące konsekwencją świadomego złamania przepisów. Innymi słowy pracownicy powinni być nakłaniani do raportowania takich błędów, co nie pociągnie za sobą konsekwencji. Konsekwencje natomiast wyciąga się w przypadku braku takiego raportu. W ten sposób działa system obowiązkowego raportowania. Oprócz niego należy też dać możliwość raportowania anonimowego w sytuacjach gdzie np. może istnieć konflikt między pracownikiem, a pracodawcą. Oczywiście system ten musi mieć swoje granice i za spowodowanie wypadku czy świadome łamanie przepisów grozi normalna odpowiedzialność karna.

Jak to działa w praktyce? Przykładowo wyobraźmy sobie sytuację, gdzie samolot dostał instrukcje kołowania, ale pilot pomylił się i wjechał na pas. Mogło to potencjalnie prowadzić do katastrofy (gdyby na pasie rozbiegał się inny samolot), ale szczęśliwie nie było innych samolotów na lotnisku. Mimo, iż nie było żadnego zagrożenia sytuację tę powinni zaraportować zarówno pilot jak i kontroler ruchu lotniczego mając świadomość, że incydent zostanie zbadany, ale nie zostaną wyciągnięte żadne konsekwencje. Muszą oni też mieć świadomość, że prawdopodobnie druga strona napisze raport, więc jeśli nie napiszę go ja, to zostanę oskarżony o próbę ukrycia incydentu, a za to grożą już konsekwencje.

Muszę podkreślić iż zasada nie karania za nieświadomie popełnione błędy jest absolutnie kluczowa. Gdyby pilota w jakiś sposób ukarano np. odsuwając od lotów, albo gdyby ukarano kontrolera argumentując, że wydał niejasną instrukcję, to w przyszłości każdy z nich miałby poważny argument, aby raportu nie pisać. Wbrew pozorom taka zmowa nie jest tak trudna, wystarczy po radiu zapytać: "będziecie pisać? - no raczej nie - no to my też nie" i sprawa zamieciona pod dywan. 

Natomiast nawet jeden taki raport może być na wagę złota. Może się okazać, że rozwiązanie jest całkiem proste. Może wystarczy lepiej oznaczyć miejsce wjazdu na pas, zamontować stop-bar, może zmienić trzeba formę wydawanego zezwolenia, a może problemem jest nieprecyzyjna mapa lotnicza. Może też przeszkolić należy załogi (a nie tylko tego jednego, konkretnego pilota). W każdym bądź razie rozwiązanie powinno być systemowe.

Just culture wymyślono na potrzeby lotnictwa i jest to nieoceniony mechanizm, który uratował już pewnie tysiące istnień. Dziwnym jest więc fakt, że jest on zupełnie ignorowany przez inne gałęzie przemysłu. Przecież aż się prosi aby zastosować go w innych formach transportu (np. kolej), ale też chociażby w górnictwie. Wiele gałęzi przemysłu niestety konserwuje patologie nie widząc doskonałego i sprawdzonego rozwiązania. Dlaczego?

Ikarus, MAN, Jelcz i Solaris

Nowości od blogera

Komentarze

Inne tematy w dziale Rozmaitości