Nie rozumiem całego szumu wokół sztucznej inteligencji (SI)[1]albo “artificial intelligence”, AI w odniesieniu do bezpieczeństwa maszyn. Np. ISO wydało w styczniu nową normę ISO/TR 22100-5 Bezpieczeństwo maszyn. Związek z ISO 12100. Część 5: Skutki uczenia się maszyn ze sztuczną inteligencją.[2]Safety of machinery. Relationship with ISO 12100. Part 5: Implications of artificial intelligence machine learning; albo też, wg tytułu francuskiego, Skutki sztucznej inteligencji … Continue reading Co w normie? To, czego można się coraz częściej spodziewać po normalizacji: nic i kilka przykładów.

Norma (raport techniczny) liczy 14 stron, z czego 11 to strony tytułowe, spisy treści, zakresy itp. Nawet uznając rozdział 3 (definicje) za treść, istotne zapisy mieszczą się na trzech stronach, z których każda kosztuje średnio 13 CHF.

Foreword
Introduction
1 Scope
2 Normative references
3 Terms and definitions
4 Use of AI in the machinery sector
4.1 General
4.2 Examples for use of AI machine learning in machine applications
4.2.1 Examples without safety implications
4.2.2 Examples with safety implications
5 Conclusion
Bibliography

projekt ISO/TR 22100-5/Contents

Sam tytuł wydaje się pleonazmem. Zdolność systemu do uczenia się jest synonimem sztucznej inteligencji albo przynajmniej jej najistotniejszym elementem.[3]kto chce, może to skonfrontować choćby z Wikipedią Czyli mamy coś w rodzaju „ciemności spowodowanej brakiem światła”.

A jakie konkretne informacje zawiera ów raport techniczny? Otóż „niektóre zastosowania SI mogą mieć wpływ na bezpieczeństwo, a inne mogą nie mieć” (4.1).[4]góralska prognoza pogody: będzie padać albo nie będzie Rozdział 4.2.1 wskazuje przykłady braku wpływu SI na bezpieczeństwo: optymalizacja pakowania obiektów o różnych rozmiarach, optymalizacja rozpylania trucizny (tzn. środka chwastobójczego) na polach, optymalizacja pobierania wyciętych z blachy detali.[5]Co ciekawe, rozdział ten reklamuje dwie konkretne strony internetowe, z których jedna nie istnieje, a na drugiej trudno znaleźć to, o czym mowa. Co musiałbym zrobić, by … Continue reading

Rozdział 4.2.2 zawiera przykład pozytywny (jeden!) — wózki autonomiczne,[6]automated guided vehicle, AGV gdzie SI decyduje o zachowaniu wózka w obszarze współdzielonym z ludźmi. Porównano wózki z SI i bez niej (tabela 1), co wygląda mniej więcej tak:

aspektzwykłe wózki autonomicznewózki z SI
ograniczenia użytkowaniajazda po wyznaczonych z góry trasachjazda po zmiennych trasach z różnymi prędkościami
ograniczenia przestrzeniokreślony zakres ruchu maszyny
określona interakcja człowiek-maszyna
zmienne ruchy maszyny w obrębie z góry ustalonej granicy
interakcja człowiek-maszyna w tej w tych granicach
prędkośćz góry określonazmienna
zagrożeniezderzenie z człowiekiem lub przeszkodą(to samo)
parametry ryzykaprędkość, przyspieszenie, masa, kształt, ładunek, sprawność hamulcówto samo oraz: większa prędkość, większe przyspieszenie, nagłe zmiany kierunku, niewystarczająca widoczność
środki zmniejszające ryzykoosłonywykrywanie obecności
dostosowanie stref wykrywania do pozycji i prędkości
ograniczenie energii (prędkości)
na podstawie ISO/TR 22100-5/tabela 1

Rzuca się w oczy, że środki zmniejszające ryzyko, wymienione dla systemów ze sztuczną inteligencją, wszystkie powinny zostać wskazane również dla zwykłych wózków. Wózki autonomiczne (bez SI), poruszając się po wyznaczonych trasach, również przejeżdżają przez obszary, na których mogą znajdować się ludzie, również ograniczają w tych obszarach prędkość, również muszą wykrywać przeszkody (zderzaki czułe na nacisk, skanery laserowe). Podobnie, elementy wpływające na ryzyko (prędkość, masa itd.) są (tzn. powinny być) w obu przypadkach takie same: nie ma powodu, by wózki bez SI poruszały się wolniej; zmiany kierunku, wynikające np. z przebiegu ukrytych w posadzce przewodów prowadzących, dla obserwatora mogą być niespodziewane. Mamy tu więc próbę wskazania różnicy, która nie istnieje. Wprowadzenie sztucznej inteligencji w podanym przykładzie, wbrew intencji autorów, nie wpływa zasadniczo na bezpieczeństwo maszyny, tzn. te same środki ochronne będą jednakowo skuteczne dla wózków obu rodzajów.

Ale przecież sztuczna inteligencja ma jakiś wpływ na bezpieczeństwo. Tzn. może mieć (zgodnie z ISO 22100-5/4.1, jak wspomniano). Gdzie przebiega rzeczywista granica?

W tradycyjnym modelu bezpieczeństwa maszyny, środki ochronne mają zapewnić bezpieczne warunki pracy niezależnie od tego, co „chce” robić maszyna. Jeżeli pracownik otworzy osłonę, maszyna musi się zatrzymać, niezależnie od ważności procesu. Jeśli zatrzymanie nie jest możliwe natychmiast, system bezpieczeństwa powinien uniemożliwić otwarcie osłony — do czasu, aż będzie to bezpieczne. Jeśli operator wejdzie w kurtynę, puści urządzenie zezwalające, stanie na macie czułej na nacisk — system bezpieczeństwa musi spowodować zatrzymanie maszyny. W tym modelu nie ma znaczenia, czy maszyna napędzana jest sprężonym powietrzem czy bateriami słonecznymi, czy działanie maszyny wynika z programu PLC napisanego z błędami czy też z użycia sztucznej inteligencji — system bezpieczeństwa ma wyższy priorytet, więc wszelkie działania maszyny są jakby zamknięte w obudowie, którą ten system stanowi. Cytowana norma potwierdza zresztą (rozdz. 5) powyższe stwierdzenia — zwykła (oparta na ISO 12100) ocena ryzyka jest wystarczająca dla systemów ze sztuczną inteligencją.

Rzeczywista zmiana w podejściu do bezpieczeństwa mogłaby się pojawić, gdyby SI było użyte jako środek ochronny. Na razie trudno to sobie wyobrazić: system samodzielnie uczący się bezpiecznych zachowań. Bo uczenie polega m.in. na analizie popełnionych błędów. Tym błędem w bezpieczeństwie jest wypadek przy pracy lub „zdarzenie potencjalnie wypadkowe” (cegła spadła operatorowi na głowę… ale nie trafiła) — ani jedno, ani drugie nie jest dopuszczalne jako założenie projektowe. Podejście od drugiej (bezpiecznej) strony (zakładamy na początku bardzo ostrożne zachowanie maszyny, która — ucząc się — będzie pozwalać sobie na coraz więcej) jest tylko pozornie lepsze, bo granicą tego „pozwalania” jest również zachowanie niebezpieczne. Czy da się ocenić z góry, że pewna (autonomiczna) modyfikacja zachowania maszyny na pewno nie spowoduje wzrostu ryzyka? Pewnie kiedyś będzie się dało.

Możemy wysyłać powiadomienia o nowych publikacjach na podany adres email.

Bez obaw! Nikomu nie udostępnimy podanego adresu. Dodatkowe informacje na stronie ocena-ryzyka.pl/dyskrecja/

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

11  −  9  =