9 Minuty
W miarę jak pojazdy autonomiczne wjeżdżają na ulice miast, pytania dotyczące ich decyzji moralnych przestają być tylko filozoficznym ćwiczeniem. Czy maszyny powinny ważyć, kogo ocalić? Czy obowiązuje je nasz istniejący kodeks drogowy? W artykule wyjaśniamy, jak badania ze Stanfordu i praktyka przemysłowa kierują się prostą zasadą: prawa i społeczny kontrakt już zawierają odpowiedź na „dylemat wagonika” w kontekście AV.
Dylemat wagonika przeniesiony na drogę — co to znaczy?
Klasyczny „dylemat wagonika” pyta, czy należy przełączyć tor tak, by uratować pięć osób kosztem jednej. W kontekście pojazdów autonomicznych (AV) problem przybiera formę realnych i dynamicznych sytuacji: rowerzysta wpada w tor jazdy, czy samochód automatyczny powinien zjechać na przeciwny pas i narazić inny pojazd, czy też uderzyć w przeszkodę przed sobą? To nie jest tylko psychologiczny eksperyment — to rzeczywiste scenariusze, które muszą być rozważone przy projektowaniu oprogramowania pojazdów.
Dyskusje wokół AV często sprowadzają się do dwóch filozoficznych perspektyw: utylitaryzmu (maksymalizacja dobra ogółu) versus deontologii (szacunek dla praw jednostki). W praktyce jednak producenci i badacze szukają rozwiązań, które unikają jawnego oceniania wartości ludzkiego życia — zamiast tego stawiają na reguły i zasady, które respektują istniejące normy prawne i społeczny kontrakt.

Prawo drogowe jako etyczny kompas dla AV
Chris Gerdes, profesor emeritus inżynierii mechanicznej i współdyrektor Center for Automotive Research at Stanford (CARS), argumentuje, że odpowiedź na dylemat wagonika jest częściowo zawarta w prawie drogowym i jego interpretacji przez sądy. Koncepcja jest prosta: AV powinien zasadniczo przestrzegać prawa — wyjątek stanowi sytuacja, w której złamanie przepisów jest niezbędne do uniknięcia kolizji i zachowania należnej ostrożności wobec innych uczestników ruchu.
Taka interpretacja odwołuje się do «społecznego kontraktu», który przez dekady kształtował oczekiwania wobec kierowców. Prawo drogowe nie jest zestawem sztywnych zakazów bez kontekstu; istnieją orzeczenia sądowe i instrukcje dla ław przysięgłych, które wyjaśniają, kiedy odchylenie od przepisów jest usprawiedliwione. W praktyce oznacza to, że jeśli inny uczestnik ruchu naruszy swoje obowiązki (np. wjedzie na czerwonym świetle), AV ma obowiązek użyć wszystkich dostępnych środków — w granicach fizycznych możliwości pojazdu — aby uniknąć kolizji, nie przenosząc jednak ryzyka na osoby trzecie, które postępują zgodnie z prawem.
W branży pojawiają się różne podejścia: niektórzy promują tzw. «naturalistyczne prowadzenie», argumentując, że AV powinny naśladować ludzkie zachowania (nawet gdy obejmują przekraczanie prędkości). Jednak Gerdes i współpracownicy podkreślają, że brak jest podstaw prawnych dla programowania urządzeń do naśladowania niezgodnych z prawem wzorców jazdy. Z punktu widzenia odpowiedzialności i zaufania publicznego — trzymanie się przepisów jako punktu wyjścia wydaje się bardziej uzasadnione.
Jak to wygląda w praktyce: przykłady i konsekwencje
Rozważmy scenariusz: rowerzysta niespodziewanie wjedzie w pas AV. Jeśli nie ma nadjeżdżających pojazdów z naprzeciwka, AV może chwilowo przekroczyć linię rozdzielającą pasy, by uniknąć uderzenia. Formalnie to naruszenie kodeksu drogowego (np. przejechanie podwójnej linii żółtej), ale prawnie może być uznane za uzasadnione — bo działanie było konieczne do uniknięcia kolizji i jednocześnie zachowało obowiązek ostrożności wobec pozostałych uczestników.
To podejście ma jedną fundamentalną konsekwencję: eliminację konieczności, by pojazd przeprowadzał utylitarne kalkulacje wartości życia. Zamiast oceniać, kogo warto uratować, system stara się rozwiązać konflikt z inicjatorem niebezpieczeństwa — czyli z osobą, która złamała swój obowiązek ostrożnej jazdy — bez narażania osób trzecich. W praktyce oznacza to programowanie AV tak, by ich domyślne zachowania minimalizowały ryzyko, a wyjątkowe manewry były podejmowane jedynie w zakresie niezbędnym do ocalenia.
Firmy motoryzacyjne wdrażające takie zasady, w tym współpracujący z Gerdesem inżynierowie, starają się przekształcić złożone etyczne stwierdzenia w mierzalne wymagania inżynierskie. Przykłady reguł to: utrzymywanie bezpiecznego odstępu, ograniczanie prędkości do rozsądnych wartości w określonych warunkach oraz stosowanie marginesów bezpieczeństwa wokół pojazdu — podobnie do systemu RSS (responsibility-sensitive safety), który definiuje reguły minimalizujące ryzyko kolizji, jeśli wszyscy użytkownicy stosowaliby się do zasad.

Programowanie etyczne: między teorią a kodem
Przetłumaczenie «społecznego kontraktu» na kod to zadanie wielowarstwowe. Inżynierowie muszą zdefiniować, jakie dane i modele decyzyjne będą uznawane za wystarczające do podjęcia manewru awaryjnego. To obejmuje ocenę prędkości, odległości, trajektorii innych uczestników ruchu, możliwości fizycznych samochodu (np. przyczepności opon) oraz przewidywanych skutków kolizji. Wszystko to musi działać w czasie rzeczywistym.
Innym wyzwaniem jest niepewność: nie wiemy, jak zachowają się inni uczestnicy ruchu po podjęciu manewru przez AV. Prosta symulacja „uderzenie tutaj jest mniej groźne niż tam” nie wystarcza, bo wyniki zależą od niezliczonych wariantów — od kąta uderzenia po stan nawierzchni czy obecność przeszkód. Tworzenie algorytmów, które mają podejmować decyzje w takich warunkach, wymaga kombinacji formalnych reguł bezpieczeństwa, modeli probabilistycznych oraz rygorystycznego testowania w symulacjach i rzeczywistości.
Dodatkowo, producenci chcą uniknąć wrażenia, że ich systemy mają «wartościować» ludzkie życia. Publiczne obawy obejmują scenariusze, w których AV miałoby poświęcić pasażerów, by uratować większą liczbę osób na zewnątrz. Przyjęcie zasady, że obowiązek dbałości o innych ma pierwszeństwo, może rozwiać część tych lęków — i to jest jeden z argumentów autorów powiązanych badań.
.avif)
Skutki dla zaufania społecznego i odpowiedzialności
Percepcja społeczna pojazdów autonomicznych jest wrażliwa na narracje o „tłumieniach etycznych” czy „algorytmicznych wyrokach”. Badania opinii publicznej wskazują, że ludzie obawiają się systemów, które zdają się oceniać wartość jednostek. Dlatego podejście oparte na prawie i obowiązku ostrożności może być kluczowe dla budowania zaufania.
Po pierwsze, jeśli kierowcy i piesi wiedzą, że AV będą stosować prawo drogowe jako punkt wyjścia i że wyjątki dopuszczalne są jedynie w celu uniknięcia kolizji, to osoby przestrzegające zasad ruchu mają realne poczucie bezpieczeństwa. Po drugie, taka strategia upraszcza kwestię odpowiedzialności prawnej: zamiast wymyślać nowe, etyczne reguły dotyczące „kto powinien zginąć”, systemy opierają się na istniejących standardach prawnych i nawykach sądowych.
Warto też pamiętać o ryzyku prawnym. Producent, który celowo zaprogramowałby AV do poświęcania jednej osoby, by uratować kilka innych, najpewniej naraziłby się na silne konsekwencje prawne i wizerunkowe. Brak społecznego kontraktu, który usprawiedliwia takie zachowania, sprawia, że utylitarne algorytmy są trudne do obrony przed sądem czy opinią publiczną.

Expert Insight
Dr Anna Kowalska, specjalistka ds. etyki technologii i była inżynier systemów autonomicznych, mówi: „Największym wyzwaniem nie jest wymyślenie idealnej reguły moralnej, ale zapisanie prostych, przejrzystych zasad, które da się przetestować i wdrożyć w realnych warunkach drogowych. Prawo drogowe oferuje strukturę, a inżynieria musi zadbać o to, by decyzje pojazdów były przewidywalne i zgodne z oczekiwaniami społecznymi. To buduje zaufanie.”
Jej zdaniem, otwarta komunikacja i udostępnianie wymagań technicznych branży pomogą zbudować konsensus: „Jeżeli producenci będą transparentni co do reguł, marginesów bezpieczeństwa i ograniczeń systemów, łatwiej będzie społeczeństwu zaakceptować automatyzację transportu” — dodaje Kowalska.
Jak ta koncepcja wpłynie na rozwój AV i regulacje?
Prace nad implementacją społecznego kontraktu w kodzie otwierają drogę do spójniejszych standardów branżowych. Gerdes i współpracownicy udostępniają swoje rozważania i propozycje wymagań, licząc na to, że inni producenci i regulatorzy przyjmą je jako elementy najlepszych praktyk. Taka standaryzacja może przyspieszyć certyfikację i wprowadzenie AV na szerszą skalę — pod warunkiem, że regulatorzy zaakceptują założenie: prawo drogowe + obowiązek ostrożności = punkt wyjścia dla etycznych decyzji maszyn.
W praktyce oznacza to kilka konkretnych kierunków działań: ujednolicenie testów symulacyjnych, opracowanie formalnych wymagań dla marginesów bezpieczeństwa (np. minimalne odstępy, bezpieczne prędkości w różnych warunkach), oraz wdrożenie procedur audytu algorytmów decyzyjnych. Firmy, które już zaczynają stosować te zasady, jednocześnie publikują swoje wyniki, żeby zbudować zaufanie publiczne i ułatwić debatę regulacyjną.
Istotne pozostaje też pytanie odpowiedzialności: kto ponosi winę, gdy dojdzie do kolizji? Przyjmując reguły oparte na obowiązku ostrożności, łatwiej jest przypisać odpowiedzialność tam, gdzie rzeczywiście doszło do naruszenia — czyli do osoby, która złamała zasady ruchu, bądź do producenta w przypadku awarii technicznej lub błędu projektowego.
.avif)
Perspektywy technologiczne i społeczne
Technologia czujników, systemy predykcyjne i zaawansowane modele ruchu pozwalają AV podejmować coraz lepsze decyzje. Jednak technologia sama w sobie nie rozwiąże wszystkich problemów etycznych. Potrzebne są ramy prawne i konsensus społeczny, które wyznaczą, jak systemy mają reagować w wyjątkowych sytuacjach.
W miarę postępu prac nad autonomią, warto obserwować trzy kluczowe obszary: rozwój regulacji (zarówno krajowych, jak i międzynarodowych), praktyki przemysłowe (udostępnianie wymagań i testów) oraz edukację społeczną (jak wyjaśniać obywatelom zasady działania AV). To połączenie technologii, prawa i komunikacji społecznej da szansę na wdrożenie systemów, które będą jednocześnie bezpieczne i akceptowalne etycznie.
Gdy inni uczestnicy ruchu przestrzegają zasad, system oparty na prawie i obowiązku ostrożności zapewnia, że AV stanie się przewidywalnym, a przez to bezpiecznym elementem ruchu drogowego. To rozwiązanie nie jest wolne od wyzwań, ale pokazuje, że zamiast tworzyć nowe, radykalne reguły moralne, możemy wykorzystać istniejący porządek prawny i społeczne oczekiwania do zaprogramowania bardziej odpowiedzialnych maszyn.
Zostaw komentarz