Skocz do zawartości

Moralność robotów - problem XXI wieku?


Pomocna odpowiedź

html_mig_img
Niedługo roboty będą samodzielnie podejmować decyzje dotyczące naszego życia. Przykładem mogą być programy sterujące autonomicznymi samochodami oraz roboty chirurgiczne.Coraz ważniejsze stają się pytania na temat ich moralności. Grupa naukowców przeprowadziła badanie, które próbuje odpowiedzieć przynajmniej na niektóre z nich.

UWAGA, to tylko wstęp! Dalsza część artykułu dostępna jest na blogu.

Przeczytaj całość »

Poniżej znajdują się komentarze powiązane z tym wpisem.

Link to post
Share on other sites

No dobra, rozplączmy to, bo artykuł choć krótki, to strasznie pomieszany.

Po pierwsze, algorytmy decydują o naszym życiu już od dziesiątek, jeśli nie setek lat i jakoś dotychczas nikt nie wymagał od nich "moralności". To algorytmy decydują o tym ile podatku mamy zapłacić, czy bank da nam kredyt, kiedy zapali się zielone światło na przejściu, kiedy przyjedzie winda, jaką piosenkę zaproponuje nam YouTube, jakie reklamy się nam wyświetlą w telewizji czy na stronach internetowych, ba, nawet o której godzinie i w jaki dzień będziemy mieć zajęcia szkolne, czy też jak będzie wyglądał program konferencji. Nie rozumiem dlaczego nagle podłączenie tego algorytmu do poruszającego się urządzenia musi za sobą pociągać wymóg moralności.

Czy winda, która długo nie zjawia się na piętrze, gdzie jest pilnie potrzebujący opieki medycznej pasażer, bo z jej algorytmu wynika, że więcej osób przewiezie jeśli najpierw pozbiera pasażerów z innych pięter -- zachowuje się niemoralnie?

Po drugie, problem etyczny, który opisujesz, czyli dylemat wagonika (https://en.wikipedia.org/wiki/Trolley_problem) wcale nie ma takiego jasnego rozwiązania, jak to przedstawiasz. Wręcz przeciwnie, od lat filozofowie spierają się które rozwiązanie jest bardziej "moralne" i każdy przedstawia własne argumenty. Ankiety także nie są jednoznaczne, tym bardziej, że odpowiedź bardzo zależy od sposobu przedstawienia problemu i kontekstu. Nic dziwnego, że przy dwóch różnych opisach problemu padły różne odpowiedzi -- nie zdziwiłbym się wcale, gdyby po powtórzeniu eksperymentu z innymi opisami znowu odpowiedzi były różne, ale przeciwne do pierwszego eksperymentu.

Oczywiście bardzo istotne jest, aby algorytmy, które wpływają na nasze życie były zrozumiałe i przewidywalne -- do tego celu wcale nie muszą się "tłumaczyć" -- wystarczy, że tak jak w przykładzie z windą, wiemy co się dzieje i możemy zaplanować swoje własne akcje tak, jak nam podpowiada własna moralność.

Roboty które się "tłumaczą" z tego co zrobiły także istnieją od lat. Jak myślisz, po co montuje się "czarne skrzynki" w samolotach? Tak, samolot to jest robot. Twój samochód to też robot. Witaj w przyszłości.

Link to post
Share on other sites

deshipu, masz rację, dla Twoich przykładów to wszystko się zgadza. Wybrałeś je jednak dość specyficznie i patrząc na to, co mamy w tej chwili. Ja ten tekst odbieram trochę inaczej - szczególnie w kwestii urządzeń, które dopiero się pojawią. Dobrym przykładem "przyszłościowym" jest, to co pojawiło się na filmie (i w wielu innych wariantach, które są przytaczane w sieci): autonomiczny samochód.

W kryzysowej sytuacji ma za wszelką cenę walczyć o życie kierowcy (np. poprzez wjechanie w tłum na chodniku), czy powinien kierować się tym, aby nigdy nie zrobić krzywdy osobom na zewnątrz (czyli w tej sytuacji rozbić się o ścianę "poświęcając" kierowcę)? Kiedyś programy będą musiały podejmować takie decyzje, a wariantów będzie tyle, że raczej nikt nie będzie mógł zakodować każdego z osobna. W pewnym momencie pojawią się takie roboty/komputery, które będą musiały same wnioskować. Głównie rozchodzi się o to, jak podać im te dane i w jaki sposób określać "lepsze rozwiązanie".

Link to post
Share on other sites

Zastanawia mnie dlaczego uważasz, że autonomiczny samochód powinien uwzględniać w swoim algorytmie moralność, natomiast zupełnie bez problemu godzimy się na to, żeby algorytm windy po prostu optymalizował średni czas czekania na nią, bez uwzględnienia moralnych aspektów -- tego, że ktoś z czekających jest chory i śpieszy się na ratujący życie zabieg, albo rodzi, etc. Który ze szczegółów powoduje takie wygórowane wymagania? Być może to, że windy istnieją, są dobrze znane i w powszechnym użytku, a autonomiczne samochody dopiero powstają i wydają się magiczne i nierealne?

[ Dodano: 08-06-2016, 12:59 ]

Właśnie mi przyszło do głowy jedno możliwe wytłumaczenie. Otóż zazwyczaj nie obwiniamy kogoś o "niemoralność" jeśli nie mógł wiedzieć o niemoralnych konsekwencjach swoich czynów. Winda nie "wie" o tym, że jeden z pasażerów jest zagrożony, więc godzimy się z tym, że postępuje rutynowo. Natomiast taki autonomiczny samochód w końcu ma czujniki pozwalające mu nawigować, więc "widzi" sytuację. Zatem nasza intuicja podpowiada, że skoro widzi, to jest "odpowiedzialny" za swoje czyny.

Link to post
Share on other sites
Zarejestruj się lub zaloguj, aby ukryć tę reklamę.
Zarejestruj się lub zaloguj, aby ukryć tę reklamę.

jlcpcb.jpg

jlcpcb.jpg

Produkcja i montaż PCB - wybierz sprawdzone PCBWay!
   • Darmowe płytki dla studentów i projektów non-profit
   • Tylko 5$ za 10 prototypów PCB w 24 godziny
   • Usługa projektowania PCB na zlecenie
   • Montaż PCB od 30$ + bezpłatna dostawa i szablony
   • Darmowe narzędzie do podglądu plików Gerber
Zobacz również » Film z fabryki PCBWay

deshipu, mniej więcej jest tak jak dopisałeś. Dla mnie jest duża różnica między windą, która nie dostaje informacji dodatkowych na temat pilności, a samochodem, który doskonale zna swoje otoczenia i, co ważniejsze, zna konsekwencje swoich czynów. Winda nie wie, co się stanie, gdy nie przyjedzie, a samochód dobrze wie, że wjeżdżając w przechodnia robi mu krzywdę.

Link to post
Share on other sites
Winda nie wie, co się stanie, gdy nie przyjedzie, a samochód dobrze wie, że wjeżdżając w przechodnia robi mu krzywdę.

Wydaje mi się, że robisz tu bardzo duży skok myślowy i bardzo silne założenie. Bo to, że samochód otrzymuje dane z czujników nie oznacza jeszcze, że je "rozumie", a już na pewno nie w sensie moralności czy nawet robienia krzywdy. Żeby tak było, trzeba mu zainstalować więcej czujników i jeszcze bardziej wyrafinowane algorytmy... Ale dlaczego samochód ma mieć "obwody moralności", a -- nie szukając daleko -- taka przeglądarka internetowa ma być zdolna do pokazywania wszystkiego, czy jest to "moralne" czy nie? W końcu chyba łatwiej "algorytm moralności" dołożyć do przeglądarki internetowej, która nie potrzebuje dodatkowych czujników, gdyż wszystko już ma cyfrowe -- dlaczego się tego nie robi?

Link to post
Share on other sites

Czy mój samochód powinien ratować moje życie czy np. dziecka. A jak będzie do wyboru moje życie albo właściciela firmy w której pracuje to kogo powinien ratować. Takich pytań o samochody jest dziesiątki np czy kobieta w ciąży jest więcej "warta" niż 70 letni facet?

Link to post
Share on other sites
Czy mój samochód powinien ratować moje życie czy np. dziecka. A jak będzie do wyboru moje życie albo właściciela firmy w której pracuje to kogo powinien ratować. Takich pytań o samochody jest dziesiątki np czy kobieta w ciąży jest więcej "warta" niż 70 letni facet?

Ale takie same pytania możesz postawić nie samochodowi, a na przykład automatycznym drzwiom w supermarkecie. Czy powinny się otworzyć przed mordercą goniącym swoją przyszłą ofiarę? A co, jeśli goniący jest tak naprawdę policjantem ścigającym przestępcę? A co jeśli jest policjantem, ale skorumpowanym, a ścigany jest tak naprawdę niewinny?

[ Dodano: 08-06-2016, 13:52 ]

Powinniśmy zakazać instalowania automatycznych drzwi, gdyż decyzje, które podejmują są niemoralne.

Link to post
Share on other sites
Bo to, że samochód otrzymuje dane z czujników nie oznacza jeszcze, że je "rozumie", a już na pewno nie w sensie moralności czy nawet robienia krzywdy.

Właśnie o to tu chodzi - teraz nie rozumie, ale za jakiś czas będzie musiał. Może samochód nie wie, że wjechanie w przechodnia jest złe, wie natomiast na 100%, że ma się przed nim zatrzymać na przejściu, bo inaczej jego zadanie zostanie nie zostanie wykonane poprawnie. Co w przypadku, gdy będzie miał do wyboru wjechać w ścianę - czego też mu nie wolno, czy w przechodnia. Nie można tam raczej wstawić random().

Link to post
Share on other sites

Bo przeglądarka jest tylko narzędziem nie muszącym takich decyzji podejmować. Jak nóż, którego sposób użycia jest w pełni zależny od człowieka. Od przeglądarki nie oczekujemy wiele, bo sami decyzje o patrzeniu na treść podejmujemy. W przypadku autonomicznego samochodu jesteśmy jako pasażerowie całkowicie wyłączeni z procesu decyzyjnego. Gdyby została możliwość naciśnięcia guzika "jedziemy na czołówkę z TIRem" lub innego "rozjeżdżamy rowerzystę" to wtedy dyskusji by nie było bo zabawa w Boga zostałaby a naszych rękach. Niestety w sytuacjach nagłych, awaryjnych nie ma czasu na decyzje bo pasażer zajęty czytaniem gazety nawet nie musi wiedzieć co naokoło się dzieje. Masz rację w jednym - na pewno rozumienie sytuacji w ludzkim sensie jest dużo trudniejsze niż prosty algorytm unikania przeszkód. Odróżnienie betonowego filaru mostu od vana pełnego dzieci stojącego na poboczu jest dla człowieka trywialne ale decyzja w co uderzyć już taka prosta nawet dla nas nie jest. Van jest dużo "miększy" i szansa że przeżyjemy - większa. Zawsze takie decyzje będą kontrowersyjne i nigdy nie powstanie jedynie słuszny program do ich rozstrzygania. Moim zdaniem moralność to potężne słowo nie mające w ogóle zastosowania w naszych - nawet i quasi-inteligentnych - tworach i dlatego przykłady z drzwiami prowadzą do absurdów. Nie ma więc co się łudzić, że autonomiczne samochody będą zachowywać się jak ludzie bo nawet nie wiadomo, co to znaczy. Ja mam tylko nadzieję, że algorytmy kontroli trakcji, opanowania techniki jazdy i taktyki zachowań na drodze będą w końcu o niebo lepsze niż statystycznego kierowcy-człowieka. Kumulujące się doświadczenie wielu grup inżynierów i programistów spowoduje, że w jednym komputerze można będzie zawrzeć o wiele więcej rozsądku niż ma go większość z nas i to będzie główną przyczyną gwałtownego spadku liczby wypadków. Komputery nie będą zmęczone po 6 godzinach jazdy, nie będą zaciskać nóg żeby znaleźć najbliższe drzewo, nie będą kłócić się z żonami przez telefon, nie będą opieprzane przez szefów i nie będą lansować się przed dziewczyną siedzącą na prawym fotelu. Moim zdaniem już samo to wiele zmienia i jest szansa, że do wjeżdżania w grupy dzieci na przystankach będzie dochodziło tak rzadko jak skomputeryzowane samoloty pasażerskie spadają na przedszkola.

Link to post
Share on other sites
Bo przeglądarka jest tylko narzędziem nie muszącym takich decyzji podejmować. Jak nóż, którego sposób użycia jest w pełni zależny od człowieka. Od przeglądarki nie oczekujemy wiele, bo sami decyzje o patrzeniu na treść podejmujemy. W przypadku autonomicznego samochodu jesteśmy jako pasażerowie całkowicie wyłączeni z procesu decyzyjnego.

Nie do końca tak jest, bo w przypadku przeglądarki także wszak nie mam pełnej kontroli. Wpisując podany mi adres nigdy nie wiem co zobaczę -- mogę zostać narażony na szok. A jeśli jestem epileptykiem, to nawet na atak i możliwą w jego wyniku śmierć. A jeśli jestem przysłowiowym dzieckiem, które do końca życia będzie skalane tym, co zobaczyło? Dlaczego nikt nie myśli o dzieciach!?

Link to post
Share on other sites

Jak to nikt nie myśli o dzieciach. Przecież akcje "Wszyscy czytamy dzieciom", "Kwadrans z książką" itp są właśnie próbą zaszczepienia fajnych nawyków a zostawienie dziecka sam-na-sam z przeglądarką w tablecie jest jedną z głupszych rzeczy jakie rodzic może zrobić.

Link to post
Share on other sites
Jak to nikt nie myśli o dzieciach. Przecież akcje "Wszyscy czytamy dzieciom", "Kwadrans z książką" itp są właśnie próbą zaszczepienia fajnych nawyków a zostawienie dziecka sam-na-sam z przeglądarką w tablecie jest jedną z głupszych rzeczy jakie rodzic może zrobić.

Zapomniałem oznaczyć sarkazm, przepraszam.

Link to post
Share on other sites

Właśnie z powodu jego potężnej dawki nie chciało mi się już kontynuować tematu przeglądarki...

A wracając do samochodów. Czy postępująca doskonałość algorytmów prowadzenia, lepsze rozeznanie w sytuacji na drodze i brak brawury nie spowodują marginalizacji takich problemów jak wybór: kogo zabić tym razem? Zakładam, że zarówno producenci samochodów/oprogramowania jak i firmy ubezpieczeniowe nie pozwolą na wprowadzanie na rynek komercyjny sprzętu mogącego zagrozić ich interesom czyli w szczególnym przypadku w jakiś oczywisty sposób zagrażającego zdrowiu lub życiu ludzi. A na takim nowym rynku bardzo łatwo będzie stracić twarz i markę jednym głupim posunięciem biznesowym lub głośnym procesem. Z tego co czytałem, czołowi producenci - przynajmniej w Stanach - są w zasadzie pogodzeni i gotowi na przejęcie odpowiedzialności za "wyczyny" swoich pojazdów bo widzą, że innej drogi nie ma. Tym bardziej, że jest to naturalna droga rozwoju prawodawstwa już obecnie obarczającego odpowiedzialnością producenta za wady lub pewne cechy produktu użytkowanego zgodnie z przeznaczeniem.

Link to post
Share on other sites

A ja tu widzę inną kwestię. Samochody będą zawsze podejmowały decyzję najbezpieczniejszą dla kierowcy o ile prawo nie będzie wymagało inaczej (a moim zdaniem nie będzie). Dlaczego?

To proste - jeśli konsument będzie miał wybór pomiędzy samochodem firmy X które wbije go w ścianę aby uratować pieszego i samochodem firmy Y które zrobi co będzie legalne aby kierowca był bezpieczny to które wybierze?

Link to post
Share on other sites

Dołącz do dyskusji, napisz odpowiedź!

Jeśli masz już konto to zaloguj się teraz, aby opublikować wiadomość jako Ty. Możesz też napisać teraz i zarejestrować się później.
Uwaga: wgrywanie zdjęć i załączników dostępne jest po zalogowaniu!

Anonim
Dołącz do dyskusji! Kliknij i zacznij pisać...

×   Wklejony jako tekst z formatowaniem.   Przywróć formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Twój link będzie automatycznie osadzony.   Wyświetlać jako link

×   Twoja poprzednia zawartość została przywrócona.   Wyczyść edytor

×   Nie możesz wkleić zdjęć bezpośrednio. Prześlij lub wstaw obrazy z adresu URL.

×
×
  • Utwórz nowe...

Ważne informacje

Ta strona używa ciasteczek (cookies), dzięki którym może działać lepiej. Więcej na ten temat znajdziesz w Polityce Prywatności.