Moralność robotów – problem XXI wieku?

Moralność robotów – problem XXI wieku?

Niedługo roboty będą samodzielnie podejmować decyzje dotyczące naszego życia. Przykładem mogą być programy sterujące autonomicznymi samochodami oraz roboty chirurgiczne.

Coraz ważniejsze stają się pytania na temat ich moralności. Grupa naukowców przeprowadziła badanie, które próbuje odpowiedzieć przynajmniej na niektóre z nich.

Normy społeczne, które są powszechne wśród ludzi, nie stanowią jednoznacznych zasad, którymi mogłyby się kierować roboty. Moralne postępowanie często zależy od konkretnej sytuacji.

W celu zmierzenia zależności pomiędzy nimi, uczestnicy badania mieli za zadanie wymienić, co należy robić, a czego nie wolno robić w danej sytuacji, np. na plaży. Dane takie jak kolejność odpowiedzi i częstotliwość z jaką się one powtarzają tworzą konkretną mapę, która może być przydatna dla robotów.

Z drugiej strony, ludzie nie zawsze chcą, żeby maszyna reagowała jak człowiek. Sytuacja analizowana przez uczestników badania przedstawia wagonik z czterema osobami, który za chwilkę ma rozbić się o mur. Wagonik można przekierować na inny tor, na którym znajduje się pracownik kolei.

Człowiek, robot humanoidalny oraz robot o wyglądzie maszyny podjęli decyzję. Gdy życie pracownika zostało poświęcone, uczestnicy badania ocenili negatywnie człowieka, ale nie robota. Wręcz przeciwnie – jeśli robot nie poświęcił życia pracownika, ocena była negatywna.

Badanie pokazuje również jak ważna jest komunikacja ze strony robota. Gdy przedstawił on tok rozumowania prowadzący do podjęcia negatywnie ocenianej decyzji, uczestnicy winili go mniej. Naukowcy już pracują nad robotem, który komunikuje się z ludźmi i otwarcie odmawia wykonania poleceń, które wyrządziłyby krzywdę jemu lub innym.

Źródło: [1]

moralność, roboty

Trwa ładowanie komentarzy...