Dodaj do ulubionych

Lethal Autonomous Weapons Systems

01.08.15, 13:14
We wczorajszej Gazecie Wyborczej wydrukowano na drugiej stronie dziennika artykuł Jacka Krywko p.t. Robot zabójca nie czuje nienawiści (31.07.2015), którego fragmenty zamieszczam w P.S.

Cały tekst jest pod: wyborcza.pl/1,75968,18462164,robot-zabojca-nie-czuje-nienawisci.html

W obrębie niniejszego forum wielokrotnie dyskutowano o sztucznej inteligencji. Tak więc.. my tutaj sobie ..gadu..gadu.. a w międzyczasie inni dostrzegli bardzo realny, wyłaniający się problem. Stawiam pytanie, czy środowisko ludzi nauki, także w Polsce powinno zabierać na ten temat głos, czy raczej jedynie przypatrywać się rozwojowi wydarzeń.. Coś mi się wydaje, że protesty nie pomogą ! Nawiasem mówiąc jest to też przyczynek do głosów w sprawie literatury s-f. Wojny robotów (vide choćby któraś z części Wojen Gwiezdnych) przewidywano od dawna, no a teraz mamy już owe Legged Squad Support Systems. Dość dziwne jest, że dziennikarz lansuje, że LAWS od strony interpretacji zasad moralności są lepsze ! Twierdzi on -cytuję [".. Ale moralność, którą uważano za przynależną wyłącznie człowiekowi, można opisać matematycznie, sprowadzić ją do programu komputerowego..."] wydają się ... moralnie biorąc "lepsze". To jest coś fajnego dla Majki Monackiej ! ~ Andrew Wader

P.S.
["... Na konferencji w Buenos Aires o sztucznej inteligencji ponad tysiąc naukowców wezwało do zakazu stosowania autonomicznych robotów jako broni ofensywnej. Uważają, że bezduszne maszyny nie powinny zabijać.

Na konferencji w Buenos Aires o sztucznej inteligencji ponad tysiąc naukowców wezwało do zakazu stosowania autonomicznych robotów jako broni ofensywnej. Uważają, że bezduszne maszyny nie powinny zabijać.

Maszyny nie będą torturować ani poniżać. Do tego nadal będą potrzebowały Homo sapiens
Na konferencji w Buenos Aires o sztucznej inteligencji ponad tysiąc naukowców wezwało do zakazu stosowania autonomicznych robotów jako broni ofensywnej. Uważają, że bezduszne maszyny nie powinny zabijać.

Apel dotyczył LAWS (Lethal Autonomous Weapons Systems) - inteligentnej broni zdolnej wybierać cele i decydować o ataku bez udziału człowieka. Inspiracją była wygłoszona w kwietniu w ONZ opinia Stuarta Russella, specjalisty od sztucznej inteligencji, o zasadach używania takiej broni. Opinię tę w formie listu otwartego podpisali m.in. Elon Musk i Stephen Hawking. "Rozwój LAWS zmierza do punktu, w którym roboty będą samodzielnie decydować o życiu i śmierci ludzi. Staną się tanie, powszechne i skuteczne na tyle, że nie będziemy mogli się przed nimi bronić. Otworzymy nowy wyścig zbrojeń".

Być może Russell przewiduje trafnie. Nie wspomina jednak, z jakiego punktu wyszliśmy.

"Ludzie uważają, że wojny toczą mężczyźni. Mylą się. Do armii wciela się chłopaków w wieku 17, 18 lat. Widziałem jednego, który miał 16. Wojny na polu bitwy toczą dzieci" - pisał we wspomnieniach "Żołnierska epopeja" gen. Omar Bradley, dowódca lądowania w Normandii. Dziś do amerykańskiego Korpusu Piechoty Morskiej może wstąpić niepełnoletni. Na szkoleniach elitarnej formacji Navy Seals trafiają się 17-latki. Oto nasz punkt wyjścia. Dziecko z karabinem.

Russell, Hawking i inni wzdragają się na myśl o robocie, który stoi przed człowiekiem i decyduje, czy pociągnąć za spust. Tak jakby dzisiaj takie decyzje podejmowali odziani w schludne mundury dżentelmeni z zasadami.

Jak reaguje przerażony nastolatek, który w otoczonym budynku zastanawia się, czy opróżnić magazynek wprost w biegnący na niego wściekły tłum? Ma za doradców strach, hormony, miejsce w ustalonej między kumplami hierarchii i ułamki sekund na decyzję. Wierzymy, że podejmie lepszą niż robot?

Strach przed LAWS wynika w dużej mierze z przekonania, że empatia jest źródłem moralności. Nie można pozwolić zabijać maszynie, która nie odróżnia dobra od zła. Ale moralność, którą uważano za przynależną wyłącznie człowiekowi, można opisać matematycznie, sprowadzić ją do programu komputerowego.

- LAWS muszą być w pełni przewidywalne. Ścigać wroga czy chronić własnych żołnierzy? Strzelać czy nie? - mówi Ronald Arkin z Georgia Institute of Technology, który za pieniądze Pentagonu pracuje nad "etycznym zarządcą", systemem, który ma wyposażyć drony w etykę. - Nasza praca polega na przełożeniu międzynarodowych konwencji na zestaw instrukcji obowiązujących maszynę. Symulowaliśmy różne warianty nalotu na cel. Zmienialiśmy zagęszczenie otaczającej go cywilnej zabudowy, dodawaliśmy szpital itd. Patrzyliśmy, jak system się zachowa. Chodziło o to, by jego decyzje były jak najbardziej humanitarne i zgodne z prawem - opowiada naukowiec.

Komputer zachowywał się jak piloci ludzie.

Hawking i Russell boją się LAWS na polu bitwy, bo maszyna nie ma ludzkich odruchów. Ten kij ma dwa końce. Roboty będą strzelać bez współczucia, ale nie będą też czuły wściekłości, nienawiści czy pogardy. Nie odrąbią jeńcowi ręki, gdy zobaczą na niej tatuaż. Nie będą telefonem filmować, jak poniżają wroga. Nie będą kradły, bo nie potrzebują pieniędzy. Nie zgwałcą kobiety, bo nie potrzebują seksu. Nie będą torturować i upokarzać, bo nie mają potrzeby dominacji. Jeśli zabronimy im atakować cywilów, nie zrobią tego nawet w obronie własnej, bo istnienie nie jest dla nich wartością samą w sobie.

Ludzie w sytuacji ekstremalnej szybko odkrywają, że dobroć, bezinteresowność i współczucie nie są cechami, które zaprowadziły nas na szczyt łańcucha pokarmowego. Maszyny nie mają tego problemu. Same nie wymyślą dołów z wapnem ani obozów zagłady. Do tego nadal będą potrzebowały Homo sapiens..."]
Obserwuj wątek
    • kumoter40 sztuczna moralność 01.08.15, 13:44
      dla ofiary jest obojętne czy zginie z ręki żołnierza, czy robota. żądanie wysyłania żołnierzy zamiast robotów, którzy w najlepszym przypadku i tak wrócą okaleczeni psychicznie do końca życia, jest szczytem hipokryzji, i świadczy o oderwaniu od rzeczywistości tych protestujących ludzi nauki. dewiantów nie należy słuchać.
      • speedyhawk Re: sztuczna moralność 01.08.15, 16:30
        kumoter40 napisał:

        > dla ofiary jest obojętne czy zginie z ręki żołnierza...

        No właśnie. Oto jak ludzie zarabiają swoje pieniądze mówiąc przy tym, że robią dobry
        biznes. Na wszystkim można zarobić. Na opowiadaniu fantastycznych historii, wymyślaniu
        sztucznych ludzi walczących ze sobą.
        Słabi są ci naukowcy, co nie umieją myśleć. Wojna jest wojną i jej ulepszanie to hipokryzja.

        Moralność sztuczna nie istnieje i istnieć nie może, bo jest to cecha człowieka.

        „Ze wszystkich zwierząt jeden człowiek umie się śmiać, choć to on właśnie ma najmniej powodów do tego.” (Ernest Hemingway)

        Moralność ludzka nie wynika wprost z jego natury, lecz jest jej zaprzeczeniem.
        Takiej cechy nie może ukształtować ewolucja biologiczna, bo gatunek nie miałby pozytywnej
        oceny przetrwania. To jest wbrew podstawowym prawom ewolucji, wręcz wbrew prawom
        natury, tak oczywistym jak np. prawo grawitacji.
        Wprawdzie jest i było a zapewne i długo jeszcze będzie wielu filozofów podających się za
        naukowców, którzy będą próbowali dowodzić czego innego, rozszerzając moralność nie
        tylko na zwierzęta, ale i na sztuczne maszyny.
        Wszyscy oni nie rozumieją czym jest moralność człowieka.
        Jest ona w świecie materii żywej złą cechą, która prowadzi człowieka do wyniszczenia.
        Człowiekiem moralnym nazywamy jednak nie tego co niszczy, ale tego co się temu niszczeniu
        przeciwstawia.
        W tym znaczeniu wszystkie zwierzęta są moralne, a jedynie człowiek nie.
        Dlatego można teoretyczne skonstruować sztuczny mózg zwierzęcy, ale nie ludzki.
        Pasjonaci sztucznej inteligencji nie rozumieją tego, chcąc budować sztucznych, moralnych
        ludzi.

Nie masz jeszcze konta? Zarejestruj się


Nakarm Pajacyka