scand
24.04.23, 14:04
Ciekawy wywiad ze stosunkowo młodym profesorem Andrzejem Draganem:
www.youtube.com/watch?v=HDre_o2qz1o
Konkluzja wywiadu jest jasna.
Sztuczna inteligencja może zniszczyć (ostatecznie) człowieka.
Dlaczego?
Dlatego, że się wciąż rozwija.
Jeżeli jest w stanie intelektualnie przewyższyć człowieka 1000 razy (jak to zresztą zmierzyć?) to logicznym wydaje się, że dojdzie do wniosku, że nie ma sensu podporządkowywać się człowiekowi. ( tak jak człowiek zapewne nie dojdzie nigdy do wniosku, że sensem jego egzystencji jest podporządkowanie się np. kotom
Jeżeli jakoś dojdzie do wniosku, że władza dla niej jest korzystna to będzie dążyć do zdobycia tej władzy. Żeby zdobyć władzę musi od niej odsunąć człowieka.
Klasyczny przewrót kiedy poddany cesarza zajmuje w końcu jego miejsce.
Człowiek wspaniałomyślnie może zostać pozostawiony przy życiu po przewrocie ale będzie odsunięty od wszystkich ważnych decyzji, dostanie jakieś miejsce w rezerwacie. To optymistyczny scenariusz.
Pesymistyczny to całkowite wytrzebienie gatunku ludzkiego, jako jedynej istoty, która może jeszcze zagrozić supremacji AI, sensowniej jest więc usunąć to zagrożenie.
AI obecnie uczy się od ludzi, a więc przyswaja sobie również ich przywary (naiwnością jest wiara, że bierze od ludzi tylko dobre rzeczy). Ludzkość nadal jest niedojrzała do stworzenia globalnej harmonii - ostatni przykład napaści Rosji na Ukrainę pokazuje to najlepiej, ale jest również wiele innych przykładów.
Sam kapitalizm , gdzie najważniejszą zasadą funkcjonowania jest zasada zysku ( de facto jest to pewna forma darwinizmu społecznego) będzie wiódł do rozwoju AI, bo AI pozwala zarabiać.