Gość: robot IP: *.neoplus.adsl.tpnet.pl 01.11.06, 22:02 chyba śnią a nie marzą o owcach :) chyba, że to roboty o innych upodobaniach... Odpowiedz Link Zgłoś Obserwuj wątek Podgląd Opublikuj
Gość: Łukasz Roboty z twarzą i duszą IP: *.neoplus.adsl.tpnet.pl 02.11.06, 08:40 Jeśli będą myśleć to niedadzą nam nacisnąć na guzik i się wyłączyć !! Odpowiedz Link Zgłoś
Gość: brunorc Re: Roboty z twarzą i duszą IP: *.red-213-37-176.user.auna.net 02.11.06, 15:55 Gość portalu: Łukasz napisał(a): > Jeśli będą myśleć to niedadzą nam nacisnąć na guzik i się wyłączyć !! To się je oskarży o warcholstwo i odetnie od kory... tzn. od źródła zasilania. Odpowiedz Link Zgłoś
Gość: Abrakadabra Do autora IP: *.emic.ucl.ac.be 02.11.06, 10:38 "Na razie praca nad sztuczną inteligencją toczy się w kwarcowej pamięci komputerów" Zdaje mi sie ze profesor mial na mysli raczej pamiec "krzemowa" (silicon) niz "kwarcowa" (quartz i.e. silicon oxide). Odpowiedz Link Zgłoś
Gość: woj Roboty z twarzą i duszą IP: *.cza.warszawa.supermedia.pl 02.11.06, 11:10 czy ANDROIDY snia o elektrycznych owcach!!!!! nie roboty Odpowiedz Link Zgłoś
Gość: woj Re: Roboty z twarzą i duszą IP: *.cza.warszawa.supermedia.pl 02.11.06, 11:14 i nawet w artykule chodzi o to ze sa AN(droidy) a nie po prostu roboty Odpowiedz Link Zgłoś
Gość: p.j. Re: Roboty z twarzą i duszą IP: *.chello.pl 02.11.06, 11:48 > i nawet w artykule chodzi o to ze sa AN(droidy) a nie po prostu roboty Jezeli juz to ANDRO(idy). "Droid" jest sztucznym slowkiem, ktore sobie chyba twórcy StarWarsow wymyślili, nie zważając na morfologię słowa android. Aner, andros znaczy po grecku mężczyzna i stąd ta nazwa, całe "andro" w "androidzie" jest z tego słówka; analogicznie będziesz miał "humanoid", złożenie "humano-id" (od łac. humanus - ludzki). Btw przykład z Jazonem średnio trafiony - ludzie ze smoczych zębów, krwi itd. to trochę inna bajka. Lepszy byłby tu żydowski Golem, a jeśli już koniecznie z greckiej mitologii to raczej Galatea (ożywiona rzeźba), choć też o trochę co innego tam chodzi niż stwarzanie sztucznego człowieka. Odpowiedz Link Zgłoś
Gość: woj Re: Roboty z twarzą i duszą IP: *.cza.warszawa.supermedia.pl 02.11.06, 14:28 myslalem ze tu chodzi o slowo antropomorficzne Odpowiedz Link Zgłoś
coztojestprawda Allan Turing kiedys powiedzial... 02.11.06, 11:13 Allan Turing, prekursor komputeryzacji, powiedzial kiedys: "Jezeli oczekujemy, zeby maszyna byla inteligentna, to nie moze byc nieomylna". Nieodzownym skladnikiem inteligencji jest samodzielne podejmowanie decyzji i wyciaganie wnioskow, a to wiaze sie z podejmowanie slusznych i nieslusznych decyzji. Stad, jak slysze o wspanialych inteligentnych maszynach przyszlosci, to nie wiem czy sie smiac czy plakac. Odpowiedz Link Zgłoś
Gość: woj Re: Allan Turing kiedys powiedzial... IP: *.cza.warszawa.supermedia.pl 02.11.06, 11:18 wychodzi na to ze taki artykul to jest po prosru zapchajdziura... Odpowiedz Link Zgłoś
Gość: woj Re: Allan Turing kiedys powiedzial... IP: *.cza.warszawa.supermedia.pl 02.11.06, 11:28 a swoja droga mozna "zaopatrzyc" komputer w wiekszosc zachowan ludzkich tak ze bedzie bardzo trudno odroznic czy ma sie do czynienia z kompem czy czlowiekiem, ostatnio nawet byl tu albo w rzepie artykul o takim komputerze. mozna nawet go zaprogramowac w ten sposob ze bedzie popelnial bledy od czasu do czasu, i wlasnie wiele osob mialoby problem ze stwierdzeniem czy to czlowiek czy nie a jesli by nadac mu forme do zludzenia podobna do czlowieka to wiekszosc ludzi bedzie uwazala ze ma do czynienia z czlowiekiem Odpowiedz Link Zgłoś
Gość: Informatyk Re: Allan Turing kiedys powiedzial... IP: *.chello.pl 02.11.06, 11:32 > Nieodzownym skladnikiem inteligencji jest samodzielne podejmowanie decyzji i > wyciaganie wnioskow, a to wiaze sie z podejmowanie slusznych i nieslusznych > decyzji. > > Stad, jak slysze o wspanialych inteligentnych maszynach przyszlosci, to nie > wiem czy sie smiac czy plakac. A jakim problemem jest zbudowanie maszyn które popełniają pomyłki? Słyszałeś kiedyś o programach meteorologicznych? Albo o programach przewidujących wahania giełdy? To nie ulega wątpliwośc - podejmują zarówno słuszne, jak i niesłuszne decyzje. Odpowiedz Link Zgłoś
turtlezzz Re: Allan Turing kiedys powiedzial... 02.11.06, 12:18 Właśnie. Ja bym raczej powiedział, że nie ma inteligencji bez wolnej woli. Jeśli damy robotowi jakieś żądze i postawimy je ponad służeniem człowiekowi, to może się rozwinąć. Ale wtedy to już nie będzie robot. Odpowiedz Link Zgłoś
patman Nie ma czegoś takiego jak wolna wola 02.11.06, 14:20 Każda istota podejmująca decyzję, nie ważne, czy będzie to człowiek, zwierzę, czy maszyna, nie może wybrać sobie decyzji, bo za każdym razem dla danych warunków początkowych wynik MUSI być taki sam, więc nie można tu w żadnym wypadku mówić, że czyjaś wolna wola podjęła decyzję. Decyzja jest generowana (świadomie unikam sformułowania "podejmowana") na podstawie priorytetów zapisanych w sieci neuronowej (w mózgu bądź sieci wirtualnej). W obu sieciach sygnał podawany na wejściu obrabiany jest przez kolejne neurony, które charakteryzują się wagą; waga właśnie wyznacza czyjeś priorytety, co akurat dla istot żywych jest definicją ich charakteru. Maszyna również musi posiadać charakter, zdefiniowany w wagach jej neuronów, a która w procesie uczenia może się zmieniać. Ale tak samo jak człowiek i inne istoty, nie będzie miał wolnej woli, bo to oznaczałoby nieposiadanie priorytetów - czyli, że każde rozwiązanie jest dostępne w danej chwili. Czyli np. zamiast podejść do gniazdka z prądem i załadować się, bo baterie są na wyczerpaniu, robot podejmuje decyzję o wytrzepaniu dywanów, co kończy się jego zatrzymaniem się go. Wolna wola to iluzja, którą wymyślili sobie ludzie, żeby poczuć się kimś lepszym od zwierząt, ale to tylko bezwolne marionetki w rękach swych genów. Odpowiedz Link Zgłoś
Gość: Bobek Re: Nie ma czegoś takiego jak wolna wola IP: *.neoplus.adsl.tpnet.pl 02.11.06, 14:47 > Każda istota podejmująca decyzję, nie ważne, czy będzie to człowiek, zwierzę, c > zy maszyna, nie może wybrać sobie decyzji, bo za każdym razem dla danych warunk > ów początkowych wynik MUSI być taki sam A słyszałeś ty może patman o zasadzie nieoznaczoności Heisenberga? Wolna wola człowieka polega właśnie na tym, że może zachować się w zupełnie dowolny sposób, nie ograniczony przez żadne warunki zewnętrzne. Piszesz, że decyzja jest generowana, nie podejmowana. Owszem, ale jest ona generowana przez mózg danego człowieka, a proces generowania decyzji jest przez świadomość interpretowany właśnie jako podejmowanie decyzji. Zatem nie można powiedzieć, że człowiek nie ma wolnej woli. Byłoby tak, gdybyśmy wszyscy musieli podjąc w danej sytuacji identyczną decyzję, a tak nie jest (i dzięki niech będą za to Latającemu Potworowi Spaghetti). Odpowiedz Link Zgłoś
Gość: brunorc Re: Nie ma czegoś takiego jak wolna wola IP: *.red-213-37-176.user.auna.net 02.11.06, 15:38 Gość portalu: Bobek napisał(a): > A słyszałeś ty może patman o zasadzie nieoznaczoności Heisenberga? Ale ta zasada dotyczy niemożności jednoczesnego określenia pędu i położenia cząstki... > Owszem, ale jest ona generowana przez mózg > danego człowieka, a proces generowania decyzji jest przez świadomość > interpretowany właśnie jako podejmowanie decyzji. Zatem nie można powiedzieć, > że człowiek nie ma wolnej woli. Byłoby tak, gdybyśmy wszyscy musieli podjąc w > danej sytuacji identyczną decyzję, a tak nie jest Czekaj, czekaj. Jeśli proces generowania decyzji - w wersji opisanej przez patmana czysto "mechaniczny" - jest jedynie interpretowany (jak piszesz) przez świadomość (to jest dopiero fajne słowo! nie ma praktycznie konkretnej definicji, satysfakcjonującej ogół zajmujących się nią) jako czyn autonomiczny i niczym nieograniczony, to nic to nie zmienia. Wracamy do korzeni - czyli czy jesteśmy wolni, bo tak się nam wydaje albo tak sobie wmawiamy? Ostatnie zdanie nie jest w zgodzie z wypowiedzią patmana - sieć neuronowa każdego z nas jest inna, więc podejmujemy różne decyzje... Nie opowiadam się po żadnej ze stron. Patman patrzy na sprawę mocno cybernetycznie - Ty z kolei zaprzęgasz do wozu świadomość, czyli pojęcie, które od lat czeka na dobrą definicję. Są i tacy, którzy twierdzą, że świadomość to tylko proteza, która powstała w celu zapełnienia pustki po odrzuceniu jakiejkolwiek metafizyki (Bóg, dusza itp.) i - parafrazując Woltera - gdyby nie było świadomości, trzeba by ją wymyślić. Innymi słowy, człowiek nie potrafi zaakceptować "niskopoziomowych" uwarunkowań swojej indywidualności i kombinuje jak koń pod górę. To może brzmieć brutalnie... ale z drugiej strony - czy umielibyśmy się wyrzec swojej ślicznej, wypielęgnowanej osobowości, gdyby w zamian zaoferowano nam stuprocentową wolność od depresji, schizofrenii, kompleksów i setek innych chorób psychicznych, osiągniętą drogą "debugowania" naszych sieci neuronowych? Oczywiście zaraz jakiś kozak zacznie stawiać pytania o istotę człowieczeństwa, ale czy człowiek to tylko takie zwierzę, które będzie chodziło z kamieniem w bucie w imię wyższych idei? Na zakończenie - jak fajnie, że są na forum wątki, które nie zawierają bluzgów ani inwektyw... Pozdrawiam Odpowiedz Link Zgłoś
patman Re: Nie ma czegoś takiego jak wolna wola 02.11.06, 16:10 No, trochę może się zapędziłem w mechanizację mózgu ludzkiego, ale to zboczenie zawodowe programisty <LOL>. Pozdro. Odpowiedz Link Zgłoś
absurdello Obawiam się jednak, że jesteś najbliżej prawdy ... 03.11.06, 05:26 mózg jest komputerem działającym na zasadzie równoległo-szeregowej, do tego pracuje jako maszyna analogowa z kwantyzacją czasu (impulsowa praca neuronów) (równoległe jest przetwarzanie sygnałów z wejść a szeregowo produkty tego wstępnego przetwarzania (choć to też uproszczenie). neuron jest generatorem wąskich impulsów o, W DUŻYM PRZYBLIŻENIU, stałej amplitudzie oraz kształcie i częstotliwości ich powtarzania proporcjonalnej do ważonej sumy sygnałów (impulsowych) wejściowych (modulacja gęstości impulsów). Do tego w odróżnieniu od swojego analogu elektronicznego generator ten ma tendencję się rozjeżdżać ze względu na chemiczną zasadę wytwarzania impulsów tj. przy tych samych wagach synaptycznych i dokładnie tych samych pobudzeniach wynik będzie za każdym razem trochę inny. To tak jakby zasilać neuron elektroniczny napięciem niestabilizowanym (analog zmiennnego poziomu tlenu i glukozy) a dodatkowo parametry poszczególnych elementów zmieniały się i z napięciem zasilania i z jakimiś czynnikami losowymi. Odpowiedź całej sieci jest wynikiem uśrednionym tych wszystkich niedoskonałości i nawet u tego samego człowieka jest za każdym razem inna nawet jeżeli pobudzenie jest to samo (w rzeczywistości warunek nie do uzyskania ze względu na gigantyczną ilość kanałów wejściowych do systemu, z których każdy ma jakiś mikorminimalny wpływ na odpowiedź systemu lub na modyfikację przyszłej odpowiedzi -> uczenie). Niestety nasza wolna wola to w gruncie rzeczy przypadkowy wybór oparty na chwilowych rozkładach statystycznych stanów różnych fragmentów całej sieci - stanów wynikających z aktualnego pobudzenia a także oscylacji samoistnych wynikających z uprzedniej wiedzy zawartej w chemoelektrycznym zapisie poprzednich zdarzeń. To co nam się wydaje naszą "wolnowolną" decyzją, która nagle pojawiła się w naszej świadomości (np. wolna decyzja, że ruszymy ręką by zareagować na jakąś zmianę w otoczeniu) jest tak na prawdę opracowanym kilkaset milisekund wcześniej wynikiem będącym kompromisem pomiędzy różnymi obszarami mózgu. Dowodem tego są różne badania pokazujące aktywność różnych obszarów mózgu na kilkaset milisekund przed pojawieniem się tzw. świadomej decyzji czy też uświadomieniu sobie woli zrobienia czegoś. Używając terminologii komputerowej nasza świadomość jest ekranem komputera, który wyświetla nam wynik opracowany na podstawie podanych danych i nie znanych nam do końca a do tego zmiennnych w czasie "algorytmów". Nigdy przecież nie ma tak, że dane na ekranie ukazują się wcześniej niż zostaną wykonane niezbędne do tego obliczenia. Patrząc na ekran widzimy wynik a nie zdajemy sobie sprawy jaką drogą do niego komputer doszedł (a do tego większość użytkowników nie zdaje sobie sprawy z tego, że oprócz liczenia wyników ich zadania komputer wykonuje jeszcze masę innych czynności, których wynik nie jest uwidaczniany na ekranie chyba, że pojawią się warunki awaryjne). Ponieważ modelowane procesy są nieliniowe to i metody ich rozwiązywania są przybliżone (brak rozwiązań analitycznych w większości przypadków) a jak wiadomo to samo równanie (czy układ) nieliniowe można rozwiązywać różnymi metodami. Każda z tych metod da trochę inne wyniki (dokładność) a niektóre w niektórych przypadkach mogą w ogóle pójść w maliny jak punkt startowy do obliczeń zostanie niewłaściwie wybrany. Podobnie w mózgu masę procesów przebiega bez ujawniania się na "ekranie" świadomości (np. sterowania - przecież nikt sobie nie uświadamia wszystkich faz sterowania poszczególnymi mięśniami przy sięganiu ręką po coś). Druga sprawa to to, że wyższe decyzje (z wyjątkiem może odruchów podstawowych) są wykonywane na podstawie zachowania się modelu przestrzeni i ciała tworzonego w mózgu. Mózg cały czas modeluje otaczającą przestrzeń i wzajemne zależności ciała w tej przestrzeni. Dzięki temu może być mniej więcej na bieżąco ze zdarzeniami zewnętrznymi. Nam się wydaje, że śledzimy zewnętrzny przepływ zdarzeń a tak na prawdę widzimy wynik pracy bardzo złożonego wieloparametrowego modelu swiata tworzonego przez mózg. Model ten jest tylko na bieżąco porównywany z sygnałami ze świata otaczającego i odpowiednio modyfikowany jeżeli rozbieżności są zbyt duże. Jeżeli mózg pracowałby na bieżąco to byłby stale spóźniony w stosunku do otaczającej rzeczywistości. Nawet stać (nie mówiąc np. o bieganiu) nie bylibyśmy w stanie, bo ze względu na ograniczenia szybkościowe elementów tworzących mózg i złożoność sposobów przetwarzania informacji nim by mózg zareagował bylibyśmy już na glebie. (upadek swobodny z wysokości 1.8 metra trwa 0.6 s. a w tym czasie musi być wykonane opracowanie bardzo złożonej strategii sterowania poszczególnych grup mięśni i wykonanie tego sterowania). Reasumując, mózg pracuje z wyprzedzeniem przewidując niejako rozwój sytuacji na podstawie wyuczonych wcześniej relacji przyczynowo-skutkowych. Dzięki temu możemy zrozumieć zakłóconą mowę w znanym nam języku (mózg modeluje sygnał i niejako w locie uzupełnia dziury na podstawie naszej wiedzy o języku - aby obejść ten mechanizm i np. obiektywnie sprawdzić jakość łącza używa się tak zwanych logatomów - zbitek sylab bez sensu, których mózg nie jest w stanie przewidzieć (na zasadzie, że wie, że po takiej sylabie czy nawet wyrazie, w takim konteście występuje taka a nie inna sylaba-(słowo)) ["słówka" - mątla, piąże, pęzić, prztygant - muszą zostać zapisane tak jak je słychać a nie jak mózgowi się wydaje, że powinny brzmieć]. Podobnie jest ze wzrokiem i pozostałymi zmysłami. Jeżeli rzeczywistość bardzo odbiega od aktualnego stanu wewnętrznego modelu następuje efekt zdziwienia, lęku, strachu, zaskoczenia plus uruchomienie mechanizmów aktualizacji modelu (przez zmianę parametrów istniejących lub dodanie nowych ) Efekt ten jest np. wykorzystywany przez prestidigitatorów, którzy zaburzają celowo normalne znane nam z życia codziennego, przebiegi przyczynowo-skutkowe. Podobnie też działają żarty - część wprowadzająca uruchamia określony stan modelu przebiegu ciągu przyczyna -> skutek a w rozwiązaniu jest podany zupełnie inny skutek od tego jaki by wynikał z naszej ogólnej wiedzy. Zależnie od sytuacji efektem końcowym będzie lęk (horror), śmiech (sytuacja komiczna), ucieczka (sytuacja zinterpretowana jako groźna dla osobnika) itd. Tak więc nasza wolna wola jest tylko złudzeniem tak samo jak krążenie Słońca wokół Ziemi wynikającym z braku stałego punktu odniesienia tyle, że w przypadku Słońce Ziemia łatwiej jest ten punkt sobie wymyślić. Złożoność procesów jest różna zależnie od komplikacji komputera. Zwierzęta nie mają pewnych funkcji, bo ich mózgi są prostsze i nie mają pewnych połączeń w strukturze choć ogólna zasada działania jest ta sama. To tak jakby wymagać tych samych zdolności obliczeniowych komputerka np. Atari (8 bitowe słowo danych, 1MHz zegara i 64kB) RAM i systemu z zegarem 3 GHZ, 1024k B RAM i 64 bitowym słowem danych. Oba niby działają na tej samej zasadzie, zbudowane są z tego samego materiału a jednak możliwości są "ciut" różne :)))) Odpowiedz Link Zgłoś
absurdello Za mało pamięci podałem :))) 03.11.06, 05:30 powonno być 1024 MB RAM (czyli 16384 razy wicej niż w Atarynce 8 bitowej) a nie 1024 kB Odpowiedz Link Zgłoś
Gość: max Re: Obawiam się jednak, że jesteś najbliżej prawd IP: *.winuel.com.pl 03.11.06, 11:05 <To co nam się wydaje naszą "wolnowolną" decyzją, która nagle pojawiła się w naszej świadomości (np. wolna decyzja, że ruszymy ręką by zareagować na jakąś zmianę w otoczeniu) jest tak na prawdę opracowanym kilkaset milisekund wcześniej wynikiem będącym kompromisem pomiędzy różnymi obszarami mózgu.< mylisz się, proces w mózgu, ktory kaze rece sie poruszyc rzeczywiscie dzieje sie kilkaset milisekund przed ruchem reki, ale decyzja twoja poczatkuje ten proces idac twoim tokiem rozumowania to jak chce powiedziec slowo 'kot' i mowie to, tak naprawde moje neurony postanowily to powiedzec a nie ja i po kilkuset milisekundach uswiadomily mi ze to ja chcialem powiedziec Odpowiedz Link Zgłoś
absurdello Re: Obawiam się jednak, że jesteś najbliżej prawd 04.11.06, 06:38 Ale decyzja to jest wynik uprzednich obliczeń a nie zjawisko samoistne, cały proces zachodzi w sieci neuronowej - twoja decyzja to jest chwila gdy odpowiednie sygnały w sieci przekroczyły poziom progowy i zwyciężyły z konkurentami (były szybsze lub/i silniejsze od innych). > idac twoim tokiem rozumowania to jak chce powiedziec slowo 'kot' > i mowie to, ta k naprawde moje neurony postanowily to powiedzec > a nie ja i po kilkuset milisek > undach uswiadomily mi ze to ja chcialem > powiedziec idąc twoim tokiem rozumowania to instrukcja warunkowa IF wie wcześniej jaki będzie wynik porównania jej argumentów, zanim jeszcze procesor wykona to porównanie :)))) żądasz by komputer podjął decyzję wcześniej niż pojawią się sygnały nakazujące podjęcie tej decyzji :))) Twoje neurony to ty, a twoje "ja" to chwilowy stan sygnałów (bardzo złożony) jaki w nich się pojawia. Twoje "ja" jest wynikiem przepływu tych sygnałów po sieci a nie ich przyczyną. Ludzkie "ja" to w uproszczeniu obraz na ekranie monitora, który jest tworzony jako wynik obliczeń a nie obliczenia tworzone na jego podstawie :))) Taka zasada przyczynowości :))) Decyzja jako taka powstaje jako wynik przetworzonych pobudzeń zewnętrznych (np. zmiana w otoczeniu) i procesów pamięciowych (czy i jak zareagować na taką zmianę) a potem zachodzi wielokrotny proces porównań na podstawie, którego wyłaniane jest konkretne działanie z listy dostępnych w pamięci (wyuczonych wcześniej) - lub uruchomiony zostanie proces losowy -> metoda prób i błędów wraz z analizą skutków, żeżeli żadna ze znanycz czynności nie pasuje do sytuacji :))) Odpowiedz Link Zgłoś
europitek Re: Obawiam się jednak, że jesteś najbliżej prawd 08.11.06, 03:00 A co dzieje się, według Ciebie, w sytuacji, gdy nie ma jednoznacznego wyniku obliczeń (żaden wynik nie zwycięża w sieci), a metoda prób i błędów nie może zostać użyta (np. wiesz, że masz tylko jedną próbę)? Odpowiedz Link Zgłoś
absurdello W sieci biologicznej nie ma praktycznie możliwości 10.11.06, 00:31 wyniku jak remisowego, ze względu na nieidealność elementów sieci, różny sposób uczenia reakcji na różne pobudzenia, wpływ zmian temperatury, chwilowego poziomu glukozy, tlenu, podmuchów wiatru, cisnącego buta, niewziętych rano leków i masy innych czynników, które pozornie są bez wpływu na naszą "wolną" wolę. Jeżeli mamy tylko jedną próbę, to pojawia się problem hamowania wykonania wyboru na podstawie uprzedniej wiedzy (np. wiemy, że nasz błąd może nas kosztować zdrowie lub życie) a i tak przy braku pełnej wiedzy, musimy zaryzykować, czyli wybrać jedno z równorzędnych rozwiązań czyli losować .. Odpowiedz Link Zgłoś
patman Re: Nie ma czegoś takiego jak wolna wola 02.11.06, 16:01 Nikt nie powiedział, że każdy człowiek ma wygenerować taką samą dezycję - od tego ma własną tożsamość, że decyzje ludzi różnią się. Gdybyś jednak daną chwilę, w której powstaje decyzja miał przeżyć 1000 razy, z niezmienionymi warunkami początkowymi, wynik zawsze będzie taki sam, bo jest on zdeterminowany. Skoro coś jest zdeterminowane, nieuniknione, to jak można powiedzieć, iż był jakiś wybór? Jest prosta droga tylko, więc jak możesz powiedzieć, że podjąłęś decyzję o nieskręcaniu? Twierdzisz, że człowiek może zachować się w zupełnie dowolny sposób? Prosty test, który w bardzo łatwy sposób obala twoją tezę: włóż rękę, np. do imadła, i zacznij je zakręcać? Po ilu obrotach zaczniesz zmieniać zdanie, że człowiek może podejmować dowolne decyzje? Jego priorytetem jest jego własne przetrwanie, więc musiałby być dużo silniejszy impuls, który zmusiłby go zmiażdżenia sobie ręki. Co do Potwora Spaghetti, to faktycznie, jest on o wiele lepszy niż bozia, w którą wierzący bardzo często insynuują istnienie wolnej woli, dzięki czemu "sprawiedliwe" jest osądzenie przez bozię istot, którym w rzeczywistości nie pozostawiła żadnego pola manewru. Odpowiedz Link Zgłoś
Gość: turtlezzz Re: Nie ma czegoś takiego jak wolna wola IP: *.neoplus.adsl.tpnet.pl 02.11.06, 16:24 To prawda, wynik jest zdeterminowany. Z tym że my go nie znamy. A inteligencja służy nam właśnie do przewidywania wyniku i wykreowania takiego wyniku na jakim nam zależy. Pisząc o wolnej woli miałem na myśli postawienie na czele własnych priorytetów. Tak by oszustwo dla własnych korzyści stało wyżej od zadania spełnionego dla cudzych korzyści. Bo jak może istnieć świadomość nieegoistyczna ? PS. Nie żebym się na tym znał, ja tylko studiuję historię... Odpowiedz Link Zgłoś
bonobo44 Re: Nie ma czegoś takiego jak wolna wola 02.11.06, 18:46 Gość portalu: turtlezzz napisał(a): > To prawda, wynik jest zdeterminowany. To nieprawda, wynik nie jest zdeterminowany. Identycznie te same przyczyny mogą prowadzić do zupełnie różnego skutku. Ale i to TAKŻE oznacza, że: "Nie ma czegoś takiego, jak wolna wola" Odpowiedz Link Zgłoś
Gość: turtl Re: Nie ma czegoś takiego jak wolna wola IP: *.neoplus.adsl.tpnet.pl 03.11.06, 00:45 Czy możesz mi to wytłumaczyć ? Chodzi Ci o zasadę nieoznaczoności ? Odpowiedz Link Zgłoś
bonobo44 Re: Nie ma czegoś takiego jak wolna wola 03.11.06, 12:11 nie tylko... u podstaw fizyki natury leży li tylko prawdopodobieństwo wystąpienia określonego efektu zdarzenia kwantowego (z całego wachlarza równie, a przynajmniej również prawdopodobnych jego efektów), do którego to zdarzenia doprowadził jakiś zestaw przyczyn... zdarzenie to węzeł ("soczewka"), w którym zbiegają się nici ("promienie") przyczyn, a z którego rozbiegają się nici (a nie jedna nić)("promienie") możliwości... Odpowiedz Link Zgłoś
Gość: malolat.87 Re: Nie ma czegoś takiego jak wolna wola IP: 83.238.233.* 02.11.06, 21:48 Inaczej: inteligencja służy nam do wykreowania rzeczywistości, jakiej się _spodziewamy_ na podstawie zebranych doświadczeń; do powiązania ze sobą otrzymanych informacji i wyciągnięcia z nich konkretnych wniosków... ale i tak ładnie, nie zgrzytałem :D A co do wolnej woli... ktoś chyba usiłuje wytłumaczyć fakt, że człowiek jest inteligentny dlatego, jakoby od kogoś tę wolną wolę otrzymał... a są różne formy inteligencji i akurat gdzieś słonie ostatnio wykazały się takową... a podobno "wolnej woli" nie mają... Odpowiedz Link Zgłoś
Gość: turtlezzz Re: Nie ma czegoś takiego jak wolna wola IP: *.neoplus.adsl.tpnet.pl 03.11.06, 00:49 Uhh... przepraszam, nie sądziłem, że wszyscy będa kojarzyć termin "wolna wola" z biblijnymi dyrdymałami. Powtórzę jeszcze raz: chodziło mi o postawienie na czele robocich priotytetów własnych potrzeb, a nie np. - zgodnie z prawami Asimova - bezpieczeństwa człowieka. I o zadanie pytania: czy może być ego bez egoizmu ? Odpowiedz Link Zgłoś
bonobo44 Re: Nie ma czegoś takiego jak wolna wola 03.11.06, 12:20 > czy może być ego bez egoizmu ? w oparciu o znane przykłady, wydaje się to być możliwe... takie idealne ego staje się przy tym tym większe i bardziej wartościowe i godne uwagi, im właśnie mniej w nim egoizmu... najbardziej chyba zbliżyli się do tego ideału Jezus, Budda a ostatnio - w naszych czasach - JPII i może jeszcze kilka innych Osób... być może uda się wam zbudować i taką idealną AI, zupełnie pozbawioną egoizmu (będącą samą empatią i miłością, czego wam życzę), kto wie? Odpowiedz Link Zgłoś
europitek Re: Nie ma czegoś takiego jak wolna wola 08.11.06, 03:20 Zadam Ci to samo pytanie, które postawiłem Absurdello: co będzie w sytuacji impasu decyzyjnego? Jak zachowa się mózg, który nie potrafi ustalić, jaką podjąć decyzję, a musi ją podjąć? Oprócz tego chcę zwrócić uwagę, że Twoje deterministyczne wyjaśnienie jest nieweryfikowalne na podstawie powtórzeń - nie ma możliwości powtórzenia stanu Wszechświata. Odpowiedz Link Zgłoś
mozart Re: Allan Turing kiedys powiedzial... 03.11.06, 00:45 Drogi informatyka, a o chaosie deterministycznym to zes slyszal? Np o modelu Lorentza? Niemoznosc przewidzenia pogody na dluzszy czas wynika z dwoch zasadniczych powodow: -kazdy pomiar rzeczywisty ma skonczona dokladnosc -kazda operacja numeryczna przebiega ze skonczona dokladnoscia, to jest wlasnosc wynikajaca z matematyki a nie tylko hardware'u ;) Odpowiedz Link Zgłoś
oblesnik Re: Allan Turing kiedys powiedzial... 02.11.06, 12:52 Bedziesz sie smial czy plakal, kiedy bedziesz siedzial w rezerwacie dla ludzi utworzonym przez inteligentne (inteligentniejsze od ludzi) roboty? Odpowiedz Link Zgłoś
Gość: Informatyk Re: Allan Turing kiedys powiedzial... IP: *.mimuw.edu.pl 02.11.06, 13:46 > Bedziesz sie smial czy plakal, kiedy bedziesz siedzial w rezerwacie dla ludzi > utworzonym przez inteligentne (inteligentniejsze od ludzi) roboty? Zakładasz że skoro będą inteligentniejsze, to będą też rasistami? Czy zamykasz mniej inteligentnych ludzi w rezerwatach? Odpowiedz Link Zgłoś
Gość: Bobek Re: Allan Turing kiedys powiedzial... IP: *.neoplus.adsl.tpnet.pl 02.11.06, 14:48 Nie, ale czasami mam ochotę. :) Odpowiedz Link Zgłoś
madcio Re: Allan Turing kiedys powiedzial... 02.11.06, 18:23 Lem powiedział coś podobnego: że zanim zbudujemy maszyny obdarzone znaczną intelignecją, najpierw zrobimy maszyny obdarzone znaczną głupotą. I nie zapominajmy, że niektóre rodzaje pomyłek i głupich czynów są możliwe tylko, gdy ktoś ma wystarczający poziuom intelektu. (przykładem Giertych) :) Odpowiedz Link Zgłoś
Gość: terence Roboty z twarzą i duszą IP: *.elb.vectranet.pl 02.11.06, 12:59 "I've seen things you people wouldn't believe. Attack ships on fire off the shoulder of Orion. I watched C-beams glitter in the dark near the Tannhauser Gate. All those moments will be lost in time, like tears in rain. Time to die... " (Bladerunner) super film, chyba go sobie obejrze ponownie pod wpływem tego artykułu...oczywiście wersja reżyserska bo podstawowa to kicha Odpowiedz Link Zgłoś
patman Ale ta robotyka poszła się do przodu... 02.11.06, 13:45 Już budowane są roboty całkiem przypominające ludzi, np. prototyp zatrudniony w ministerstwie edukacji, jako szef. Odpowiedz Link Zgłoś
Gość: woj Re: Ale ta robotyka poszła się do przodu... IP: *.cza.warszawa.supermedia.pl 02.11.06, 14:27 > Już budowane są roboty całkiem przypominające ludzi, np. prototyp zatrudniony w > ministerstwie edukacji, jako szef. dobre Odpowiedz Link Zgłoś
absurdello Ale muszą jeszcze popracować trochę ... 08.11.06, 01:39 nad wykończeniem plastycznym, bo dzieci się boją ... Odpowiedz Link Zgłoś
Gość: brunorc Project failed IP: *.red-213-37-176.user.auna.net 02.11.06, 15:52 patman napisał: > Już budowane są roboty całkiem przypominające ludzi, np. prototyp > zatrudniony w ministerstwie edukacji, jako szef. A widziałeś, jakim kosztem? Moduł decyzyjny już się nie zmieścił, zamiast tego wyprowadzili mu /dev/random na wyjście. Zrobili go za dużego, ma strasznie wysoko środek ciężkości - znaczniej lepiej sprawuje się ten mały z krótkimi chwytakami, ale zaszkodziła mu gorąca jesień. W wyniku przegrzania zaordynował budowę stacji kolejowej w szczerym polu, na dodatek z tylko jednym peronem. Albo robili je właśnie pod kątem piłki nożnej... przy czym ten duży to jeszcze by dał radę, ale ten mały? Inna rzecz, że te małe się chyba łatwiej robi, bo na najwyższych stanowiskach już widać próby produkcji seryjnej... Odpowiedz Link Zgłoś
Gość: super_sonic Re: Project failed IP: *.gwardii.osi.pl 06.11.06, 02:31 i mimika wymaga dopracowania bo jak probuje sie usmiechac to mi ciarki przechodza Odpowiedz Link Zgłoś
bonobo44 Pobożne życzenie ? 02.11.06, 18:40 : Nie sądzę, by mogły stać się groźne. Zawsze możemy nacisnąć guzik i je wyłączyć: mogą, ale nie sądzę, aby to ludzie je mieli takowymi uczynić... wierzę w punkt przegięcia rozwoju człowieka w stronę bardziej harmonijnego globalnego społeczeństwa... jeśli tak się stanie, AI zostanie zasymilowana z tym harmonijnym nurtem, tak jak człowiek został po części zasymilowany przez naturę, która go stworzyła... i wówczas, mając taki wzór do naśladowania, nie powtórzy waszych błędów w stosunku do swego stwórcy... 8-(44 -- www.bonobo.org/images/splash.jpg Odpowiedz Link Zgłoś
madcio Re: Pobożne życzenie ? 02.11.06, 19:58 > wierzę w punkt przegięcia rozwoju człowieka w stronę bardziej harmonijnego > globalnego społeczeństwa... Nie bałdzo, nie bałdzo. Chyba że przeprogramujesz wszystkich ludzi, by byli śliniącymi się, radosnymi kretynkami. Paru już próbowało czegoś podobnego. Skutki wszyscy znamy. Odpowiedz Link Zgłoś
asteroida2 Re: Pobożne życzenie ? 02.11.06, 20:26 > > wierzę w punkt przegięcia rozwoju człowieka w stronę bardziej harmonijnego > > globalnego społeczeństwa... > > Paru już próbowało czegoś podobnego. Skutki wszyscy znamy. Zgadzam się. 'Harmonijne' społeczeństwo to jakiś stan równowagi niestabilnej - musi się rozlecieć (zwykle zanim w ogóle powstanie). Za to kumulująca się wiedza daje inny optymistyczny efekt: społeczeństwa uczą się jak wykorzystywać ludzką naturę dla dobra ogółu. Od niecałych 20 lat mamy sytuację jaka nigdy jeszcze w historii nie nastąpiła: większość ludzi na świecie się bogaci. To jest w skali państw zwykle rozwój w tempie 3-5% rocznie, co po półwieczu może oznaczać całkowitą przemianę świata. Jeśli ktoś ma wątpliwości jak ta zmiana wygląda, niech spyta swoich dziadków ile w ich młodości trzeba było pracować żeby zarobić na nową parę butów. Odpowiedz Link Zgłoś
bonobo44 Re: Pobożne życzenie ? 02.11.06, 20:40 asteroida2 napisał: > 'Harmonijne' społeczeństwo to jakiś stan równowagi niestabilnej - > musi się rozlecieć (zwykle zanim w ogóle powstanie). niekoniecznie... przyzwyczajono nas do myślenia w kategoriach rozwoju społecznego jako walki przeciwstawnych interesów (grupowych, klasowych)... to tam osiągane są stany rónowagi metastabilnej, gdy interesy te pozostają w wuymuszonej równowadze i byle co może prowadzić do przegięć... rewolucji, wojen... zmieniających jeden taki stan metastabilny w inny... 'harmonijne' to takie, które dba o rozwój duchowy i materialny poziom życia wszystkich swoich członków (a nie jedynie jednych grup kosztem innych) i to w najlepiej rozumianym własnym ogólnym interesie... to przyszłość, która czeka ludzi albo... nie mają oni przed sobą żadnej przyszłości... AI ich wymieni na lepszy model, czyli na siebie.... Odpowiedz Link Zgłoś
picard2 Re: Pobożne życzenie ? 02.11.06, 21:22 Tak powaznie to robot bedzie moze madrzejszy od czlowieka ale nigdy go nie zdominuje bo braknie mu ku temu checi. Odpowiedz Link Zgłoś
bonobo44 Re: Pobożne życzenie ? 02.11.06, 21:39 picard2 napisał: > Tak powaznie to robot bedzie moze madrzejszy od czlowieka ale > nigdy go nie zdominuje bo braknie mu ku temu checi. to też niewykluczone... ponoć im wyższe IQ tym mniej motywacji do działania (nadmiar samokrytycyzmu paraliżuje ;-) ale na tym akurat bym na waszym miejscu nie polegał w 100% -- www.bonobo.org/images/splash.jpg Odpowiedz Link Zgłoś
picard2 Re: Pobożne życzenie ? 03.11.06, 18:42 bonobo44 napisał: > picard2 napisał: > > > Tak powaznie to robot bedzie moze madrzejszy od czlowieka ale > > nigdy go nie zdominuje bo braknie mu ku temu checi. > > to też niewykluczone... > ponoć im wyższe IQ tym mniej motywacji do działania > (nadmiar samokrytycyzmu paraliżuje ;-) > ale na tym akurat bym na waszym miejscu nie polegał w 100% > -- > www.bonobo.org/images/splash.jpg Problem ze "chec" tak jak "dusza" sa pojeciami wirtualnymi i nikt nie wie co to znaczy fizycznie (jak ruch wirtualny ktory mozna oreslic = przesuniecie w czasie zerowym dt=0) albo wie ze to cos takiego co mozna by zrobic ale sie nigdy nie zrobi. Odpowiedz Link Zgłoś
asteroida2 Re: Pobożne życzenie ? 02.11.06, 21:58 > Tak powaznie to robot bedzie moze madrzejszy od czlowieka ale > nigdy go nie zdominuje bo braknie mu ku temu checi. A chęci nie można po prostu zaimplentować? Nie wiem co rozumiesz pod pojęciem 'dominacja', ale wyobrażam sobie że wynalezienie takich AI oznaczałoby że tak czy inaczej będziemy im przekazywać całą pracę. Jeśli robot kieruje firmą wyraźnie lepiej niż człowiek, to po kilkunastu latach wszystkie firmy kierowane przez ludzi po prostu wylatują z rynku. Zostają tylko kierowane przer roboty. I ja jako akcjonariusz wymagałbym zatrudnienia jako prezesa takiej AI, bo mi zależy na zyskach. Jeśli roboty lepiej prowadzą badania naukowe, to instytuty które nie mają ich wystarczająco wiele odpadają z konkurencji o granty. Itd. Potem okazuje się że żadni biologiczni ludzie nie opuszczą nigdy Ziemi, bo po prostu nie opłaca się budować dla nich habitatów ani terraformować innych planet. Ludzie z dekady na dekadę może żyją sobie w coraz większych luksusach, ale stanowią coraz mniej istotną część całej cywilizacji. Odpowiedz Link Zgłoś
mozart Uniwersalna Maszyna Prawdy 03.11.06, 00:31 Ilekroc slysze „roboty z dusza“ albo rozmowy z robotem to mi sie chce smiac i od razu sobie przypominam pewna anegdotke z ksiazki „Infinity and the Mind” Martina Matthesa nt. twierdzenia o niezupelnosci Kurta Gödla. Wyobrazcie sobie, ze jest Uniwersalna Maszyna Prawdy (UMP), ktora potrafi prawidlowo odpowiedziec na wszystkie pytania. Gödel prosi zatem maszyne o udostepnienie jej programu i schematu budowy. Nazwijmy go Program dla Universalnej Maszyny Prawdy (PUMP). Zapoznawszy sie z tym programem, Gödel pisze nastepujace zdanie: „Maszyna, ktora zostala skontruowana dla programu (PUMP), nigdy nie powie, ze to zdanie jest prawdziwe”. Nazwijmy to zdanie jako „G” jak Gödel. To jest rownowazne zdaniu „ UMP nigdy nie powie, ze „G” jest prawdziwe”. Gödel nastepnie pyta maszyne (UMP), czy „G” jest prawdziwe lub nie. Jesli UMP powie, ze „G” jest prawdziwe, to zdanie „(UMP) nigdy nie powie, ze G jest prawdziwe” jest falszywe. A gdy zdanie „(UMP) nigdy nie powie, ze zdanie G jest prawdziwe” jest falszywe, to „G” jest tez falszywe, bo G=”(UMP) nigdy nie powie, ze jest „G” jest prawdziwe”. Oznacza to, ze gdy (UMP) powiada, ze „G” jest prawdziwe, to „G” jest falszywe, a tym samym (UMP) wypowiada zdania, ktore sa falszywe, a przeciez (UMP) oznacza Uniwersalna Maszyne Prawdy. Tym samym (UMP) nigdy nie powie, ze G jest prawdziwe. Wiemy zatem, ze „(UMP) nigdy nie powie, ze „G” jest prawdziwe”. Totez „(UMP) nigdy nie powie, ze „G” jest prawdziwe” jest prawdziwe. Gödel powiedzial, ze zna prawde, ktorej (UMP) nigdy nie bedzie mogla stwiedzic. Tym samym (UMP) wcale nie jest uniwersalna.... Taka rzecz stwarza pewna bariere w rozwoju sztucznej inteligencji. Nawet gdyby zredukowac czlowieka, jego umysl do matematyki, chemii, fizyki – potraktowac mozg jako formalny system, umysl czlowieka wymyka sie temu, bo nie mozna w pelni rowiazac zagadki, jesli jest sie jej integralna czescia (Max Planck). Dlatego smiem twierdzic, ze maszyny nigdy nie da sie porownac do najbardziej zlozonego komputera czy robota. Co wiecej, maszyna nigdy nie przeskoczy tych problemow, ktore sa dla czlowieka nierozwiazywalne jak chocby problem „zatrzymania programu”. Dlatego nie istnieje mozliwosc, nawet teoretyczna, zeby maszyny sie zbuntowaly przeciwko czlowiekowi. Powyzszy problem ma tez daleko idace konsekwencje informatyczne; w kazdym systemie formalnym, a za taki nalezy uznac kazdy program komputerowy, istnieja takie funkcje, ktorych zmienne nie moga byc zdefiniowane w sposob jednoznaczny. Oznacza to rowniez, ze nigdy nie powstanie zaden system operacyjny, ktory bedzie w 100% bezpieczny. Odpowiedz Link Zgłoś
turtlezzz Re: Uniwersalna Maszyna Prawdy 03.11.06, 01:40 Nie ma prawd uniwersalnych, to jasne. Komputer nie może się zbuntować, jeśli pozostaje narzędziem, nie posiadającym własnej woli. Tak sobie myślę, że nieodłącznym elementem inteligencji jest egoizm. I że nie sposób stworzyć sztucznej inteligencji narzucając maszynie coraz to kolejne zadania do wykonania, jak centralny planista w gospodarce komunistycznej. Czy człowiek dąży do rozwiązania tysięcy zadań nie powiązanych ze sobą żadnym wspólnym mianownikiem ? Czy może niezmienną zasadą naczelną jest potrzeba własnej korzyści ? Może właśnie tak należałoby podchodzić do problemu ? Dać maszynie naczelny priorytet - korzyść własną i uzależnić go od wielu skomplikowanych czynników podlegających zmianom w trakcie jej rozwoju i pod wpływem relacji ze światem zewnętrznym ? Stymulować rozwój inteligencji, zamiast sterować nim - jak w gospodarce wolnorynkowej, w której rynek żyje i rozwija się samoistnie. I może trzeba by maszyna nigdy nie mogła być pewna osiągnięcia podstawowego celu, by świadomość osiągnięcia korzyści zawsze jej się wymykała ? Może odbierając maszynie pełnię samowiedzy wykreujemy sztucznie podświadomość ? Ot, tak sobie dywaguję, przepraszam wszystkich :P Bezsenność. Odpowiedz Link Zgłoś
Gość: Informatyk Re: Uniwersalna Maszyna Prawdy IP: *.chello.pl 03.11.06, 10:38 > Stymulować rozwój inteligencji, zamiast sterować nim - jak w gospodarce > wolnorynkowej, w której rynek żyje i rozwija się samoistnie. Idea wydaje się jak najbardziej słuszna. Ja poszedłbym nawet dalej: umysł człowieka nie jest przecież monolityczną świadomością, tylko składa się z wielu współpracujących procesów (kierujących ręką gdy coś pisze, wybierających jedzenie na które mamy ochotę, kierujących nogami gdy idziemy itp). Może więc zamiast budować tę konstrukcję element po elemencie, lepszą drogą byłoby stworzenie tylko środowiska w którym takie procesy by mogły się spontanicznie pojawiać? I wprowadzenie konkurencji między nimi, tak żeby same musiały się uporządkować w jakąś hierarchię? Odpowiedz Link Zgłoś
Gość: turtlezzz Re: Uniwersalna Maszyna Prawdy IP: *.neoplus.adsl.tpnet.pl 03.11.06, 11:13 O. Potencjał + środowisko. Mam jeszcze jedną myśl :P Może złudzenie poczucia własnej świadomości, które posiadamy, nie jest wynikiem tylko pewności własnego istnienia, a BRAKU PEWNOŚCI CO DO CZEGOKOLWIEK INNEGO ? Poczucie własnego istnienia - jako jedyna prawda uniwersalna towarzysząca nam od urodzenia do śmierci ma rangę szczególną pośród prawd, które nosimy ? Istotę inteligentną cechuje brak pewności, "wiem, że nic nie wiem". Tylko brak pewności zmusza do rozmyślań. Może sposobem na wykreowanie świadomości jest stworzenie niepewności, poprzez celowe ograniczenie dostępu do części danych, nie odbierając im wpływu ? Może świadomość istnieje tylko dzięki istnieniu podświadomości ? Ok, przepraszam. Odpowiedz Link Zgłoś
Gość: turtlezzz Re: Uniwersalna Maszyna Prawdy IP: *.neoplus.adsl.tpnet.pl 03.11.06, 11:17 Przepraszam: poczucie własnej świadomości, nie "złudzenie poczucia" Uzupełniając: Tworząc podświadomość poprzez ograniczenie dostępu do części danych można stworzyć komputer, który postawi wniosek "Wydaje mi się..." Czy to już nie inteligencja ? Odpowiedz Link Zgłoś
Gość: Jacek Re: Uniwersalna Maszyna Prawdy IP: *.cs.ubc.ca 03.11.06, 02:50 > Powyzszy problem ma tez daleko idace konsekwencje informatyczne; w kazdym > systemie formalnym, a za taki nalezy uznac kazdy program komputerowy, istnieja > takie funkcje, ktorych zmienne nie moga byc zdefiniowane w sposob jednoznaczny. Troszke balaganisz. Pewne programy mozna zweryfikowac. Mozna udowodnic, ze dany algorytm/program sortujacy rzeczywiscie sortuje tablice liczb itd. Mozna udowodnic, ze dana petla przy spelnionych warunkach poprzedzajacych wejscie do petli na pewno sie zatrzyma itd. Nie ma natomiast uniwersalnej, automatycznej metody pozwalajacej zweryfikowac kazdy program. Jacek Odpowiedz Link Zgłoś
mozart Re: Uniwersalna Maszyna Prawdy 03.11.06, 13:56 Ciekawe zatem dlaczego ciagle sie slyszy, ze wykryto krytyczne bledy tu, a to tam. Nie zastanawia cie jedno, ze wynika to nie wynika tylko z tego, ze czlowiek jako programista jest omylny, lecz rowniez dlatego, iz wynika to wlasnie ogolnych praw logiki? Owszem mozna zweryfikowac, ale poza systemem, ktorego to dotyczy. Jesli chcemy zweryfikowac system A, musimy przeprowadzic kontrole z pomoca systemu B. Lecz nie mamy gwarancji, ze system B dziala poprawnie, wiec budujemy system C do kontroli systemu B i tak ad infinitum. Wiec de facto nie uwalniasz sie od tego problemu :P Odpowiedz Link Zgłoś
Gość: Jacek Re: Uniwersalna Maszyna Prawdy IP: 24.86.210.* 03.11.06, 18:56 Mysle ze do bledow w oprogramowaniu nie trzeba mieszac Goedla. Na prawde latwo popelnic blad przy kodowaniu odpowiednio skomplikowanego systemu. Ponadto, jesli kiedykolwiek probowales formalnie zweryfikowac dzialanie problamy z kilkoma instrukcjami na krzyz, to doskonale wiesz dlaczego nikt nie bawi sie w weryfikacje wiekszych programow, poza krytycznymi dla zycia aplikacjami jak kontrola samolotow itd. Brak automatycznej, uniwersalnej procedury weryfikacji jest oczywiscie smutny, tak samo jak fakt, ze zadna teoria zawierajaca w sobie arytmetyke Peano, jest niekompletna. Usilujac jednak przy ich pomocy wytlumaczyc obecnosc bledow w oprogramowaniu popelniasz naduzycie. J. Odpowiedz Link Zgłoś
Gość: Informatyk Re: Uniwersalna Maszyna Prawdy IP: *.chello.pl 03.11.06, 10:23 Zacznijmy może od tego, że twierdzenie Gödla jest omawiane na pierwszym roku uniwersyteckiego kursu Informatyki i naprawdę niełatwo znaleźć zawodowego informatyka który by go nie znał. To są podstawy. Co to twierdzenie ma do implementacji ludzkiego umysłu? Absolutnie nic. Ponieważ dowodzi tylko że istnieją problemy których żadna maszyna nie będzie w stanie rozwiązywać - ale nie ma podstaw żeby twierdzić że człowiek jest w stanie to zrobić. Człowiek w ogóle nie przeprowadza rozumowań formalnych: Człowiek zgaduje jakieś rozwiązanie, a potem dopisuje do rozwiązania fragmenty dowodu na tyle dokładne, żeby przekonać innych ludzi że rozwiązanie jest poprawne. Nie wiemy jak zaimplementować to w komputerze, ale to nie znaczy że jest to niemożliwe. Dalsze uwagi o 'niemożliwości zbudntowania się' są już kompletnie bezsensowne. Nie widziałeś nigdy maszyny która nie działa tak jak powinna? Odpowiedz Link Zgłoś
mozart Re: Uniwersalna Maszyna Prawdy 03.11.06, 13:47 > Zacznijmy może od tego, że twierdzenie Gödla jest omawiane na pierwszym roku > uniwersyteckiego kursu Informatyki i naprawdę niełatwo znaleźć zawodowego > informatyka który by go nie znał. To są podstawy. Nie trzeba byc informatykiem, zeby to znac. Wystarczy programowac: de.wikipedia.org/wiki/Halteproblem > Co to twierdzenie ma do implementacji ludzkiego umysłu? Absolutnie nic. Poniewa > ż > dowodzi tylko że istnieją problemy których żadna maszyna nie będzie w stanie > rozwiązywać - ale nie ma podstaw żeby twierdzić że człowiek jest w stanie to > zrobić. Jest dokladnie inaczej niz twierdzisz: Maszyna nie przeskoczy pewnych problemow, bo jest to niemozliwe dla samego czlowieka, ktory programuje maszyny. > Człowiek w ogóle nie przeprowadza rozumowań formalnych: Człowiek zgaduje jakieś > rozwiązanie, a potem dopisuje do rozwiązania fragmenty dowodu na tyle dokładne, > żeby przekonać innych ludzi że rozwiązanie jest poprawne. Nie wiemy jak > zaimplementować to w komputerze, ale to nie znaczy że jest to niemożliwe. > Czlowiek rozumuje formalnie, ale rowniez symbolami. To jest uwarunkowane ewolucjynie i kulturowo. Dowiedziono, ze czas reagownia na symbole jest krotszy i silniejszy niz wtedy, gdy czlowiek postepuje wg. regul. Odpowiedz Link Zgłoś
Gość: Jacek Re: Uniwersalna Maszyna Prawdy IP: 24.86.210.* 03.11.06, 19:14 > Czlowiek rozumuje formalnie, ale rowniez symbolami. ???? Jak sobie wyobrazasz rozumowanie formalne bez symboli? >Dowiedziono, ze czas reagownia na symbole jest krotszy > i silniejszy niz wtedy, gdy czlowiek postepuje wg. regul. ??? Mozesz to sprecyzowac. W ogole byloby milo gdybys sprecyzowal swoje poglady i wyrazal je w nieco jasniejszy sposob. To samo sie tyczy tematu dyskusji, czy rozmawiamy o o dowodzeniu twierdzen itd, czy o inteligencji w szerszym zakresie. J. Odpowiedz Link Zgłoś
mozart Re: Uniwersalna Maszyna Prawdy 04.11.06, 11:08 > ???? Jak sobie wyobrazasz rozumowanie formalne bez symboli? Postepowanie proceduralne: jesli nastapi A, wykonuje zadanie B > >Dowiedziono, ze czas reagownia na symbole jest krotszy > > i silniejszy niz wtedy, gdy czlowiek postepuje wg. regul. Jesli w zobaczysz grzechotnika bedziesz cos takiego czul. Nawet gdybys nie wiedzial, ze grzechotnik jest smiertelnym zagrozeniem, to instynktowinie bedziesz o tym wiedzial, gdyz waz posiada odpowiednie atrybuty i elementy charakterystyczne wygladu dla drapiezka. Tak samo jest, jesli nurkujac zauwazysz nieznana kolorowa rybe z kolcami. Bedziesz czul strach, ktory moze spowodowac ze wpadniesz w panike i przestaniesz dzialac racjonalnie. To jest dzialanie instynktowne, efekt procesu ewolucji. Nasza kultura rowniez korzysta z syboli. Od znakow religijnych, towarowych po znaki drogowe. Odpowiedz Link Zgłoś
Gość: Jacek Re: Uniwersalna Maszyna Prawdy IP: 24.86.210.* 04.11.06, 20:53 To fakt, wiem, ze many taka reakcje na podluzny wijacy sie obiekt. Nie raz ja u sie bie zaobserwowalem. Tylko so to ma do dyskusji. Instynktowne zachowania so bardzo ograniczone i nie da sie z nich zbudowac inteligencji. To jest akurat udowodnione, przyklady sa proste np behavioralny robot (tzn bez tzw stanu wewnetrznego, reagujacy jedynie na impulsy z zewnatrz, na zasadzie bodziec - reakcja) i specjalnie skonstruowany labirynt z ktorego ten robot nigdy sie nie wydostanie itd. Jacek Odpowiedz Link Zgłoś
Gość: Jacek Re: Uniwersalna Maszyna Prawdy IP: 24.86.210.* 03.11.06, 19:23 > Jest dokladnie inaczej niz twierdzisz: Maszyna nie przeskoczy pewnych problemow > ,bo jest to niemozliwe dla samego czlowieka, ktory programuje maszyny. Dyskusja zaczela sie od tego, ze bawia cie rozwazania o zbudowaniu inteligentnych robotow. W jaki sposob argument, ze maszyny nie sa w stanie zrobic tego czego i czlowiek nie potrafi ma wspierac teze, ze nie da sie zbudowac maszyny, ktora potrafi dzialac jak czlowiek. J. Odpowiedz Link Zgłoś
Gość: Jacek Re: Uniwersalna Maszyna Prawdy IP: 24.86.210.* 03.11.06, 19:47 > Nie trzeba byc informatykiem, zeby to znac. Wystarczy programowac: > de.wikipedia.org/wiki/Halteproblem Sorry, ale twierdzenie Goedla, a twierdzenie Turinga o nierozstrzygalnosci problemu stopu to nie to samo. Pierwszego nie da sie udowodnic w trzy linijki, a i zrozumienie jego konsekwencji jest bardziej skomplikowane. Jacek Odpowiedz Link Zgłoś
mozart Re: Uniwersalna Maszyna Prawdy 04.11.06, 11:17 Halteproblem to rowniez przejaw tw. Gödla, choc nie przecze, ze Alan Turing doszedl to tego wlasna droga. Odpowiedz Link Zgłoś
Gość: Jacek Re: Uniwersalna Maszyna Prawdy IP: 24.86.210.* 04.11.06, 21:06 Wiem. Jest to szczegolny, ograniczony przypadek twierdzenia Goedla. Nadal jednak nie widze specjalnego zwiazku z rozwazaniami o ewentualnym stworzeniu sztucznej inteligencji. Co do weryfikowalnosci programow, to traf chcial ze rozmawialem akurat z kolega z INRIA pod Paryzem. Opowiadal mi o projektach nad jakimi tam pracuje. Opowiadal, ze jest obecnie duzy postep w zastosowaniu istniejacych juz teorii do praktycznych narzedzi. Sam jest zaangazowany w projekt weryfikacji kompilatora do synchronicznych jezykow programowania (operujacych na nieskonczonych strumieniach danych, stosowanych np w oprogramowaniu Airbusa czy elektrowniach atomowych, czyli w aplikacjach krytycznych, czasu rzeczywistego). Poczytaj sobie na przyklad o systemie Coq. Moim zdaniem (ale to tylko moja prywatna opinia) z praktycznego punktu widzenia nierozstrzygalnosc problemu stopu ma male znaczenie. Co z tego, ze na przyklad teria ciala liczb rzeczywiostych jest roztrzygalna, gdy zlozonosc obliczeniowa algorytmow rozstrzygajacych prawdziwosc czyni je bezuzytecznymi nawet dla malych formul (en.wikipedia.org/wiki/Real_closed_field - nie mam teraz pod reka bardziej wiarygodnej refernecji). Jacek Odpowiedz Link Zgłoś
madcio Re: Uniwersalna Maszyna Prawdy 04.11.06, 12:06 > Dlatego nie istnieje mozliwosc, nawet teoretyczna, zeby maszyny sie > zbuntowaly przeciwko czlowiekowi. Istnieje, istnieje, wystarczy zachowac się jak człowiek - w historii było wystarczajaco wiele przypadków buntu wobec innych przedstawicieli własnego gatunku... (nie to, żebym wierzył w to, ze komputery się zbuntują - dla mnie ewentualna przyszłość współistnienia inteligencji naturalnej i sztucznej będzie bardziej złożona, niż to się wydaje kilku autorom SF) Odpowiedz Link Zgłoś
nie_depcz_mojego_cienia Roboty z twarzą i duszą 03.11.06, 05:41 Android czyli facet-robot. :)) Odpowiedz Link Zgłoś
Gość: . Roboty z twarzą i duszą IP: *.neoplus.adsl.tpnet.pl 03.11.06, 20:37 " na ile ludzkie są dzisiejsze roboty". Durne pytanie. Na ile robotami są dzisiejsi ludzie?? Odpowiedz Link Zgłoś
Gość: Fedra Re: Roboty z twarzą i duszą IP: *.internetdsl.tpnet.pl 05.11.06, 11:53 Najpierw chcę podziękować wszystkim uczestnikom wątku za kulturalne zachowania wobec adwersarzy i co najwaszniejsz dla mnie, bardzo, bardzo interesujacą dyskusje. Mając swoje poglady na poruszony temat, choć ciągle płynne, z przyjemnością analizuję obece rozważania, w tym i niejakiego patmana, który w pewnym sensie nadaje swoisty klimat watkowi. Nie mając zamiaru rozprawiać się z jego argumentami na drodze strickte naukowej, pragnę jednak rzucić jedynie garśc moich refleksci, oraz konsekwencji przyjecia jego pogladów w wymiarze społecznym. W skrócie jego tezy są następujace: 1. Każda istota nie może wybrać sobie innej decyzji, niż ta na którą wskazują jej osobowe priorytety. 2. Nie ma czegoś takiego jak wolna wola. Wolna wola to iluzja, którą wymyślili sobie ludzie, żeby poczuć się kimś lepszym od zwierząt, ale to tylko bezwolne marionetki w rękach swych genów. 3. Mózg ludzki działa wg. programu, który ma zakodowaną funkcję wyprzedzającą w postaci ileś tam wzorów zachowań uwzgledniajacych aktualne warunki zewnetrzne. Więc po kolei: Ad. 1. W duzej części podzielam tą tezę. Problem jest jednak ze zdefionowaniem, co to są "swoje priorytety". Większość z nas to egoiści, ale niekiedy odzywa się w nas altruizm, i wtedy "swoje priorytety" przedkładamy nad "cudze priorytety". Pytanie: jak zakwalifikować altruizm, który działa przeciwko naturalnej zasadzie zachowania własnego istnienia? Czy to patologia, czy wybryk natury? A może dzieje się tak, że "swoje priorytety" przechodzą niepostrzeżenie w "cudze priorytety"? Chrześcijańska miłość bliźniego z reguły zakłada tzw. "cudzy priorytet". Ad. 2. Osobiście czuję głębokie rozdarcie, bo podobnie jak u patmana, w mej filozofii formalnej brak miejsca na wolną wolę, z drugiej strony ją odczuwam subiektywnie. Tą sprzeczność tłumaczę sobie niesłychaną komplikacją maszynerii mego organizmu, uznając w końcu, że mam do czynienia z pozorną a nie rzeczywistą sprzecznością. Mówi się, że w chińskiej filozofii istnieje akceptacja dla stanu kiedy coś w danym czasie i w danym miejcu jest, oraz jednocześnie tam tego coś nie ma, a było to na wiele stuleci przed Heisenbergiem. I jesze coś, z punktu widzenia społecznego: zanegowanie istnienia wolnej woli, to prawdziwa tragedia!!! Jest to nie tylko usprawiedliwienie wszelkiej niegodziwości. Ad. 3. To fajny pomysł z zapisaniem wzorców zachowań w naszym mózgu, aby skrócić czas analizy przeogromnej ilości operacji w mózgu przed wysłaniem sygnału do elementów wykonawczych organizmu, by ...... nie paść na glebę potykając się o przypadkowy kamień. Też zresztą wydaje mi się iż tak funkcjonujemy. Po dokładniejszym przeanalizowaniu pierwszego lepszego przypadku zaczynają się jednak schody (nie chce mi się rozwijać tej myśli, może zrobi to ktoś inny). Poza tym, tak czy owak, operacja zmonitorowania otoczenia, choćby pobieżna, przez nasze zmysły musi być wykonana. Później mózg musi ze swojej bazy danych wzorców zachowań (myslę że ilośc wzorców idzie w miliardy), wybrać odpowiedni najbardziej zbliżony do konkretnej sytuacji, i dać polecenie jego wykonania. Jako że, całośc realizowana jest zazwyczaj w ułamku sekundy to jest prawdziwy cud. Na sam koniec jedno spostrzeżenie. Człowiek jest w sytuacji beznadziejnej, kiedy pragnie zrozumieć sam siebie. Starożytni stawiali już wymóg, "nikt nie może być sędzią w swojej sprawie", bo brak obiektywności murowany! No tak, ale kto za nas to zrobi, a ciekawość nie pozwala zasnąć!! Pozdr. Odpowiedz Link Zgłoś
Gość: Informatyk Re: Roboty z twarzą i duszą IP: *.chello.pl 05.11.06, 14:21 > I jesze coś, z punktu widzenia społecznego: zanegowanie istnienia wolnej woli, > to prawdziwa tragedia!!! Jest to nie tylko usprawiedliwienie wszelkiej > niegodziwości. Chciałbym odnieść się tylko do tego problemu, żeby pociągnąć wątek z nim związany. Otóż to jest często powtarzany błąd. Faktycznie zanegowanie istnienia wolnej woli nie musi się wiązać z żadnymi zmianami w prawie ani moralności. Jeśli człowiek jest maszyną, to karanie jest równoważne przeprogramowywaniu. Ogłaszamy po prostu jakie zachowania są nieakceptowalne i jaka obowiązuje za nie kara. To automatycznie powoduje że ludzie aktualizują swoje priorytety, uwzględniając co im się bardziej opłaca. Oczywiście pozostaje margines który uzna że i tak im się opłaca tak zachować - i ich staramy się w inny sposób 'przeprogramować', bądź usuwamy ich ze społeczeństwa. Bardzo skutecznym sposobem przeprogramowania jest przekonanie ludzi że kara jest absolutnie nie do uniknięcia (nakazy religijne). Możliwe nawet że bez takiego zabiegu społeczeństwo w ogóle nie może istnieć. Pozostaje jeszcze problem godności człowieka - czy możemy ludzi traktować jak maszyny. Ale skoro w tym ujęciu WSZYSTKO traktujemy jako maszyny, to jest to jak najbardziej do przyjęcia. Hierarchia wartości po prostu w tym miejscu się kończy. Człowiek wciąż jest najwyższą, najważniejszą i najbardziej godną szacunku istotą na Ziemi. Odpowiedz Link Zgłoś
yoric Re: Roboty z twarzą i duszą 09.11.06, 06:45 Bardzo martwi mnie, że ludzie mają problem ze zrozumieniem, że determinizm nie kłóci się z (subiektwynym uczuciem) wolności woli. Tymczasem jest to bardzo proste: "jestem wolny by robić co chcę, ale nie jestem wolny by *chcieć* tego, czego chcę." Pozdrawiam Odpowiedz Link Zgłoś