m.chlebus
21.07.03, 10:12
Szanowni Dyskutanci,
Czytam Wasze rozmowy z zainteresowaniem, zazwyczaj niestety bardziej z
podziwem niż zrozumieniem. Ośmielony sympatyczną nadreprezentacją 44-latków,
do których sam należę, postaram się skorzystać z Waszej wiedzy.
Najpierw co do apelu Zbiga44, ujawniam swoją tożsamość: mój nick jest po
prostu nazwiskiem. Inne informacje są dostępne na portalu GNOSIS, do którego
i tak za chwilę zamierzam nawiązać, więc ich nie podaję. Wyjaśnię tylko, że
fizykiem próbowałem być w latach 77-82 (studia FTiMS) i 82-86 (praca IPPT
PAN), ale bez większego powodzenia, dlatego z góry proszę o wyrozumiałość dla
niedouczenia oraz miłosierdzie przy odwoływaniu się do nowinek paradygmatu.
Nawiązać chciałbym do cytowanej już w wątku MOŻE KTOŚ WIE przez Here.tyka i
komentowanej przez Bonobo44 (44-krotne pozdrowienia) mojej pracy „News Deal,
News Age” z 1986 r.
(www.gnosis.art.pl/numery/gn11_chlebus_news_deal04.htm). W Dodatku -
rozdziały B i C – poruszam problem, którego sam nie umiałem rozwiązać, a tu
go tylko streszczę, żeby Was nie zmuszać do lektury całych dywagacji.
Weźmy pod uwagę maszynę Touringa jako model komputera. Składa się ona z
głowicy o małej (lub skończonej) liczbie stanów oraz pamięci o wielkiej (lub
nieskończonej) ich liczbie. Gdyby przyjąć możliwość fizycznej realizacji tej
maszyny w sposób taki, że komórki schodzą hardware’owo do pojedynczych
mikrostanów, najprościej konstruując je z Demonów Maxwella, to wówczas
komórka zapisana traci swobodę wewnętrzną, a komórka skasowana – ma ją pełną.
W pierwszym wypadku entropia jest (z dokładnością do stałych) zero, w drugim
(z takąż dokładnością) 1. Odwrotnie z informacją. Ta dla komórki zapisanej
wynosi 1, dla swobodnej 0.
Widać, że w rachunku prowadzonym dla całej pamięci entropia i informacja
dopełniają się do pewnej wielkości, stanowiącej bądź maksymalną entropię
pamięci, bądź jej pojemność informacyjną. Taka definicja informacji jest
nieco inna niż Shannona, ale też on nie definiował miary informacji pamięci,
tylko sygnału. Zdefiniowana w sposób naturalny informacja zawarta w pamięci
maszyny Touringa, której taśmę tworzą Demony Maxwella, prowadzi do takiego
oto paradoksu:
Ponieważ Demon Maxwella nie wykonuje pracy lub wykonuje ją dowolnie małą,
możemy dopuścić, że energia potrzebna do zapisu 1 bitu wyniesie dowolnie
mniej niż kT. W takim razie zapis pamięci takiej maszyny może zmniejszać jej
łączną entropię – pamięci i głowicy piszącej. Teoretycznie można by to
bilansować z entropią sygnału przychodzącego, który niesie zapisywaną
informację, ale też można rozważyć prymitywny program, który kolejne komórki
pamięci wypełnia jedynkami – bez pobierania sygnału z zewnątrz.
Czy taka maszyna, gdyby izolować ją od reszty świata, mogłaby w takim razie
zmniejszać swoją entropię? Czy nie mamy czasem do czynienia z perpetuum
mobile?
Problem chyba nie jest całkiem naiwny, bo prezentowałem go na seminariach u
Prof. Maurina na Fizyce UW, w IPPT PAN oraz w Polsko-Japońskiej Wyższej
Szkole Nauk Komputerowych (tam pod tytułem „Czy komputer jest śmiertelny?”),
i próbowało go pogryźć paru znanych profesorów – jakoś bez skutku. Albo nie
umieli, albo go zlekceważyli – nie wiem. Ta okoliczność ośmiela mnie do
postawienia go tutaj.
Pozdrawiam serdecznie wszystkich dyskutantów.
MCH