Dodaj do ulubionych

Komputery analogowe

09.06.15, 00:57
Zakładam ten wątek po części, aby rozładować napięcie zgromadzone w bocznym wątku, ale bardziej z mojej ciekawości.

Natrafiłem na temat komputerów analogowych.
Nie wiedziałem, że coś takiego w ogóle istniało!

Tak sobie ten temat zgłębiałem na poziomie kompletnego laika, i oniemiałem!
Rozwiązywanie równań różniczkowych - proszę bardzo.
Całkowanie poprzez połączenia "takie zwykłe" diodowe, tranzystorowe - czemu nie.

Najbardziej podobało mi się całkowanie analogowe, ale elektroniczne.

Macie ochotę o tym ze mną porozmawiać? Coś mi potłumaczyć?
Obserwuj wątek
    • stefan4 Re: Komputery analogowe 09.06.15, 01:57
      nikodem321:
      > Natrafiłem na temat komputerów analogowych.
      > Nie wiedziałem, że coś takiego w ogóle istniało!

      Mnie tylko zawsze dziwiła nazwa. Computare oznacza obliczać, więc komputer liczy. Komputer analogowy nie tyle liczy, co mierzy. Dlaczego więc nazywa się komputer a nie np. mensurator?

      Na oko wydawałoby się, że komputer cyfrowy musi dyskretyzować zjawiska ciągłe, żeby je ująć w liczby skończonej długości; a komputer analogowy nie musi tego robić, więc powinien być dokładniejszy. A jednak komputery cyfrowe wyparły analogowe. Po części dlatego, że się je łatwiej programuje. Ale chyba głównie dlatego, że (jak już wspominał Asteroida2) ich wyniki są stabilniejsze. Na komputerze analogowym wszelkie dane podlegay rozstrojeniu, tak jak utwór muzyczny przegrywany wiele razy z taśmy staroświeckiego magnetofonu na inną taśmę. Na komputerze cyfrowym dane pozostają stabilne niezależnie od liczby kopiowań.

      Oczywiście było wiele projektów hybryd analogowo-cyfrowych. Najbardziej nowatorski pojawił się w jakimś opowiadaniu fantastycznym, niestety już nie pamiętama w jakim. Otóż Ziemię odwiedził wysłannik innej odległej planety i postanowił zabrać ze sobą całą ziemską naukę, kulturę i sztukę. Wobec tego zawartość wszystkich ziemskich bibliotek i galerii artystycznych zapisał sobie binarnie w bardzo długi ciąg bitów; następnie przed tym ciągiem postawił zero i kropkę dziesiętną
      • holaj Re: Komputery analogowe 09.06.15, 02:19
        stefan4!

        Dzięki serdeczne, że zechciałeś mi odpisać!

        Niech ten wątek pozostanie matematyczno fizyczny.

        Jest zbyt późno, abym mógł coś sensownego do Ciebie zagadać,
        Chętnie jutro podyskutuję, a właściwie pofascynuję się z tobą.

        Dla mnie informatyka (a i matematyka) jest równie fascynująca, co kosmos dla pomruka.
        Chcę to poznawać!!!

        Tylko jak tu zablokować napływ tych wszystkich "qu...liach"?
        • majka_monacka napływ qualiów 09.06.15, 14:10
          holaj napisał:

          > stefan4!
          >
          > Dzięki serdeczne, że zechciałeś mi odpisać!
          >
          > Tylko jak tu zablokować napływ tych wszystkich "qu...liach"?

          Dzięki Nikodemie, że poruszyłeś wątek komputerów analogowych. Jednakże szkoda, ze dajesz się uwodzić wizji Stefana, który nie obejmuje całej złożoności problemu i z prostych trudności technicznych tworzy problem filozoficzny.
          Otóż wyobraź sonie, że masz 100 miliardów komputerów analogowych wykonujących proste operacje analogowe w czasie 1 milisekundy (10^-3 s), oraz, że wyjścia i wejścia tych komputerów są połączone tak, że wynik każdej z tych operacji analogowych wpływa na przebieg procesu w innych komputerach. I teraz spytaj Stefana, czy taki proces da się symulować neumanowskim lub harwardzkim komputerem sekwencyjnym.

          Oczywiscie on ci odpowie,ze można bez żadnego problemu, bo każdy proces można symulować maszyna Turinga, a taka funkcje może spełniać rzeczony komputer. Mało tego, wyniki będą bardziej stabilne i mnie podatne na błędy wynikające z szumów, zakłóceń lub czegokolwiek innego.

          To teraz spytaj jaka moc przetwarzania informacji powinien posiadać taki komputer.
          Stefan to łatwo obliczy. Zakładając, że wystarczy nam dokładność aproksymacji przebiegów analogowych w każdym komputerze 100 punktami, to w ciągu 1 ms należy wykonać 100 obliczeń w każdym ze 10^11 komputerów. Niestety wyniki zależą od 10^11 rezultatów w innych komputerach co daje nam 10^22 kombinacji różnych wyników w zależności od tego, na którym przyłączu pojawi sie wynik innego komputera. Mamy wiec najoszczędniej licząc (10^22)x(10^2) = 10^24 operacji w 1 ms, czyli 10^27 operacji na sekundę. W rzeczywistości tych obliczeń powinno być znacznie więcej, ale nie chce się nad tym rozwodzić. W każdym razie Stefan powie przypuszczalnie, że na razie nie ma odpowiednich komputerów, bo chiński superkomputer Tianhe-2 wykonuje tylko 3x10^16 operacji na sekundę. Oczywiście doda natychmiast, że zgodnie z prawem Moora ten problem wkrótce zostanie rozwiązany.

          Ale zwróć uwagę, że to jest sytuacja, która występuje w ludzkim mózgu. Mózg wykonuje analogowo te wszystkie obliczenia choć nie jest żadnym superkomputerem. Operacje analogowe NED sa bardzo prymitywne. Następuje tam tylko zgrubne, przybliżone porównanie rozkładu ładunków elektrycznych przychodzących sygnałów z komplementarnym rozkładem pól wytworzonych przez proteiny kanałów synaptycznych, dendrytów i aksonów. On nie muszą być aproksymowane żadną funkcją. Obliczenie następuje poprzez analogowy proces fizyczny, o czym wielokrotnie już pisałam.

          Czy wobec tego jesteśmy skazani na analogowe komputery imitujące procesy w błonach synaptycznych? Na szczęście nie. Znajdzie się i robota dla informatyków.
          Połączenia w mózgu nie maja struktury każdy z każdym. Pojedynczy neuron wykonuje niezwykle proste operacje łatwe do zalgorytmizowania. Architektura koneksjonistyczna pozwala łączyć zalgorytmizowane węzły z dynamiczną hierarchiczną strukturą połączeń. Procesy porównywania, zapamietywania i dalszego przekazywania sygnałów w poszczególnych węzłach mogą więc dawać skutki jak w naturalnej sieci neuronowej.

          I teraz uwaga!
          Dotychczas taka architektura jest emulowana na komputerach sekwencyjnych.
          Jednakże jest to widoczne, że ta praktyka kolosalnie ogranicza budowę sieci kognitywnych o dużej złożoności. Ograniczana jest liczba węzłów i warstw. Konieczne jest przejście na przetwarzanie równoległe.
          Dotychczas nikt nie przeprowadził właściwej próby. Wytwarzane konstrukcje równoległego przetwarzania naśladowały działanie klasycznych sieci neuronowych, które niewiele maja wspólnego z siecią neuronową nowego typu o strukturze neuronowego pola modelującego w sensie Perlovskiego. Właśnie na to potrzeba te 100 baniek :-)
          • asteroida2 Re: napływ qualiów 09.06.15, 14:34
            > Niestety wyniki zależą od 10^11 rezultatów w innych komputerach co daje nam 10^22
            > kombinacji różnych wyników w zależności od tego, na którym przyłączu pojawi sie wynik
            > innego komputera.
            > ...
            > Ale zwróć uwagę, że to jest sytuacja, która występuje w ludzkim mózgu.

            Nie, nie występuje. Masz poważne problemy z liczeniem.

            Żeby wynik każdego z 10^11 komputerów bezpośrednio zależał od każdego innego, to każdy z nich musiałby mieć 10^11 połączeń. Czyli miałabyś układ 10^22 kabelków łączących te komputery. Czego oczywiście nie da się zrobić i w mózgu taka sytuacja nie występuje.

            Jeśli każdy z 10^11 komputerów jest połączony z 1000 innych, to pośrednio wyniki każdego zależą od innych, ale to co musisz zasymulować to "tylko" te 10^14 połączeń.
            I to się właśnie próbuje robić.


            Jeśli nie rozumiesz jak działają projekty takie jak Human Brain Project, to poczytaj o nich i dowiedz się więcej, zamiast wymyślać powody dla których nie mogą działać. Bo na razie pokazujesz tylko, że nie rozumiesz problemu, którzy rzekomo ma być twoją specjalnością.
            • nikodem321 Re: napływ qualiów 09.06.15, 15:43
              asteroida2 napisał:

              > > Niestety wyniki zależą od 10^11 rezultatów w innych komputerach co daje n
              > am 10^22
              > > kombinacji różnych wyników w zależności od tego, na którym przyłączu poja
              > wi sie wynik
              > > innego komputera.
              > > ...
              > > Ale zwróć uwagę, że to jest sytuacja, która występuje w ludzkim mózgu.
              >
              > Nie, nie występuje. Masz poważne problemy z liczeniem.

              asteroida2!
              a tak prosiłem, tak błagałem! Nawet modliłem się!
              Aby ten akurat wątek był wolny od ignorantów!

              A ty i tu dałeś się wkręcić!

              P.S.
              Zakładałem się sam ze sobą, kto pierwszy da się wkręcić w kolejną głupią przepychankę słowną. maximus! 1:0 dla ciebie! majka_monacka wygrywa.
            • majka_monacka Re: napływ qualiów 09.06.15, 16:43
              asteroida2 napisał:
              > > ...
              > > Ale zwróć uwagę, że to jest sytuacja, która występuje w ludzkim mózgu.
              >
              > Nie, nie występuje. Masz poważne problemy z liczeniem.
              >
              > Żeby wynik każdego z 10^11 komputerów bezpośrednio zależał
              > od każdego innego, to każdy z nich musiałby mieć 10^11 połączeń.
              > Czyli miałabyś układ 10^22 kabelków łączących te komputery.
              > Czego oczywiście nie da się zrobić i w mózgu taka sytuacja nie występuje.
              >
              Nie mam problemów z liczeniem, ale mam nieco większą wiedze o mózgu od ciebie.
              Pomimo, ze w tekście poprzedniego postu napisałam: "Połączenia w mózgu nie maja struktury każdy z każdym.", to twoja ocena jest zdecydowanie odbiegającą od rzeczywistości. Dawne oceny, że myślenie angażuje 10% mózgu dawno już upadły. Dzisiejsze metody zobrazowania pokazują, że większość procesów angażuje od 30% do najczęściej 60% mózgu, ale też często 80 - 100%. 1000 węzłów odpowiadać by mogło najwyżej jednej mikro-kolumnie neuronalnej kodującej pojedyncze pojęcie. Ale często kolumny składają się nawet ze 100 000 neuronów. Co gorsz kodowanie NED odbywa się w polach synaptycznych, a tych średnio neuron ma ok 20 000. To podnosi moje oszczędne oszacowania o jakieś 3 rzędy wielkości. Żałuję, że może cie zmartwiłam, co do szans klasycznej informatyki modelowania procesów mózgowych. Ale mimo to cieszę sie, że zainteresowałeś się tym tematem.
              >
              >
              > Jeśli nie rozumiesz jak działają projekty takie jak Human Brain Project, to poc
              > zytaj o nich i dowiedz się więcej, zamiast wymyślać powody dla których nie mogą
              > działać. .....

              Oj, chyba przekonałeś się, że mam sporo literatury dokumentującej moje tezy. Nie prowokuj mnie do cytowania, jak to robi Andrew, a czego nie popiera Speedyhawk
              • asteroida2 Re: napływ qualiów 09.06.15, 17:09
                > Dzisiejsze metody zobrazowania pokazują, że większość procesów angażuje od 30%
                > do najczęściej 60% mózgu, ale też często 80 - 100%. 1000 węzłów odpowiadać by
                > mogło najwyżej jednej mikro-kolumnie neuronalnej kodującej pojedyncze pojęcie. Ale
                > często kolumny składają się nawet ze 100 000 neuronów. Co gorsz kodowanie NED o
                > dbywa się w polach synaptycznych, a tych średnio neuron ma ok 20 000. To podnos
                > i moje oszczędne oszacowania o jakieś 3 rzędy wielkości.

                Nie, nie podnosi.

                Ty dalej nie rozumiesz, że istotne jest to, ile w sumie jest synaps w całym mózgu. A tych jest 10^14. I jeśli będziesz modelować je wszystkie jednocześnie, to nie ma znaczenia jaki procent mózgu w danym momencie jest aktywny, ile kolumn neuronalnych pracuje ani jak wiele neuronów jest w jednej kolumnie. To wszystko jest już wzięte pod uwagę w tych 10^14 synaps.

                A cały twój wywód tylko pokazuje, że naprawdę nie rozumiesz problematyki o której mówimy.
                • stefan4 Re: napływ qualiów 09.06.15, 17:37
                  asteroida2:
                  > Nie, nie podnosi.

                  Wyjaśnianie ma sens wtedy, gdy istnieje cień szansy, że odbiorca zrozumie. Inaczej sensu nie ma i sprawia wrażenie użerania się z trollem. Czego absolutnie Ci nie życzę.

                  - Stefan
                • maksimum 1 synaps may contain 1.000 switches. 10.06.15, 07:57
                  asteroida2 napisał:

                  > Ty dalej nie rozumiesz, że istotne jest to, ile w sumie jest synaps w całym móz
                  > gu. A tych jest 10^14. I jeśli będziesz modelować je wszystkie jednocześnie, to
                  > nie ma znaczenia jaki procent mózgu w danym momencie jest aktywny, ile kolumn
                  > neuronalnych pracuje ani jak wiele neuronów jest w jednej kolumnie. To wszystko
                  > jest już wzięte pod uwagę w tych 10^14 synaps.

                  Ze sie wtrace.
                  Ty zakladasz ze jedna synapsa wykonuje jedna czynnosc a tak nie jest.

                  www.cnet.com/news/human-brain-has-more-switches-than-all-computers-on-earth/
                  "One synapse, by itself, is more like a microprocessor--with both memory-storage and information-processing elements--than a mere on/off switch. In fact, one synapse may contain on the order of 1,000 molecular-scale switches. A single human brain has more switches than all the computers and routers and Internet connections on Earth."

                  www.youtube.com/watch?v=jziqfFp9Rq0
                  • asteroida2 Re: 1 synaps may contain 1.000 switches. 10.06.15, 11:27
                    Coś mi się wydaje, że to dziennikarski humbug.

                    Synapsa oczywiście zawiera 1000 "przełączników", ale wszystkie przełączają się jednocześnie. Gdy potencjał na synapsie osiągnie odpowiedni poziom, to wszystkie na raz się otwierają i uwalniają neuroprzekaźnik.

                    Co oczywiście nie znaczy że synapsa "wykonuje na raz jedną rzecz". Poziom neuroprzekaźnika na synapsie musi się odbudować, żeby mogła odpalić ponownie. Poza tym różne substancje w otoczeniu synapsy (np. narkotyki) mogą sprawiać że neuroprzekaźnik nie zostanie wychwycony, albo jego działanie zostanie zmodyfikowane. To wszystko można symulować.
                    Istotne w tej dyskusji jest to, że każdą synapsę można symulować oddzielnie. Jeśli wyliczasz co się dzieje w jednej synapsie, nie musisz wiedzieć co się dzieje w synapsach po drugiej stronie mózgu.
                    • maksimum Re: 1 synaps may contain 1.000 switches. 10.06.15, 13:06
                      asteroida2 napisał:

                      > Istotne w tej dyskusji jest to, że każdą synapsę można symulować oddzielnie. Je
                      > śli wyliczasz co się dzieje w jednej synapsie, nie musisz wiedzieć co się dziej
                      > e w synapsach po drugiej stronie mózgu.

                      Chodzilo mnie o cos innego a mianowicie o poziom skomplikowania w porownaniu z komputerem.
                    • maksimum Re: 1 synaps may contain 1.000 switches. 10.06.15, 13:20
                      asteroida2 napisał:

                      > Istotne w tej dyskusji jest to, że każdą synapsę można symulować oddzielnie. Je
                      > śli wyliczasz co się dzieje w jednej synapsie, nie musisz wiedzieć co się dziej
                      > e w synapsach po drugiej stronie mózgu.

                      Jesli dzialanie synapsy jest bardziej skomplikowane niz dzialanie mikroprocesora,to dobrze byloby wiedziec,co dzieje sie po drugiej stronie mozgu.
                      Przeciez wlasnie dlatego zbudowanie sztucznej inteligencji jest tak daleko w lesniczowce.
                      • asteroida2 Re: 1 synaps may contain 1.000 switches. 10.06.15, 13:30
                        > Jesli dzialanie synapsy jest bardziej skomplikowane niz dzialanie mikroprocesora,
                        > to dobrze byloby wiedziec,co dzieje sie po drugiej stronie mozgu.

                        Działanie synapsy nie jest bardziej skomplikowane niż działanie mikroprocesora.
                        Mikroprocesor może mieć ponad miliard "przełączników". I każdy może być przełączany oddzielnie.

                        > Przeciez wlasnie dlatego zbudowanie sztucznej inteligencji jest tak daleko w
                        > lesniczowce.

                        Nie dlatego. Problemy są na zupełnie innym poziomie.
                        • maksimum Re: 1 synaps may contain 1.000 switches. 10.06.15, 13:49
                          asteroida2 napisał:

                          > Nie dlatego. Problemy są na zupełnie innym poziomie.

                          Widze ze masz sytuacje pod kontrola ale prostej roboty zrobic sie nie da.
                        • maksimum Re: 1 synaps may contain 1.000 switches. 10.06.15, 17:49
                          asteroida2 napisał:

                          > Działanie synapsy nie jest bardziej skomplikowane niż działanie mikroprocesora.
                          > Mikroprocesor może mieć ponad miliard "przełączników". I każdy może być przełąc
                          > zany oddzielnie.

                          www.cnet.com/news/human-brain-has-more-switches-than-all-computers-on-earth/
                          "One synapse, by itself, is more like a microprocessor--with both memory-storage and information-processing elements--than a mere on/off switch. In fact, one synapse may contain on the order of 1,000 molecular-scale switches. A single human brain has more switches than all the computers and routers and Internet connections on Earth."
                          ----------------
                          Tu jest napisane,ze " A single human brain has more switches than all the computers and routers and Internet connections on Earth."
                          I ja im uwierzylem,a ty piszesz cos innego i tez jestem sklonny ci wierzyc,ale fakt ze budowanie AI jest w lesniczowce,sklania mnie w kierunku tego co powiedzial facet z Harvardu.

                          > > Przeciez wlasnie dlatego zbudowanie sztucznej inteligencji jest tak daleko w
                          > > lesniczowce.
                          >
                          > Nie dlatego. Problemy są na zupełnie innym poziomie.

                          Wyjasnij prosze.
                          • asteroida2 Re: 1 synaps may contain 1.000 switches. 10.06.15, 18:00
                            > Tu jest napisane,ze " A single human brain has more switches than all the compu
                            > ters and routers and Internet connections on Earth."

                            Mi się wydaje, że autorowi chodziło o to że w jednym mózgu jest więcej przełączników niż istnieje komputerów na świecie, a nie że więcej niż istnieje przełączników we wszystkich komputerach na świecie.

                            > > > Przeciez wlasnie dlatego zbudowanie sztucznej inteligencji jest tak
                            > > > daleko w lesniczowce.
                            > > Nie dlatego. Problemy są na zupełnie innym poziomie.
                            > Wyjasnij prosze.

                            Zbudować komputer liczbie przełączników porównywalnej z ludzkim mózgiem, to my już potrafimy. Największe dzisiejsze superkomputery: Tianhe-2, Titan i Sequoia, mają podobną skalę złożoności. Ale ich architektura jest zupełnie inna.
                            Procesory o architekturze przypominającej ludzki mózg dopiero zaczynają powstawać.
                            www.wired.co.uk/news/archive/2014-08/08/ibm-brain-like-chip
                            Być może gdyby poskładać z nich komputer o podobnej skali co ludzki mózg, to mielibyśmy AI. Ale warto zauważyć że ludzki mózg potrzebuje kilku lat nauki, zanim w ogóle da się z człowiekiem pogadać. Kto wydałby setki milionów na komputer, który przez kilka lat od zbudowania tylko gaworzy?
      • nikodem321 heloj to nikodem321 09.06.15, 02:24
        przepraszam nie przelogowałem się
      • nikodem321 Re: Komputery analogowe 09.06.15, 09:23
        Ha! Ha!:-)

        Zakodowanie całej wiedzy posiadanej przez Ziemian w postaci jednej kropki!

        Trzeba mieć fantazję pisarza s-f, aby na coś takiego wpaść.
        Gdyby gość nazwał siebie kropkokongiwistą, to do dzisiaj mógłby pewnie mieć tłum na salach wykładowych do dzisiaj.

        Chociaż z drugiej strony...
        W dobie mikroskopów elektronowych odległości można mierzyć z baaardzo dużą rozdzielczością, dokładnością. Więc może zamiast DUŻEJ płyty CD wystarczyłaby niteczka z... kevlaru, grafenu. Dwa węzełki i cała książka zakodowana.
        Raj dla szpiegów!

        Wiem, wiem! Już się nie znęcaj!
        Wiem, że za chwilę mi policzysz, że:
        "Aby mikroskop elektronowy mógł odczytać zakodowane zdjęcie gołej Marlyn Monroe, które w bitmapie waży... megaB to taka nić musiałaby mieć długość jak stąd do Łomży i z powrotem". No może: jak stąd do Tczewa.
        I pewnie przesunięcie, na koniec, tej nici o jedno "oczko" zburzyłoby cały zapis.

        stefan4
        Ja byłem chowany na systemie 0-1.
        Dyskretyzowanie nie jest mi obce.
        W czasach liceum nawet sobie programowałem. Byłem zachwycony sam sobą, gdy udało mi się napisać program, który całkował pole pod krzywą. Nie na podstawie wzoru (równania) krzywej, tylko jej wykresu. Chyba zastosowałem metodę "dopasowanych prostokątów". Chyba tak to się nazywało.
        A w czasach postlicealnych - fotki z tomografii komputerowej.
        W tamtych czasach tomograf dawał rozdzielczość nie większą niż 5x5 mm wymiaru rzeczywistego. Całkiem ziarnisty obraz. Chłopcy i dziewczęta doszli do wniosku, że taki "skwadratowany" obraz będzie kompletnie nieczytelny dla ludzkiego oka.
        Problem rozwiązali tak:
        * zmniejszenie końcowego obrazu - przekrój przez klatkę piersiową nie większy niż 10x10 cm , może 15x15
        * rozmazanie konturów. Dużą pomoc w tym zakresie udzieliła używana w tamtym czasie technika utrwalania zdjęć - rozdzielczość kliszy fotograficznej.

        Takie dyskretyzowanie obrazowania ciała zrewolucjonizowało medycynę.

        Dzisiaj zwykłe RTG klatki jest już dyskretyzowane - analogowe odwzorowanie obrazu stosują tylko pracownie, które nie wymieniły aparatów na nowocześniejsze.

        Zmierzam do tego...
        Ja, jako pokolenie dyskretyzowane od kołyski, nagle dowiaduje się, że zamiast męczyć się z metodą "dopasowanych prostokątów" wystarczyło zastosować "komputer" analogowy.
        Rozwiązywanie równań różniczkowych - to przełączanie kabli niczym w ręcznej centrali wiejskiej: -Halo! Tu Wilkowyje! Mówi się?
        Kto miał to szczęście korzystać z wiejskich telefonów na korbkę, ten wie co mam na myśli.
        • stefan4 Re: Komputery analogowe 09.06.15, 13:06
          nikodem321:
          > Wiem, że za chwilę mi policzysz, że:
          > "Aby mikroskop elektronowy mógł odczytać zakodowane zdjęcie gołej
          > Marlyn Monroe, które w bitmapie waży... megaB to taka nić musiałaby
          > mieć długość jak stąd do Łomży i z powrotem". No może: jak stąd do
          > Tczewa.

          Nie, policzę Ci całkiem coś innego. Załóżmy (z wielkim nadmiarem), że ludzie robią zdjęcia gołych pań od 200 lat, że takich fotografów zawsze był miliard, i że każdy wykonywał 10 zdjęć dziennie. To znaczy, że ludzkość dorobiła się już
              200*365.25*10*1mld = 7.3*10^14 zdjęć. Ile pamięci potrzeba, żeby wyróżnić Twoje ulubione zdjęcie gołej Marilyn Monroe spośród tego całego mrowia zdjęć nagich kobiet?

          Otóż wystarczy 50 bitów. Idealną metodą kompresji danych byłoby posiadanie listy wszystkich zdjęć i wskazywanie numeru zdjęcia, które Cię interesuje. Ten 50-bitowy numer to już cały skompresowany obraz. A my na fotografie zużywamy tyle megabajtów...

          - Stefan
      • nikodem321 Komputery analogowe bez filozofii 09.06.15, 10:02
        stefan4 napisał:

        > To, że komputery analogowe zostały kompletnie wyparte przez cyfrowe, ma znaczen
        > ie filozoficzne.

        Nie! Nie! Nie!
        Tylko proszę bez filozofii!
        Bez metafizyki!

        > Na oko wydawałoby się, że powinny istnieć zastosowania, do kt
        > órych cyfrowe się nie nadają, właśnie przez wymuszoną dyskretyzację wszystkiego
        > . A jednak liczby naturalne okazały się dobrym narzędziem nawet dla ciągłości;
        > i że są narzędziem wystarczającym dla opisu wszelkich komplikacji rzeczywistoś
        > ci. Choćby dlatego, że samych opisów może być tylko tyle, co liczb naturalnych
        > .

        Uf! Z wysokiego "c" bezpiecznie, bez katastrofy wylądowaliśmy na ziemi.

        A jednak ujęła mnie Twoja metafizyka: ilość opisów, ilość zdarzeń może być tyle, co liczb naturalnych.
        Na fali matematycznej ezoteryki napiszę: "a są jeszcze do tego liczby niewymierne i urojone".

        Płynąc dalej na fali matematycznego uniesienia: dla mnie największą zagadką są liczby urojone - liczby zespolone. Może kiedyś uda mi się poznać te krainy.
      • tbernard Re: Komputery analogowe 09.06.15, 13:24
        > w jakim. Otóż Ziemię odwiedził wysłannik innej odległej planety i postanowił
        > zabrać ze sobą całą ziemską naukę, kulturę i sztukę. Wobec tego zawartość wszy
        > stkich ziemskich bibliotek i galerii artystycznych zapisał sobie binarnie w bar
        > dzo długi ciąg bitów; następnie przed tym ciągiem postawił zero i kropkę dziesi
        > ętną
        • stefan4 Re: Komputery analogowe 09.06.15, 14:31
          tbernard:
          > Pewnie chodziło o kropkę ułamkową o podstawie dwa.

          Tak, oczywiście kropkę dwójkową,a nie dziesiętną.

          - Stefan
          • nikodem321 Re: Komputery analogowe 09.06.15, 15:58
            stefan4 napisał:

            > tbernard:
            > > Pewnie chodziło o kropkę ułamkową o podstawie dwa.
            >
            > Tak, oczywiście kropkę dwójkową,a nie dziesiętną.
            >
            > - Stefan
            >

            O! Jęziu!
            Rzekłby Witkacy!

            Kropka "dziesiętna", kropka "dwójkowa".
            Przecież wiadomo o co chodzi.

            Tak na marginesie, to w notacji polskiej zamiast "kropki" stawiamy "przecinek" :-D

            P.S.
            Czy tbernard od dzieciństwa tak ma, że szafkę kuchenną "90- tkę" widzi w rozmiarze 900 000 mikrometrów?
            • tbernard Re: Komputery analogowe 09.06.15, 20:00
              > P.S.
              > Czy tbernard od dzieciństwa tak ma, że szafkę kuchenną "90- tkę" widzi w rozmia
              > rze 900 000 mikrometrów?

              O szafkach kuchennych nie rozmyślam, jest mi wszystko jedno. Ale jak już wskoczyliśmy w ten temat, to gdy zamówisz tą 90-tkę, to zadowolisz się, gdy przyślą Ci 90-tkę w systemie szesnastkowym, bo przecież co to za różnica? Ciąg cyfr ten sam to pasować będzie jak ulał.
              Co do kropki, czy przecinka to sprawa oczywista. Zresztą ja nie miałem zamiaru pouczać Stefana bo prezentuje on o wiele wyższy poziom ode mnie i wiem, że to było tylko z pośpiechu. Chodziło tylko o sprostowanie na wypadek, gdyby czytał to ktoś kto dopiero ociera się o te zagadnienia, do których domniemywam nie zaliczasz się.
      • grosz-ek Re: Komputery analogowe 10.06.15, 01:49
        > Otóż Ziemię odwiedził wysłannik innej odległej planety i postanowił
        > zabrać ze sobą całą ziemską naukę, kulturę i sztukę. Wobec tego zawartość wszy
        > stkich ziemskich bibliotek i galerii artystycznych zapisał sobie binarnie w bar
        > dzo długi ciąg bitów; następnie przed tym ciągiem postawił zero i kropkę dziesi
        > ętną
        • stefan4 Re: Komputery analogowe 10.06.15, 09:23
          grosz-ek:
          > Hmm, przyjmując, że 10^3 to w przybliżeniu 2^10, a teoretycznie
          > najmniejsza możliwa długość do zmierzenia - długość Plancka -
          > to 10^(-35), co przekłada się na jakieś ~ 2^(-120), to do zapisania
          > będzie miał raptem 120 bitów/ok. 18 bajtów. Na imię i nazwisko
          > może wystarczy.

          Ale na metrowym kijku napisałbyś zwykłym pisakiem
          • grosz-ek Re: Komputery analogowe 24.06.15, 08:45
            Ale pamietasz swój przykład?

            "[...] wziął metrowy kijek i bardzo ostrym kozikiem zrobił na nim szczerbę dokładnie w miejscu wskazanym przez tą liczbę; i ten kijek zabrał ze sobą. W domu, na odległej planecie, zawsze mógł dokładnie zmierzyć położenie szczerby, wynik pomiaru zamienić na ciąg bitów i z niego odtworzyć ziemską naukę, kulturę i sztukę.[...]"

            Ewidentnie wynika z niego, że dokonał tylko jednej, jedynej zmiany w punkcie położonym pomiędzy 0 a 1. Dokładność tego punktu jest w maksymalnym zakresie warunkowana długością Plancka - bo w rzeczywistości pewnie rozmiarem atomu tudzież nieoznaczonością Heisenberga. Stąd moje obliczenia i próba wykazania jak wiele informacji w ten sposób można zapisać. Oczywiście, gdyby mógłby potencjalnie modyfikować wszystkie punkty pomiędzy tym punktem a zerem, to zasób informacji możliwych do zapisania byłby zdecydowanie większy.
            • stefan4 Re: Komputery analogowe 24.06.15, 09:06
              grosz-ek:
              > Ewidentnie wynika z niego, że dokonał tylko jednej, jedynej zmiany w punkcie położonym
              > pomiędzy 0 a 1.

              No tak, masz rację. Autor tej przypowieści oczywiście nie zastanawiał się nad długością Plancka. Raczej wykazywał, że nieograniczona zdolność do rozróżniania prawdziwych liczb rzeczywistych prowadziłaby do surrealistycznie wspaniałych metod kompresji informacji. Zresztą i on traktował ją jako dowcip.

              Wychodzi na to, że rzeczywistość jest dyskretna, chociaż lubimy traktować ją jako ciągłą...

              - Stefan
        • tbernard Re: Komputery analogowe 10.06.15, 10:19
          > Hmm, przyjmując, że 10^3 to w przybliżeniu 2^10, a teoretycznie najmniejsza moż
          > liwa długość do zmierzenia - długość Plancka - to 10^(-35), co przekłada się na
          > jakieś ~ 2^(-120), to do zapisania będzie miał raptem 120 bitów/ok. 18 bajtów.
          > Na imię i nazwisko może wystarczy.

          Warto czasem zastosować jednostki aby nie mieszać w liczbach. Ta długość Plancka 10^(-35) to zapewne w metrach, jeśli tak to oznacza, że w jednym metrze powinniśmy zmieścić 10^35 takich długości. Jeśli więc zagęścimy rozkład bitów do długości Plancka, to na metrowym kijku zmieścimy 10^35 bitów. Posługując się przybliżeniem 10^3~2^10 daje to około 2^116 bitów.
          Czyli jest to 2^116 / 8 = 2^113 bajtów. Czyli oprócz imienia i nazwiska to sporo tam jeszcze wlezie informacji. Nawet w podanej tam tabelce nie ma nazwy dla takich rzędów wielkości.
    • asteroida2 Re: Komputery analogowe 09.06.15, 09:59
      Ja sądzę że komputery analogowe jeszcze wrócą, pod taką czy inną postacią. Być może nawet pod postacią komputerów kwantowych (które, jak im się dokładniej przyjrzeć, mają więcej wspólnego z analogowymi niż cyfrowymi).

      Po prostu chwilowo wszystkie "rewolucje informatyczne" są wstrzymane z powodu Prawa Moore'a. Wielkie firmy już mają opracowaną technologię, która za 5 lat zastąpi wszystkie komputery. Nazywa się "to samo tylko 10 razy lepsze". Więc nie widzą sensu inwestowania w rozwiązania które są mniej pewne, a większego zysku nie dadzą.

      Dopiero gdy dalsze miniaturyzowanie układów elektronicznych stanie się zbyt kłopotliwe, zaczną się inwestycje w alternatywne architektury. Układy analogowe nadają się świetnie do niektórych zastosowań, jak na przykład obróbka obrazu. Współczesne komputery robią to metodami dosyć brutalnymi, które są niepotrzebnie dokładne. Rozwiązania o wiele mniej dokładne, ale za to 1000 razy szybsze i tańsze, byłyby tu o wiele praktyczniejsze.
      • nikodem321 prawo Moore'a? 09.06.15, 10:19
        To prawo Moore'a to czym się to je?

        Tylko proszę opowiedz mi to swoimi słowami, bo jak mnie odeślesz do Wiki, to ja niczego nie zrozumiem.
        • asteroida2 Re: prawo Moore'a? 09.06.15, 10:39
          Własnymi słowami, to prawo sformułuję tak: Co dwa lata pojawiają się dwa razy lepsze komputery.

          To jest empiryczne prawo, ale sprawdza się dosyć dobrze już od 50 lat.

          Powody są dosyć skomplikowane, ale z grubsza chodzi o to, że cały czas jest sporo możliwości ulepszania komputerów. Elektronika jest dziwnym obszarem technologii, bo w przeciwieństwie do większości innych obszarów, stała się użyteczna o wiele wcześniej, niż zbliżono się do granic jej możliwości. Samochody, koleje, samoloty czy rakiety były też ulepszane, ale różnica wydajności pomiędzy pierwszym samochodem a dzisiejszymi samochodami była nie większa niż 100 razy. I dzisiejsze samochody mają już efektywność rzędu 80% najlepszej teoretycznie możliwej, więc za wiele nie dają się ulepszyć.

          Co innego informatyka. Dzisiejsze komputery są już miliard razy wydajniejsze niż pierwsze komputery, a najlepsza teoretycznie możliwa wydajność jest jeszcze jakieś miliard razy dalej.
          • nikodem321 Re: prawo Moore'a? 09.06.15, 11:06
            A! To o to chodziło!
            Już jestem w domu.

            Zgadzam się z prawem Moore'a! Chociaż...

            Mam kumpelę radiolożkę. Co ona mi opowiada... Co jej maszyny potrafią robić...
            Myślę, że prawo Moore'a jest fałszywe, bo w tej dziedzinie postęp jakby następował szybciej.
          • fidziaczek Re: prawo Moore'a? 09.06.15, 14:48
            technologia produkcji w krzemie zaczyna dochodzić do fizycznych ograniczeń.
            www.spidersweb.pl/2012/08/proces-technologiczny-mniejszy-niz-05-nm-niemozliwy-nawet-grafen-nie-pomoze.html
            Obecnie się projektuje technologię 7nm i prototypy wykonane w takiej technologii już działają
            • asteroida2 Re: prawo Moore'a? 09.06.15, 15:27
              > technologia produkcji w krzemie zaczyna dochodzić do fizycznych ograniczeń.
              > www.spidersweb.pl/2012/08/proces-technologiczny-mniejszy-niz-05-nm-niemozliwy-nawet-grafen-nie-pomoze.html

              To nawet prawdopodobne. Ale jeśli rozwinie się technologia trójwymiarowych procesorów, to nawet bez zmniejszania ścieżki będzie można upychać w jednym procesorze biliony i biliardy tranzystorów.
              • fidziaczek Re: prawo Moore'a? 09.06.15, 15:41
                Dotychczas prawo Moore opierało się na miniaturyzacji i lada moment dojdziemy do ściany jaką jest pojedyńczy atom. Dzięki niej zwiększano ilość tranzystorów w jednostce powierzchni i przyśpieszano również taktowanie procesorów. Przyśpieszanie skończyło się jakieś 5 czy 7 lat temu na około 4GHz, od biedy uzyskuje się 5GHz, a więcej już nie bardzo, teraz jak dojdzie brak możliwości zwiększenia ilosci tranzystorów na jednostce powierzchni to już zupełny klops
                Trójwymiarowe struktury z którymi sie wiąże tak duże nadzieje mogą miec problemy z odprowadzaniem ciepła skoro nawet dziś bywa to problemem.
                • asteroida2 Re: prawo Moore'a? 09.06.15, 15:47
                  > Przyśpieszanie skończyło się jakieś 5 czy 7 lat temu na około 4GHz, od biedy uzyskuje
                  > się 5GHz, a więcej już nie bardzo, teraz jak dojdzie brak możliwości zwiększenia
                  > ilosci tranzystorów na jednostce powierzchni to już zupełny klops

                  Ja bym powiedział na odwrót: przyspieszanie zegarów skończyło się kilka lat temu, a wykładniczy wzrost pozostał. Jak skończy się zmniejszanie ścieżek, to wzrost też pewnie się nie zatrzyma.

                  > Trójwymiarowe struktury z którymi sie wiąże tak duże nadzieje mogą miec problemy
                  > z odprowadzaniem ciepła skoro nawet dziś bywa to problemem.

                  Mogą, ale nie muszą. Faktycznie przecież te miliardy tranzystorów nie pracują jednocześnie. Na raz pracuje kilka tysięcy z nich, a reszta siedzi i nic nie robi. Jak będzie ich tysiąc razy więcej, to dalej kilka tysięcy będzie pracowało, a reszta nic nie będzie robić. Więc ciepła wydzieli się tyle samo.
                  Być może wystarczy w budowie takich procesorów uwzględnić "kanały odprowadzające ciepło" i problem zostanie rozwiązany.
                  • fidziaczek Re: prawo Moore'a? 09.06.15, 15:54
                    > Ja bym powiedział na odwrót: przyspieszanie zegarów skończyło się kilka lat tem
                    > u, a wykładniczy wzrost pozostał.

                    Jeśli chodzi o technologię x86 (tylko o niej jestem władny trochę podyskutować) to już nie ma mowy o wykładniczym wzroście.
                    Jako zapalony dzieciak-gracz musiałem kiedyś kupowac nowe procesory co 3 lata, tak szybko rosły megaherce w procesorach i ich komplikacja.
                    Od czasu gdy pojawił się core2duo intela (2006 rok) ten kto kupił wtedy 4 rdzeniowy procesor to nawet dziś moze grać w najnowsze gry.

                    Tu jest analiza która pokazuje że nie ma mowy o wzroście wykładniczym, mało tego, ten wzrost nie jest nawet liniowy:
                    pclab.pl/art51473-10.html
                    • asteroida2 Re: prawo Moore'a? 09.06.15, 16:16
                      > Jako zapalony dzieciak-gracz musiałem kiedyś kupowac nowe procesory co 3 lata,
                      > tak szybko rosły megaherce w procesorach i ich komplikacja.
                      > Od czasu gdy pojawił się core2duo intela (2006 rok) ten kto kupił wtedy 4 rdzeniowy
                      > procesor to nawet dziś moze grać w najnowsze gry.

                      Hmm? A na jakiej karcie graficznej?

                      Odkąd skończyło się przyspieszanie zegarów, gry przerzuciły się na wykorzystanie mocy obliczeniowej kart graficznych. Nawet w teście który cytujesz, mówią o tym.
                      Procesorom rośnie liczba rdzeni i spada moc. Większość programów nie potrafi wykorzystywać większej liczby rdzeni, więc dla nich stare procesory są tak samo dobre jak nowe. Różnicę zobaczysz dopiero gdy odpalisz kilka programów jednocześnie - a tego w tym teście nie robią.

                      A tu masz dowód że wykładniczy wzrost wciąż jest aktualny: superkomputery z roku na rok mają coraz większą moc obliczeniową.
                      top500.org/statistics/perfdevel/
                      • fidziaczek Re: prawo Moore'a? 09.06.15, 16:30
                        > Hmm? A na jakiej karcie graficznej?

                        Karty graficzne wciąż rosną wykładniczo, ponieważ one są taktowane gdzieś tam ledwo poniżej 1GHz, wiec one się jeszcze z problemem "4GHZ nie zderzyły".
                        Inna sprawa że pobierana przez nie moc również rośnie wykłądniczo i coraz częściej pobó prądyu przez taką karte to ponad 300W.
                        Najnowsze karty jakie ma pokazać AMD to jedna z nich standardowo będzie już chłodzona cieczą
                        Więc to coraz bardziej wydajnośc na siłę.

                        > Odkąd skończyło się przyspieszanie zegarów, gry przerzuciły się na wykorzystani
                        > e mocy obliczeniowej kart graficznych. Nawet w teście który cytujesz, mówią o t
                        > ym.

                        Karty graficzne odpowiadają za rysowanie tego co obliczy procesor x86.
                        Skoro rosną wykorzystywane rozdzielczości to i karty musza być coraz mocniejsze.
                        Jeśli w grze sprzed 10 lat walczyło się z 10 przeciwnikami i dziś may grę z 10 przeciwnikami to teoretycznie główny procesor ma tyle samo roboty bo to on odpowiada za obliczenie tgo co przeciwnicy zrobią.
                        Karta graficzna ma to narysowac na monitorze.
                        Więc karty graficzne sa coraz bardziej obciążone bo postacie na monitorze sa złożone c coraz większej ilosci pikseli.
                        Sensu w tym nie widze bo jak pisałem wczesniej obraz w rozdzielczosci 640x480 potrafi wyglądac jak rzeczywistość. Idą w wyższe rozdzielczości bo to taka bezmyślan machina raczej - kto da więcej.

                        > Procesorom rośnie liczba rdzeni i spada moc. Większość programów nie potrafi wy
                        > korzystywać większej liczby rdzeni, więc dla nich stare procesory są tak samo d
                        > obre jak nowe. Różnicę zobaczysz dopiero gdy odpalisz kilka programów jednocześ
                        > nie - a tego w tym teście nie robią.

                        w 2006 zadebiutował 4 rdzeniowy procesor Intela i dziś nadal najszybsze jednostki na rynku to 4 rdzeniowe, tyle że umieją symulowac 8.
                        Podobno ma się to podwoić w tym roku ale przez długi czas, bo 9 lat praktycznie stali w miejscu nawet jesli chodzi o ilośc rdzeni.

                        > A tu masz dowód że wykładniczy wzrost wciąż jest aktualny: superkomputery z rok
                        > u na rok mają coraz większą moc obliczeniową.
                        > top500.org/statistics/perfdevel/

                        Superkomputery to tylko powiększanie ilosci rdzeni :)
                        Więc teoretycznie mogliśmy się zatrzymać 30 lat temu i po prostu co roku bodowac superkomputer o 2 razy większej ilosci procesorów - nie wiem czy można uznac to za zgodne z prawem Moore.
                        W każdym razie nie tak je rozumiem i nie tak ono działo w przeszłości.
                        W przeszłości ten efekt mieliśmy na 1cm^2 procesora.
                        Od długiego czasu ten 1cm^2 procesora przyśpiesza coraz wolniej
                        • asteroida2 Re: prawo Moore'a? 09.06.15, 16:59
                          > Jeśli w grze sprzed 10 lat walczyło się z 10 przeciwnikami i dziś may grę z 10
                          > przeciwnikami to teoretycznie główny procesor ma tyle samo roboty bo to on
                          > odpowiada za obliczenie tgo co przeciwnicy zrobią.

                          No to sam odpowiedziałeś sobie na pytanie "czemu można grać w nowe gry na starym komputerze". Po prostu walczysz z 10 przeciwnikami tak jak 10 lat temu. Procesor nie ma więcej do roboty. Zmienia się tylko grafika.

                          > Sensu w tym nie widze bo jak pisałem wczesniej obraz w rozdzielczosci 640x480
                          > potrafi wyglądac jak rzeczywistość.

                          A ja widzę. Według mnie Wiedźmin 3 wygląda bez porównania bardziej realistycznie niż Wiedźmin 1. Podejrzewam że znaczna większość społeczeństwa się ze mną zgodzi. Twoja opinia jest tu raczej wyjątkiem.

                          > w 2006 zadebiutował 4 rdzeniowy procesor Intela i dziś nadal najszybsze jednostki
                          > na rynku to 4 rdzeniowe, tyle że umieją symulowac 8.

                          No właśnie to jest problem, gdy się skupiasz tylko na x86. Intel po prostu nie idzie w większą moc obliczeniową, tylko w tańsze i mniejsze procesory. Bo w międzyczasie pojawiły się procesory mające 8, 12 i 16 rdzeni. A najnowsze generacje potrafią wykonywać jednocześnie do 96 wątków.
                          en.wikipedia.org/wiki/PowerPC_A2
                          en.wikipedia.org/wiki/POWER8
                          > Superkomputery to tylko powiększanie ilosci rdzeni :)
                          > Więc teoretycznie mogliśmy się zatrzymać 30 lat temu i po prostu co roku bodowac
                          > superkomputer o 2 razy większej ilosci procesorów - nie wiem czy można uznac
                          > to za zgodne z prawem Moore.

                          Nie, nie moglibyśmy. Głównym ograniczeniem dla mocy obliczeniowej superkomputerów jest zużycie energii. W 2008 roku rekord efektywności to było 530 GFLOPS/W, teraz jest 5200 GFLOPS/W. Więc w ciągu 7 lat efektywność wzrosła prawie 10 razy. A gdyby budować superkomputery na procesorach sprzed 30 lat, to zużywałyby 10000 razy więcej prądu.

                          Masz rację, że chodzi o powiększanie liczby rdzeni. Tyle że jednocześnie trzeba zmniejszać pobór mocy tych rdzeni - i to następuje w sposób wykładniczy.
                          1cm^2 procesora to naprawdę nie jest żaden istotny koszt. Istotne jest to, ile możesz zrobić na każdym 1W mocy.
                          • fidziaczek Re: prawo Moore'a? 09.06.15, 18:18
                            > No to sam odpowiedziałeś sobie na pytanie "czemu można grać w nowe gry na stary
                            > m komputerze". Po prostu walczysz z 10 przeciwnikami tak jak 10 lat temu. Proce
                            > sor nie ma więcej do roboty. Zmienia się tylko grafika.

                            20 lat temu tez było 10 przeciwników, nie przeszkadzało to w przyśpieszaniu procesorów.
                            Zresztą procesory w odróżnieniu od kart graficznych są nie tylko do grania. Konkurencja między AMD i Intelem powodowała szybki rozwój, a obecnie od 9 mamy żółwie tempo.
                            Pamiętam jak się bawiłem komputerem z procesorem 0,01GHZ jakieś 10 czy 15 lat później był procesor 4GHz, czyli 40 razy szybsze taktowanie. Minęło 9 kolejnych lat....a taktowanie w tym samym punkcie i nie dlatego że nie chcieli więcej - chcieli, ale się nie dało

                            > A ja widzę. Według mnie Wiedźmin 3 wygląda bez porównania bardziej realistyczni
                            > e niż Wiedźmin 1. Podejrzewam że znaczna większość społeczeństwa się ze mną zgo
                            > dzi.

                            Ale wygląda mniej realistycznie niż obraz w TV przy rozdzielczsci 640x480.
                            Jaki wniosek?
                            Ano taki że nie trzeba podnosić rozdzielczości tylko raczej możbny by zostac przy 640x480 a popracować nad czymś innym.

                            >Twoja opinia jest tu raczej wyjątkiem.

                            No jest, ale Ty jako ktoś kto logicznie do sprawy podejdzie nie uznasz że z tymi rozdzielczościami mam rację?

                            > No właśnie to jest problem, gdy się skupiasz tylko na x86. Intel po prostu nie
                            > idzie w większą moc obliczeniową, tylko w tańsze i mniejsze procesory.

                            Intel idzie w moc bo mu depcze po piętach AMD, jeśli go dogoni przychody Intela spadną.
                            Obie firmy ida w moc ale obecnie prowadzi intel, ale 10 lat temu prowadziło AMD.

                            > Bo w międzyczasie pojawiły się procesory mające 8, 12 i 16 rdzeni. A najnowsze generacj
                            > e potrafią wykonywać jednocześnie do 96 wątków.

                            No tak, ale jak pisałeś skupiam się na x86, kiedyś prawo Moore dotyczyło technologii x86, obecnie jej nie dotyczy.

                            > Nie, nie moglibyśmy. Głównym ograniczeniem dla mocy obliczeniowej superkomputer
                            > ów jest zużycie energii.

                            A niby jaki to jest limit? Przeciez można zwiększac tą moc bez limitów

                            >W 2008 roku rekord efektywności to było 530 GFLOPS/W,
                            > teraz jest 5200 GFLOPS/W. Więc w ciągu 7 lat efektywność wzrosła prawie 10 razy
                            > . A gdyby budować superkomputery na procesorach sprzed 30 lat, to zużywałyby 10
                            > 000 razy więcej prądu.

                            Czyli moglibyśmy, w czym widzisz problem? :)
                            Niech superkomputer zużywa tyle energii co piec hutniczy - przecież nie ma jakichś limitów na to ile ma zużywać.
                            Kiedyś gdy pierwszy raz na procesorze x86 zastosowano wentylator oburzano się, że to oszustwo. Z czasem się przyzwyczajono i wentylatory stały się normą.

                            Co za problem stwprzyć dwa razy szybszy superkomputer? W uproszeniu można po prostu postawić taki superkomputer jak jest najszybszy i połaczyć z drugim takim samym.
                            Taki rozwój to nie ma nic wspólnego z prawem Moore dla mnie.
                            Ci innego jak miałeś na 1cm^2 miliard tranzystorów a za rok wcisnąłeś 2 m,iliardy.
                            Albo miałeś miliard taktowany 1GHz a po roku masz miliard taktowany 2GHz - o to jest rozwój, a nie łączenie tych samych procesorów tylko coraz większej ich ilosci w superkomputery

                            > Masz rację, że chodzi o powiększanie liczby rdzeni. Tyle że jednocześnie trzeba
                            > zmniejszać pobór mocy tych rdzeni - i to następuje w sposób wykładniczy.
                            > 1cm^2 procesora to naprawdę nie jest żaden istotny koszt. Istotne jest to, ile
                            > możesz zrobić na każdym 1W mocy.

                            Ok, tu jest większy postęp, choć też nie taki jak zakładano.
                            Bo proces technologiczny w 9 lat zejdzie z 65nm na 14nm - czyli ponad 20 razy więcej tranzystorów na jednostkę powierzchni ale współczynnik moc obliczeniowa/pobór energii nie wzrósł o 20 razy, tylko o jakieś 3 moze 4 razy.
                            • fidziaczek Re: prawo Moore'a? 09.06.15, 18:28
                              > Pamiętam jak się bawiłem komputerem z procesorem 0,01GHZ

                              znaczy 0,1GHz
                            • asteroida2 Re: prawo Moore'a? 10.06.15, 11:18
                              > 20 lat temu tez było 10 przeciwników, nie przeszkadzało to w przyśpieszaniu
                              > procesorów.

                              Bo 20 lat temu procesory liczyły też grafikę. Przecież już o tym rozmawialiśmy.

                              > Zresztą procesory w odróżnieniu od kart graficznych są nie tylko do grania. Konkurencja
                              > między AMD i Intelem powodowała szybki rozwój, a obecnie od 9 mamy żółwie tempo.

                              Rozwój dalej jest szybki, tylko ludzie nie chcą płacić za większą moc obliczeniową w procesorach. Więc zamiast robić coraz szybsze procesory, Intel i AMD robią je coraz mniejsze i używające mniej energii. Moc obliczeniowa zostaje podobna, tylko kiedyś taki procesor wymagał komputera stacjonarnego, potem laptopa, a teraz komórki.

                              > Minęło 9 kolejnych lat....a taktowanie w tym samym punkcie i nie dlatego że nie chcieli
                              > więcej - chcieli, ale się nie dało

                              Tak, bo zegara bardziej przyspieszyć się nie da. O tym też już rozmawialiśmy.

                              > Ale wygląda mniej realistycznie niż obraz w TV przy rozdzielczsci 640x480.
                              > Jaki wniosek?

                              Wniosek jest taki, że rzeczywistość jest bardziej realistyczna niż symulacja, niezależnie od tego w jakiej rozdzielczości ją pokazujesz.
                              Jeśli nagrasz kamerą drzewo na wietrze, to każdy liść tego drzewa będzie drgał niezależnie, każdy będzie wyginał się niezależnie, cienie każdego liścia będą padały na liście pod nim, a światło odbite od liści i kory będzie oświetlało inne liście. To jest za dużo modelowania dla jakiegokolwiek komputera. I dlatego gry korzystają z uproszczonych modeli, które oczywiście są mniej realistyczne. Rozdzielczość nie ma tu nic do rzeczy.

                              > No jest, ale Ty jako ktoś kto logicznie do sprawy podejdzie nie uznasz że z tym
                              > i rozdzielczościami mam rację?

                              Nie, bo twoje podejście "to słabo wygląda, należałoby popracować nad czymś innym", świadczy tylko o tym, że mało się tym tematem interesujesz. Nad "czymś innym" ludzie pracują cały czas. Gry robią się coraz bardziej realistyczne, niezależnie od zmian rozdzielczości. Ale do rzeczywistości im wciąż bardzo daleko. I to jest oczywiste.

                              > Intel idzie w moc bo mu depcze po piętach AMD, jeśli go dogoni przychody Intela
                              > spadną.

                              Nie. Intel nie idzie w moc.

                              > > Nie, nie moglibyśmy. Głównym ograniczeniem dla mocy obliczeniowej
                              > > superkomputerów jest zużycie energii.
                              >
                              > A niby jaki to jest limit? Przeciez można zwiększac tą moc bez limitów

                              To jest o wiele ważniejszy limit niż wielkość. Jaki problem jest zrobić procesor o 100x większej powierzchni?

                              Tak naprawdę zmniejszanie rozmiaru ścieżek robi się głównie dlatego, że dzięki temu prąd pokonuje krótszą drogę, a więc rozprasza mniej energii.

                              > Czyli moglibyśmy, w czym widzisz problem? :)
                              > Niech superkomputer zużywa tyle energii co piec hutniczy - przecież nie ma jakichś
                              > limitów na to ile ma zużywać.

                              Nie wiesz o jakich liczbach mowa. Superkomputery już teraz zużywają tyle energii co piece hutnicze. Największy superkomputer Tianhe-2 zużywa 24 megawaty mocy. Gdyby był 10 tysięcy razy bardziej energochłonny, zużywałby 240 GW - czyli więcej niż cała Polska.

                              > Bo proces technologiczny w 9 lat zejdzie z 65nm na 14nm - czyli ponad 20 razy w
                              > ięcej tranzystorów na jednostkę powierzchni ale współczynnik moc obliczeniowa/p
                              > obór energii nie wzrósł o 20 razy, tylko o jakieś 3 moze 4 razy.

                              A po co ci więcej tranzystorów na jednostkę powierzchni? Bo co ci to tak naprawdę daje? Czy nie lepiej byłoby zrobić ten procesor po prostu większy? Dopóki mieści się pod stołem, jakie znaczenie ma jego wielkość?
                              • fidziaczek Re: prawo Moore'a? 10.06.15, 12:11
                                > Rozwój dalej jest szybki, tylko ludzie nie chcą płacić za większą moc obliczeni
                                > ową w procesorach. Więc zamiast robić coraz szybsze procesory, Intel i AMD robi
                                > ą je coraz mniejsze i używające mniej energii.

                                Stop!
                                AMD ciągle się stara dogonić Intela wydajnością i nie daje rady, a stara się bo traci udziały w rynku coraz bardziej przez to że ich procesory sa mniej wydajne.
                                Obie firmy cały czas starają się podnosić wydajnosc tylko nowe generacje procesorów zwiekszają ją może o 5% a w roku 2006 intel skokowo podniósł wydajnośc o ponad 100% porównujac Pentium IV z core2duo - zegar w zegar.
                                Zużycie energii maleje dzieki temu że mamy coraz niższy proces, ale jak już mówiłem zużycie spada nieproporcjonalnie słabo w porównaniu wymiarami.

                                > Wniosek jest taki, że rzeczywistość jest bardziej realistyczna niż symulacja, n
                                > iezależnie od tego w jakiej rozdzielczości ją pokazujesz.
                                > Jeśli nagrasz kamerą drzewo na wietrze, to każdy liść tego drzewa będzie drgał
                                > niezależnie, każdy będzie wyginał się niezależnie, cienie każdego liścia będą p
                                > adały na liście pod nim, a światło odbite od liści i kory będzie oświetlało inn
                                > e liście. To jest za dużo modelowania dla jakiegokolwiek komputera.

                                Za dużo w rodzielczości 640x480?
                                To tylko ponad 300tys pixeli.
                                Dziś ida już w rozdzielczość Full Aperture 4K 4096 × 3112 co daje ponad 12 milionów pixeli czyli 36 razy więcej punkcików do obliczenia i narysowania.
                                I dalej nie jesteśmy przy takiej szczegółowości oszukać oka.

                                > I dlatego g
                                > ry korzystają z uproszczonych modeli, które oczywiście są mniej realistyczne. R
                                > ozdzielczość nie ma tu nic do rzeczy.

                                Ma, im niższa tym liczenie wymaga mniejszej mocy obliczeniowej.
                                Wystarczy sobie wziac test jakiejś kart i zobaczyć ile klatek na sekundę jest w stanie wyświetlić przy niskiej rozdzielczości a ile przy wysokiej.
                                To taka moda i fetysz podążanie w coraz wyższe rozdzielczości.
                                Kiedyś Intel miał fetysz taktownaia procesora i jego procesory znacznie szybciej taktowane były znacznie wolniejsze od procesorów AMD
                                Dziś takim fetyszem sa coraz większe rozdzielczości które pozerają coraz większą moc kart graficznych, a efekt jest taki że czy fullHD czy 4k to gra wygląda praktycznie tak samo, tyle że można się w tym drugim przypadku pochwalić wieksza rozdzielczością

                                > Nie. Intel nie idzie w moc.

                                No jak możesz tak mówić :)
                                Dla mnie to herezja. :D
                                Robią co mogą by przyśpieszyć procesory tylko nie sa w stanie zaprojektować nic lepszego niż ta architektura zaprojektowana w haifa development center.
                                Intel miał robić procesory na 10GHz projektowane przez amrykański ośrodek w Santa Clara ale okazłao się ze kilku izraelczyków w innym ośrodku projektujących mobilne procesory zrobiło takie cudeńko że trzeba zminić plany.
                                Do dziś nikt nie umie zaprojektować lepszej architektury, ani spece od Intela ani od AMD które przez to straciło rynek.
                                Gdyby tylko ktoś potrafił to zrobić na pewno by z tego skorzystał i przejął rynek procesorów

                                > To jest o wiele ważniejszy limit niż wielkość. Jaki problem jest zrobić proceso
                                > r o 100x większej powierzchni?

                                Ogromny, procesory wycina się z wafli, krzemowych, takich okrągłych ciastek około 300mm.
                                pclab.pl/art35727-2.html
                                Procesor jest kwadratowy czy tam prostokątny a wafel okragły więc im wiekszy procesor tym więcej wafla idzie na smietnik. W dodatku uzysk z takiego wafla nie jest 100% a często bardzo dużo mniejszy bo na wfalu sa błędy.
                                Jeśli chcesz 100 razy wiekszy procesor to wycinano by pojedenczy kilka procesorów i zaden by nie działał bo na waflu zdarzają się błedy przez co połowa procesorów odpada, a tu po prostu ten jeden procesor miałby w jakimś miejscu błąd i nie działby prawidłowo

                                > A po co ci więcej tranzystorów na jednostkę powierzchni? Bo co ci to tak napraw
                                > dę daje? Czy nie lepiej byłoby zrobić ten procesor po prostu większy? Dopóki mi
                                > eści się pod stołem, jakie znaczenie ma jego wielkość?

                                Dochodzi jeszcze kwestia chłodzenia takiego procesora.
                                Im większy tym wiekszy z tym kłopot. Właśnie najszybsze rdzenie graficzne (dla pasjonatów więc cena może być bardzo wysoka) produkuje sie duże (na małym uzysku z wafla) i potrafią one brac 300W i przez to czasem je trzeba chłodzić już wodą. Odebranie 300W z tak małej powierzchni to kłopot, jesli powierzchnia będzie jeszcze większa to będzie jeszcze więcej mocy i coraz trudniej ją odebrac szybko i dokładnie z całej powierzchni by nie przegrzać układu.

                                Łatwiej jest robić małe procesory (takie co wydzielaja po 30W i je można chłodzić wiatraczkiem albo pasywnie) a przy okazji miec wiekszy uzysk z wafla bo na mniejszej powierzchni mniejsza szansa na bład

                                > Nie wiesz o jakich liczbach mowa. Superkomputery już teraz zużywają tyle energi
                                > i co piece hutnicze. Największy superkomputer Tianhe-2 zużywa 24 megawaty mocy.
                                > Gdyby był 10 tysięcy razy bardziej energochłonny, zużywałby 240 GW - czyli wię
                                > cej niż cała Polska.

                                No ok, ale co za problem postawić obok siebie dwa tianhe-2 nazwac Tianhe-4 i niech sobie pobierają 48megawatów mocy.
                                Już będziemy mieli dwa razy szybszy komputer


                                • asteroida2 Re: prawo Moore'a? 10.06.15, 13:23
                                  > > To jest za dużo modelowania dla jakiegokolwiek komputera.
                                  >
                                  > Za dużo w rodzielczości 640x480?
                                  > To tylko ponad 300tys pixeli.
                                  > Dziś ida już w rozdzielczość Full Aperture 4K 4096 × 3112 co daje ponad 12 milionów
                                  > pixeli czyli 36 razy więcej punkcików do obliczenia i narysowania.
                                  > I dalej nie jesteśmy przy takiej szczegółowości oszukać oka.

                                  Mam takie pytanie: chcesz się czegoś dowiedzieć na temat grafiki komputerowej, czy nie?

                                  Bo jeśli nie, to rzeczywiście rozmowa nie ma sensu. W moim poprzednim poście wyjaśniłem na czym polega problem i dlaczego jest niezależny od rozdzielczości. Możesz się teraz nad tym zastanowić, albo dalej myśleć że rozdzielczość jest najważniejsza i tkwić w błędzie.

                                  Zdajesz sobie sprawę, że obrazy w wyższej rozdzielczości niekoniecznie wyglądają bardziej realistycznie. Zdajesz sobie sprawę, że ludzie korzystają z benchmarków które tylko porównują ilość klatek przy różnej rozdzielczości. Dodaj dwa do dwóch.

                                  > > Nie. Intel nie idzie w moc.
                                  > No jak możesz tak mówić :)
                                  > Dla mnie to herezja. :D
                                  > (...)
                                  > Gdyby tylko ktoś potrafił to zrobić na pewno by z tego skorzystał i przejął rynek
                                  > procesorów

                                  Znów - pomyśl chwilę nad tym co już ci napisałem. Procesory POWER produkowane przez IBM mają o wiele większą moc obliczeniową niż procesory Intela. Czemu nie przejęli rynku?
                                  Skoro wiesz że skupiasz się tylko na x86, to wiedz też, że nie daje ci to pełnego obrazu rozwoju informatyki.

                                  > Procesor jest kwadratowy czy tam prostokątny a wafel okragły więc im wiekszy
                                  > procesor tym więcej wafla idzie na smietnik. W dodatku uzysk z takiego wafla nie
                                  > jest 100% a często bardzo dużo mniejszy bo na wfalu sa błędy.

                                  Ano właśnie. Więc teraz już rozumiesz czemu zamiast iść w moc, Intel idzie w coraz mniejsze procesory?
                                  Core 2 Duo E6600 miał powierzchnię kości 143mm2.
                                  Core i3-530 - 81 mm2

                                  > Odebranie 300W z tak małej powierzchni to kłopot, jesli powierzchnia będzie
                                  > jeszcze większa to będzie jeszcze więcej mocy i coraz trudniej ją odebrac szybko
                                  > i dokładnie z całej powierzchni by nie przegrzać układu.

                                  Mylisz skutek ze przyczyną. Grubi ludzie nie dlatego są grubi, że noszą grube spodnie. I karty graficzne nie dlatego mają większą moc, że są większe. Jest na odwrót: żeby zrobić kartę o większej mocy, robi się ją większą, bo wtedy łatwiej ją schłodzić.

                                  > No ok, ale co za problem postawić obok siebie dwa tianhe-2 nazwac Tianhe-4
                                  > i niech sobie pobierają 48megawatów mocy?

                                  Naprawdę, to pytanie jest po prostu głupie.

                                  Co za problem zamiast mieszkania o powierzchni 50 metrów, kupić sobie mieszkanie o powierzchni 100 metrów?
                                  Co za problem zamiast posiadać jeden samochód, kupić sobie dwa?
                                  Co za problem zamiast jeść jeden posiłek dziennie, zjadać dwa?

                                  Jeśli to dla ciebie żaden problem, to od początku istnienia cywilizacji nie było jeszcze żadnego postępu.
                                  • fidziaczek Re: prawo Moore'a? 10.06.15, 13:53
                                    > Bo jeśli nie, to rzeczywiście rozmowa nie ma sensu. W moim poprzednim poście wy
                                    > jaśniłem na czym polega problem i dlaczego jest niezależny od rozdzielczości

                                    Przeciez pisze że rozdzielczośc nie jest wazna bo nie poprawia realizmu.
                                    Pisze Ci że lepiej zostac przy 640x480 a zaoszczędzoną przez to moc karty graficznej wykorzystać na jakieś inne efekty które realizm mogą poprawić.
                                    Natomiast rynek gier uznaje rozdzielczośc za wazną i idzie w coraz wyższe rozdzielczości na nią zużywajac moc kart graficznych.
                                    W pierwszej kolejności ustawiają wysoką rozdzielczość a dopiero później jak karta pozwoli włączają jakieś efekty

                                    > Znów - pomyśl chwilę nad tym co już ci napisałem. Procesory POWER produkowane p
                                    > rzez IBM mają o wiele większą moc obliczeniową niż procesory Intela. Czemu nie
                                    > przejęli rynku?

                                    Bo nie potrafią zrobić szybszego niż Intel procesora x86
                                    Gdyby potrafili zrobiliby to i przejęli rynek na wiele miliardów dolarów.
                                    Niestety x86 jest ewolucyjnym bagażem i ciężko się od niego oderwać.

                                    > Skoro wiesz że skupiasz się tylko na x86, to wiedz też, że nie daje ci to pełne
                                    > go obrazu rozwoju informatyki.

                                    Oczywiscie że nie mam takiego obrazu, Ty pewnie masz , ale w zamian nie masz obrazu x86 skoro twierdzisz ze Intel nie idzie w wydajność. :)

                                    > Ano właśnie. Więc teraz już rozumiesz czemu zamiast iść w moc, Intel idzie w co
                                    > raz mniejsze procesory?
                                    > Core 2 Duo E6600 miał powierzchnię kości 143mm2.
                                    > Core i3-530 - 81 mm2

                                    Intel nie umie pójść w moc bo nie potrafi zaprojektowac lepszej architektury niż ta z core2duo.
                                    Nikt nie potrafi do dziś.
                                    Dodalli tylko kontroler pamięci, dodali cache L1 i L2 i droben tam usprawnienia.
                                    Nie moga zrobić nowej architektury więcc tylko zmniejszają wymiar technologiczny i rdzeń maleje.
                                    Co będzie gdy dojdą do wielkości atomów?
                                    Rdzeń przestanie maleć...
                                    Gdyby potrafili zaprojektowaliby lepszy wydajniejszy rdzeń z większa iloscią tranzystorów i znów osiągnęli powierzchnię jak z E6600 a następnie ją zmniejszali w coraz niższym procesie.
                                    Tak się działo wczesniej
                                    Od 9 lat się tak nie dzieje

                                    > Mylisz skutek ze przyczyną. Grubi ludzie nie dlatego są grubi, że noszą grube s
                                    > podnie. I karty graficzne nie dlatego mają większą moc, że są większe. Jest na
                                    > odwrót: żeby zrobić kartę o większej mocy, robi się ją większą, bo wtedy łatwie
                                    > j ją schłodzić.

                                    Ty mówisz o wielkości laminatu :P
                                    Ja mówie o wielkości rdzenia - procesora karty
                                    najnowszy rdzeń AMD to już będzie kolos
                                    pclab.pl/news64115.html
                                    "Ekipa VideoCardz w oparciu o dotychczasowe analizy wylicza, że Fiji może być największym rdzeniem krzemowym, jaki kiedykolwiek stworzyła firma AMD, z powierzchnią od około 525 do nawet 600 mm2."
                                    Ten rdzeń będzie miał dużą moc bo jest duży i dzięki temu upcha się w nim bardzo wiele tranzystorów
                                    Chyba nie uważasz ze będzie tak duży po to by go można było lepiej chłodzić? :)

                                    Przypomnę że AMD tez jest na rynku procesorów x86 ale tam nie robi tak dużych rdzeni, bo nie umie zaprojektować architektury takiej która by tej wielkości potrzebowłaa a przy okazji wyprzedziła Intela

                                    > > No ok, ale co za problem postawić obok siebie dwa tianhe-2 nazwac Tianhe-
                                    > 4
                                    > > i niech sobie pobierają 48megawatów mocy?
                                    >
                                    > Naprawdę, to pytanie jest po prostu głupie.

                                    NIe jest, bo tak się robi superkomputery :)
                                    Po prostu zawierają coraz więcej połaczonych ze sobą procesorów.
                                    "Składa się ze 125 szaf, w każdej po 64 płyty zawierające po 2 węzły. Daje to w sumie 16 000 węzłów. Każdy węzeł zawiera 2 procesory Intel Xeon E5-2692 2,2 GHz i 3 koprocesory Xeon Phi oraz 88 GB RAM. Każdy procesor Ivy Bridge zawiera 12 rdzeni obliczeniowych, a każdy koprocesor 57 rdzeni. Daje to w sumie 3 120 000 rdzeni."
                                    Wiec jak złożysz 4mln takich rdzeni albo 6milionów rdzeni to otrzymasz większy superkomputer.
                                    Nawet jeśli wiec rozwój procesorów sie zatrzyma będzie mozna skałdac coraz wieksze superkomputery, tylko czy o taki wzrost wydajnosci chodziło w prawie Moore?

                                    > Co za problem zamiast mieszkania o powierzchni 50 metrów, kupić sobie mieszkani
                                    > e o powierzchni 100 metrów?
                                    > Co za problem zamiast posiadać jeden samochód, kupić sobie dwa?
                                    > Co za problem zamiast jeść jeden posiłek dziennie, zjadać dwa?
                                    >
                                    > Jeśli to dla ciebie żaden problem, to od początku istnienia cywilizacji nie był
                                    > o jeszcze żadnego postępu.

                                    To jest problem finansowy, ale myślałem że mówimy o rozwwoju procesorów i prawie Moore a nie o gospodarce i finnasach :)


                                    • asteroida2 Re: prawo Moore'a? 10.06.15, 14:46
                                      > Przeciez pisze że rozdzielczośc nie jest wazna bo nie poprawia realizmu.
                                      > Pisze Ci że lepiej zostac przy 640x480 a zaoszczędzoną przez to moc karty graficznej
                                      > wykorzystać na jakieś inne efekty które realizm mogą poprawić.

                                      I tu właśnie się mylisz. Rozdzielczość poprawia realizm - co do tego nie ma wątpliwości.
                                      Istnieje też mnóstwo innych metod poprawiania realizmu, tylko że są bardziej kosztowne obliczeniowo. Na przykład takie:
                                      pl.wikipedia.org/wiki/Photon_mapping
                                      Zwiększanie rozdzielczości jest po prostu łatwiejsze. Gdybyś obniżył rozdzielczość i poświęcił tę samą moc obliczeniową na jakieś inne techniki, to efekt byłby gorszy. Bo rozdzielczość byłaby mniejsza, a zysk na realizmie niezauważalny.

                                      > Bo nie potrafią zrobić szybszego niż Intel procesora x86
                                      > Gdyby potrafili zrobiliby to i przejęli rynek na wiele miliardów dolarów.

                                      I znów się mylisz. Potrafią. Ale sama szybkość nie wystarczy. Mogą zrobić procesor i 12 rdzeniach i 96 rdzeniach wirtualnych, tylko że to nic nie da. Znaczna większość programów, które uruchamiasz na swoim komputerze, tego nie wykorzysta. Więc procesor będzie zużywał więcej energii, a zysku na wydajności nie będzie.

                                      > Nie moga zrobić nowej architektury więcc tylko zmniejszają wymiar technologiczny
                                      > i rdzeń maleje.

                                      Przecież wcześniej też nie "robili nowej architektury", tylko zmniejszali wymiar i przyspieszali zegar. Cały zysk mocy obliczeniowej brał się z tego, że sygnał propaguje się szybciej, więc można szybciej liczyć.
                                      Architektura procesora zmieniała się wtedy jeszcze wolniej niż teraz. Teraz przynajmniej dochodzą nowe rdzenie.

                                      > Ten rdzeń będzie miał dużą moc bo jest duży i dzięki temu upcha się w nim bardzo
                                      > wiele tranzystorów

                                      Mylisz pojęcia. Rdzeń będzie miał bardzo małą moc i będzie bardzo mały. Tylko na karcie będzie tych rdzeni coraz więcej. AMD Fiji ma mieć 4096 rdzeni.

                                      > > > i niech sobie pobierają 48megawatów mocy?
                                      > >
                                      > > Naprawdę, to pytanie jest po prostu głupie.
                                      >
                                      > NIe jest, bo tak się robi superkomputery :)

                                      Jest głupie, bo się nad nim nie zastanowiłeś. Dlaczego superkomputery są tak duże, a nie 100 razy większe? Bo ktoś za nie musi zapłacić. Więc ekonomia jest tu podstawowym wyznacznikiem.

                                      > To jest problem finansowy, ale myślałem że mówimy o rozwwoju procesorów i prawie
                                      > Moore a nie o gospodarce i finnasach :)

                                      Przecież prawo Moore'a wynika właśnie z ekonomii. Nie ma sensu rozmawiać o nim w oderwaniu od finansów.
                                      Prawo Moore nie zależy od wynalazków technologicznych. Wynalazki są czymś losowym i gdyby to one decydowały o rozwoju komputerów, to mielibyśmy gwałtowne przełomy w losowych odstępach czasu. Zamiast tego mamy stały i przewidywalny wzrost. Warto się nad tym zastanowić.

                                      Intel zawsze ma gotowe projekty procesorów, które będzie sprzedawać za 10 lat. Tylko że nie wprowadza ich do produkcji, bo to się po prostu nie opłaca. Myślisz że czemu robił procesory w technologii 65 nm, potem 45 nm, potem 32nm a potem 22 nm? Czemu nie przeskoczył od 65 nm od razu do 22 nm?
                                      Każda nowa linia procesorów jest droższa, więc nie ma sensu jej produkować dopóki da się sprzedać starą. Na rynek musisz wprowadzać procesory tylko o tyle lepsze od poprzednich, żeby ludzie chcieli wymienić stare komputery na nowe. Nie ma sensu wyrywać się przed szereg.
                                      • maksimum Re: prawo Moore'a? 10.06.15, 16:39
                                        asteroida2 napisał:

                                        > Na rynek musisz wprowadzać procesory tylko o tyle lep
                                        > sze od poprzednich, żeby ludzie chcieli wymienić stare komputery na nowe. Nie m
                                        > a sensu wyrywać się przed szereg.

                                        To mialo troche sensu,gdy komputer byl nowoscia i miales do czynienia z amatorami,bo teraz ludzie kupuja i wymieniaja tylko to co im potrzebne.
                                      • europitek Re: prawo Moore'a? 10.06.15, 17:44
                                        asteroida2 napisał:
                                        > I tu właśnie się mylisz. Rozdzielczość poprawia realizm - co do
                                        > tego nie ma wątpliwości.

                                        Tylko w pewnych granicach. Tu jest analogia do głębi kolorów, które przy 24 bitach osiągają liczbę odcieni przekraczającą możliwości naszej percepcji. Kolory 32-bitowe nie oferują większej ilości odcieni i są stosowane ze względu na większa wydajność obróbki dzięki dodatkowym bitom.

                                        Użyteczność wysokich rozdzielczości jest związana z wielkością ekranu, na którym jest wyświetlany obraz. To z kolei ma związek z naszymi możliwościami rozpoznawania detali. Moim zdaniem, realizm zawdziecza znacznie więcej specyficznym funkcjom przetwarzania obrazu pozwalającym pokazywać różne efekty naturalne, logice powiązań i wielkości dostępnych zasobów.

                                        > Zwiększanie rozdzielczości jest po prostu łatwiejsze.

                                        Dla producenta sprzętu i aplikacji bez wątpienia. Zwłaszcza od czasu pjawienia się pamięci DDR jakieś 15 lat temu i późniejszego spadku ich cen.

                                        > Gdybyś obniżył rozdzielczość i poświęcił tę samą moc obliczeniową
                                        > na jakieś inne techniki, to efekt byłby gorszy. Bo rozdzielczość
                                        > byłaby mniejsza, a zysk na realizmie niezauważalny.

                                        To można łatwo sprawdzić w praktyce na starszych grach, które obsługiwały karty graficzne o róznych poziomie zaawansowania. Można odpalić grę na GeForce2 a 1280x1076, a następnie na GeForce3 i 1024x768 z włączonymi shaderami. Od razu widać, że "inna technika" przy gorszej rozdzielczości oferuje możliwości o niebo ważniejsze dla realizmu obrazu.
                                        • fidziaczek Re: prawo Moore'a? 10.06.15, 18:48
                                          > To można łatwo sprawdzić w praktyce na starszych grach, które obsługiwały karty
                                          > graficzne o róznych poziomie zaawansowania. Można odpalić grę na GeForce2 a 12
                                          > 80x1076, a następnie na GeForce3 i 1024x768 z włączonymi shaderami. Od razu wid
                                          > ać, że "inna technika" przy gorszej rozdzielczości oferuje możliwości o niebo w
                                          > ażniejsze dla realizmu obrazu.

                                          Dokładnie, rozdzielczośc jest najmniej ważna.
                                          ciągle się powtarzam, ale skoro 640x480 w starym TV daje obraz rzeczywisty to w teorii nie powinno być problemów by stworzyć taki sam obraz za pomocą karty graficznej.
                                          Skoro więc wystarcza tyle pikseli do odwzorowania rzeczywistości czemu oni ida w jakieś 4K zamiast dopracowac te 640 na 480 tak by było realne jak w TV?
                                          • asteroida2 Re: prawo Moore'a? 10.06.15, 20:33
                                            > Dokładnie, rozdzielczośc jest najmniej ważna.
                                            > ciągle się powtarzam, ale skoro 640x480 w starym TV daje obraz rzeczywisty to w
                                            > teorii nie powinno być problemów by stworzyć taki sam obraz za pomocą karty graficznej.

                                            No właśnie. Czemu ciągle się powtarzasz, zamiast pomyśleć chwilę? W ten sposób nie przedstawiasz się najlepiej.

                                            Realizm obrazu zależy od ilości elementów które uwzględniasz. Jeśli chcesz pokazać drzewo na ekranie, to nie wystarczy że dla każdego piksela policzysz czy na drodze promienia jest liść czy nie. Dla każdego z tych liści musisz jeszcze policzyć jaki pokazać kolor. A to zależy od tego pod jakim kątem jest ten list do światła i jakie światło trafia na ten liść z okolicznych źródeł i odbić. Więc musisz uwzględnić w modelu obiekty, które nie są widoczne bezpośrednio. Tak naprawdę każdy obiekt, na który pada światło, odbija to światło w kierunku wszystkich innych obiektów. Rzeczywistość uwzględnia wszystkie te odbicia. Komputer może uwzględnić tylko część, więc obraz nie wygląda tak jak rzeczywistość. I to niezależnie od rozdzielczości.

                                            Rozumiesz już, czy dalej będziesz "się powtarzał"?
                                            • fidziaczek Re: prawo Moore'a? 10.06.15, 21:14
                                              > musisz uwzględnić w modelu obiekty, które nie są widoczne bezpośrednio. Tak nap
                                              > rawdę każdy obiekt, na który pada światło, odbija to światło w kierunku wszystk
                                              > ich innych obiektów. Rzeczywistość uwzględnia wszystkie te odbicia. Komputer mo
                                              > że uwzględnić tylko część, więc obraz nie wygląda tak jak rzeczywistość. I to n
                                              > iezależnie od rozdzielczości

                                              A niby dlaczego komputer może uwzględnić tylko część, a bo próbuje policzyć jak wygląda każdy pixel z 12 milionów obecnych na ekranie w 4K
                                              No to jak jest zajęty liczeniem 12 milionów to nie ma czasu na uwzględnienie wielu odbić.
                                              To może lepiej te kwadraty pogrupować w wieksze (o wymiarach 4x4) i próbować policzyć dokładniej jaką barwę powinnien każdy z nich mieć?
                                              16 razy mniej pixeli do policzenia to można się bardziej skupić na precyzji wyniku dla każdego pixela, można wtedy próbować lepiej uwzględnić odbicia. Niby obraz będzie bardziej ziarnisty bo w mniejszej rozdzielczosci ale dzięki lepszemu dobraniu odcienia dla każdego z takich dużych pixeli uzyskamy obraz bardziej realny tak jak w starych TV.

                                              To o czym pisze to oczywiście teoria i nie wiem jakby się to sprawdziło. Tylko nikt nie mówi że gdyby tak było lepiej to tak by zrobiono :)
                                              To tak nie działa, to jak bezmyślna ewolucja - Intel chciał iść w gigaherce i popełnił bład.
                                              Tak samo błedem może byc pogoń za rozdzielczościami zamiast pogoni za dokładnym dobraniem odcienia ale za to mniejszej ilosci odcieni. Po prostu kiedyś potrzebowano zwiększyć rozdzielczości i w pewnym momencie przestało byc to konieczne, ale maszyna ruszyła i rozwój grafiki poszedł siła rozpędu w rozdzielczości tak jak kiedyś intel siła rozpędu poszedł w gigaherce. Intel na nich się rozbił i musiał zmienić kierunek.
                                              Myślałem że grafika się rozbije na FullHD, że to będzie ściana, a oni sobie wymyślili 2K, 3K i 4k czego praktycznie nikt od Full HD nie odróżni no ale cyferkami się można pochwalić tak jak intel chciał sie chwalić gigahercami.
                                              A teraz zasiądźmy w fotelach i poczekajmy na rozdzielczosci 5K i marketingowców co nam wytłumacza jak bardzo nam ta rozdzielczośc jest potrzebna :)
                                              • asteroida2 Re: prawo Moore'a? 11.06.15, 09:57
                                                > To o czym pisze to oczywiście teoria i nie wiem jakby się to sprawdziło. Tylko
                                                > nikt nie mówi że gdyby tak było lepiej to tak by zrobiono :)

                                                Ja to mówię: gdyby tak było lepiej, to by tak zrobiono.

                                                Naprawdę nie odkrywasz tutaj Ameryki. Graficy komputerowi wymyślają co roku nowe rozwiązania które umożliwiają uzyskanie bardziej realistycznych efektów przy mniejszej mocy obliczeniowej.
                                                To czego ty nie rozumiesz, to że żeby zrobić "bardziej realistyczny" liść, to nie wystarczy pogrupować po 4x4 i mieć 16 razy więcej mocy obliczeniowej. Żeby dostać zauważalny efekt, czasem trzeba by mieć setki tysięcy razy więcej mocy obliczeniowej.
                                                • fidziaczek Re: prawo Moore'a? 11.06.15, 10:48
                                                  "Wystarczy" lepiej dobrać kolor jaki ma mieć pixel. Tylko tyle i aż tyle.
                                                  Natomiast dzisiejsza metoda to głównie taka że podzielmy 1 pixel na 4 mniejsze pixele i dzięki temu liść ma lepiej wyglądać.
                                                  Bardziej liczy się odcień pixeli niż ich ilość i stare telewizory sa na to dowodem, ale ok, już się nie wypowiadam bo nie wiem czy ta inna opcja poprawiania realności obrazu była do wykonania

                                                  • asteroida2 Re: prawo Moore'a? 11.06.15, 10:56
                                                    > "Wystarczy" lepiej dobrać kolor jaki ma mieć pixel. Tylko tyle i aż tyle.

                                                    A żeby wygrać w Lotto "wystarczy" skreślić odpowiednie numery. Tylko tyle i aż tyle.
                                                    Dobranie odpowiedniego koloru dla pixela może być o wiele trudniejsze, niż ci się wydaje.

                                                    > Natomiast dzisiejsza metoda to głównie taka że podzielmy 1 pixel na 4 mniejsze
                                                    > pixele i dzięki temu liść ma lepiej wyglądać.

                                                    To nieprawda. Oprócz tego jest też robione wiele innych ulepszeń. Wyświetl sobie na Youtube Wiedźmina 1 i 3 w tej samej rozdzielczości, to zobaczysz różnicę.
                                                  • fidziaczek Re: prawo Moore'a? 11.06.15, 11:06
                                                    > > "Wystarczy" lepiej dobrać kolor jaki ma mieć pixel. Tylko tyle i aż tyle.
                                                    >
                                                    > A żeby wygrać w Lotto "wystarczy" skreślić odpowiednie numery. Tylko tyle i aż
                                                    > tyle.
                                                    > Dobranie odpowiedniego koloru dla pixela może być o wiele trudniejsze, niż ci s
                                                    > ię wydaje.

                                                    Właśnie dlatego wziąłem słowo wystarczy w cudzysłów

                                                    > To nieprawda. Oprócz tego jest też robione wiele innych ulepszeń. Wyświetl sobi
                                                    > e na Youtube Wiedźmina 1 i 3 w tej samej rozdzielczości, to zobaczysz różnicę.

                                                    Oczywiscie że jest sporo ulepszeń, AA , AF, HDR, teraz Hairworks, ale to ciągle o wiele za mało.
                                                    Ta poprawa o której mówisz bierze się głównie z większych bardziej szczegółowych tekstur. Wielkość dostępnej pamięci rośnie bardzo szybko więc można robić bardziej szczegółowe tekstury i choć tak wykorzystywac tą rozdzielczość. Natomiast obraz nie jest tak naturalny jak mógłby być bo wciąż za mało tych dodatkowych efektów.
                                                    Rozdzielczości już od dawna jest dość
                                                  • asteroida2 Re: prawo Moore'a? 11.06.15, 11:31
                                                    > Oczywiscie że jest sporo ulepszeń, AA , AF, HDR, teraz Hairworks, ale to ciągle
                                                    > o wiele za mało.

                                                    To oczywiste. I będą nowe ulepszenia, ale będą wymagać większej mocy obliczeniowej.

                                                    Pomyśl o tym tak: w słoneczny dzień do twojego oka wpada 10^17 fotonów w każdej sekundzie. Każdy z nich wpada pod trochę innym kątem, odbity od innych przedmiotów.
                                                    To jest rzeczywistość.
                                                    Kamera po prostu zbiera te fotony, uśrednia i pokazuje je. Obraz jest dzięki temu bardzo podobny do tego co zobaczyłbyś, gdybyś oglądał obraz bezpośrednio.

                                                    Ale co ma zrobić komputer? Żeby odtworzyć rzeczywistość, musiałby w każdej sekundzie wykonać co najmniej 10^17 operacji, żeby policzyć jakie fotony wpadną do twojego oka. A jest w stanie wykonać jedną milionową tego. To oczywiste że nie zbliży się nawet do rzeczywistości. Pokaże olbrzymie uproszczenie, które czasem będzie wystarczające, ale zwykle nie będzie.

                                                    > Rozdzielczości już od dawna jest dość

                                                    To zależy jak dobry masz wzrok. Większość ludzi widzi różnice między 4K a 1K. Jeśli ty nie widzisz (na ekranie który wyświetla 4K), to znaczy że masz wzrok poniżej przeciętnego.
                                                  • fidziaczek Re: prawo Moore'a? 11.06.15, 11:51
                                                    Dla mnie FullHD daje wrażenie większej ostrości niż rzeczywistość, patrzę w TV, patrzę za okno i to co w TV jest jakby ostrzejsze - nie tylko ja odnoszę takie wrażenie.
                                                    Więc nie wnikam na ile jestem w stanie zauwazyć róznicę między 4K a choćby FullHD. Ewentualny zysk w jakosci obrazu jest minimalny a obliczeń trzeba dołożyć kilkakrotnie więcej.
                                                    Wolałbym zostac w FullHD (albo niżej i zając się tylko efektami bo one mogą przynieść większy efekt

                                                    > Ale co ma zrobić komputer? Żeby odtworzyć rzeczywistość, musiałby w każdej seku
                                                    > ndzie wykonać co najmniej 10^17 operacji, żeby policzyć jakie fotony wpadną do
                                                    > twojego oka. A jest w stanie wykonać jedną milionową tego. To oczywiste że nie
                                                    > zbliży się nawet do rzeczywistości. Pokaże olbrzymie uproszczenie, które czasem
                                                    > będzie wystarczające, ale zwykle nie będzie.

                                                    No i praca nad tym uroszczeniem może przynieśc większy efekt niż kolejne wyższe rozdzielczości, ale wiadomo że marketing robi swoje i marketing wymaga lepszych rozdzielczości bo to sie lepiej sprzeda niż jakiś nieokreślony efekt który cyferkami trudno zareklamować
                                      • fidziaczek Re: prawo Moore'a? 10.06.15, 18:45
                                        > I tu właśnie się mylisz. Rozdzielczość poprawia realizm - co do tego nie ma wąt
                                        > pliwości.

                                        Realizmu w żaden sposób rodzielczość nie poprawi tylko ewentualnie umiejętność jej wykorzystania.
                                        Włącz sobie jaką grę w FullHD a później włacz ją w jakimś tam 3K czy 4K. Realizmu to nie zmieni w żaden sposób.
                                        Jako małolat miałem monitor CRT i na nim mogłem mieć 1280x1024 bez efektów takich jak AA czy AF (karta nie wyrabiała) lub tez 800x600 z efektami. W tym drugim przypadku obraz wyglądał często lepiej choć fakt że zależało to od miejsca w grze i od gry.

                                        > I znów się mylisz. Potrafią. Ale sama szybkość nie wystarczy. Mogą zrobić proce
                                        > sor i 12 rdzeniach i 96 rdzeniach wirtualnych, tylko że to nic nie da.

                                        No mówię o porównywalnym wielkością kawałku krzemu.
                                        Czy tez o wydajności pojedyńczego rdzenia x86 bo to ciągle jeszcze wazniejsze niz ilośc rdzeni.
                                        I taki pojedyńczy rdzeń - jego wydajność to jest właśnie najważniejsza sprawa .
                                        Intel ma przewagę a z drugiej strony sam bardzo słabo się posuwa do przodu.
                                        Intel gdyby się uparł też by posklejał te rdzenie w wieksze klastry, albo wypuścił płyty z miejscem na dwa procesory.

                                        > Przecież wcześniej też nie "robili nowej architektury", tylko zmniejszali wymia
                                        > r i przyspieszali zegar.

                                        Robili
                                        Pentium IV to było zupełnie co innego i miało osiągnąc 10GHz, architektura pod katem wysokich taktowań, później sie okazało że powyżej 4GHz jest bariera cieplna i projekt upadł.

                                        > Mylisz pojęcia. Rdzeń będzie miał bardzo małą moc i będzie bardzo mały. Tylko n
                                        > a karcie będzie tych rdzeni coraz więcej. AMD Fiji ma mieć 4096 rdzeni.

                                        To jest jeden zwarty kawałek krzemu z taką iloscią procesorów strumieniowych i wielu inych jednostek. Po prostu te procki są inaczej zbudowane niż te x86.
                                        Ale to jest jeden rdzeń, wycięty jako jeden kawałek i działający jako całość.
                                        Nie możesz sobie wyciąć takiego procesora strumieniowego zeby działał sam, więc mówienie ze to 4096 rdzeni to nadużycie, bo one same nie są w stanie działać.
                                        A każdy procesor choćby z tego tianhe -2 moze pracowac sam

                                        > Jest głupie, bo się nad nim nie zastanowiłeś. Dlaczego superkomputery są tak du
                                        > że, a nie 100 razy większe? Bo ktoś za nie musi zapłacić. Więc ekonomia jest tu
                                        > podstawowym wyznacznikiem.

                                        Jest kwestia potrzeb i kwestia możliwości.
                                        Kiedyś te superkomputery były tańsze.
                                        A jak dziś chińczycy się uprą to sobie złożą taki tianhe-10 bo ich stać.
                                        Więc teoretycznie nie ma ograniczeń (no chyba ze ograniczeniem jest ilosć procesorów którą moze dostarczyć producent)
                                        Natomiast wydajnośc pojedyńczego rdzenia podlega ograniczenim:
                                        - taktowanie powyżej 5GHz nie wychodzi
                                        - procesem technologicznym poniżej 1nm
                                        I tego nie przeskoczysz sposobem "zapłacę więcej więc kupię więcej procków i bedę miał szybszy superkomputer"

                                        > Przecież prawo Moore'a wynika właśnie z ekonomii. Nie ma sensu rozmawiać o nim
                                        > w oderwaniu od finansów.
                                        > Prawo Moore nie zależy od wynalazków technologicznych. Wynalazki są czymś losow
                                        > ym i gdyby to one decydowały o rozwoju komputerów, to mielibyśmy gwałtowne prze
                                        > łomy w losowych odstępach czasu. Zamiast tego mamy stały i przewidywalny wzrost
                                        > . Warto się nad tym zastanowić.

                                        Ogólnie tak, ale są symptomy że mogą być z tym kłopoty i własnie widac to na podstawie x86
                                        Wzrost wydajnosci w procesorach x86 natrafił na barierę cieplną przy 5GHz i nie umie sobie z nią poradzić.
                                        Inne architektury nie trafiły na ten problem bo inne procki sa po prostu nizej taktowane.
                                        Kolejna barierą jest wielkość atomów i x86 szybko zmierza w kierunku tego kolejnego problemu.

                                        > Intel zawsze ma gotowe projekty procesorów, które będzie sprzedawać za 10 lat.
                                        > Tylko że nie wprowadza ich do produkcji, bo to się po prostu nie opłaca.

                                        Projekty to mogą sobie mieć
                                        Mieli projekt procesora 10GHz w 2008 roku i gdzie on jest?

                                        >Myślisz że czemu robił procesory w technologii 65 nm, potem 45 nm, potem 32nm a potem
                                        > 22 nm? Czemu nie przeskoczył od 65 nm od razu do 22 nm?

                                        No weź - równie dobrze moge zapytać a po co wielokrotny rekordzista świata bił rekordy po trochu a nie od razu zrobił ten ostatni :)

                                        Rynek oczekuje nowości.
                                        Gdyby Intel chciał skoczyć od razu z 65nm do 22nm to nie zrobiłby tego w 2 lata (jak przy przejściu do 45nm) tylko zajęło by mu to dłużej bo to jest trudniejsze.
                                        W tym czasie AMD wypuściłoby procki w architekturze 45nm i zdobyło nad Intelem przewagę podniosło sprzedaż zabierając przychody Intelowi.
                                        Więc Intel jest zmuszony robić małe kroki i robić je tak szybko jak się da po to by zawsze być krok przed konkurencją i zabierac z rynku większy kawałek tortu

                                        > Każda nowa linia procesorów jest droższa, więc nie ma sensu jej produkować dopó
                                        > ki da się sprzedać starą. Na rynek musisz wprowadzać procesory tylko o tyle lep
                                        > sze od poprzednich, żeby ludzie chcieli wymienić stare komputery na nowe. Nie m
                                        > a sensu wyrywać się przed szereg.

                                        Powiedz to bliskiemu bankructwa AMD które od 10 lat nie moze dogonić Intela i przez to ciągle przychody spadają.
                                        Gdyby tylko mogli się wyrwac przed szereg i wypuścić procesory w np 10nm natychmiast by to zrobili bo to oni sprzedawaliby wtedy procesory a procesory Intela w 22nm stały by na półkach.





                                        • asteroida2 Re: prawo Moore'a? 10.06.15, 19:45
                                          > Włącz sobie jaką grę w FullHD a później włacz ją w jakimś tam 3K czy 4K.
                                          > Realizmu to nie zmieni w żaden sposób.

                                          Europitek dobrze to podsumował w swojej wypowiedzi - zależy od ekranu. Prawdopodobnie 4K czy 8K jest już granicą powyżej której nie będzie sensu iść, tak jak nie ma sensu iść powyżej 16 milionów kolorów. Ale zmiana z 640 na 1280 jest wyraźnie odczuwalna dla każdego, kto widzi ostro.

                                          > I taki pojedyńczy rdzeń - jego wydajność to jest właśnie najważniejsza sprawa .

                                          Jeśli dla ciebie pojedynczy rdzeń jest najważniejszy, to rzeczywiście żadnego postępu już się nie spodziewaj. Rdzenie doszły do granicy swoich możliwości. Dalszy postęp jest w zrównoleglaniu obliczeń i zwiększaniu efektywności energetycznej.
                                          Ludzki mózg ma 100 miliardów "rdzeni", z których każdy ciągnie mniej niż 1 nanowat energii. To jest wzór, do którego dążymy.

                                          > Nie możesz sobie wyciąć takiego procesora strumieniowego zeby działał sam, więc
                                          > mówienie ze to 4096 rdzeni to nadużycie, bo one same nie są w stanie działać.

                                          Jak sobie chcesz. Na całym świecie wszyscy mówią na to rdzeń (core). Ty możesz sobie wymyślać własny język, ale nie oczekuj że inni będą wtedy rozumieć co mówisz.

                                          > Jest kwestia potrzeb i kwestia możliwości.
                                          > Kiedyś te superkomputery były tańsze.

                                          Kiedyś budowano nawet droższe superkomputery. Konkretnie takie, dla amerykańskiej armii:
                                          pl.wikipedia.org/wiki/AN/FSQ-7
                                          > A jak dziś chińczycy się uprą to sobie złożą taki tianhe-10 bo ich stać.

                                          Nie. Nie stać ich. Tak naprawdę to doprowadzenie 20 megawatów do jednego budynku, a potem odprowadzenie takiej ilości ciepła, jest już poważnym wyzwaniem.

                                          > Inne architektury nie trafiły na ten problem bo inne procki sa po prostu nizej taktowane.

                                          Znów mylisz skutek z przyczyną. Wszystkie procesory natrafiły na ten problem i dlatego nie ma procesorów wyżej taktowanych. Teraz postęp jest wręcz w obniżaniu taktowania, dzięki czemu można obniżyć napięcie, a to z kolei obniża zużycie energii.

                                          > Więc Intel jest zmuszony robić małe kroki i robić je tak szybko jak się da po to by zawsze
                                          > być krok przed konkurencją i zabierac z rynku większy kawałek tortu

                                          Czyli jednak sam przyznajesz, że jest to kwestia ekonomii, a nie technologii. Nie da się mówić o Prawie Moore'a w oderwaniu od pieniędzy.
                                          • fidziaczek Re: prawo Moore'a? 10.06.15, 21:46
                                            > Ludzki mózg ma 100 miliardów "rdzeni", z których każdy ciągnie mniej niż 1 nano
                                            > wat energii. To jest wzór, do którego dążymy.

                                            No kiedy uważano ze ludzki mózg to 100miliardów tranzystorów :)

                                            > > Nie możesz sobie wyciąć takiego procesora strumieniowego zeby działał sam
                                            > , więc
                                            > > mówienie ze to 4096 rdzeni to nadużycie, bo one same nie są w stanie dzia
                                            > łać.
                                            >
                                            > Jak sobie chcesz. Na całym świecie wszyscy mówią na to rdzeń (core). Ty możesz
                                            > sobie wymyślać własny język, ale nie oczekuj że inni będą wtedy rozumieć co mów
                                            > isz.

                                            Doprawdy na całym?
                                            "AMD Radeon o nazwie kodowej Vesuvius miałby zawierać dwa procesory grafiki Hawaii XT, z 2816 jednostkami cieniującymi, z 176 jednostkami teksturującymi oraz 64 jednostkami ROP na każdy z rdzeni. "
                                            pclab.pl/news55485.html
                                            Czyli akurat w Polsce mówią niektórzy tak jak mówię ja :)

                                            > Nie. Nie stać ich. Tak naprawdę to doprowadzenie 20 megawatów do jednego budynk
                                            > u, a potem odprowadzenie takiej ilości ciepła, jest już poważnym wyzwaniem.

                                            Chyba nic nie wiesz o chińskich rezerwach dewizowych :)

                                            > > Więc Intel jest zmuszony robić małe kroki i robić je tak szybko jak się d
                                            > a po to by zawsze
                                            > > być krok przed konkurencją i zabierac z rynku większy kawałek tortu
                                            >
                                            > Czyli jednak sam przyznajesz, że jest to kwestia ekonomii, a nie technologii. N
                                            > ie da się mówić o Prawie Moore'a w oderwaniu od pieniędzy.

                                            Kwestia ekonomi napędza technologię, w tym przypadku konkurencję między AMD i Intelem.
                                            Mimo tego firmy oferują od dość dawna niewiele więcej niż coraz niższy wymiar technologiczny.
                                            Kiedyś samo zintegrowanie kontrolelera pamięci w procesorze dało 35% skoku wydajności "zegar w zegar"

                                            > Znów mylisz skutek z przyczyną. Wszystkie procesory natrafiły na ten problem i
                                            > dlatego nie ma procesorów wyżej taktowanych. Teraz postęp jest wręcz w obniżani
                                            > u taktowania, dzięki czemu można obniżyć napięcie, a to z kolei obniża zużycie
                                            > energii.

                                            Ta, to daj jakiś link do karty graficznej co był taktowana 4GHz zanim procesory graficzne jak mówisz natrafiły na ten problem :)

                                            > Jeśli dla ciebie pojedynczy rdzeń jest najważniejszy, to rzeczywiście żadnego p
                                            > ostępu już się nie spodziewaj.

                                            No nie wiem, AMD nie umie zrobić tak wydajnego rdzenia jak Intel.
                                            VIA nie umie zrobić tak wydajnego rdzenia jak AMD
                                            może kiedyś Intel nie będzie potrafił zrobić tak wydajnego rdzenia jak xxxx.
                                            Uważasz obecną architekturę x86 za ostateczną jak prędkośc światła?
                                            • asteroida2 Re: prawo Moore'a? 10.06.15, 21:56
                                              > No kiedy uważano ze ludzki mózg to 100miliardów tranzystorów :)

                                              A może zastanów się zanim coś palniesz? Kiedyś uważano że Ziemia jest płaska. I co z tego?

                                              > Czyli akurat w Polsce mówią niektórzy tak jak mówię ja :)

                                              No cóż. Są takimi samymi ignorantami.

                                              > > Nie. Nie stać ich. Tak naprawdę to doprowadzenie 20 megawatów do jednego
                                              > > budynku, a potem odprowadzenie takiej ilości ciepła, jest już poważnym wyzwaniem.
                                              >
                                              > Chyba nic nie wiesz o chińskich rezerwach dewizowych :)

                                              Znów, mogę ci poradzić tylko żebyś zastanowił się, zanim coś palniesz.
                                              Do 2012 roku Chińczycy nie byli w stanie przegonić USA w budowie największego superkomputera. A rezerwy mieli już wcześniej bardzo duże i naprawdę chcieli.

                                              > Ta, to daj jakiś link do karty graficznej co był taktowana 4GHz zanim procesory
                                              > graficzne jak mówisz natrafiły na ten problem :)

                                              Znów - zastanów się zanim coś palniesz. To co napisałeś ma się nijak do tego co ja napisałem.

                                              > Uważasz obecną architekturę x86 za ostateczną jak prędkośc światła?

                                              Nie. Natomiast obecne taktowanie zegarem tak, za ostateczne. W przyszłości będzie tylko wolniej.



                                              • fidziaczek Re: prawo Moore'a? 10.06.15, 22:09
                                                > > No kiedy uważano ze ludzki mózg to 100miliardów tranzystorów :)
                                                >
                                                > A może zastanów się zanim coś palniesz? Kiedyś uważano że Ziemia jest płaska. I
                                                > co z tego?

                                                No pije do tego ktoś kiedyś moze się śmiac z tego porównania mózgu do 100mld rdzeni - tak jak Ty dziś się śmiejesz z tych co myśleli że ziemia płaska

                                                > No cóż. Są takimi samymi ignorantami.

                                                No można tez założyć że Ty jesteś a nie że ja inajbardziej znany portal tego typu :P

                                                > Znów, mogę ci poradzić tylko żebyś zastanowił się, zanim coś palniesz.
                                                > Do 2012 roku Chińczycy nie byli w stanie przegonić USA w budowie największego s
                                                > uperkomputera. A rezerwy mieli już wcześniej bardzo duże i naprawdę chcieli.

                                                Chiny cierpiały przez rózne embarga nie przez brak kasy.
                                                Niektóre restrykcje zniesiono a niektóre nie

                                                > > Ta, to daj jakiś link do karty graficznej co był taktowana 4GHz zanim pro
                                                > cesory
                                                > > graficzne jak mówisz natrafiły na ten problem :)
                                                >
                                                > Znów - zastanów się zanim coś palniesz. To co napisałeś ma się nijak do tego co
                                                > ja napisałem.

                                                Napisałes ze wszystkie procesory natrafiły na ten problem.
                                                Ja twierdzę że na problem trafił Intel ze swoim x86 i teraz już wszyscy problem znają dzięki intelowi.
                                                Wiec nikt inny nie musi na niego trafiać ani sie z nim zmagać

                                                > > Uważasz obecną architekturę x86 za ostateczną jak prędkośc światła?
                                                >
                                                > Nie. Natomiast obecne taktowanie zegarem tak, za ostateczne. W przyszłości będz
                                                > ie tylko wolniej.

                                                No i tu się w pełni zgodzę.
                                                • fidziaczek Re: prawo Moore'a? 10.06.15, 22:13
                                                  narodowcy.net/europa-i-swiat/10979-rzad-usa-zablokowal-sprzedaz-procesorow-intela-do-chin
                                                  • fidziaczek Re: prawo Moore'a? 10.06.15, 22:19
                                                    No i proszę, okazuje się że chińczycy chcieli zrobić dokładnie to o czym mówiłem, Tianhe-2 przemnożyć przez 2 albo i więcej niż 2...
                                                • asteroida2 Re: prawo Moore'a? 11.06.15, 10:10
                                                  > No pije do tego ktoś kiedyś moze się śmiac z tego porównania mózgu do 100mld
                                                  > rdzeni - tak jak Ty dziś się śmiejesz z tych co myśleli że ziemia płaska

                                                  Wiem do czego pijesz i powtarzam: zastanów się zanim coś palniesz.
                                                  Jak masz jakieś merytoryczne argumenty, to je powiedz. Argument "a kiedyś ludzie myśleli X" jest równie bezsensowny w każdej dyskusji. To że kiedyś ludzie się mylili, to znaczy że wszystko co wymyślili później też jest nieprawdziwe? Zastanów się.

                                                  > No można tez założyć że Ty jesteś a nie że ja inajbardziej znany portal tego typu :P

                                                  A można też założyć, że jeśli twoja wiedza bierze się z gazet i portali "gry-online.pl", to nie jest wiedzą specjalistyczną.

                                                  Są różne typy rdzeni. To słowo określa po prostu niezależną jednostkę wykonującą obliczenia. Są rdzenie bardzo złożone, wyposażone w wielopoziomowe cache, pipelining i wielowątkowość. Są też rdzenie proste, bez takich bajerów. Ale brak tych bajerów nie znaczy, że nie są rdzeniami.

                                                  Jeśli uważasz kartę graficzną o 4096 rdzeniach obliczeniowych za "dwurdzeniową", to mam dla ciebie świetną wiadomość: moc obliczeniowa twoich "rdzeni" jest gigantyczna, o całe rzędy wielkości większa niż moc obliczeniowa Core Duo. Bo w każdym cyklu zegara taka karta wykonuje tysiące operacji logicznych.

                                                  > Chiny cierpiały przez rózne embarga nie przez brak kasy.
                                                  > Niektóre restrykcje zniesiono a niektóre nie

                                                  To czemu po zniesieniu embarga nie postawiły sobie od razu 10 razy większego komputera?

                                                  > Napisałes ze wszystkie procesory natrafiły na ten problem.
                                                  > Ja twierdzę że na problem trafił Intel ze swoim x86 i teraz już wszyscy problem
                                                  > znają dzięki intelowi.
                                                  > Wiec nikt inny nie musi na niego trafiać ani sie z nim zmagać

                                                  Intel też nigdy nie "zmagał" się z tym problemem, bo problem był znany na długo wcześniej. Nie znali go tylko dziennikarze popularnych gazet, z których czerpiesz swoją wiedzę o informatyce.
                                                  • fidziaczek Re: prawo Moore'a? 11.06.15, 10:43
                                                    > Wiem do czego pijesz i powtarzam: zastanów się zanim coś palniesz.
                                                    > Jak masz jakieś merytoryczne argumenty, to je powiedz. Argument "a kiedyś ludzi
                                                    > e myśleli X" jest równie bezsensowny w każdej dyskusji. To że kiedyś ludzie się
                                                    > mylili, to znaczy że wszystko co wymyślili później też jest nieprawdziwe? Zast
                                                    > anów się.

                                                    Przeciez to była tylko luźna sugestia ot takie wtrącenie w pogawędce, że to jak dizś widzimy problemy niekoniecznie musi byc właściwie i tyle.
                                                    Po co robić z tego wielką aferę

                                                    > A można też założyć, że jeśli twoja wiedza bierze się z gazet i portali "gry-on
                                                    > line.pl", to nie jest wiedzą specjalistyczną.

                                                    Grasz chyba trochę nieczysto, od wielu postów próbujesz deprecjonować źródła skoro nie możesz deprecjonować argumentów

                                                    > Jeśli uważasz kartę graficzną o 4096 rdzeniach obliczeniowych za "dwurdzeniową"
                                                    > , to mam dla ciebie świetną wiadomość: moc obliczeniowa twoich "rdzeni" jest gi
                                                    > gantyczna, o całe rzędy wielkości większa niż moc obliczeniowa Core Duo. Bo w k
                                                    > ażdym cyklu zegara taka karta wykonuje tysiące operacji logicznych.

                                                    Akurat to wiem, widac na gryonline było.
                                                    Nawet sprecyzuję że róznica cały czas rośnie a obecnie to są jakieś dwa rzędy wielkości

                                                    > > Chiny cierpiały przez rózne embarga nie przez brak kasy.
                                                    > > Niektóre restrykcje zniesiono a niektóre nie
                                                    >
                                                    > To czemu po zniesieniu embarga nie postawiły sobie od razu 10 razy większego ko
                                                    > mputera?

                                                    Z tych samych powodów dla których wpierw procesory były jednordzeniowe a teraz sa wielordzeniowe.
                                                    Myśałem że to już omówiliśmy

                                                    > Intel też nigdy nie "zmagał" się z tym problemem, bo problem był znany na długo
                                                    > wcześniej. Nie znali go tylko dziennikarze popularnych gazet, z których czerpi
                                                    > esz swoją wiedzę o informatyce.

                                                    No przeciez dałem linki... planowali wypuścić procesor Tejas, specjalnie wydłużyli potok wykonawczy by osiągnąć jeszcze wyższe taktowania. Mieli już próbne procesory i dopiero wtedy zrozumieli ze się nie da.

                                                  • asteroida2 Re: prawo Moore'a? 11.06.15, 10:49
                                                    > > Jeśli uważasz kartę graficzną o 4096 rdzeniach obliczeniowych za "dwurdzeniową"
                                                    > > , to mam dla ciebie świetną wiadomość: moc obliczeniowa twoich "rdzeni" jest
                                                    > > gigantyczna, o całe rzędy wielkości większa niż moc obliczeniowa Core Duo.
                                                    > > Bo w każdym cyklu zegara taka karta wykonuje tysiące operacji logicznych.
                                                    >
                                                    > Akurat to wiem, widac na gryonline było.
                                                    > Nawet sprecyzuję że róznica cały czas rośnie a obecnie to są jakieś dwa rzędy wielkości

                                                    No to czemu zacząłeś tę rozmowę od stwierdzenia, że skończył się postęp w informatyce?
                                                  • fidziaczek Re: prawo Moore'a? 11.06.15, 11:02
                                                    "Napisałem że technologia produkcji w krzemie zaczyna dochodzić do fizycznych ograniczeń"
                                                    Fizyczne ograniczenia to wielkość tranzystorów, oraz taktowanie.
                                                    Z czym się nie zgadzasz?
                                                  • asteroida2 Re: prawo Moore'a? 11.06.15, 11:38
                                                    > "Napisałem że technologia produkcji w krzemie zaczyna dochodzić do fizycznych o
                                                    > graniczeń"
                                                    > Fizyczne ograniczenia to wielkość tranzystorów, oraz taktowanie.
                                                    > Z czym się nie zgadzasz?

                                                    Nie zgadzam się z sugestią, że na tym rozwój procesorów się skończy.
                                                    Po prostu teraz kierunkiem rozwoju jest zrównoleglanie obliczeń i zwiększanie efektywności energetycznej. I tu jest jeszcze wiele, wiele do zrobienia.

                                                    Dzisiejsze rdzenie są zoptymalizowane pod sekwencyjne przetwarzanie danych, bo historycznie oprogramowanie było pisane na jeden rdzeń. Dopóki spora część rynku oprogramowania nie zrównolegla obliczeń, Intelowi nie opłaca się ładować za dużo rdzeni w procesory. Dopiero gdy znaczna większość tego, co robisz na komputerze będzie się łatwo zrównoleglać, Intel zacznie wypuszczać procesory mające 100 i 1000 rdzeni. Na razie to po prostu nie ma sensu, bo klienci i tak oglądają benchmarki swoich starych programów i myślą, że nie ma żadnego postępu.
                                                  • fidziaczek Re: prawo Moore'a? 11.06.15, 11:57
                                                    > Nie zgadzam się z sugestią, że na tym rozwój procesorów się skończy.
                                                    > Po prostu teraz kierunkiem rozwoju jest zrównoleglanie obliczeń i zwiększanie e
                                                    > fektywności energetycznej. I tu jest jeszcze wiele, wiele do zrobienia.

                                                    A pewnie że jest, efektywność wbrew rozwojowi kuleje bo nie nadąża za miniaturyzacja. Po prostu tak się ścigaja z tymi nowymi procesami że one nie sątak dopracowane jak powinny być, byle zdążyć przed konkurentem.

                                                    > Dzisiejsze rdzenie są zoptymalizowane pod sekwencyjne przetwarzanie danych, bo
                                                    > historycznie oprogramowanie było pisane na jeden rdzeń

                                                    > Dzisiejsze rdzenie są zoptymalizowane pod sekwencyjne przetwarzanie danych, bo
                                                    > historycznie oprogramowanie było pisane na jeden rdzeń. Dopóki spora część rynk
                                                    > u oprogramowania nie zrównolegla obliczeń, Intelowi nie opłaca się ładować za d
                                                    > użo rdzeni w procesory. Dopiero gdy znaczna większość tego, co robisz na komput
                                                    > erze będzie się łatwo zrównoleglać, Intel zacznie wypuszczać procesory mające 1
                                                    > 00 i 1000 rdzeni. Na razie to po prostu nie ma sensu, bo klienci i tak oglądają
                                                    > benchmarki swoich starych programów i myślą, że nie ma żadnego postępu.

                                                    Nie wszystko da się zrównoleglić, wiec dużo atrakcyjniejsze było budowanie coraz szybszych ale jednordzeniowców, bo one mogą liczyć szybko to co pozwala na równoległośc ale też znacznie szybciej policza to co nie pozwala

                                                    Tak mnie naszło w temacie co jest jednym rdzeniem a co nie jest.
                                                    Rozumiem Twoje stanowisko (nazywanie procesora karty graficznej czterema tysiacami rdzeni) ale zauważ że ten "jeden rdzeń" o którym mówisz teraz tż tak naprawdę zawiera kilka procesorów - jednostek wykonawczych, jednak nikt z tych co w kartach widza wiele rdzeni nie nazywa takiego x86 rdzenia 6 rdzeniowym - a powien jeśli chce być konsekwentny
                                                  • asteroida2 Re: prawo Moore'a? 11.06.15, 12:09
                                                    > Nie wszystko da się zrównoleglić, wiec dużo atrakcyjniejsze było budowanie coraz
                                                    > szybszych ale jednordzeniowców, bo one mogą liczyć szybko to co pozwala na
                                                    > równoległośc ale też znacznie szybciej policza to co nie pozwala

                                                    Rzecz w tym, że czegoś jednowątkowego nie da się już przyspieszyć. Jak sam zauważyłeś, kolejne generacje dają tutaj znikomy zysk, bo dotarliśmy do fizycznej granicy.
                                                    Dlatego trzeba zrównoleglić wszystko. I nieprawdą jest, że się "nie da". Nie ma żadnego problemu informatycznego co do którego wiadomo, że się nie da.

                                                    > Rozumiem Twoje stanowisko (nazywanie procesora karty graficznej czterema tysiac
                                                    > ami rdzeni) ale zauważ że ten "jeden rdzeń" o którym mówisz teraz tż tak napraw
                                                    > dę zawiera kilka procesorów - jednostek wykonawczych, jednak nikt z tych co w k
                                                    > artach widza wiele rdzeni.

                                                    Jeśli słowo "rdzeń" ma być do czegokolwiek użyteczne, to właśnie do określenia stopnia zrównoleglenia. Jeden rdzeń należy utożsamić z największą jednostką obliczeniową, która działa sekwencyjnie. Jeśli coś potrafi wykonywać w jednym cyklu zegara tysiąc niezależnych operacji, to warto to jakoś wyróżnić.
                                                  • fidziaczek Re: prawo Moore'a? 11.06.15, 12:50
                                                    > Jeśli słowo "rdzeń" ma być do czegokolwiek użyteczne, to właśnie do określenia
                                                    > stopnia zrównoleglenia. Jeden rdzeń należy utożsamić z największą jednostką obl
                                                    > iczeniową, która działa sekwencyjnie. Jeśli coś potrafi wykonywać w jednym cykl
                                                    > u zegara tysiąc niezależnych operacji, to warto to jakoś wyróżnić.

                                                    No to się powtórzę. Procesory które nazywasz jednordzeniowymi według Twoje definicji od dawna takie nie są.

                                                    pl.wikipedia.org/wiki/Superskalarno%C5%9B%C4%87
                                                    pl.wikipedia.org/wiki/Wykonywanie_spekulatywne
                                                    pl.wikipedia.org/wiki/Wykonywanie_poza_kolejno%C5%9Bci%C4%85
                                                    Jeśli nazewnictwo ma być spójne i chcesz uznać że rdzęń graficzny składa się z wielu procesorów to te niby jednowątkowe rdzenie x86 są już od dawna wielordzeniowe.


                                                  • asteroida2 Re: prawo Moore'a? 11.06.15, 13:09
                                                    > Jeśli nazewnictwo ma być spójne i chcesz uznać że rdzęń graficzny składa się z
                                                    > wielu procesorów to te niby jednowątkowe rdzenie x86 są już od dawna wielordzeniowe.

                                                    Trochę mieszasz pojęcia. Jeden procesor składa się z wielu rdzeni, a nie na odwrót.

                                                    Wykonywanie spekulatywne i poza kolejnością to jest właśnie przykład tego jak wielordzeniowość jest wykorzystywana do przyspieszania obliczeń sekwencyjnych. Tak naprawdę to jest gigantyczne marnowanie mocy obliczeniowej - procesor wykorzystuje swoje wewnętrzne rdzenie do wyliczania różnych ścieżek tego samego programu, żeby nie czekać na sprawdzenie instrukcji warunkowych. Więc mimo że faktycznie ma 16 rdzeni, to jest sprzedawany jako czterordzeniowy, bo tylko cztery rdzenie są widoczne dla programów. Pozostałe są tylko do wewnętrznego wykorzystania dla procesora.

                                                    To jest przykład tego że rozwój procesorów poszedł trochę w złym kierunku. Ale nie dlatego że "Intel nie ma pomysłu", tylko dlatego że oprogramowanie to wymusza. Zysk 5% na szybkości programów sekwencyjnych ma dla klientów większe znaczenie, niż zysk 300% na szybkości programów równoległych.
                                                  • fidziaczek Re: prawo Moore'a? 11.06.15, 13:19
                                                    > > Jeśli nazewnictwo ma być spójne i chcesz uznać że rdzęń graficzny składa
                                                    > się z
                                                    > > wielu procesorów to te niby jednowątkowe rdzenie x86 są już od dawna wiel
                                                    > ordzeniowe.
                                                    >
                                                    > Trochę mieszasz pojęcia. Jeden procesor składa się z wielu rdzeni, a nie na odw
                                                    > rót.

                                                    Ok, miało być jednowątkowe procesory x86 od dawna są wielordzeniowe według Twojej definicji.
                                                    Ja się po prostu z nią nie zgadzam i tłumacze dlaczego.
                                                    Nie jest spójnym nazywanie jednostek wykonawczych w rdzeniach graficznych procesorami i jednocześnie nie nazywanie procesorami jednostek wykonawczych z x86

                                                    >Tak naprawdę to jest gigantyczne marnowanie mocy obliczeniowej

                                                    No marnowanie, ale co zrobisz jeśli masz coś co jest jednowątkowe nie masz innego wyjścia i jeśli chcesz przegonić wydajnością konkurencję lub nie dac się konkurencji wyprzedzić
                                                    Właśnie to jest największa tajemnica intela, ich predykcja rozgałęzień, czyli przewidywanie tego co można policzyć teraz bo się przyda za chwile jest u nich najlepsze.

                                                  • fidziaczek Re: prawo Moore'a? 11.06.15, 13:00
                                                    > Dlatego trzeba zrównoleglić wszystko. I nieprawdą jest, że się "nie da". Nie ma
                                                    > żadnego problemu informatycznego co do którego wiadomo, że się nie da.

                                                    No to jak chcesz zrównoleglić to:
                                                    a = b + 5
                                                    c = a + 10
                                                  • asteroida2 Re: prawo Moore'a? 11.06.15, 13:11
                                                    > No to jak chcesz zrównoleglić to:
                                                    > a = b + 5
                                                    > c = a + 10

                                                    Bardzo łatwo:
                                                    a = b + 5
                                                    c = b + 15
                                                  • fidziaczek Re: prawo Moore'a? 11.06.15, 13:25
                                                    ha :)
                                                    Drugie równanie musiałeś przekształcić, procesor może sobie z tym nie dać rady, on umie tylko szybko dodawać :)
                                                  • asteroida2 Re: prawo Moore'a? 11.06.15, 13:37
                                                    > Drugie równanie musiałeś przekształcić, procesor może sobie z tym nie dać rady,
                                                    > on umie tylko szybko dodawać :)

                                                    No i dlatego właśnie cały czas tłumaczę, że to nie wina Intela, tylko programistów.
                                                    To programiści muszą pisać tak swoje programy, żeby procesor mógł użyć 100 rdzeni równocześnie. Dopóki oni tego nie zrobią, Intel jest w kropce.
                                                  • fidziaczek Re: prawo Moore'a? 11.06.15, 13:45
                                                    Bagaż ewolucyjny x86.
                                                    Programiści chcieli by z tym zerwać ale trzeba by odrzucić wszystko co teraz działa. Pewnie za jakiś czas uda się to obejść robiąc procesory hybrydy a później porzucając x86, ale to będzie musiał zrobić Intel czy inna firma

                                                    Dobra, ja mam dość, nie wiem czy dzis juz mi się procesory nie śniły...
                                                  • asteroida2 Re: prawo Moore'a? 11.06.15, 14:23
                                                    > Bagaż ewolucyjny x86.
                                                    > Programiści chcieli by z tym zerwać ale trzeba by odrzucić wszystko co teraz działa.

                                                    Zupełnie nie tak.
                                                    To programiści nie chcą. Pisanie programów rozproszonych jest o wiele trudniejsze, niż programów sekwencyjnych. Architektura x86 nie ma tu nic do rzeczy, bo programiści piszą w językach wysokiego poziomu, które można kompilować na najprzeróżniejsze architektury.

                                                    Przez dziesiątki lat programiści uczyli się pisania sekwencyjnych programów, bo inżynierowie budowali co roku procesory z coraz szybszym zegarem i to wystarczało. Dotarliśmy do ściany, bo już nie da się już bardziej przyspieszyć zegara. Rozwiązanie jest oczywiste - trzeba zacząć zrównoleglać.

                                                    Tyle że to jest problem jajka i kury. Nie ma sensu pisać programów równoległych, jeśli będą uruchamiane na sekwencyjnych procesorach. Nie ma sensu budować równoległych procesorów, jeśli będą na nich uruchamiane programy sekwencyjne.

                                                    Dlatego obecnie jesteśmy na etapie hybryd. Intel z jednej strony chce zapewnić coraz szybsze wykonywanie sekwencyjne, a z drugiej dać możliwość programistom wykorzystania wielowątkowości. Więc produkuje procesory kilkurdzeniowe, które mogą wykonywać na raz kilka wątków, a jednocześnie każdy wątek jest podkręcany ile się da. Programiści zaczynają z tego korzystać i piszą programy wielowątkowe. Ale dopóki te programy nie zastąpią wszystkiego co było napisane sekwencyjnie, to Intel nie pójdzie dalej z wielordzeniowością. Bagaż ewolucyjny jest po stronie oprogramowania, a nie sprzętu.
                                      • fidziaczek Re: prawo Moore'a? 10.06.15, 19:10
                                        > Tylko że nie wprowadza ich do produkcji, bo to się po prostu nie opłaca. Myślis
                                        > z że czemu robił procesory w technologii 65 nm, potem 45 nm, potem 32nm a potem
                                        > 22 nm? Czemu nie przeskoczył od 65 nm od razu do 22 nm?

                                        "Jego premierę przełożono na czwarty kwartał br., lecz już teraz wiadomo, że z powodu problemów związanych z procesem technologicznym 0,09 mikrona, układ ten trafi do sprzedaży dopiero w pierwszym kwartale 2004 roku."
                                        www.pcworld.pl/news/59989/Tejas.dopiero.w.2005.html

                                        > Intel zawsze ma gotowe projekty procesorów, które będzie sprzedawać za 10 lat.

                                        "Następcą „Prescott’a” będzie „Tejas” (kolejny P4), również produkowany w technologii 90 nanometrów. „Tejas” wystartuje z zegarem 5.6GHz i magistralą systemową 1066MHz pod koniec roku 2004. Procesory te będą najprawdopodobniej produkowane w następujących wersjach: 6GHz, 6.40GHz, 6.80GHz, 7.20GHz, 7.60GHz, 7GHz, 8.40GHz, 8.80GHz i najmocniejsza wersja 9.20GHz. Pod koniec roku 2005 na rynek trafi procesor taktowany zegarem 9.6GHz o kodowej nazwie „Nehalem” i magistralą systemową 1200MHz. Pierwszym procesorem, który przekroczy barierę 10GHz będzie 10.2 gigahercowy „Nehalem” i stanie się to jeszcze najprawdopodobniej w 2005 roku."

                                        To tyle w temacie "Intel ma plany na następne 10 lat" :D


                                        • fidziaczek Re: prawo Moore'a? 10.06.15, 19:10
                                          www.gry-online.pl/S013.asp?ID=7337
                                          • fidziaczek Re: prawo Moore'a? 10.06.15, 19:28
                                            pclab.pl/news9958.html
                                            Intel był w 2004 roku jak to sie mówi w czarnej....
                                            Nie mieli co wypuścić na rynek bo zabrnęli w ślepa uliczkę.
                                            W tym samym momencie mała grupa w Izraelu pracująca nad procesorami mobilnymi opracowywała dla nic nowy rdzeń, więc intel Ad hoc postanowił że zrobią z tego procka do laptopów równiez procka do desktopów i mieli ogromnego farta że akurat ta architektura okazała się tak doskonała ze o dziś ja klepią w coraz to nowych procesach.
                                            Obecnie czekamy na 6 generację core2duo nazwaną skylake
                                          • asteroida2 Re: prawo Moore'a? 10.06.15, 21:14
                                            "Oczywiście nie są to informacje oficjalne, jednak pochodzą z wiarygodnego źródła – twierdzi The Inquirer."

                                            No to jeśli opierasz swoją wiedzę na informacjach nieoficjalnych, ale takich co do których gazeta twierdzi że pochodzą z wiarygodnego źródła, to nie dziw się że rozmijają się one z rzeczywistością.

                                            To że procesory nie osiągną bariery 10GHz było wiadome każdemu, kto się tematem interesował. W ciągu jednego taktu zegara światło pokonywałoby 3cm. Prąd w przewodniku porusza się wyraźnie wolniej, więc miałby problemy z dotarciem do granic procesora i powrotem. Może 10GHz nie jest absolutną granicą, ale jest już na tyle blisko absolutnej granicy, że gwałtownie zwiększa zapotrzebowanie na napięcie (żeby szybciej przełączać sygnał), a tym samym na wydzielenie ciepła.
                                            • fidziaczek Re: prawo Moore'a? 10.06.15, 21:31
                                              > No to jeśli opierasz swoją wiedzę na informacjach nieoficjalnych, ale takich co
                                              > do których gazeta twierdzi że pochodzą z wiarygodnego źródła, to nie dziw się
                                              > że rozmijają się one z rzeczywistością.

                                              Nie szkodzi że nieoficjalne.
                                              Prescott (poprzednik Tejasa) miał prawie 4GHz. Tejas miał byc jego następcą a architektura w której było zrobiony (netburst) miała promować wysokie taktowania.
                                              No to w czym on miał być niby lepszy jak nie w wyższym taktowaniu od Prescotta?

                                              > To że procesory nie osiągną bariery 10GHz było wiadome każdemu, kto się tematem
                                              > interesował. W ciągu jednego taktu zegara światło pokonywałoby 3cm. Prąd w prz
                                              > ewodniku porusza się wyraźnie wolniej, więc miałby problemy z dotarciem do gran
                                              > ic procesora i powrotem. Może 10GHz nie jest absolutną granicą, ale jest już na
                                              > tyle blisko absolutnej granicy, że gwałtownie zwiększa zapotrzebowanie na napi
                                              > ęcie (żeby szybciej przełączać sygnał), a tym samym na wydzielenie ciepła.

                                              No kolega mi to wyliczył na uczelni jak procesory miały w okolicach 1GHz po czym sie wystraszył swoje wizji że to już koniec i zaczął się wycofywac z tego co mu wyszło :)
                                              A Tejas był po to by właśnie te granice o których mówisz osiągnąć
                                              en.wikipedia.org/wiki/Tejas_and_Jayhawk
                                              Więc Ty wiedziałeś że sie nie da, kolega wiedział a Intel nie wiedział i rozbił głowę o ścianę, to przy okazji pokazuje jak byli krótkowzroczni, nie że żadne 10 lat tylko jakiś rok do przodu a i tak źle :)
                                    • europitek Re: prawo Moore'a? 10.06.15, 18:04
                                      fidziaczek napisał:
                                      > Pisze Ci że lepiej zostac przy 640x480 a zaoszczędzoną przez to
                                      > moc karty graficznej wykorzystać na jakieś inne efekty które
                                      > realizm mogą poprawić.

                                      Z tym 640x480 to jawnie przesadzasz. Jeśli uruchomisz grę w tej rozdzielczości na monitorze 14, 15 i 17-calowym to zobaczysz różnice w jakości obrazu i jeśli teraz uruchomisz ją z tym monitorem 17" w 1024x768 to już będziesz widział skalę swojego błędu. Róznice jakości obrazu, które wystąpią w tym eksperymencie dobitnie pokażą wpływ rozdzielczości na realizm przy tych konkretnych parametrach sprzętu.

                                      > Natomiast rynek gier uznaje rozdzielczośc za wazną i idzie
                                      > w coraz wyższe rozdzielczości na nią zużywajac moc kart
                                      > graficznych.

                                      Bo rozdzielczość jest ważna, gdy są dostępne duże "wyświetlacze". Poza tym duża pamięć współczesnych kart graficznych nie jest bezpośrednią konsekwencją wysokich rozdzielczości, ale idei ładowania wielkich ilości grafiki do pamięci karty,żeby nie trzeba było ciągle doczytywać fragmentów terenu.

                                      Wszystko musi byś z umiarem i dobrze współgrać ze sobą. I do tego trzeba brać pod uwagę specyfikę naszych zmysłów i naszego przetwornika.
                                      • fidziaczek Re: prawo Moore'a? 10.06.15, 18:53
                                        > Z tym 640x480 to jawnie przesadzasz. Jeśli uruchomisz grę w tej rozdzielczości
                                        > na monitorze 14, 15 i 17-calowym to zobaczysz różnice w jakości obrazu i jeśli
                                        > teraz uruchomisz ją z tym monitorem 17" w 1024x768 to już będziesz widział skal
                                        > ę swojego błędu. Róznice jakości obrazu, które wystąpią w tym eksperymencie dob
                                        > itnie pokażą wpływ rozdzielczości na realizm przy tych konkretnych parametrach
                                        > sprzętu.

                                        Nie przesadzm bo miałem w domu telewizor 25 calowy jakiś kolorowy ruski i obraz w nim był bardziej realny niż w dziś najnowszych grach wyświetlanych w 4K - tyle że był mniej ostry.
                                        Tylko że ta ostrośc w grach to właśnie brak odpowiedniej ilosci trójkątów czy też innych figur i linie które powinny być ugięte bywają proste.
                                        tylko że one potrafiły być odpowiednio ugięte nawet w starych TV z niska rozdzielczoscią
                                        • europitek Re: prawo Moore'a? 10.06.15, 19:30
                                          Ja zacząłęm oglądać telewizję jeszcze wcześniej i wielokrotnie na czarno-białym (a później kolorowywym) ekranie "szpiegowałem" obraz z bardzo bliska i jego jakością nie byłem zachwycony. Dobra jakość obrazustarych telewizorów to po części efekt "złudzenia optycznego". Obraz ten oglądany z bliska nie jest dobry,ale jak oddalasz się od ekranu na 2-3 m to od razu wygląda lepiej. Różne niedoróbki i wręcz braki są korygowane przez mózg, jak obraz naturalny. Gdybyś cyfrowy obraz wysokiej rozdzielczości oglądał z porównywalnej odległości, wydawałby się inny niż z typowego 1 m przy biurku/stole.
                                          Brak widzenia szczególików nie musi być wadą, ponieważ mózg jest do tego przezwyczajony i "dopowiada" brakujące drobiazgi. Tak więc, przy takiej dyskusji (o realizmie i jakości obrazu) trzeba brać pod uwagę nasze obiektywne ograniczenia (a może lepiej: parametry).

                                          Przykład z poprzedniego postu jest "z życia wzięty". Grafika 640x480 w 256 kolorach na 17" (wszystko CRT) jest brzydka (wielkie kwadratowe piksele), na 15" daje się wytrzymać, a na 14" jest do zaakceptowania, chciaż też nie jest to "piękność".
                                          • fidziaczek Re: prawo Moore'a? 10.06.15, 19:36
                                            Ok, ale skoro te niedoróbki mózg zamienia w rzeczywisty obraz to karta graficzna powinna łatwo wygenerować taki niedorobiony obraz jak w TV i nasz mózg zrobiłby to samo.
                                            Ponieważ rozdzielczość niska to i moc karty do tego i wystarczającej powinna być niska.
                                            Inaczej, gdyby zamienić taki obraz z TV na zera i jedynki i później puścić przez grafikę te zera i jedynki w niskiej rozdzielczosci to otrzymalibyśmy właśnie to co kiedyś w TV i byłoby to bardziej realne (dzięki korekcji naszego mózgu) niż wiedźmin 3 mimo że potrzeba do tej kopii z TV o wiele mniej obliczeń.
                                            • europitek Re: prawo Moore'a? 10.06.15, 21:16
                                              Z postu trochę wyżej, w którym fidziaczek napisał:
                                              > skoro 640x480 w starym TV daje obraz rzeczywisty to w teorii
                                              > nie powinno być problemów by stworzyć taki sam obraz za pomocą
                                              > karty graficznej.

                                              Tak się wydaje, ale kłopoty mogą być ukryte w szczegółach. Trzeba by dokładnie wiedzieć, na jakie niedokładności obrazu można sobie pozwolići czy ich zastosowanie nie wymagałoby jakichś dodatkowych rzeczy, które podniosłyby koszty lub obniżyły wydajność.
                                              Podejrzewam jednak, że producenci poszli w latach 90. po najmniejszej linii oporu, ponieważ ówczesny skok jakości obrazu (dzięki nowym rodzielczościom) i tak był tak ogromny, że dodatkowe funkcje (i koszty) wydawały się niepotrzebne. A jak "machina biznesowa" nastawiła się w jakimś kierunku to już trudno ją zatrzymać i przestawić na inne tory. W połowie lat 90. zaczął się wyścig producentów kart graficznych (wliczając akceleratory 3D), który skończył się "masowym wymieraniem" i dzisiaj praktycznie masz tylko dwie firmy dla PC-tów. Ostra konkurencja wykończyła firmy próbujące własnej drogi i doprowadziła do wyjałowienia z nietypowych pomysłów.

                                              Pamiętam jak w tamtym czasie ludzie się podniecali detalami widocznymi na ekranie, bez mała szpiegując niedorobione pojedyncze piksele. Dzisiaj szczególiki mamy do znudzenia i chcielibyśmy więcej, ale 15-20 lat temu pewnie by to uznano za niepotrzebną fanaberię.
                                              • fidziaczek Re: prawo Moore'a? 10.06.15, 21:32
                                                > Podejrzewam jednak, że producenci poszli w latach 90. po najmniejszej linii opo
                                                > ru, ponieważ ówczesny skok jakości obrazu (dzięki nowym rodzielczościom) i tak
                                                > był tak ogromny, że dodatkowe funkcje (i koszty) wydawały się niepotrzebne. A j
                                                > ak "machina biznesowa" nastawiła się w jakimś kierunku to już trudno ją zatrzym
                                                > ać i przestawić na inne tory.

                                                No i takie same wnioski wyciągnęliśmy
                  • fidziaczek Re: prawo Moore'a? 09.06.15, 16:02
                    > Mogą, ale nie muszą. Faktycznie przecież te miliardy tranzystorów nie pracują j
                    > ednocześnie. Na raz pracuje kilka tysięcy z nich, a reszta siedzi i nic nie rob
                    > i. Jak będzie ich tysiąc razy więcej, to dalej kilka tysięcy będzie pracowało,
                    > a reszta nic nie będzie robić. Więc ciepła wydzieli się tyle samo.
                    > Być może wystarczy w budowie takich procesorów uwzględnić "kanały odprowadzając
                    > e ciepło" i problem zostanie rozwiązany.

                    To o czym mówisz zostało już wprowadzone w konstrukcji procesorów
                    pclab.pl/art50000-3.html
                    • fidziaczek Re: prawo Moore'a? 09.06.15, 16:14
                      Dodam może jeszcze że w roku 2004 Intel planował że w roku 2008 osiągnie w procesorach taktowanie 10GHz.
                      Mamy rok 2015 i Intel kręci się od 5 lat wokół 4GHz.
                      Więc z jedną ścianą już się zderzyli.
                      Zbliża się ściana druga, ograniczenia wynikające z wielkości atomów i coraz większego wpływu efektów kwantowych.
      • stefan4 Re: Komputery analogowe 09.06.15, 12:35
        asteroida2:
        > Być może nawet pod postacią komputerów kwantowych (które, jak
        > im się dokładniej przyjrzeć, mają więcej wspólnego z analogowymi
        > niż cyfrowymi).

        Kiedy taką tezę wygłosiłem wśród fizyków, to sie nie zgodzili i podali mi kilka powodów, dla których jest ona jakoby fałszywa. Żadnego z tych powodów nie zrozumiałem, ale ja się słabo znam na kwantach, więc usiadłem sobie cichutko w kątku...

        asteroida2:
        > Układy analogowe [...] o wiele mniej dokładne, ale za to 1000 razy szybsze
        > i tańsze, byłyby tu o wiele praktyczniejsze.

        Dla komputerów kwantowych przyspieszenie nie będzie ,,ileś razy'' tylko znacznie lepiej niż ilekolwiek razy. Już przyspieszenie z do n jest 1000-krotne dla n=1000, ale 1000000-krotne dla n=1000000. Przyspieszenie z NP do BQP będzie jeszcze bardziej spektakularne dla dużych danych.

        - Stefan
        • asteroida2 Re: Komputery analogowe 09.06.15, 13:13
          > Kiedy taką tezę wygłosiłem wśród fizyków, to sie nie zgodzili i podali mi kilka
          > powodów, dla których jest ona jakoby fałszywa. Żadnego z tych powodów nie
          > zrozumiałem, ale ja się słabo znam na kwantach, więc usiadłem sobie cichutko
          > w kątku...

          Podejrzewam że fizycy zajmujący się komputerami kwantowymi wolą bronić się przed takimi porównaniami, bo to sugeruje że komputery kwantowe nigdy nie będą działać.
          Komputery kwantowe zwykle przedstawia się jako cyfrowe. Ale implementacja niektórych ważnych algorytmów (jak Shora i Grovera) wymaga układów obracających macierze stanu, które są bardziej podobne do analogowych operacji, niż do cyfrowych. Teoretycznie powinno dać się to zrobić, a fizycy bronią się że istnieje kwantowa korekcja błędów, więc stany nie będą odjeżdżać od zamierzonych - ale lata mijają, a trudności pozostają nierozwiązane.

          > Przyspieszenie z NP do BQP będzie jeszcze bardziej spektakularne dla dużych danych.

          Nie rozumiem co masz na myśli. NP to inna klasa problemów niż BQP. Na razie nie wiadomo czy komputery kwantowe będą potrafiły rozwiązywać efektywnie problemy NP-zupełne. Raczej wygląda na to, że nie będą potrafiły.
          • stefan4 Re: Komputery analogowe 09.06.15, 14:19
            asteroida2:
            > Nie rozumiem co masz na myśli. NP to inna klasa problemów niż BQP. Na razie nie
            > wiadomo czy komputery kwantowe będą potrafiły rozwiązywać efektywnie problemy
            > NP-zupełne.

            Ale będą w stanie rozwiązywać efektywnie pewne problemy z klasy NP. Np. wspomniana przez Ciebie faktoryzacja liczb naturalnych leży w BQP∧(NP−P).

            - Stefan
            • asteroida2 Re: Komputery analogowe 09.06.15, 14:26
              > Ale będą w stanie rozwiązywać efektywnie pewne problemy z klasy NP.
              > Np. wspomniana przez Ciebie faktoryzacja liczb naturalnych leży w BQP∧(NP−P).

              OK. Teraz rozumiem.

              Ale ja tam sądzę, że faktoryzację uda się kiedyś zrobić i na komputerze klasycznym w czasie wielomianowym.
      • fidziaczek Re: Komputery analogowe 09.06.15, 14:46
        >Układy analogowe na
        > dają się świetnie do niektórych zastosowań, jak na przykład obróbka obrazu. Wsp
        > ółczesne komputery robią to metodami dosyć brutalnymi, które są niepotrzebnie d
        > okładne. Rozwiązania o wiele mniej dokładne, ale za to 1000 razy szybsze i tańs
        > ze, byłyby tu o wiele praktyczniejsze.

        Pamiętam w domu czarno biały telewizor, później pierwsze kolorowe.
        Jaką one miały rozdzielczość?
        Pewnie nie lepszą niż 640x480.
        Dziś twórcy gier robią je w coraz lepszych rozdzielczosciach, nieporównywalnie lepszych niż tamte telewizory a mimo to obraz nie jest rzeczywisty i ratunkiem mają być jeszcze lepsze rozdzielczości.
        Od razu mi się narzuca że coś poszło nie w tym kierunku i cyfrowośc może mieć z tym coś wspólnego
      • wobo1704 Re: Komputery analogowe 09.06.15, 17:25
        asteroida2 ;
        > Ja sądzę że komputery analogowe jeszcze wrócą, pod taką czy inną postacią.

        W Polsce popularnym k. analog. był MEDA (produkcja CzS).
        (Były to lata przed komputerem SM4 (kopia PDP11)).
        Wzmacniacze operacyjne zbudowane były na tranzystorach (3-kanałowe; wzmacniacz błędu z przetwarzaniem w.cz.). Napięcia pomiarowe - +-10V; dokładność +-1mV). Nastawy wzm. operac. zadawane zewnętrznymi precyzyjnymi RC (0,1%). Przełączniki diodowe sterowane układami TTL. Przetworniki AC i CA zbudowane z połączonych kaskadowo komparatorów.
        Wyniki prezentowane na l. NIXI. Dla zwiększenia mocy obl. można było łączyć wiele szaf MEDA.
        Programowanie (kabelkami) było żmudne, ale czas rozwiązania (np. ukł. równań różniczkowych) był wielokrotnie krótszy niż na SM4.

        W owym czasie tylko k. analog. radziły sobie z sterowaniem w czasie rzeczywistym.
        Np. w USA sterowano w ten sposób kształtem przestrzeni pomiarowej tunelu aerodynamicznego b. dużych prędkości.

        >Rozwiązania o wiele mniej dokładne, ale za to 1000 razy szybsze i tańsze, byłyby tu o wiele praktyczniejsze.

        Myślę, że podział obliczeń pomiędzy k. analog. i cyfrowy ma przyszłość.
        Tym bardziej, że parametry współczesnych wzm. operac. są setki razy lepsze niż tych opisanych
        na początku.
    • kala.fior Re: Komputery analogowe 09.06.15, 18:41
      Wlaściwie każdy analogwy system sterujacy, jak np. termostat można by nazwac komputerem analogowym, więc jest ich chyba nimalo w naszym otoczeniu.

      I pytanie o pracę mózgu, jezeli mózg jest wielgachnym komputerem analogowym to dlaczego blędy nie rosną w miare myslenia...
      no może rosną ...i to wlasnie dlatego ten swiat jest jaki jest ;-)
      • asteroida2 Re: Komputery analogowe 10.06.15, 11:21
        > I pytanie o pracę mózgu, jezeli mózg jest wielgachnym komputerem analogowym to
        > dlaczego blędy nie rosną w miare myslenia...
        > no może rosną ..

        Też mi się wydaje, że rosną.
        Spróbuj dodawać w pamięci liczby dwucyfrowe, trzycyfrowe, czterocyfrowe itd.
        Od pewnej wielkości błędy zaczną szybko rosnąć.
        • kala.fior Re: Komputery analogowe 10.06.15, 22:56
          To dadawanie nie jest chyba naturalym zajeciem mózgu, natomiast analiza sygnalów wzrokowych, rozpoznawanie, modelizowanie i przewidywanie rzeczywistosci wymaga wielkich kalkulacji i gdzieś te analogowe błędy powinny jakoś pokazac sie.

          Można by pewnie skonstruowac jakis eksperyment, np. przewidywania trajektorii pilki etc. gdzie po pewnym czasie bład przewidywania rośnie.

          A może mózg unika długich kalkulacji i stale od nowa zaczyna modelizowanie rzeczywistosci?

          Moze były juz takie badania ?
          • asteroida2 Re: Komputery analogowe 11.06.15, 10:22
            > A może mózg unika długich kalkulacji i stale od nowa zaczyna modelizowanie
            > rzeczywistosci?

            Dobre pytanie. Szczerze mówiąc nie wiem. Podejrzewam że mózg bardzo unika długich kalkulacji i stara się wszystko rozwiązywać jednym krokiem. Ale nie wiem jak można by tę hipotezę sformalizować tak, żeby dało się ją przetestować.

Nie masz jeszcze konta? Zarejestruj się


Nakarm Pajacyka