Superkomputery

09.11.10, 12:48
Przeglądałem sobie tabelkę przedstawiającą historycznie najszybsze superkomputery:
pl.wikipedia.org/wiki/Superkomputer
I zacząłem się zastanawiać: do czego się ich używa? Zwykle mówi się, że na superkomputerach modeluje się procesy starzenia się broni jądrowej, meteorologię itp. Ale tak samo mówiło się 20 lat temu, a przecież w tym czasie szybkość superkomputerów wzrosła prawie milion razy.
Wydaje się wątpliwe, żeby modelowanie tego samego dwóch komputerach różniących się milion razy dawało w obu przypadkach wartościowe wyniki. Albo w jednym przypadku model jest tak uproszczony, że jego wyniki są bezwartościowe, albo w drugim nie ma po co używać superkomputera, bo wystarczy zwykły komputer. Podejrzewam, że raczej istnieją różne problemy, które wymagają różnej mocy obliczeniowej.
Może ktoś się orientuje, jakie problemy kiedyś uruchamiane na superkomputerach teraz są już zbyt proste dla nich, jakie rozwiązuje się dzisiaj, a jakie planuje się, że staną się rozwiązywalne w najbliższych latach?
    • bimota Re: Superkomputery 09.11.10, 13:14
      A np. oblicznie liczby PI ? Na szybszym wynik bedzie dokladniejszy, ale ten mniej dokladny tez bedzie wartosciowy.

      Lamanie szyfrow - na szybszym zlamiemy bardziej skomplikowany...
      • asteroida2 Re: Superkomputery 09.11.10, 13:59
        > A np. oblicznie liczby PI ? Na szybszym wynik bedzie dokladniejszy, ale ten mni
        > ej dokladny tez bedzie wartosciowy.

        To jeden z przykładów potwierdzających to co napisałem. W latach '80 za pomocą superkomputerów obliczono pierwszy miliard cyfr po przecinku, ale od tego czasu problem przesał być interesujący dla superkomputerów. Ostatnio za pomocą domowego komputera obliczono 5 bilionów cyfr po przecinku:
        www.numberworld.org/misc_runs/pi-5t/details.html
        > Lamanie szyfrow - na szybszym zlamiemy bardziej skomplikowany...

        To możliwe, skoro na przykład distributed.net jest do tego używana. Ale takie łamanie przynosi niewielkie zyski i raczej nie uzasadniłoby setek milionów wydawanych na superkomputery.
        • bimota Re: Superkomputery 09.11.10, 14:16
          To tylko 2, pierwsze przyklady jakie przyszly mi do glowy...
        • strwag Re: Superkomputery 09.11.10, 17:02
          wojsko spokojnie wysupłało by miliardzik lub kilka na skuteczne łamacze szyfrów.
    • smutas Re: Superkomputery 09.11.10, 13:54
      Ciekawy temat :-)
      Superkomputery sa budowane przez "sweterki", po to, zeby pokazac zwolennikom Microsoftu, ze "Linux potrafi" :-) A tak powazniej: Superkomputery przejely czesc zadan wykonywanych do tej pory przez systemy mainframe. Istotna roznica miedzy zwyklym PC (nawet w ukladzie workstation - server) a mainframe - jest interaktywnosc, ktora to drugie rozwiazanie ma w formie szczatkowej. Podobnie superkomputery. Nad jedym zadaniem moze "myslec" dluzszy czas (kiedys na rozwiazanie czekalo sie tygodniami) a lista zadan pochodzi od zleceniodawcow. Wg. mnie glownym czynnikiem jest czas. Analiza rozwoju huraganow na Atlantykiem moze zajac np. godziny a nie jak bylo wczesniej powiedzmy tydzien. Czyli jesli wyliczony model moze budzic niepokoj to analitycy maja wiecej czasu by ostrzec mieszkancow zagrozonych terenow...

      No i cos do uzytku domowego :-) helmer.sfe.se/

      cheers
      • asteroida2 Re: Superkomputery 09.11.10, 14:05
        > Analiza rozwoju huraganow na Atlantykiem moze zajac np.
        > godziny a nie jak bylo wczesniej powiedzmy tydzien.

        To byłoby rzeczywiście interesujące zastosowanie, bo od symulowania rozwoju huraganów można potem przejść (jak się ma lepsze komputery) do wyliczania jak pokierować je w bezpieczne miejsca.
        Ale tu chyba większym problemem jest zebranie odpowiedniej ilości danych wejściowych, niż sama symulacja. Bo trzeba by znać wilgotność, ciśnienie i temperaturę w wielu punktach na oceanie i w powietrzu nad nim. Nie wiem czy współczesna technologia to umożliwia.
        • saucerman Re: Superkomputery 10.11.10, 16:35
          asteroida2 napisał:

          > > Analiza rozwoju huraganow na Atlantykiem moze zajac np.
          > > godziny a nie jak bylo wczesniej powiedzmy tydzien.
          >
          > To byłoby rzeczywiście interesujące zastosowanie, bo od symulowania rozwoju hur
          > aganów można potem przejść (jak się ma lepsze komputery) do wyliczania jak poki
          > erować je w bezpieczne miejsca.
          > Ale tu chyba większym problemem jest zebranie odpowiedniej ilości danych wejści
          > owych, niż sama symulacja. Bo trzeba by znać wilgotność, ciśnienie i temperatur
          > ę w wielu punktach na oceanie i w powietrzu nad nim. Nie wiem czy współczesna t
          > echnologia to umożliwia.

          Chcialbys zeby czlowiek potrafil kierowac huraganami?
          " A kimze On jest ze Ziemia i morze sa mu posluszne?".
          • asteroida2 Re: Superkomputery 10.11.10, 17:15
            > Chcialbys zeby czlowiek potrafil kierowac huraganami?
            > " A kimze On jest ze Ziemia i morze sa mu posluszne?".

            Oczywiście że tak. Huragany zabijają co roku mnóstwo ludzi i powodują gigantyczne straty.
            Kiedy technologia to umożliwi, będziemy się starali je kontrolować.
            Cokolwiek innego jest zwyczajnie niemoralne. To tak jakby patrzeć na umierającego z głodu człowieka i nie dać mu jeść.
            • saucerman Re: Superkomputery 10.11.10, 17:23
              asteroida2 napisał:

              > > Chcialbys zeby czlowiek potrafil kierowac huraganami?
              > > " A kimze On jest ze Ziemia i morze sa mu posluszne?".
              >
              > Oczywiście że tak. Huragany zabijają co roku mnóstwo ludzi i powodują gigantycz
              > ne straty.
              > Kiedy technologia to umożliwi, będziemy się starali je kontrolować.

              Ooo,tak,niewatpliwie.Kiedys slyszalem ze w ZSRR to z deszczem nie mieli problemu.
              Kiedy chcieli mieli chmury,a kiedy chcieli to je rozganiali.

              > Cokolwiek innego jest zwyczajnie niemoralne. To tak jakby patrzeć na umierające
              > go z głodu człowieka i nie dać mu jeść.

              A jak wlasnie zes zjadl wszystko to co mu dasz?
              "Dala bym ci chleba z maslem..."
    • stefan4 Re: Superkomputery 09.11.10, 14:09
      asteroida2:
      > I zacząłem się zastanawiać: do czego się ich używa?

      Daleki jestem od możliwości wymienienia choćby przybliżonego spisu zastosowań. Ale pewne z nich mogę spróbować. Takie, jakich 20 lat temu nie było.

      Ogólnie rzecz biorąc
      • bimota Re: Superkomputery 09.11.10, 14:45
        Jakiez to "wielkie" zasoby pozera ci grafika ? Film 180 min. miesci sie na 1 plytce... W czasach prehistorycznych byl to problem, obecnie raczej nie.
        • smutas Re: Superkomputery 09.11.10, 15:38
          > Jakiez to "wielkie" zasoby pozera ci grafika ? Film 180 min. miesci sie na 1 pl
          > ytce... W czasach prehistorycznych byl to problem, obecnie raczej nie.

          Czyli jest postep :-) Ale nie chodzi tu tylko o zapis filmu, chociaz HD jest wciaz wyzwaniem chocby dla stacji nadawczych (nadajninki, kabel, satelita). Jednak najwaznieszym problemem jest renderowanie takiego np Toy Story, gdzie wciaz po zadaniu algorytmow trzeba czekac dlugie godziny na kilka minut filmu. Obliczanie zderzen wlosow na wietrze, przesypywanego piasku, ruch virualnych ludzikow czy zwierzat itp....
          • llukiz Re: Superkomputery 09.11.10, 22:56
            > k najwaznieszym problemem jest renderowanie takiego np Toy Story, gdzie wciaz p
            > o zadaniu algorytmow trzeba czekac dlugie godziny na kilka minut filmu

            Nie jestem ekspertem, ale w porównaniu z tym co było gdy krecono pierwsze toy story to postęp jest niesamowity. Podejrzewam że pierwsze toystory można dziś liczyć w "czasie rzeczywistym" i to bez udziału superkomputera
            • smutas Re: Superkomputery 10.11.10, 05:21
              Toy Story to tylko przyklad. Rownie dobrze moglem napisac o Final Fantasy czy LoTR. Niemniej jednak generowanie modeli 3D (nie mam na mysli znaczenia "kino/TV 3D"), zastosowanie modeli fizyki, ilosc szczegolow (kolizje ziaren piasku, wlosow, kropel wody, itp) zabiera straszne zasoby. Czy system to robiacy nazwiemy klastrem czy superkomputerem nie ma wiekszego znaczenia. Tak czy inaczej kazda klatke animacji trzeba przeliczyc. Na podanej wczesniej przeze mnie stronie "Jak zbudowac domowy superkomputer" jest przyklad:

              Some render tests result here:
              The storming sea scene file 24 frames in resolution 4000x4000 pixels.
              helmer.sfe.se/HelmerRendertest1.jpg
              - On a MacPro 2 x DualCore Xenon 2.66 Ghz with 4 GB ram
              took 552 minutes (9.2 h)

              - Helmer did same 24 frames in 4k format in 64 min.

              Some approximate numbers give Helmer a floating point capacity of 186 Gflops

              A to by znaczylo, ze nawet stare Toy Story w czasie rzeczywistym chyba by sie nie wyrenderowalo. Chyba, bo specem od grafiki / animacji rowniez nie jestem :-)

              cheers
      • asteroida2 Re: Superkomputery 09.11.10, 14:50
        > Ogólnie rzecz biorąc
        • bimota Re: Superkomputery 09.11.10, 15:19
          Renderowanie to obliczanie, a nie grafika. Nie wiem co onia tam renderowali, ze tyle komputerow... Co prawda nie ogladalem, ale to chyba zwykla kreskowka...
          • asteroida2 Re: Superkomputery 09.11.10, 15:31
            Renderowanie to tworzenie obrazów, więc jak najbardziej grafika. W tym przypadku każda klatka była renderowana osobno z trójwymiarowego modelu. Dokładnie jakie techniki były użyte to nie wiem, ale wiem że w miarę wzrostu mocy obliczeniowych można uzyskać coraz bardziej realistyczny obraz:
            pl.wikipedia.org/wiki/Ray_tracing
            pl.wikipedia.org/wiki/Oświetlenie_globalne
            pl.wikipedia.org/wiki/Photon_mapping
            W każdym razie "rendering realistycznego obrazu z trójwymiarowego modelu" to dobry przykład problemu, który kiedyś był niewykonalny, teraz powoli staje się wykonalny, a za 10 lat pewnie bedzie już rutynowy.
            • bimota Re: Superkomputery 09.11.10, 16:20
              GRAFIKA TO GRAFIKA, A tworzenie grafiki to tworzenie grafiki - w tym wypadku obliczanie i wyswietlanie...

              Do flimow zaden rendering nie jest potrzebny. Wystarczy zdolny grafik i widz nie rozpozna roznicy. No chyba,ze chodzi o to by obraz byl gladki, rownomierny, bardziej regularny... ale czy jest przez to bardziej realistyczny to nie wiem.
              • smutas Re: Superkomputery 10.11.10, 05:49
                "Do flimow zaden rendering nie jest potrzebny. Wystarczy zdolny grafik..."

                Nie moge sie z tym zdaniem zgodzic. Filmow z wykorzystaniem "zdolnego grafika" jest wiecej niz od cholery i w KAZDYM z nich widac sztucznosc. Albo cienie nie pasuja do reszty sceny, albo ruchy sa bezgrawitacyjnie paralityczne, albo tlo ewidentnie wyglada jak fototapeta. Mozna tak wymieniac.

                Zreszta "renderowanie" to tylko koncowy etap tworzenia grafiki / animacji. To tylko "oblekanie w skorke i symulacja oswietlenia". Ale zanim grafik do niego dojdzie musi zrobic mnostwo innych rzeczy. Po prostu strasznie splycasz sprawe. Sciagnij sobie darmowego
                www.blender.org/features-gallery/ posiedz nad nim jakas chwile, machnij jakas najprostsza scenke i przestan biadolic o kreskowce co sie miesci na jednej plycie.
                • bimota Re: Superkomputery 10.11.10, 12:05
                  Widocznie nie dosc zdolny...

                  A na filmach "renderowanych" nie widac sztucznosci ??

                  "machnij jakas najprostsza scenke i przestan biadolic o kreskowce co sie miesci na jednej plycie"

                  Biadole ? To na ilu plytkach miesci sie film ? Poza tym Stefan mowil o obrazowaniu wynikow obliczen. Przypuszczam, ze do tego, w wiekszosci przypadkow, renderowanie nie jest potrzebne.
                  • smutas Re: Superkomputery 10.11.10, 21:06
                    Oczywiscie, ze biadolisz :-) To co miesci sie na plycie to wynik, tak jak tabelki i grafy wynikow obliczen modelow wybuchow jadrowych. Czyli skondesowanie tego co zajmuje czasem kilka lat pracy. I tak samo jest z filmem na DVD / BD. Zreszta dane na tych nosnikach sa skompresowane i to do tego kompresja stratna (np. mpeg). Inny projekt dla ciebie: zamien jakis plik .mp3 na .wav, albo sprobuj "rozpakowac" zawartosc filmu DVD tak by mozna go bylo edytowac. Nastepnie porownaj rozmiar tych danych. Dla ulatwienia: klatka HD to 1920x1080pix * 24bit kolor. W Europie masz 25fps ale pelne HD to 50fps. Teraz policz ile objetosc ma dwugodzinny film bez kompresji. Czyli taki, ktory sie edytuje :-)

                    Czy w "renderowanych" animacjach widac sztucznosc? Coz, w niektorych tak, w niektorych nie. Nowe produkcje pelne sa roznego rodzaju CGI i gdybys nie obejrzal dodatkow mowiacych jak ujecia robiono to w zyciu bys sie nie domyslil, ze to tylko wytwor czyjejs wyobrazni.

                    "Poza tym Stefan mowil o obrazowaniu wynikow obliczen. Przypuszczam, ze do tego, w wiekszosci przypadkow, renderowanie nie jest potrzebne."

                    Po tym zdaniu smiem watpic czy wiesz co to jest renderowanie :-)

                    cheers
                    • bimota Re: Superkomputery 10.11.10, 23:23
                      To co miesci sie na plycie to wynik, tak jak tabel
                      > ki i grafy wynikow obliczen modelow wybuchow jadrowych. Czyli skondesowanie teg
                      > o co zajmuje czasem kilka lat prac

                      No a o czym gadamy jesli nie o tym ? O zobrazowaniu wynikow...

                      No i co z tego, ze stratne ? Widac to co trzeba...

                      Smiej sobie co tam chcesz...
                      • smutas Re: Superkomputery 11.11.10, 01:34
                        O czym mowimy? Czyzbys nie pamietal co mowiles dzien wczesniej? Ogolnie rzecz ujmujac mowimy o wykorzystaniu mocy obliczeniowej, glownie w kontekscie superkomputerow / klastrow. A takie urzadzenia sa wciaz niezbedne do GENEROWANIA wizualizacji i modelowania zlozonych zdan naukowych oraz do modelowania animacji. O tym mowimy, a nie o samym zapisie wynikow tych obliczen. Zreszta przypomne ci:

                        stefan4:
                        Ogólnie rzecz biorąc
                        • bimota Re: Superkomputery 14.11.10, 18:17
                          Coz za merytoryka... ;)

                          Jak spuszczam wode w kiblu w stacji meteorologicznej tzn, ze spuszczanie wody to prognozowanie pogody... ;)
                          • smutas Re: Superkomputery 14.11.10, 19:13
                            O co ci chodzi chlopie? Jak chcesz pogadac o kiblach to udzielaj sie na jakkims forum dla hydraulikow. Dales ciala na potege i nawet nie potrafisz sie do tego przyznac przed samym soba.

                            Ale idac twoim tokiem myslenia wychodziloby, ze ogladanie pogodynki po dzienniku to jest prognozowanie pogody :-) Jestes uroczy :-)))))
                            • bimota Re: Superkomputery 15.11.10, 14:29
                              Smiejesz sie z wlasnej "logiki" ? Czyli cechy pozytywne tez posiadasz... ;)

                              Ciala moze i dalem, ale raczej nie na potege, a ty i tak nie wiesz z czym bo sam sie placzesz w swych teoriach. Dalem ciala z tym, ze przez chwile myslalem jak ty...
                              • smutas Re: Superkomputery 15.11.10, 18:04
                                Konkrety kolego.
        • stefan4 Re: Superkomputery 09.11.10, 16:17
          asteroida2:
          > Ale do renderowania takiej grafiki nie potrzeba superkomputerów - bo
          > wystarczy mieć dużo zwykłych komputerów i każdą klatkę filmu, albo kawałek
          > obrazu, renderować osobno.

          Na tym, zdaje się, polega superkomputer, że składa sie z bardzo wielu zwykłych komputerów...

          Renderowanie filmu o z góry napisanym scenariuszu, nawet i Avataru, to pikuś. Znacznie bardziej wymagające jest reagowanie w czasie rzeczywistym na jakieś nagłe decyzje. Np. film o płynącej wodzie i ruchach wioseł można zrobić dość łatwo. Ale pokazać, jak ona opływa niespodziewane przez twórcę ruchy wiosła
          • saucerman Re: Superkomputery 09.11.10, 16:45
            A gry?Zapomnielicie panowie o grach,ktore (nawet te wojenne) sa bardzo
            pouczajace.
            Nowoczesna technologia GPU podzwala na ogladanie wspanialych rzeczy na 3D monitorach,
            i co by nie mieli do powiedzenia tzw.ramole czyli przeciwnicy gier to dzieki temu przemyslowi
            duze kompy duzo zyskaly,bo biznes nakreca nowe odkrycia w tej dziedzinie.
            A do powaznych rzeczy to rzeczywiscie modelowanie reactorow,akceleratorow,trzesien ziemi,huraganow i w ogole pogody,gdzie rownania rozniczkowo calkowe tam wystepujace
            (glownie rownanie transportu Boltzmana) sa rozwiazywane bez wyrafinowanych technik
            redukcji wariancji dzieki szybkosci procesora.
            Aha,zapomnialem o modelowaniu wybuchu bomby atomowej poprzez program MCNP
            (Monte Carlo Neutron Photon) Transport Code System oraz prowadzenia wiazki w jonowodach
            akceleratorow i ich oslon jak i nawet tzw.dynamicznych oslon (Alsmilera) czyli oslon polem
            fizycznym w rakietach poprzez program LAHET (Los Alamos High Energy Transport) Code
            System i jego pakiety graficzne np.SABRINA i inne.
            Aha jeszcze,kontrola lotow kosmicznych,automatyczny pilot,tam wszedzie szybkosc procesora
            zwieksza bezpieczenstwo.Po prostu wszedzie we wspolczesnym swiecie cywilizownym.
            • asteroida2 Re: Superkomputery 09.11.10, 16:57
              > A gry?Zapomnielicie panowie o grach,ktore (nawet te wojenne) sa bardzo
              > pouczajace.

              Ale, podobnie jak wspomniane przez Stefana4 interaktywne ruszanie wiosłem, nie są uruchamiane na superkomputerach. Pewnie jedyny powód to taki, że czas superkomputerów jest zbyt cenny, żeby marnować go na interakcję z użytkownikiem.

              > Aha,zapomnialem o modelowaniu wybuchu bomby atomowej poprzez program MCNP
              > (Monte Carlo Neutron Photon) Transport Code System oraz prowadzenia wiazki w
              > jonowodach akceleratorow i ich oslon jak i nawet tzw.dynamicznych oslon (Alsmilera)
              > czyli oslon polem fizycznym w rakietach poprzez program LAHET (Los Alamos High Energy
              > Transport) Code System i jego pakiety graficzne np.SABRINA i inne.

              OK. A kiedy te zastosowania się pojawiły (i przy jakiej dostępnej mocy obliczeniowej)? Bo mam wrażenie, że przynajmniej niektóre z nich już powinny być wykonywalne na zwykłych domowych komputerach.

              Bo nie chodziło o problemy powszechne w cywilizowanym świecie, tylko właśnie o te, które wymagają superkomputerów i które wyprzedzają powszechne zastosowania o te 20 lat.
              • saucerman Re: Superkomputery 09.11.10, 17:29
                asteroida2 napisał:

                > > A gry?Zapomnielicie panowie o grach,ktore (nawet te wojenne) sa bardzo
                > > pouczajace.
                >
                > Ale, podobnie jak wspomniane przez Stefana4 interaktywne ruszanie wiosłem, nie
                > są uruchamiane na superkomputerach. Pewnie jedyny powód to taki, że czas superk
                > omputerów jest zbyt cenny, żeby marnować go na interakcję z użytkownikiem.
                >
                Dzis roznica pomiedzy supercomputerem a komputerem zaczyna sie zacierac,
                i jezeli chcemy latac np. na Marsa to musimy miec superkomputer w laptopie.

                > > Aha,zapomnialem o modelowaniu wybuchu bomby atomowej poprzez program MCNP
                > > (Monte Carlo Neutron Photon) Transport Code System oraz prowadzenia wiazk
                > i w
                > > jonowodach akceleratorow i ich oslon jak i nawet tzw.dynamicznych oslon (
                > Alsmilera)
                > > czyli oslon polem fizycznym w rakietach poprzez program LAHET (Los Alamos
                > High Energy
                > > Transport) Code System i jego pakiety graficzne np.SABRINA i inne.
                >
                > OK. A kiedy te zastosowania się pojawiły (i przy jakiej dostępnej mocy obliczen
                > iowej)? Bo mam wrażenie, że przynajmniej niektóre z nich już powinny być wykony
                > walne na zwykłych domowych komputerach.
                >
                MCNP to rok 1945 tzw."Manhattan Project" a teraz dalej sluzy do symulacji wybuchu bomby
                i musi miec supercompa (oczywiscie najnowsza jego wersja ktora niewiele przypomina
                ta z 45 roku poza sama idea liczenia),ale owszem MCNP jako narzedzie nauki nie podzwala
                zabijac przy ewnetualnej probie rzeczywistej tej broni,jak rowniez leczy i w terapii neutronowej to rzeczywiscie na pc-tach.
                LAHET to potworne bydle,tylko na superkompach,bez niego nie ma LHC.
                >
                > Bo nie chodziło o problemy powszechne w cywilizowanym świecie, tylko właśnie o
                > te, które wymagają superkomputerów i które wyprzedzają powszechne zastosowania
                > o te 20 lat.

                Zawsze zastosowania elitarne beda wymagac supertechniki,taki jest kierunek kazdego rozwoju.

                • asteroida2 Re: Superkomputery 09.11.10, 18:46
                  > Dzis roznica pomiedzy supercomputerem a komputerem zaczyna sie zacierac,
                  > i jezeli chcemy latac np. na Marsa to musimy miec superkomputer w laptopie.

                  Skąd taki pomysł? Jest dokładnie odwrotnie. W latach '80 superkomputery takie jak Cray-1 czy Cyber 205 były produkowane w dziesiątkach egzemplarzy, więc nie było wyraźnego rozróżnienia. Obecnie każdy superkomputer to jednorazowe dzieło, dziesiątki albo setki tysięcy razy szybsze od najlepszych desktopów. Rozróżnienie jest o wiele wyraźniejsze.
                  To, że to współczesne komórki mają możliwości takie jak superkomputery 30 lat temu, wcale nie znaczy, że są superkomputerami.

                  > MCNP to rok 1945 tzw."Manhattan Project" a teraz dalej sluzy do symulacji wybu
                  > chu bomby i musi miec supercompa (oczywiscie najnowsza jego wersja ktora niewiele
                  > przypomina ta z 45 roku poza sama idea liczenia)

                  No właśnie. Co dawała symulacja przeprowadzona na komputerze z wydajnością 1 gigaflopsa? Jeśli była wiernym odwzorowaniem wybuchu bomby, to po co robić symulację milion razy wydajniejszą? A jeśli nie była wiernym odwzorowaniem, to do czego służyła?

                  > LAHET to potworne bydle,tylko na superkompach,bez niego nie ma LHC.

                  A LHC korzysta przy obróbce danych z jakiegoś superkomputera?
                  • saucerman Re: Superkomputery 09.11.10, 20:31
                    asteroida2 napisał:

                    > > Dzis roznica pomiedzy supercomputerem a komputerem zaczyna sie zacierac,
                    > > i jezeli chcemy latac np. na Marsa to musimy miec superkomputer w laptopi
                    > e.
                    >
                    > Skąd taki pomysł? Jest dokładnie odwrotnie. W latach '80 superkomputery takie j
                    > ak Cray-1 czy Cyber 205 były produkowane w dziesiątkach egzemplarzy, więc nie b
                    > yło wyraźnego rozróżnienia. Obecnie każdy superkomputer to jednorazowe dzieło,
                    > dziesiątki albo setki tysięcy razy szybsze od najlepszych desktopów. Rozróżnien
                    > ie jest o wiele wyraźniejsze.
                    > To, że to współczesne komórki mają możliwości takie jak superkomputery 30 lat t
                    > emu, wcale nie znaczy, że są superkomputerami.
                    >
                    To rozroznienie bylo i bedzie,wlasnie o tym na koncu napisalem.I naczej wygladaja telefony
                    komorkowe kosmonautow,a inaczej moj,chciaz nie mam takiego taniego.
                    Te wszystkie rzeczy produkowane sa specjalnie na te wlasnie "elitarne" potrzeby w pojedynczych
                    egzemplarzach i moze kiedys beda w polskich komisach.

                    > > MCNP to rok 1945 tzw."Manhattan Project" a teraz dalej sluzy do symulacji
                    > wybu
                    > > chu bomby i musi miec supercompa (oczywiscie najnowsza jego wersja ktora
                    > niewiele
                    > > przypomina ta z 45 roku poza sama idea liczenia)
                    >
                    > No właśnie. Co dawała symulacja przeprowadzona na komputerze z wydajnością 1 gi
                    > gaflopsa? Jeśli była wiernym odwzorowaniem wybuchu bomby, to po co robić symula
                    > cję milion razy wydajniejszą? A jeśli nie była wiernym odwzorowaniem, to do cze
                    > go służyła?
                    >
                    Wiernym nie jest i dzis,jest lepsza, a to zmniejsza ryzyko,chodzi o zycie ludzi.

                    > > LAHET to potworne bydle,tylko na superkompach,bez niego nie ma LHC.
                    >
                    > A LHC korzysta przy obróbce danych z jakiegoś superkomputera?

                    Nie mam pojecia.Ale trudno by bylo bez niego podniesc taka maszyne lub podobnego alternatywnego codu (CASIM,FLUKA).
                    Mysle ze przy obrobce danych to polski student na stypedium tam bedacy moze sobie uzyc swoj laptop z powodzeniem.
                    • asteroida2 Re: Superkomputery 10.11.10, 09:57
                      > To rozroznienie bylo i bedzie,wlasnie o tym na koncu napisalem.I naczej wyglad
                      > aja telefony komorkowe kosmonautow,a inaczej moj,

                      To akurat prawda. Telefony kosmonautów są o wiele SŁABSZE niż sklepowe. A to z tego powodu że im węższe ścieżki w procesorach, tym łatwiej się przepalają pod wpływem promieniowania kosmicznego. I trzeba używać albo starych procesorów z szerszymi ścieżkami, albo wyrafinowanego oprogramowania radzącego sobie z błędami.

                      > Wiernym nie jest i dzis,jest lepsza, a to zmniejsza ryzyko,chodzi o zycie ludzi.

                      Być może jest tak jak piszesz. Z bronią nuklearną jest chyba ten problem, że odkąd nie można przeprowadzać próbnych eksplozji, ciężko ocenić wierność symulacji. Więc USA inwestuje w coraz lepsze superkomputery i w laboratoria typu NIF, obawiając się o jakość swojego starzejącego się arsenału.

                      > Mysle ze przy obrobce danych to polski student na stypedium tam bedacy moze sob
                      > ie uzyc swoj laptop z powodzeniem.

                      Tu akurat mylisz się zupełnie. Detektory LHC produkują dane z szybkością 300GB/s. Do ich filtrowania zbudowane zostały specjalne dedykowane układy, a dalsza obróbka jest rozproszona po instytutach naukowych na całym świecie. W ciągu roku ma się zbierać 10-15 PB przetworzonych danych.
                      en.wikipedia.org/wiki/LHC_Computing_Grid
                      • saucerman Re: Superkomputery 10.11.10, 16:06
                        asteroida2 napisał:

                        > > To rozroznienie bylo i bedzie,wlasnie o tym na koncu napisalem.I naczej w
                        > yglad
                        > > aja telefony komorkowe kosmonautow,a inaczej moj,
                        >
                        > To akurat prawda. Telefony kosmonautów są o wiele SŁABSZE niż sklepowe. A to z
                        > tego powodu że im węższe ścieżki w procesorach, tym łatwiej się przepalają pod
                        > wpływem promieniowania kosmicznego. I trzeba używać albo starych procesorów z s
                        > zerszymi ścieżkami, albo wyrafinowanego oprogramowania radzącego sobie z błędam
                        > i.
                        >
                        A to dosyc ciekawe.Szkoda ze nie wiedzialem to bym starych nie wyrzucal na smietnik.
                        A moze to dotyczy rosyjskiej technologii?

                        > > Wiernym nie jest i dzis,jest lepsza, a to zmniejsza ryzyko,chodzi o zycie
                        > ludzi.
                        >
                        > Być może jest tak jak piszesz. Z bronią nuklearną jest chyba ten problem, że od
                        > kąd nie można przeprowadzać próbnych eksplozji, ciężko ocenić wierność symulacj
                        > i. Więc USA inwestuje w coraz lepsze superkomputery i w laboratoria typu NIF, o
                        > bawiając się o jakość swojego starzejącego się arsenału.
                        >
                        Zakaz prob zakazem i nigdy go nikt nie przestrzegal.Dzis tylko USA ma jeszcze jakies nowe pomysly,ale ma wystarczajace symulacje i nie musi przeprowadzac tych prob.Inni zas z braku
                        nie tylko pieniedzy ale i pomyslu nie maja poprostu co probowac.

                        > > Mysle ze przy obrobce danych to polski student na stypedium tam bedacy mo
                        > ze sob
                        > > ie uzyc swoj laptop z powodzeniem.
                        >
                        > Tu akurat mylisz się zupełnie. Detektory LHC produkują dane z szybkością 300GB/
                        > s. Do ich filtrowania zbudowane zostały specjalne dedykowane układy, a dalsza o
                        > bróbka jest rozproszona po instytutach naukowych na całym świecie. W ciągu roku
                        > ma się zbierać 10-15 PB przetworzonych danych.

                        Myslalem ze kiedys chociaz obserwowales jakis experyment i rozrozniasz rejestracje(filtrowanie) od opracowania (obrobki).Wiedza tylko z internetu czasami prowadzic moze na manowce.
                        • smutas Re: Superkomputery 10.11.10, 21:17
                          > > To akurat prawda. Telefony kosmonautów są o wiele SŁABSZE niż sklepowe.
                          > A to dosyc ciekawe.Szkoda ze nie wiedzialem to bym starych nie wyrzucal

                          W tym wypadku Asteroida ma 100% racji. Kosmiczna elektronika jest generacje wstecz. Space Shuttle jeszcze w polowie lat 90-tych mialy zwielokrotniony system komputerowy oparty na...80286, mimo, ze powszechnie dostepne byly juz procesory klasy Pentium. Prmieniowanie kosmiczne nie ma milosierdza dla gigahertzow i nanotechnologii.

                          Rosyjska technologia wiele od amerykanskiej sie nie roznila. Moze poza jednym. Jak fama glosi Amerykanie wydali miliony dolarow na opracowanie piora dzialajacego w stanie niewazkosci. Rosjanie zabrali w kosmos olowki...
                          cheers
                          • saucerman Re: Superkomputery 10.11.10, 21:39
                            smutas napisał:

                            > > > To akurat prawda. Telefony kosmonautów są o wiele SŁABSZE niż sklep
                            > owe.
                            > > A to dosyc ciekawe.Szkoda ze nie wiedzialem to bym starych nie wyrzucal
                            >
                            > W tym wypadku Asteroida ma 100% racji.

                            A czy ja napisalem ze nie ma?Ma.To madry chlopak.
                            Ja tylko zaluje ze moje stare komorki nie wkladalem do woreczka ( w USA przychodzi woreczek z nowym telefonem) i nie zanosilem do recycling tylko gdzies rzucalem i potem w koncu pewnie ladowaly w smieciach.
                            To wszystko.

                            • smutas Re: Superkomputery 10.11.10, 22:04
                              Tak tez myslalem, ze to takuśny żarcik :-) Ale nie mialem pewnosci i poskim zwyczjem wolalem najpierw opireniczyc a potem czekac na skutki

                              A ja swoje stare komorki wciaz mam. Mimo recyclingowego woreczka mieszkaja sobie gdzies w szufladach. Glownie z powodu mojego braku cierpliwosci w wydobywaniu "waznych" smsow. Mowie sobie, ze je kiedys wreszcie zrzuce na peceta ale to kiedys nie nadchodzi :-)

                              PS. W Kanadzie tez przchodzi woreczek z nowym telefonem :-)
              • smutas Re: Superkomputery 09.11.10, 18:43
                Praktycznie kazde zadanie superkomputera moze byc wykonane na zwyklym pececie. Problem polega na tym - ile czasy to zajmie. Jesli taki Cray to ok. 120 tys procesorow to znaczy (nie doslownie poniewaz "overhead"), ze tyle bys potrzebowal zwyklych blaszakow do wykonania tego samego zadania w tym samym czasie.
                • asteroida2 Re: Superkomputery 09.11.10, 18:49
                  Dlatego właśnie podejrzewam, że co kilka-kilkanaście lat zmienia się zastosowanie superkomputerów. Bo zadania, które kiedyś robiły superkomputery, są potem robione na zwykłych komputerach. A zadania, które wcześniej zajęłyby więcej czasu niż wyprodukowanie następnej generacji superkomputerów, teraz zaczynają być wykonalne w rozsądnym czasie.
          • bimota Re: Superkomputery 09.11.10, 21:22
            Dlat
            > ego niektóre dawne punkty pomiarowe likwiduje się dla oszczędności bez szkody d
            > la jakości prognoz.

            Bo ta jakosc jest tak slaba, ze gorzej byc nie moze, a nic innego poza dodatkowymi pomiarami nie wymyslili... :)
        • smutas Re: Superkomputery 09.11.10, 16:51
          "To prawda. Ale do renderowania takiej grafiki nie potrzeba superkomputerów - bo wystarczy mieć dużo zwykłych komputerów i każdą klatkę filmu, albo kawałek obrazu, renderować osobno. Znalazłem informację o tym, że Avatara renderowano na 40 000 procesorów: "

          Wspolczesne superkomputery to wlasnie klastry, czyli jak to nazywano pare lat temu PoP(C) - Pile of PCes. Oczywiscie architektura tych wielkich maszyn jest troche inna. POszczegolne "komputery" to tylko plyta glowna, procesor,pamiec, HDD i jakis "high speed link" laczacy wszystko w calosc. W domu mozesz zbudowac sobie cos podobnego korzystajac z Gigabitowej sieci i odpowiedniego OS, ktory rozprowadzi poszczegolen zadania na wiele procesorow.

          I drobna uwaga; nie 124 gigaflopów, tylko 124 gigaflapsow. To "s" stoi za "sekunde" i nie powinno byc pominiete w skrucie jednostki. FLOating Point (operations) per Second
          cheers
        • llukiz Re: Superkomputery 09.11.10, 23:09
          > Może lepiej byłoby: przewidywanie dalej w przyszłość. Przykładowo jeśli złożono
          > ść wyliczania temperatury w przyszłość rosłaby 100 razy za każdy kolejny dzień,
          > to powinniśmy dzisiaj mieć prognozy o 3 dni dłuższe niż 20 lat temu.

          Jeśli chodzi o pogodę to zdecydowanie tak nie działa. Nawet na 3 dni do przodu nie ma pewności. To nie jest kwestia mocy komputerów, a teorii chaosu. Przecież tam się nie liczy ruchu każdej cząstki. Żeby uzyskać lepsze rezultaty to nie wystarczy zwiększyć częstotliwość pobierania próbek 100 razy. To to na pewno nic nie da. Może należałoby brać odczyt z każdego cm3 powietrza i gruntu, a potem gromadzić te dane i patrzyć do czego dana konfiguracja prowadzi za 4 dni. To oczywiście też by nie miało sensu, bo przez najbliższe 11131412miliardów lat nie zebralibyśmy i tak wszystkich danych. Pogody więc nie będzie można przewidzieć nigdy, tak samo zresztą jak zmian klimatu.
          • asteroida2 Re: Superkomputery 10.11.10, 10:13
            > Może należałoby brać odczyt z każdego cm3 powietrza i gruntu, a potem
            > gromadzić te dane i patrzyć do czego dana konfiguracja prowadzi za 4 dni. To oc
            > zywiście też by nie miało sensu, bo przez najbliższe 11131412miliardów lat nie
            > zebralibyśmy i tak wszystkich danych.

            Nie wiem czemu uważasz to za niewykonalne. 500 milionów km2 powierzchni, powiedzmy razy 20 kilometrów wysokości, to 10^10 km3, czyli 10^22 cm^3. Umieść w każdym cm3 nanorobota z czujnikami i radiem, połącz je w jakąś sieć hierarchiczną zbierającą dane i prześlij te dane do centrów symulujących pogodę na poszczególnych obszarach. Nie wiem jak krótki krok symulacji należałoby przyjąć, ale przyjmując np. 100 operacji na sekundę na każdy cm3, dostajemy wymaganie na moc obliczeniową 10^24 FLOPSów.
            Dzisiejsze superkomputery potrafią wykonywać 10^15 FLOPSów i ta prędkość rośnie 1000 razy co 10-12 lat. Jeśli postęp dalej będzie tak szybki, to przedsięwzięcie które tu opisałem będzie możliwe do zrealizowania za 30-40 lat.
            • stefan4 Re: Superkomputery 10.11.10, 10:31
              asteroida2:
              > Umieść w każdym cm3 nanorobota z czujnikami i radiem

              Żartujesz, prawda? Kto by w dzisiejszych czasach umieszczał stróża w każdym cm³? Obraz przestrzenny temperatur, wilgotności, składu i ruchów atmosfery uzyskamy przez jej wielopunktową obserwację z satelitów
              • asteroida2 Re: Superkomputery 10.11.10, 11:08
                > Żartujesz, prawda? Kto by w dzisiejszych czasach umieszczał stróża w każdym cm³?
                > Obraz przestrzenny temperatur, wilgotności, składu i ruchów atmosfery
                > uzyskamy przez jej wielopunktową obserwację z satelitów
                • stefan4 futurologia meteorologii 10.11.10, 20:19
                  asteroida2:
                  > To mogłoby też być wykonalne, ale wcale niekoniecznie tańsze.

                  Przechodzimy do problemów ekonomicznych?

                  W takim razie moim zdaniem nie doceniłeś liczby nanorobotów potrzebnych w Twoim projekcie. Napisałeś:

                  asteroida2:
                  > 500 milionów km2 powierzchni, powiedzmy razy 20 kilometrów wysokości, to
                  > 10^10 km3, czyli 10^22 cm^3.
                     1 km³ = (10³ m)³ = (10³·100 cm)³ = 10^15 cm³
                     20·500·10^6 km³ = 10^10 km³ = 10^25 cm³
                  

                  A nie 10^22.

                  Ale to nie ma znaczenia, bo taka gęstość obserwacji nie jest potrzebna do liczenia prognozy. Pogoda nie zmienia się radykalnie z centymetra na centymetr. Podzielmy atmosferę na plasterki kilometr na kilometr na 100 metrów (w pionie)
                  • smutas Re: futurologia meteorologii 10.11.10, 21:38
                    Super! :-) Pomysl wspanialy. A po jakich orbitach te 500mln satelit bedzie szybowac? Orbita geostacjonarna jast raczej daleko, czyli sample beda marnej jakosci. Do tego pokrylaby obszar rownikowy, no moze od zwrotnika do zwrotnika. Odczyty z wiekszych szerokosci i biegunow bylyby zafalszowane - duze katy penetracji atmosfery.

                    Pozostaja blizsze orbity i problemy nawigacyjne :-)

                    No i jak chcesz odseparowac pomiary tych 100 metrowych plasterkow?

                    Tych pare problemow technicznych to pikus w porownaniu z nanobotami - czy mamy te boty wdychac?
                    cheers
                    • stefan4 Re: futurologia meteorologii 11.11.10, 01:21
                      smutas:
                      > A po jakich orbitach te 500mln satelit bedzie szybowac?

                      Na pewno nie po geostacjonarnych, znacznie bliżej. Będą więc okrążać Ziemię stosunkowo szybko. No i dobrze, bo przecież chodzi o wiele różnych obserwacji z różnych punktów.

                      smutas:
                      > Orbita geostacjonarna
                      [...]
                      > pokrylaby obszar rownikowy

                      No właśnie. Orbity pewnie powinny być kołowe, coś jak siatka kół wielkich Ziemi przeniesiona w górę, na lekko zróżnicowane wysokości, żeby zbyt często nie dochodziło do kolizji. Na wypadek zejścia satelity z właściwej orbity, nie wiem, czy lepiej zaopatrzyć go w możliwość korekcji, czy lepiej używać, póki się da, a jak w coś rąbnie, to zastąpić nowym.

                      smutas:
                      > No i jak chcesz odseparowac pomiary tych 100 metrowych plasterkow?

                      Dlaczego mam odseparowywać? Pojedynczy satelita w każdej obserwacji widzi sumę zjawisk na linii jego obserwacji, przez wszystkie plasterki. Ale inne satelity widza inne sumy. Jak w tomografie.

                      smutas:
                      > Tych pare problemow technicznych to pikus w porownaniu z nanobotami -
                      > czy mamy te boty wdychac?

                      Jak już będziemy umieli wyprodukować 10^25 nanorobotów i równo je rozprowadzić po atmosferze, to pewnie będziemy też umieli pokryć wnętrza płuc jakimś filtrem, pomagającym w wykaszlaniu połkniętego bota...

                      Tak czy tak, tym razem w strefę fantastyki zanurzyliśmy się dosyć głęboko...

                      - Stefan
                      • smutas Re: futurologia meteorologii 11.11.10, 02:31
                        Stefanie, zaskakujesz mnie nader czesto :-)

                        Ale wciaz mam watpliwosci. Ja jako szary pracownik techniczny od telekomunikacji nie mam wiele doczynienia z tomografia. A w szczegolnosci z "tomografia planetarna".

                        "Pojedynczy satelita w każdej obserwacji widzi sumę zjawisk na linii jego obserwacji, przez wszystkie plasterki"
                        I widze wlasnie problem. W tomografie do tworzenia obrazu korzysta sie ze znacznej liczby sensorow i odniesienia, czyli lampy rentgenowskiej o znanej mocy. Do tego by uzyskac obraz wykonuje sie serie przeswietlen pod roznymi katami. Czyli przekladajac to na satelity musialyby dzialac one co najmniej w parach o przecinajacych sie orbitach. Oczywiscie nie musza byc na tej samej wysokosci. Caly proces skanowania jednego wycinka zajalby nie 10s tylko jakies 45min - polowe obiegu Ziemi + czas synchronizacji ze sparowanym satelita (oczywiscie mozlie jest, jak sugerujesz, zbieranie danych z wiecej niz jednego miejsca jednoczesnie). I tu rowniez powstaje problem. Skanowanie powinno wybranego obszaru powinno odbywac sie jednoczesnie z dwoch sat. A nie jedno po drugim. W szpitalu mozna "unieruchomic" pacjenta na czas badania i wykonac serie skanow jeden po drugim. Niestety trudno byloby spowodowac by masy powietrza zastygly w bezruchu, nawet gdybysmy bardzo ladnie o to pania Atmosfere poprosili :-)

                        cheers
                        • stefan4 Re: futurologia meteorologii 11.11.10, 10:11
                          smutas:
                          > Ale wciaz mam watpliwosci. Ja jako szary pracownik techniczny od
                          > telekomunikacji

                          I Asteroida2 i ja jesteśmy już teraz dość głęboko zatopieni w marzeniach, czyli w futurologii. Nie żądaj więc szczegółów technicznych tych marzeń. To tak, jakbyś pytał o zużycie paliwa przez latający dywan. Na tym etapie możemy omawiać tylko bardzo ogólną zasadę ewentualnego działania.

                          smutas:
                          > W tomografie do tworzenia obrazu korzysta sie ze znacznej liczby sensorow i
                          > odniesienia, czyli lampy rentgenowskiej o znanej mocy. Do tego by uzyskac
                          > obraz wykonuje sie serie przeswietlen pod roznymi katami. Czyli
                          > przekladajac to na satelity musialyby dzialac one co najmniej w parach o
                          > przecinajacych sie orbitach.

                          Dlaczego w parach? Działa naraz cały ich zespół. Zobacz, satelita ustawia kamerę na jakiś punkt na Ziemi i wylicza, przez które plastry przechodzi światło z tego punktu. Pomiar tego światła prowadzi do równania postaci:
                             siła_źródła 
                               - tłumienie_w_plastrze_1
                               - tłumienie_w_plastrze_2
                               - ...
                               - tłumienie_w_plastrze_n =
                             = siła_odebranego_sygnału
                          
                          Wszystkie rzeczy po lewej stronie są niewiadomymi. Ale z innych satelitów, patrzących pod innym katem, otrzymuje się inne równania, w których mogą wystąpić te same niewiadome. Jeśli takich obserwacji mamy wystarczająco dużo, to układ równań będzie miał jednoznaczne rozwiązanie i będziemy znali tłumienie we wszystkich plastrach. Zależnie od rejestrowanej częstotliwości (koloru) światła, to nam da informację albo o zawartości pary wodnej (i grubości kropel) w każdym plastrze, albo o temperaturze, itp.

                          smutas:
                          > Caly proces skanowania jednego wycinka zajalby nie 10s tylko jakies 45min

                          A skąd ta liczba? Jeśli z tomografii, to uważam to za nieuprawnioną ekstrapolację. Tomografię można by znacznie przyspieszyć, dodając kamery, ale nie ma po co, więc się tego kosztu nie ponosi.

                          W przewidywaniu pogody jest po co. Dla uzyskania wielu równań jest obojętne, czy
                          • jedna kamera będzie wielokrotnie pstrykać, ustawiając się coraz to pod nowym kątem (jak w tomografie), czy
                          • wiele kamer, patrzących pod różnymi kątami, pstryknie po jednym razie.
                          Masz rację, że z powodu zmienności pogody, sposób pierwszy (tomograficzny) jest niewłaściwy.

                          - Stefan
                          • smutas Re: futurologia meteorologii 11.11.10, 18:00
                            Dzieki za poswiecenie cennego czasu na marzenia o latajacym dywanie:-)

                            "smutas:
                            > Caly proces skanowania jednego wycinka zajalby nie 10s tylko jakies 45min

                            A skąd ta liczba? Jeśli z tomografii, to uważam to za nieuprawnioną ekstrapolację."

                            Masz racje, mozna pstrykac zjecia wiekszego wycinka i w ten sposob tworzyc mozaikowa mape. Czas 45 min wynika z predkosci orbitalnej pojedynczego satelity. Ale faktycznie, mozna wykonywac fotografie danego wycinka przez wiele satelit. Jednak by dane byly poprawne, dobrze by bylo, by te fotografie byly robione w jednej plaszczyznie. Mamy ok. 500mln satelit wiec problem powinien byc rozwiazywalny:-)
                            cheers
                          • losiu4 Re: futurologia meteorologii 15.11.10, 11:58
                            siła_źródła
                            - tłumienie_w_plastrze_1
                            - tłumienie_w_plastrze_2
                            - ...
                            - tłumienie_w_plastrze_n =
                            = siła_odebranego_sygnału
                            Wszystkie rzeczy po lewej stronie są niewiadomymi. Ale z innych satelitów, patrzących pod innym katem, otrzymuje się inne równania, w których mogą wystąpić te same niewiadome.

                            i już masz niedokładność, i to dość sporą. Kąty i grubość plastra i - jak rozumiem - sztuczne założenie o jego jednorodności (jaki jest jego rozmiar)? To w połączeniu z równaniami hmmm... dość wrazliwymi na wszelkie "niedokładności"...

                            Pozdrawiam

                            Losiu
                            • stefan4 Re: futurologia meteorologii 15.11.10, 12:19
                              losiu4
                              > i już masz niedokładność, i to dość sporą.

                              Tak. I pole do cyzelowania i poprawiania dokładności. Dokładnie przed tym samym problemem stał skaning nowotworowy i jakość jego obrazowania stopniowo stawała się coraz lepsza. Podobny proces czeka nas i tutaj
                              • losiu4 Re: futurologia meteorologii 15.11.10, 14:50
                                tylko jedno, tak na szybko. Plaster kilometr na kilometr przy ziemi, choć dokładnosc wydaje sie niezła... Już Ci współczuję :)

                                Pozdrawiam

                                Losiu
            • llukiz Re: Superkomputery 10.11.10, 13:47
              > Nie wiem czemu uważasz to za niewykonalne

              Nieprecyzyjnie się wypowiedziałem. Nie tyle zebranie info z jakiejś bardzo dużej ilości punktów jest nie wykonalne, co wyliczenie na tej podstawie przyszłej pogody. Chodzi o ten efekt motyla. Wyniki się po prostu rozjeżdżają.

              pl.wikipedia.org/wiki/Efekt_motyla_%28fizyka%29
        • gmarek111 Re: Superkomputery 14.11.10, 13:53
          Po pierwsze trzeba pamiętać, że na wyniki benchmarków superkomputerów należy patrzeć z pewną dozą nieufności. Nie jest tak, że superkomputer jest miliony razy szybszy od zwykłego laptopa w każdym możliwym zastosowaniu. Superkomputery nie mają pojedynczych, niesamowicie szybkich procesorów, a po prostu bardzo dużo 'zwyczajnych' (albo podobnych). Problem jest taki, że nie wszystko można 'zrównoleglić', czyli napisać tak, żeby wykorzystywało wszystkie procesory. To tak jak z budową domu - nawet jak się zatrudni tysiąc murarzy i każdemu da po cegle, to dom nie stanie w minutę. Najpierw trzeba wylać fundamenty, a potem cegły kłaść od dołu do góry. Tak samo jest z algorytmami - niektóre mają to do siebie, że (w dużym uproszczeniu) najpierw trzeba coś skończyć, żeby można było zacząć pracować dalej - wtedy superkomputery ze swoimi tysiącami procesorów wcale nie są dużo szybsze od 'zwyczajnych' desktopów.

          Po drugie, nie jest tak, że jeśli będziemy mieli milion razy szybszy komputer, to będziemy mogli obrobić milion razy większe dane w tym samym czasie. Problemy w informatyce dzieli się pod względem tego, jak bardzo rośnie czas potrzebny do znalezienia rozwiązania, w stosunku do wielkości problemu. Czyli mamy liniowe (jeśli dane wzrosną 3 razy, to będzie potrzeba 3 razy więcej czasu), kwadratowe (jeśli dane wzrosną 3 razy, to będzie potrzeba 9 razy więcej czasu [ogólnie - jeśli wzrosną k razy, to trzeba będzie k^2 razy więcej czasu], itd. To są te 'proste' problemy. Sporo problemów jest 'trudnych', czyli wykładniczych - jeśli dane wzrosną k razy, to będzie potrzeba 2^k razy więcej czasu [k = 1 -> 2 razy więcej czasu, k = 3 -> 8 razy więcej, k = 10 -> 1024 razy więcej itd.]. Są nawet ważne problemy o niepierwotnie rekurencyjnej złożoności [ask google].

          Fizyczne problemy często sprowadzają się do jakichś obliczeń na macierzach. Mnożenie macierzy ma złożoność sześcienną (n^3) [tak naprawdę n^2,costam], więc wszelkie modelowania fizyczne mają to do siebie, że 1000 razy szybszy komputer może obsłużyć tylko 10 razy większe dane. To już nie wygląda tak niesamowicie, prawda? Szczególnie, że to jest szacowanie od góry.

          Poza fizycznymi zastosowaniami (modelowaniem czegokolwiek - pogody, aerodynamiczności czegoś, działania pieca hutniczego), są jeszcze np. biologiczne/medyczne. Na superkomputerach przewiduje się kształt białek, czy działanie nowych leków. Te problemy w ogólności są 'trudne' (wykładnicze), ale przybliża się rozwiązania przy pomocy 'prostych' (wielomianowych) algorytmów.

          Wszystko bardzo upraszczam, z czego zdaję sobie sprawę, więc proszę mi tego nie wytykać. Po prostu nie mam ochoty wchodzić w szczegóły.
          • stefan4 Re: Superkomputery 14.11.10, 14:51
            gmarek111:
            > Sporo problemów jest 'trudnych', czyli wykładniczych - jeśli dane wzrosną k
            > razy, to będzie potrzeba 2^k razy więcej czasu [k = 1 -> 2 razy więcej
            > czasu, k = 3 -> 8 razy więcej, k = 10 -> 1024 razy więcej itd.].

            Ogólnie masz rację, ale to akurat przedstawiłeś nieprawidłowo. Jeśli złożoność algorytmu wynosi Ω(2^n), to nie da się jednolicie określić, ile razy wzrośnie czas wykonania obliczeń dla danych k-krotnie większych
            • gmarek111 Re: Superkomputery 14.11.10, 22:12
              Informatycy złożoności podają w O, a nie Ω. Także wszystkie stałe znikają, a podstawa nie ma znaczenia. Masz oczywiście racje - tak jak zaznaczyłem, wszystko upraszczałem, żeby nie wdawać się w konkretne obliczenia. I tak mało kto zdaje sobie sprawę jak szybko rośnie funkcja wykładnicza.
              • stefan4 Re: Superkomputery 14.11.10, 23:11
                gmarek111:
                > Informatycy złożoności podają w O, a nie Ω.

                Oba oznaczenia są stosowane w analizie złożoności algorytmów, chociaż Wikipedia podaje Θ w tym sensie, w jakim stosowałem Ω. OK, z tym nie będę się kłócił. Definicje są takie:

                f ∈ O(g) (czasem pisane f = O(g)) oznacza:
                f rośnie asymptotycznie nie szybciej niż g;
                czyli istnieje taka stała c, że
                   f(n) < c·g(n) dla (prawie) wszystkich n.                     (*)
                

                f ∈ Θ(g) (czasem pisane f = Θ(g)) oznacza:
                f rośnie asymptotycznie asymptotycznie tak samo szybko jak g;
                czyli jednocześnie
                   f ∈ O(g)    oraz    g ∈ O(f).
                

                Tak więc te oba stwierdzenia
                • ,,sortowanie bąbelkowe działa w czasie O(n²)'', oraz
                • ,,sortowanie bąbelkowe działa w czasie O(n³)''
                są prawdziwe, ale drugie z nich zawiera mniej informacji. Natomiast dla Θ jest inaczej:
                • stwierdzenie ,,sortowanie bąbelkowe działa w czasie Θ(n²)'' jest prawdziwe
                • stwierdzenie ,,sortowanie bąbelkowe działa w czasie Θ(n³)'' jest nieprawdziwe


                gmarek111:
                > Także wszystkie stałe znikają, a podstawa nie ma znaczenia.

                Nie znikają wszystkie stałe, a tylko mnożniki; podstawy wykładnicze oczywiście mają znaczenie. Np. sprawdź z definicji (*), czy 3^n ∈ O(2^n). Jest tak:
                   3^n / 2^n  =  (3/2)^n  →  +∞
                
                więc ten ciąg nie może dać się ograniczyć żadną stałą c.

                - Stefan
            • bimota Re: Superkomputery 15.11.10, 14:17
              Ogolnie masz racje, ale ogolnie akurat juz wczesniej o tym wspomniane bylo.
        • lisa2 Re: Superkomputery 15.11.10, 01:50
          Takimi najpowszechniejszymi zastosowaniami jest na pewno SZYFROWANIE DANYCH. Na drugim miejscu PROGNOZOWANIE POGODY - i to w tej kolejności.

          Obliczenia typu astronomicznego, szybkie wyliczanie orbit obiektów orbitalnych, nawigacja lotnicza - to już chyba mniejszy problem dla komputerów.

          Dlaczego szyfrowanie danych uznaję za najpowszechniejsze działanie dla superkomputerów - najpierw trzeba było opracować i sprawdzić odpowiednie algorytmy na superkomputerach i tam opracować metody ochrony komputerów do zastosowań powszechnych. Prace nad szyfrowaniem zostaną niebawem zakończone lub zajmą niewielką niszę w zastosowaniach komputerów - ponieważ nie będzie już sensu wymyślać nowych metod do wymyślania jakichś tam kolejnych liczb służących za podstawę szyfrów.

          Drugie miejsce - Prognozowanie pogody - dopóki ludzie nie skonstruują urządzeń do jednoznacznej zmiany pogody na oczekiwaną, to przewidywanie będzie zawsze potrzebne - choćby w celach rolnictwa. Skończy się to tylko, gdy i ludzie i rolnictwo zejdzie pod przykrycie.

          Pozostanie tylko modelowanie zjawisk fizycznych do celów praktycznych, a te będą na wagę sklepowych wpływów, lub podporządkowania sobie społeczeństw.
          • asteroida2 Re: Superkomputery 15.11.10, 10:10
            > Dlaczego szyfrowanie danych uznaję za najpowszechniejsze działanie dla
            > superkoputerów - najpierw trzeba było opracować i sprawdzić odpowiednie algorytmy
            > na superkomputerach i tam opracować metody ochrony komputerów do zastosowań
            > powszechnych.

            Obawiam się, że zupełnie nie orientujesz się w kryptografii. Algorytmy szyfrowania odpracowuje się... na kartkach papieru. Nikt nie używa do tego superkomputera, bo co niby miałoby to dać? Aktualnie używany standard został wybrany na drodze konkursu:
            pl.wikipedia.org/wiki/Advanced_Encryption_Standard
            Oprócz niego używa się kilku algorytmów szyfrowania z kluczem publicznym
            pl.wikipedia.org/wiki/Kryptografia_klucza_publicznego
            Są one bardzo proste, ponieważ w kryptografii przyjmuje się zasadę, żeby nie opierać bezpieczeństwa na złożoności algorytmu, tylko na tajności klucza prywatnego. A to z tego powodu, że im bardziej skomplikowany algorytm, tym większa szansa, że istnieją w nim luki które może zaatakować haker. Dlatego używa się bardzo prostych i powszechnie znanych algorytmów, połączonych z długimi losowymi ciągami bitów jako klucze prywatne.

            > Prace nad szyfrowaniem zostaną niebawem zakończone lub zajmą niewielką niszę
            > w zastosowaniach komputerów - ponieważ nie będzie już sensu wymyślać nowych
            > metod do wymyślania jakichś tam kolejnych liczb służących za podstawę szyfrów

            "Liczb służących za podstawę szyfrów" nie wymyśla się, tylko się je losuje. I nie potrzeba do tego superkomputera, wystarczy prosty pecet. Superkomputery za to można wykorzystać do łamania szyfrów. Ale to z kolei sprawia, że w miarę wzrostu szybkości superkomputerów trzeba używać coraz dłuższych kluczy, albo wymyślać zupełnie nowe metody szyfrowania, takie jak na przykład kryptografia kwantowa:
            pl.wikipedia.org/wiki/Kryptologia_kwantowa
      • saucerman Re: Superkomputery 10.11.10, 16:58
        stefan4 napisał:
        >
        > Jeszcze należy pamiętać o tym, że w pewnych zadaniach milionkrotny wzrost prędk
        > ości nie posuwa nas zbyt daleko. Na przykład, gdyby 20 lat temu potrafiono w s
        > ensownym czasie policzyć wyznacznik macierzy stopnia 999,999 przez rozwinięcia
        > Laplace'a, to teraz, gdy prędkość wzrosła milionkrotnie, potrafimy w tym samym
        > czasie policzyć wyznacznik macierzy stopnia 1,000,000 czyli o jeden większego.
        > Oczywiście nikt nie liczy wyznaczników przez rozwinięcia Laplace'a; to tylko i
        > lustruje, co się może zdarzyć, jeśli złożoność jakiegoś algorytmu jest asymptot
        > ycznego rzędu n!.
        >
        A po coz to komu potrzebne? A moze to tak dla sportu?
        Liczb naturalnych jest nieskonczenie wiele,zawsze znajdzie sie rzad niepoliczony.

        > Tak chyba jest z pogodą: bardzo znaczne zwiększenie mocy obliczeniowej pozwolił
        > o nam na tylko trochę dokładniejsze jej przewidywanie...
        >
        Tak jest ze wszystkim,ze malpowanie tego samego nie prowadzi zwykle do istotnej zmiany.
        Potrzeba nowej idei (pomyslu), i po to jest czlowiek,ktorego komputer nie moze zastapic.

    • llukiz Re: Superkomputery 09.11.10, 23:23
      Mam wrażenie że wystarczyło kliknąć na angielska wersję wiki byś dowiedział się do czego się ich uzywa.

      en.wikipedia.org/wiki/Supercomputer
      • asteroida2 Re: Superkomputery 10.11.10, 09:40
        Czytałem:

        "Supercomputers are used for highly calculation-intensive tasks such as problems involving quantum physics, weather forecasting, climate research, molecular modeling (computing the structures and properties of chemical compounds, biological macromolecules, polymers, and crystals), physical simulations (such as simulation of airplanes in wind tunnels, simulation of the detonation of nuclear weapons, and research into nuclear fusion)."

        I niestety są to straszne ogólniki. Jedyne podane tu konkrety, jak symulacje aerodynamiki albo eksplozji jądrowych, były wykonywane na komputerach milion razy słabszych i o tych wątpliwościach pisałem. Nowe jest problem zwijania białek: ale takie projekty jak Folding@home mają moc obliczeniową większą niż największe superkomputery, więc wydawanie na nie miliardów z budżetu byłoby podejrzane.
        • stefan4 Re: Superkomputery 10.11.10, 10:16
          asteroida2:
          > takie projekty jak Folding@home mają moc obliczeniową większą niż
          > największe superkomputery, więc wydawanie na nie miliardów z budżetu
          > byłoby podejrzane.

          Są projekty, w których niemożliwe, lub niewskazane, byłoby korzystanie z takiego rozproszenia obliczeń. Nie można go stosować w rachowaniu rzeczy poufnych. Nie można w projektach, w których potrzebna jest gwarancja dysponowania potrzebną mocą obliczeniową natychmiast, a nie dopiero za godzinę, kiedy miliony użytkowników skończą oglądać właśnie rozpowszechniony film o sympatycznych marines, którzy właśnie wymordowali całą obcą planetę, ale za to z czarnej dziury w gwiazdozbiorze Grhmnt uwolnili piękną Plutoninkę...

          Ponadto Folding@home działa, póki takich rozproszonych projektów obliczeniowych jest niewiele. Każdy nowy ogłoszony projekt zmniejsza pulę komputerów, z których może korzystać Folding@home.

          Wiec te superkomputery są (być może) i tak potrzebne...

          - Stefan
          • europitek Re: Superkomputery 13.11.10, 02:25
            Na "Allegro" pojawiła się oferta sprzedaży kart Tesla, których użyłi Chińczycy. Cena za sztukę to 8900.- zł.
    • pomruk Re: Superkomputery 10.11.10, 00:45
      To, co mi natychmiast przyszło na myśl: przewidywanie struktur białkowych, a zwłaszcza przewidywanie struktur trzeciorzędowych wychodząc wyłącznie od struktury pierwszorzędowej (sekwencji aminokwasów). Zdecydowanie nie było tego jeszcze przed 20 laty: obecnie wymaga dobrych superkomputerów albo też ogromnych systemów obliczen rozproszonych takich jak Folding@Home. Zdecydowanie jest to jedno z tych zastosowań, które mogło byc urzeczywistnione dopiero w naszych czasach. Co z kolei obiecuje w nastepnych latach ogromne sukcesy w dziedzinie "protein design" - wydaje mi się, że rezultaty odczujemy na własnej skórze o wiele wcześniej niż doczekamy się niezłych prognoz pogody na tydzień naprzód...
    • losiu4 Re: Superkomputery 10.11.10, 10:49
      a bo widzisz, problem jest gdzie indziej. Nie w szybkosci mierzonej we flopsach a w systemie operacyjnym, połączeniach i samym programie.

      Pozdrawiam

      Losiu
    • sabbr Re: Superkomputery 11.11.10, 07:48
      Proponuję wprowadzić definicj superkomputera.

      Superkomputer sprzed kilkunastu lat ma moc obliczeniową dzisiejszego PC - w przybliżeniu.

      We wszystkich tych rozważaniach nie birzecie pod uwagę udoskonalania algorytmów - przy pomocy lepszych algorytmów to samo można obliczyć z wykorzystaniem wielokrotnie mniejszej mocy obliczeniowej. A postęp w tej dziedzinie jest ogromny!

      Nie jest także brana pod uwagę zwiększenia pojemności pamięci RAM. Więcej pamięci - więcej parametrów wejściowych - w niektórych rozwiązaniach przyspiesza to znakomicieprędkość obliczeń.

      Proponuję następujące zdefiniowania słowa superkomputer:

      1. Przetwarzanie FLOPS lub MIPS lub kombinacja tych parametrów (klasyczne testy) - jeżeli moc danego komputera przekracza np. 100-krotnie moc nowego PC (np. komputera jednoprocesorowego w cenie do 500$). Jeżeli nie osiąga juz zaproponowanego parametru 100krotności - przestaje być superkomputerem.
      Wady tej definicji: jeden komputer lepiej wykonuje jednego rodzaju obliczenia, inny inne. Wpływ działania karty graf., zastosowana pamięć, bios no i system operacyjny nieco mogą zniekszałcać wyniki testów FLOPS i MIPS.

      2. praktyczny test: czas modelowania/renderowania jakiegoś konkretnego zadania. Jeżeli komputer wykona je szybciej np. 100 razy niż PC za 500$ - jest superkoputerem.
      Wady - właściwie jw.

      3. W dobie przetwarzania rozproszonego (obliczanie może się odbywać równocześnie z wykorzystaniem wielu komputerów rozmieszczonych w różnych miejscach świata) jest możliwa inna definicja. Jeżeli badacz ma do dyspozycji moc obliczeniową przekraczającą 100krotność szybkości zwykłego PC (mierzona np. jako średnia szybkość wykonywania konkretnego zadania w ciąu godziny pracy) - ma do dyspozycji superkomputer. Bowiem np. 200 zwykłych PC połączonych iecią też może być superkomputerem! - np. program SETI.

      Czekam też na inne propozycje.




      • bimota Re: Superkomputery 11.11.10, 11:29
        Testy sa juz chyba zdefiniowane skoro uzywa sie tych MIPSow... Tylko sie zastanawiam nad tym laczeniem kilku komputerow... Wydaje sie, ze dla czesci zadan takie laczenie jest bardziej efektywne, dla innych mniej (wzrost liczby komputerow daje maly przyrost szybkosci)...

        Ale po co to definiowac ? Dla mnie moze sie on nazywac nawet kiepskimkomputerem...
      • asteroida2 Re: Superkomputery 11.11.10, 15:18
        > Czekam też na inne propozycje.

        Może taką: Superkomputer to każdy komputer, który w danym momencie jest jednym z 500 najszybszych komputerów na świecie.

        (Zamiast 500 można wziąć dowolną inną liczbę, byle tylko była wyraźnie mniejsza od liczby komputerów na świecie.)
        • danioo126 Re: Superkomputery 14.11.10, 14:17
          Pewnie już pisano o tym, ale superkomputery są wykorzystywane do analizy zderzeń cząstek elementarnych. Jest to przedstawione m. in. w książce "Boska Cząstka" Ledermana.
    • drupal Re: Superkomputery 14.11.10, 14:10
      Myślę, że większość mocy dzisiejszych superkomputerów idzie na SZPIEGOWANIE.
      Analiza zdjęć satelitarnych, rozmów telefonicznych, emaili, smsów, danych z wideomonitoringu, dekodowanie informacji itp.
      Komputery używane przez naukowców to już nie superkomputery tylko wydajne, mocne, ale zwykłe komputery w porównaniu z mocą superkomputerów używanych przez wojsko i służby.
      A renderowanie grafiki 3D i efektów specjalnych do filmów robi się na sprzęcie specjalnie do tego przeznaczonym, połączonym w tzw. farmy czy klastry.
      Ale to nie superkomputery, tylko wydajne systemy renderingu.
      Nawet ludzki kod DNA nie był rozpracowany przez superkomputery, bo państwa mają ważniejsze rzeczy na głowie niż nauka: muszą wiedzieć, co ich obywatele kombinują i co kombinują ich wrogowie.
      Superkomputery w służbie nauki to bajki.
      • smutas Re: Superkomputery 14.11.10, 19:08
        Nie zdaje mi sie by szpiegowanie bylo tak zasobozerne. Zreszta wystarczy spojrzec na:
        www.bbc.co.uk/news/10187248
        i kliknac na zakladke "applications" by zobaczyc iz prawie 50% najmocniejszych superkomputerow to maszynki dzialajace w badaniach i w uczelniach. Np. ogromne zasoby potrzebne sa do przetwarzania danych z obserwacji nieba. Nie mowiac juz o projektach takich jak CERN..

        cheers
      • smutas Re: Superkomputery 15.11.10, 05:36
        "(...)renderowanie grafiki 3D i efektów specjalnych do filmów robi się na sprzęcie specjalnie do tego przeznaczonym, połączonym w tzw. farmy czy klastry. Ale to nie superkomputery, tylko wydajne systemy renderingu."

        Kiedys to wlasnie przemysl filmowy korzystal z najwydajnieszych komputerow. Czego przykladem jest szybki wzrost Silicon Graphics w latach osiemdziesiatych. Ale czasy sie zmienily i ten dzial sie "wypalil", chociaz Holliwood nigdy nie byl ich najwiekszym odbiorca. Tzn. rozwoj wydajnych pecetow zabil potrzebe budowania dedykowanych i drogich systemow na potrzeby kinomatografii. Gore wziely przeslanki ekonomiczne. Wytwornie chcialy tworzyc duzo i szybko a nie inwestowac w drogie technologie. I tak dzisiaj klientami SGI sa placowki naukowe, energetyka i rzad.

        Jednak mowienie, ze systemu uzywane do grafiki 3D i animacji to "tylko" farmy i klastry jest nieporozumieniem. Bo superkomputery nie sa niczym innym jak wlasnie klastrami. Moze tylko odroznia je od tanich "Pile of PCes" inny rodzaj polaczenia miedzy wezlami i ilosc procesorow na pojedynczej plycie (np. 512 x Itanium ). W tanich systemach stosuje sie zwykly 1Gb Ethernet a superkomputerach lacza jak np NUMAlink laczace Scalable Node w systemach SGI. Monolityczne rozwiazania znane ze starszych systemow Cray w zasadzie dzis juz sie nie spotyka. Chociaz elementy tych rozwiazan nadal sie stosuje (HIPPI data bus )

        "Superkomputery w służbie nauki to bajki."
        Patrz poprzedni moj post z linkiem do statystyk dt. superkomputerow. Czyli zadne to baji tylko rzeczywistosc.
    • rafal_p_2010 Re: Superkomputery 14.11.10, 14:36
      sa rozne tzw. superkomputery, roznice wynikaja oczywiscie z celu zastosowania.
      1. przykladowo maiframe w banku, ministerstwach, zus-ach itp sluza do przetwarzania olbrzymich ilosci danych. sluza jako systemy online do wykonywania roznych operacji np. bankomaty, np. monintoring obiektow z gps. itd.

      2. sa superstacje graficzne - google pewnie taka ma do obrobki zdjec, np satelitarnych, w policji zapewne wyszukuja podobiensto zdjec twarzy z tymi w bazie itp. na pewno musza sie nimi poslugiwac projektanci np. samochodow do wizualizacji, symulacji itp.

      3. sa super komputery w fizyce do symulacji reakcji, rozkladu jakich czastek, itp.

      4. w wojsku w polsce to glownie bazy danych, ale w osrodkach research w stanach to faktycznie symulacje i nie tylko magiczne, ale np. oplyw powietrza wokol skryzdla mysliwca itp.

      5. ekonomia ! to temat rzeka. mnostwo modeli, mnostwo danych, wskazniki ekonomiczne, duze bazy, duzo matematyki, statystyki.

      im wieksza moc obliczeniowa tym dokladniejsze obliczenia, sybsze reakcje w systemach i obliczeniach online, wieksze mozliwosci symulacji, i na pewno obecne moce nie sa wystarczajace w wielu przypadkach, wczesniej po prostu oprogramowanie bylo stworzone do teamtejszych mozliwosci. znacznie mniej bylo mozliwosci, teraz jest wiecej po prostu. zapewne dopiero teraz dzieki dostepnej mocy stalo sie mozliwe przetwrzanie w niektorych dzidzinach.
      \waznym aspektem jest cena. cena symulacji moze byc nieporownywalnie tansza niz rzeczywiste doswiadczenie. czasem nawet rzeczywiste doswiadczenie nie jest mozliwe.
      co do zapotrzebowania na moc to biorac pod uwage ilosc np. danych, ilosc ludzi, ilosc zakupow, ilosc czasteczek itd. i przykladajac to do dostepnej mocy na pewno jej brakuje.
      • smutas Re: Superkomputery 15.11.10, 05:54
        "> sa rozne tzw. superkomputery, roznice wynikaja oczywiscie z celu zastosowania.
        > 1. przykladowo maiframe w banku, ministerstwach, zus-ach itp"

        Mainframe nie sa superkomputerami. To dwie rozne rzeczy. Mainframe nigdy nie byly "demonami predkosci". Byly, i sa nadal, za to nieslychanie niezawodne - np. sredni czas pracy takiego systemu bez "restartu" to 15 a nawet 20-pare lat! U mnie w pracy np. mainframe zostal "odpalony" w 1998 roku i od tej pory nie byl wylaczony. Mainframe to ogolnie ujmujac, jeden komputer z tysiacem terminali --> kalwiatura + monitor. Praca z ta mszynka NIE jest interatywna. Uzytkownik uruchamia "job" i czeka na swoja kolej. Czyli wynik moze byc jutro rano.

        Bankomaty napedzane sa najzwyklejszymi pecetami z Windowsem na pokladzie. Raczej malo prawdopodobne jest by bankomat bezposrednio laczyl sie z mainframe. Bezpieczenstwo takie systemu polega w znacznym stopniu na jego izolacji :-)
    • apas13 Re: Superkomputery 14.11.10, 17:10
      Cóż, wszystko jest kwestią skali. Wraz ze wzrostem mocy obliczeniowej superkomputerów rośnie precyzja obliczeń, które mozna wykonać w tym samym czasie. O ile superkomputer sprzed 20 lat, symulując pogodę, uwzgledniał, powiedzmy, 150 zmiennych, z których każda przyjmowała wartość ośmiobitową, to współczesny superkomputer może policzyć równanie rozwoju cyklonu z uwzględnieniem 1000 zmiennych z szesnastobitową próbką i czas obliczeń będzie taki sam. Mówiąc krótko, zwiększona moc oznacza zwiększoną precyzję obliczeń, możliwość "obejrzenia" większej ilości możliwych scenariuszy, zastosowanie lepszych, bardziej odpowiedających rzeczywistości modeli. Zatem - tematyka badań może być wciąż ta sama, zmienia się "tylko" precyzja i skala obliczeń.
    • atrakcyjny_prosiak Re: Superkomputery 14.11.10, 18:57
      Zastosowania superkomputerów są podobne, ale z biegiem czasu można atakować coraz to bardziej złożone przybliżenia danego problemu. Na przykład największe obecne komputery mają powiedzmy 64^3 rdzeni obliczeniowych (są już większe, ale to dobry przykład). Jeżeli teraz chcesz przewidywać pogodę (albo klimat !) na całej kuli ziemskiej, to możesz podzielić to zadanie na podzadania odpowiednio: 64 w kierunku EW x 64 w kierunku NS x 64 w pionie (w praktyce w pionie daje się mniej, a w poziomie więcej - atmosfera to bardzo cienka warstwa). Na równiku odpowiada to podzieleniu obwodu na kawałki co mniej więcej 600 km, tymczasem pojedyncza chmura, z której pada nam na głowę ma rozmiar 1 km. Jak więc widać, w tej dziedzinie jest jeszcze mnóstwo przestrzeni do wypełnienia przez przyszłe superkomputery, a która rozpoczęła się wraz z ENIACem, a nawet ponad 30 lat wcześniej z zeszytem i ołowkiem.
      Dla zainteresowanych polecam:
      en.wikipedia.org/wiki/Numerical_weather_prediction
      Jak zatem sobie teraz radzimy ? Kilka centrów obliczeniowych na świecie oblicza prognozę dla całego globu (każdy swoją), potem służby meteo używają jednej lub kilku z tych "zgrubnych" prognoz do obliczenia bardziej dokładnej wersji dla interesującego ją terytorium.
    • max_heiliger przeciez to oczywiste 14.11.10, 20:03
      superkomputery służą supernaukowcom do grania w supergry ( oczywiscie tylko w ramach nadgodzin ), superpłatnych bo i jakby inaczej
    • eggi87 Re: Superkomputery 14.11.10, 20:05
      Tutaj jest link, do stronki z grantami obliczeniowymi przyznanymi na wykonanie obliczeń w dziale Komputerów Dużej Mocy w ICM: granty.icm.edu.pl/IcmGrants/displayGrant/showGrants.jsp. Jak widać, wiele z nich przyznanych jest na badania związane z biologią, chemią i fizyką.
      • asteroida2 Re: Superkomputery 14.11.10, 22:23
        Dzięki, to jest ciekawe źródło. O coś takiego mi chodziło.
        • miron999 Re: Superkomputery 15.11.10, 09:59
          Materiały związane z europejskimi superkomputerami są dostępne na stronie: www.prace-project.eu/documents Również informacje o tym, co sie na nich liczy. Bynajmniej nie liczy się broni nuklearnej ani kolejnego odcinka ToyStory;)
    • mariusz2010 Re: Superkomputery 15.11.10, 10:57
      Tak jak do przewidywania pogody, współczesne superkomputery coraz lepiej nadają się do symulacji skutków podjęcia takiej, czy innej decyzji politycznej, lub gospodarczej. Ich rola w podejmowaniu tych decyzji będzie się zwiększać wraz z wzrostem wydajności maszyn i z coraz większą możliwością uzyskiwania danych drogą elektroniczną.
      To coraz doskonalsze narzędzie pomagające uniknąć błędów, ale także wspomagające próby manipulacji społeczeństwem.
      • asteroida2 Re: Superkomputery 15.11.10, 11:49
        Potrafisz podać jakieś źródła tych rewelacji?
        Zebranie jakich danych drogą elektroniczną mogłoby "wspomóc próby manipulacji społeczeństwem"? I jaki miałby być udział superkomputerów? Obliczałyby, jak się zachowają ludzie?
        • mariusz2010 Re: Superkomputery 15.11.10, 13:52
          Danych w internecie jest więcej już teraz niż gdziekolwiek. Fora, portale, blogi itd, itd. Do tego dochodzą zapisywane na dyskach rozmowy telefoniczne itp. Nie jest problemem, przy pomocy odpowiednich programów uzyskać interesujące informacje. Oczywiście, nie działa tu jeszcze żadna sztuczna inteligencja,. Niemniej możliwości są ogromne, ograniczone tylko teorią chaosu i rachunkiem prawdopodobieństwa. Schematy możliwości sterowania nastrojami społeczeństwa dawno już zostały opracowane i wciąż się je doskonali. Komputery pozwalają tylko zrobić to lepiej, właśnie dzięki możliwościom symulacji.
          • asteroida2 Re: Superkomputery 15.11.10, 14:16
            > Niemniej możliwości są ogromne, ograniczone tylko teorią chaosu i rachunkiem
            > prawdopodobieństwa. Schematy możliwości sterowania nastrojami społeczeństwa
            > dawno już zostały opracowane i wciąż się je doskonali.

            Możesz przybliżyć ten temat? Co to są te "schematy możliwości sterowania nastrojami społeczeństwa" i kto je opracował?
            Bo kojarzy mi się to tylko z propagandą, która jest bardzo łatwa gdy ma się scentralizowane media. Ale gdy istnieje dużo konkurujących ze sobą źródeł informacji, w jaki sposób można sterować nastrojami społeczeństwa? I co mogłyby symulować tu superkomputery?
    • nikt_inny Re: Superkomputery 17.11.10, 15:31
      komputerów używamy do obliczania "wyznacznika macierzy stopnia 999,999 przez rozwinięcia Laplace'a"
      kolega odpowiedział wyczerpująco.. chyba..?
Inne wątki na temat:
Pełna wersja