spowalniacze grafiki w grach komputerowych

15.04.03, 13:32
jest rok 1990: w grach komputerowych wchodzi grafika 256 kolorów. procesory
stają się coraz szybsze; standardem jest słaby 386

jest rok 1994: w grach wchodzi wysoka rozdzielczość; procesory stają się
coraz szybsze - standard: 486DX

rok 1996: gry trójwymiarowe tpp i fpp oraz wielkie pojemnościowo gry na cd-
rom to standard; procesory... a standardem pentium 120mhz

rok 1998: akceleracja graficzna itp. procesory - itp; pentium II 200mhz

rok 2000: gry osiągnęly swoją ostateczną postać i jakiekolwiek większe zmiany
graficzne wiązały by się z produkowaniem gry przez 5 lat i 1000 osób
(orientacyjnie); pentium III 400 mhz


mijają kolejne lata a w grafice komputerowej w grach niewiele się zmienia. a
procesory są nadal coraz szybsze! pytanie brzmi: po co? wtedy, przez ostatnie
kilkanascie lat był sens - wiecej kolorów, wyzsza rozdzielczość, trójwymiar,
akceleracja itd. a teraz? jak widze nową gre to technicznie przypomina tę
sprzed 3 lat, tyle tylko że ma 3 razy wyższe wymagania sprzętowe.

jak to sie dzieje? sprawa jest prosta; koncerny 3mające łapę na grach
komputerowych montują w nich specjalne spowalniacze grafiki, tak by działąły
nieudolnie na słabszych maszynach. partolenie engine'u gry, popularne jeszcze
5-8 lat temu dzis nie wystarcza. to sie teraz odbywa z premedytacją...

mam na to dowody. czy ktoś chce je usłyszeć?
    • Gość: Xionc Re: spowalniacze grafiki w grach komputerowych IP: 213.77.7.* 15.04.03, 14:01
      chętnie...
      ja sam mam jeden przykład: seria gier Cezar, Kleopatra, Zeus, Cesarz. Grafika
      od Cezara III do Cesarza (Chiny) w samej grze się zbytnio nie poprawiła (oza
      oczywiście filmikami intro i in-game), ale wymagania sprzętowe poszły w górę,
      że hej...
    • Gość: destroy Re: spowalniacze grafiki w grach komputerowych IP: *.ds.uni.wroc.pl 15.04.03, 15:03
      TAk, a swistak siedzi....

      Zajmuje sie projektowaniem systemow animacji, oraz grafika modeli 3D.
      Powiem krótko:
      Wraz z kolegami po fachu testowaliśmy nasze programy na liczniejszej grupie kart. Sprawa ma się tak, że jesli masz dodatkowa moc karty, to starasz się ja wykorzystac. A to że gry nie chodza szybciej, wynika bezposrednio ze złego projektowania i jeszcze gorszej implementacji nieudolnych programistów. Staraja sie dodac nowe efekty i partola maksymalnie cenna moc obliczeniowa. Od jakiegos roku coraz wiecej sie wykorzystuje moc vertex shading, teraz zaczyna sie wykorzystywac tez moc pixel shading. Dalej jednak w wielu przypadkach nieudolnie. Mozesz mi wierzyc, nie ma żadnego spisku, a swoje wnioski błędne wyciagnales jedynie z obserwacji oraz nieznajomosci tematu ze strony technicznej.
      Jesli masz jakies pytania techniczne, chetnie odpowiem na nie by rozwiac twoje watpliwosci. Pozdrowienia.
      • eyemakk prosze bardzo.... 15.04.03, 19:09
        odpowiadam, szczególnie niejakiemu DEstroy'owi, który ma sie za Boga
        programowania.. hehe, ja za to umiem robić bannerki we flashu, lepsze niz te
        wyborczej :P

        wracając do tematu: dowód? pierwszy z brzegu. Seria Need 4 Speed

        jasne, jeśli by chodzilo tylko o wymagania sprzętowe WEWNĄTRZ serii, to mogłbym
        pokręcic nosem ale znalazl bym jakieś usprawiedliwienie, np takie jakie podał
        sz. Pan Destroy. jednak ja chce o czymś innym.

        need 4 speed III dzialało bosko na moim amd 400mhz. za to n4s V zwalniało jak
        cholera.

        bardzo to wkurzało mojego braciszka, więc postanowił zakombinować

        wymienił pliki odpowiedzialne za grafikę w grze (są w osobnym katalogu) z V na
        te z III. efekt był taki, że grafika była IDENTYCZNA jak poprzednio, za to
        wszystko działało z szybkością N4S V.

        i ciekawe co na to powiesz, panie znawca. pewnei że jesteśmy zbyt lamery, żeby
        dostrzec zaawansowany alfa-gamma-aliasing-vortexshading zastosowany w N4S V? a
        może że programiści szli za ciosem i nei chciało im sie dobrze dopracować
        grafiki w częsci 5?

        odpowiedz dla mnei jest prosta: gdyby zostawili sterowniki z trójki wszystko
        wyglądało by tak samo a dziłało szybciej.

        dziękuje.
        • Gość: destroy Re: prosze bardzo.... IP: *.ds.uni.wroc.pl 15.04.03, 23:26
          eyemakk napisał:

          > odpowiadam, szczególnie niejakiemu DEstroy'owi, który ma sie za Boga
          > programowania..

          Nie Boga programowania, ale specjalistę w dziedzinie. I właśnie w ten sposób to ująłem w pierwszej wypowiedzi.

          > hehe, ja za to umiem robić bannerki we flashu, lepsze niz te
          > wyborczej :P

          Gratulacje. Uderz ze swoimi projektami do jakiejś firmy. Jak będziesz wytrwały, to jeszcze na tym zarobisz. Wielu tak robi.

          >
          > wracając do tematu: dowód? pierwszy z brzegu. Seria Need 4 Speed
          >
          > jasne, jeśli by chodzilo tylko o wymagania sprzętowe WEWNĄTRZ serii, to mogłbym
          >
          > pokręcic nosem ale znalazl bym jakieś usprawiedliwienie, np takie jakie podał
          > sz. Pan Destroy. jednak ja chce o czymś innym.
          >
          > need 4 speed III dzialało bosko na moim amd 400mhz. za to n4s V zwalniało jak
          > cholera.
          >
          > bardzo to wkurzało mojego braciszka, więc postanowił zakombinować
          >
          > wymienił pliki odpowiedzialne za grafikę w grze (są w osobnym katalogu) z V na
          > te z III. efekt był taki, że grafika była IDENTYCZNA jak poprzednio, za to
          > wszystko działało z szybkością N4S V.

          Jakie to były pliki? Z ciekawością dokonam takiego zabiegu. Z góry jednak muszę sceptycznie podejść do tematu, ponieważ trudno mi sobie wyobrazić, aby nie dodali żadnych nowych funkcji w bibliotekach. Zreszta nawet te same nazwy plików. Coś mi tu ściemą kręci, ale przekonaj mnie nazwami i raportem z eksperymentu.

          >
          > i ciekawe co na to powiesz, panie znawca. pewnei że jesteśmy zbyt lamery, żeby
          > dostrzec zaawansowany alfa-gamma-aliasing-vortexshading zastosowany w N4S V? a
          > może że programiści szli za ciosem i nei chciało im sie dobrze dopracować
          > grafiki w częsci 5?

          Z tego co narazie czytam, to nie przekonaleś mnie, że jestes raczej znawcą. A co do innych się nie wypowiem, bo nie znam opini i ty także nie powinienneś używać w wypowiedziach słowa "my".
          Tak sie składa, że 5 jest jedna z moich ulubionych gier, a poniekąd nawet wzorcem grafki. I faktycznie zastosowali tam takei techiniki jak wielokrotne źródła światła, czy enviroment mapping. Dodatkowo tekstury też są już bardziej złożone.

          >
          > odpowiedz dla mnei jest prosta: gdyby zostawili sterowniki z trójki wszystko
          > wyglądało by tak samo a dziłało szybciej.

          Prosta nie znaczy poprawna. Sterownik to program obsługujący urządzenie peryferyjne, a nie część silnika gry. Nie ma tu więc mowy o zostawianiu.

          >
          > dziękuje.
          >
          >

          Ja także, ale jeśli masz zamiar kogoś przekonać o tych dywagacjach, musisz znaleść bardziej wiarygodne argumenty. Pozdrowienia.
          • Gość: eyemakk Re: prosze bardzo.... IP: *.mirtel.net 16.04.03, 00:27
            no cóż. czuje sie jak daeniken wsród znawców-archeologóe. zawsze jet tak, że
            jak ktoś wyjdzie z teorią zbyt destrukcyjną, to potencjalnie lepsi od niego
            chca go zjeść. no ale co tam.

            zabieg cały mój braciszek wykonał dobre 2 latga temu wiec nie pamietam co to
            były za pliki. wiem ze jest cały katalog, w obu grach, odpowiedzialny za
            grafike. i trzeba go po chamsku wymienić i po zawodach

            co do flasha to poki co pracuje dla swojej firmy (jedna z 5 najlepszych w kraju
            jeśli chodzi o ciuchy dla sk8ów) i to mi wystarcza jak narazie. jak bede miał
            fajną .. dobra, nieważne. w każdym razie może kiedyś bede bardziej ambitny

            nadal jestem przekonany ze procesor 1 mhz wystarczyc powinien do kazdej
            komercyjnej gry komputerowej i to jeszcze przez najblizsze pare lat. nadal nie
            rozumiem jak to mozliwe by dwuwymiarowe gry dzialaly wolno na sprzecie
            kilkusetmegahercowym z 32 lub 64 mb pamieci ram, gdy jeszcze 2 lata wczesniej
            super na tym samym sprzecie dzialaly gry 3D, w rozdzielczosci 1024*768. nadal
            nie moge zrozumieć, że jakieś gówno graficzne pożera 100% wiecej procesora niż
            cała reszta poweru graficznego danej gry (tzn ze zalozmy gra ze wszystkimi
            przybajerzeniami bez tego jednego dziala dobrze na 400mhz a wystarczy dodać
            jakis vortex-blinding albo motherfucking-aliasing i juz dziala dopiero na 2mhz

            a naprawde to jestem ciekaw co sie bedzie dzialo za rok czy dwa, gdy zestarzeją
            sie dwumegahercówki. na prawde nie wierze, ze da sie zrobić gre, ktora bedzie
            skakać na takim sprzecie. to bedzie mozliwe dopiero, gdy wejdzie coś, co opisał
            Ziemkiewicz w 'Walcu Stulecia' - polecam (gdy byle windziarza będzie robić
            osobna firma przez pare tygodni, by był wiarygodny...)

            ja naprawde mam nadzieje ze sie myle. mam nadzieje, ze jednak najbardziej poj..
            na tym świecie sa kobiety a nie firmy produkujące gry komputerowe:)

            pozdrawiam.

            blq

            • Gość: destroy Re: prosze bardzo.... IP: *.ds.uni.wroc.pl 16.04.03, 02:14
              Mozna wykonać prosty test. Na stronie microshita (czyt Micorosoftu) znajdziesz DirectX SDK 9.0. Zainstaluj. Znajdziesz w katalogach SDK rożne przykłady opracowane głównie z myślą o testowaniu sprzętu. Wszystkie wyświetlają parametry urządzenia i liczbę klatek zależną od użytej techniki. Przetestuj je na kartach z różnych "epok" i porównaj wyniki. Rożnice pomiędzy m64 a GeForcem 2 mogą cię zaskoczyć, nie mówiąc już o Radeonie.

              To czy się przekonasz, jak to wyglada na podstawie namacalnych argumentow, zależy od Ciebie. Ja cię do tego nie zmuszę, ani siłą nie przekonam. Pozdrowienia.
              • eyemakk Re: prosze bardzo.... 16.04.03, 08:56
                sorry, ale nie rozumiem,

                o czym Ty mówisz? że stare karty są prymitywne a nowe szybkie?

                a czy ja o tym nie wiem???

                jasne że wiem! tylko mi chodzi o to, że dziś karty graficzne się rozwijają na
                maxa, procesorki też, a w jakości gier komputerowych nie ma od 3 lat żadnego
                przełomu. za to wymagania sprzętowe rosną, zarówno co do procków jak i kart
                graf. i to jest wlaśnie bez sensu.
    • Gość: destroy Re: spowalniacze grafiki w grach komputerowych IP: *.ds.uni.wroc.pl 15.04.03, 15:11
      Rzecz druga:
      Producenci kart graficznych staraja sie upakowac coraz wiecej na ciagle tej samej powierzchni procesora grafiki. Produkcja wiekszego procesora wymaga otworzenia nowej lini produkcyjnej, a to jest duza inwestycje. Byc moze dla tego wzrost predkosci wswietlania nie jest tak imponujacy jak mocy obliczeniowej procesorow intel, czy amd. Jak zapewne wiesz, te dwie firmy moco stoja na rynku i moga sobie pozwalac na ogromne inwestycje. Natomiast producenci kart graifcznych pojawiaja sie na dwa, trzy lata i znikaja z rynku, po czym na ich miejsce trafiaja nowi z rewelacyjnymi rozwiazaniami. Pamietasz s3, potem voodoo, nvidia, a teraz radeon...
      • Gość: SoAG Re: spowalniacze grafiki w grach komputerowych IP: *.sgh.waw.pl 16.04.03, 01:51

        >intel, czy amd. Jak zapewne wiesz, te dwie firmy mocno stoja
        >na rynku i moga sobie pozwalac na ogromne inwestycje

        takie firmy jak intel,amd,itp. moga i musza kontrolowac rynek. Co by sie stalo
        w momencie gdyby aplikacje dzialaly na tym samym komputerze prze 5 lat bez
        zarzutu - koniec ze sprzedaza nowego sprzetu. Niewielu producentow gier moze
        rownac sie finansowo z producentami sprzetu. Nakrecanie popytu na nowe
        produkty to jest po prostu biznes.

        Jestes nie po tej stronie lustra destroyer :P
        • Gość: destroy Re: spowalniacze grafiki w grach komputerowych IP: *.ds.uni.wroc.pl 16.04.03, 02:03
          Gość portalu: SoAG napisał(a):

          > takie firmy jak intel,amd,itp. moga i musza kontrolowac rynek. Co by sie stalo
          > w momencie gdyby aplikacje dzialaly na tym samym komputerze prze 5 lat bez
          > zarzutu - koniec ze sprzedaza nowego sprzetu. Niewielu producentow gier moze
          > rownac sie finansowo z producentami sprzetu. Nakrecanie popytu na nowe
          > produkty to jest po prostu biznes.
          >
          > Jestes nie po tej stronie lustra destroyer :P

          A czy ja powiedziałem coś przeciwnego? Poczytaj całą dyskusję, to pogadamy. Apropo tego co powiedziałeś, to ja się z Tobą zgodzę, z małymi modyfikacjami. I oczywiście, to prawda, że popyt nakreca biznes. W tym wypadku jest popyt na coraz bardziej multimedialne oprogramowanie, wiec i sprzet musi być coraz mocniejszy. Przykładowo - jak będą wyglądać karty graficzne wyznacza teraz DirectX Microsoftu. Chcemy w to wierzyc, czy nie tak jest. Już jest specyfikacja vertex shader 3.0, a sprzetowe sa na razie tylko najwyzej 2.0. Wszystko, co używa DX, jest pisane na razie software'owo, ale każdy liczy się z tym, że bedzie za jakies rok lub dwa hardware. Także producenci muszą się z tym liczyć.
          Jestem po wlasciwej stronie lustra. Jeśli twierdzisz inaczej przedstaw argumenty. A może jestem poprostu po przeciwnej niz ty? Pozdrowionka.
    • Gość: vic Re: spowalniacze grafiki w grach komputerowych IP: *.ipt.aol.com 16.04.03, 03:24
      Zgadzam sie z tym.
      To absurdy z podpuszczaniem ludzi do kupna nowego rzekomo szybkiego sprzętu.
      Tak naprawdę różnica 500 MHz a nawet 1 GHz , albo Celeron i Pentium nie jest
      widoczna w działaniu komputera. Widać jedynie różnice w przetwarzaniu danych
      (jak Divix). Nie powinna być widoczna w działaniu gier!!!
      Wystarczy zobaczyć jak niewiele zabierają system resources. A procesor idzie
      np. cały czas na 100%!!

      Tak samo jak podpuszczają na kupno tego "wielkiego" Della.
      Po kupieniu okazuje sie, że modem jest z Meksyku, reszta z Tajwanu. To samo
      można kupić w innymkomputerze za połowę ceny Della.
      • Gość: kell Re: spowalniacze grafiki w grach komputerowych IP: *.cpe.net.cable.rogers.com 16.04.03, 04:05
        eh, co za bzdury o zwalniaczach?! kazdy kto probowal
        pisac chociazby prosta gre z pewnoscia wie jak trudno
        jest napisac cos wydajnego, a gdy zaczynasz bawic sie w
        3d (np open gl) to jak wazna jest optymalizacja.. gdybys
        sprobowal, to bys docenil wydajnosc cpu i karty graficznej.
        gry to nie tylko grafika, to cala masa obliczen, ktore
        wykonuje cpu. wierz lub nie.

        a co do della, to ja bym serio chcial zobaczyc kompa
        zlozonego tylko z czesci made in usa, albo made in eu.
        90% to jednak daleki wschod i nic tego nie zmieni.
        • eyemakk Re: spowalniacze grafiki w grach komputerowych 16.04.03, 08:58
          no prosze, kolejny "fachowiec" z klapkami na oczach... ktoś tu trafnie
          wspomniał o nie tej stronie lustra...
          • Gość: destroy Re: spowalniacze grafiki w grach komputerowych IP: *.ds.uni.wroc.pl 16.04.03, 11:42
            eyemakk napisał:

            > no prosze, kolejny "fachowiec" z klapkami na oczach... ktoś tu trafnie
            > wspomniał o nie tej stronie lustra...
            >
            >
            >

            Bardzo często ci fachowcy, rzekomo z klapkami na oczach, są zauważani i pracują dla rzekomych firm, co to trzymają łape na spowalniaczach, jako ich doradcy. Natomiast fatalisci szukający teorii spisku, są przez te firmy eliminowani, badź pozostają nie zauważeni ;) Za dużo filmów z tego holiłuda, za dużo...

            Jeśli to kwestia wyboru strony lustra, to ja stoję po tej gdzie są "fachowcy" jak to zgrabnie ująłeś. Pozdrowienia..
          • Gość: kell Re: spowalniacze grafiki w grach komputerowych IP: 255.255.255.* 17.04.03, 04:46
            a jakie dowody ty masz. prosze czekamy, pokaz nam kawalek
            kodu ktory z premedytacja jest zrobiony by spowalnial np
            rendering grafiki 3d. bo na razie rzucasz oskarzenia bez
            jakiejkolwiek sensownej argumentacji.

            btw, to ostatnio wieczorem ogladalem taki podobny
            "oszolomski" film dokumentalny dlaczego program apollo
            byl oszustwem rzadu usa i nasa. ale oni w przeciwienstwie
            do ciebie nie probowali rzucac pustych oszczerstw i
            wyzwisk, wiec dlatego tamtem program ogladalem z
            przyjemnoscia a twoje wypowiedzi sa co najwyzej zalosne.

            czekamy na kawalek kodu zrodlowego, wtedy padne na kolana
            i przyznam tobie racje.
            • Gość: eyemakk Re: spowalniacze grafiki w grach komputerowych IP: *.mirtel.net 17.04.03, 09:25
              jesli nie przekonuje cie argument z zamianą plików grafiki starszej gry do
              nowszej, i uzyskaniu tych samych efektów graficznych przy szybszym działąniu...

              to sorry, ale jesteś młot i nie rozmawiam z tobą.

              chcialem tylko poinformować ludzi o moim przypuszczeniu, podpartym dowodami. o
              tym kodzie zrodlowym to bylo tak żałosne, że nawet odpowiadać mi sie nie chce
              • Gość: destroy Re: spowalniacze grafiki w grach komputerowych IP: *.ds.uni.wroc.pl 24.04.03, 14:07
                Gość portalu: eyemakk napisał(a):

                > jesli nie przekonuje cie argument z zamianą plików grafiki starszej gry do
                > nowszej, i uzyskaniu tych samych efektów graficznych przy szybszym działąniu...
                >

                Prawdopodobnie przekona, jak podasz "przepis" na wykonanie zamiany. Ale jak wczesniej pisałem, TRUDNO mi przyjąć do wiadomości, że w NFS5 wykorzystali dokładnie te same biblioteki co w 3, a jakosc grafiki wzrosła zgodnie z oczekiwaniami rynku! Pojęcia nie masz o czym wypisujesz! Z każdym nowym dxem są nowe funkcje, a co za tym idzie, gra oparta na nowym dx nie bedzie dzialala na starym, jesli te funkcje wykorzystuje!!! Edukacja, człowieku, i odrobina logiki!

                > to sorry, ale jesteś młot i nie rozmawiam z tobą.

                Wyzwałeś człowieka, który pisze rozsądniej od Ciebie i to w dodatku obraźliwie wyzwałeś. Nie zauważyłem, aby on postąpił podobnie. Ciekawym jesteś człowiekiem, jeśli inteligencje ludzi określasz na podstawie ich wiary w towje absurdy!

                >
                > chcialem tylko poinformować ludzi o moim przypuszczeniu, podpartym dowodami. o
                > tym kodzie zrodlowym to bylo tak żałosne, że nawet odpowiadać mi sie nie chce

                Dowodów nie przedstawiłeś, a jedynie opowiastki...
                Żałosne jest to, że dyskusja sprowadziła się w rezultacie do wzajemnego obrażania i rzucania obelgami. I jeden raz przyznam ci racje: "nawet odpowiadać mi sie nie chce"
                • prawdziwy.tebe Re: spowalniacze grafiki w grach komputerowych 24.04.03, 14:20

                  > Wyzwałeś człowieka, który pisze rozsądniej od Ciebie i to w dodatku
                  > obraźliwie wyzwałeś.

                  Nie wnikam w istote sporu (grafika w grach), chce tylko zauwazyc, ze
                  najwiekszym forumowym chamem, to jednak kell jest. I to nie tylko o ten watek
                  chodzi, ale jego cala tutejsza dzialalnosc.
                  • Gość: kell Re: spowalniacze grafiki w grach komputerowych IP: 255.255.255.* 24.04.03, 17:30
                    a jak nazwiesz "kogos" kto usilnie ustaje przy
                    nieprawdzie i udowadnia to na kazdym kroku? (oczywiscie
                    ten kto pokazuje ze nie masz racji to najwiekszy cham itd:)

                    gratuluje, wrociles juz z piaskownicy?:)
                    • Gość: eyemakk Re: spowalniacze grafiki w grach komputerowych IP: *.mirtel.net 24.04.03, 20:47
                      jakbys, chłopcze (chłopcami są dla mnie gostki które za wszelką cene chcą być
                      darzone szacunkiem itp. robie to na przekór) jakbys chłopcze usiadł przy mnie i
                      przed tym n4s 3 i n4s 5 i bym zamienił te biblioteki graficzne i pokazał taki
                      sam efekt końcowy tobyś się przekonał. jak dla mnie jakość grafiki 3D od roku
                      2000 wzrosła minimalnie. może ślepy jestem, a moze za bardzo mnie oszałamiał
                      rozwój pare lat wcześniej. w każdym razie z pozycji internetu trudno jest
                      dyskutować o rzeczach wymagających praktyki.

                      pozdrawiam wszystkich forumowych chamów, poważnych facecików, pozerów,
                      pseudoprofesorków, łachmaniarzy, lamerów, looserów, chakerów i hackerów. a
                      także normalnych i normalnych inaczej




                      3mka
        • Gość: destroy Re: spowalniacze grafiki w grach komputerowych IP: *.ds.uni.wroc.pl 16.04.03, 11:35
          Gość portalu: kell napisał(a):

          > eh, co za bzdury o zwalniaczach?! kazdy kto probowal
          > pisac chociazby prosta gre z pewnoscia wie jak trudno
          > jest napisac cos wydajnego, a gdy zaczynasz bawic sie w
          > 3d (np open gl) to jak wazna jest optymalizacja.. gdybys
          > sprobowal, to bys docenil wydajnosc cpu i karty graficznej.
          > gry to nie tylko grafika, to cala masa obliczen, ktore
          > wykonuje cpu. wierz lub nie.
          >
          > a co do della, to ja bym serio chcial zobaczyc kompa
          > zlozonego tylko z czesci made in usa, albo made in eu.
          > 90% to jednak daleki wschod i nic tego nie zmieni.


          Faktycznie. Ty o tym wiesz, ja o tym wiem i jeszcze wielu, którzy próbowali pisać, jak to ująłeś, najprostszą grę. Dodatkowo, muszę jeszcze powiedzieć, że cpu dalej wykonuje pracę, którą powinny wykonywać karty, wiele modeli nie ma przecież sprzętowych funkcji, które muszą być załatwiane programowo. Tym samym można powiedzieć, że gry wyznaczają taki poziom grafice, że producentą trudno nadgonić wymagania. A kto zostaje z tyłu, ten przegrywa. Pozdrowienia.
Pełna wersja