Na niedawno zakończonej imprezie Game Developers Forum 2011 Epic i CryTek pokazały to co mają najlepszego, czyli silniki graficzne. Zacznijmy od twórców Unreala i Gears of War. Pokazany silnik to według Marka Rein’a zacytujmy: Unreal Engine w wersji 3.975. Rozumiemy, że cyferki wziął nieco z powietrza. Grunt, że wiemy, iż nie chcą tego nazwać UE 4. Prezentację mozliwości kolejnej (mini)rewizji Unreal Engine 3 znajdziecie poniżej. Nowy engine ma wspierać technologię DirectX 11, 3D od Nvidii oraz silnik fizyczny PhysX. Jako ciekawostkę warto wspomnieć, że materiał wideo, który z pewnością sprawi, że opadną wam szczęki w pocie czoła renderował bardzo wypasiony pecet z z trzema kartami GeForce GTX 580 na pokładzie. Nawet nie chcę myśleć jaki zasilacz był podpięty do tego komputera i czy 1000 watowy dałby radę. Swoją drogą to ciekawe, czy Nowy Xbox dałby radę? 3X GTX 580 to nie przelewki. Tak mocnych next-genów chyba nie zobaczymy.

Przejdźmy teraz do CryTeka, który na GDC też pochwalił się swoim CryEngine3. Materiał wideo także znajdziecie poniżej. Warto zauważyć, że CryTek celuje swoim oprogramowaniem nie tylko w branżę gier, ale też w rynek filmowy. Chyba zdali sobie po latach sprawę, że w temacie udzielania licencji na silniki graficzne deweloperom gier nie mają z Epic Games najmniejszych szans.

No, a teraz już oglądajcie. Na koniec smutna wieść dla wszystkich tych, którzy czekają na Crysis 2. Otóż pecetowa wersja gry obsługiwać będzie tylko DirectX 9 – aktualizacja do DX11 pojawić się ma według deklaracji twórców w przyszłości.

Niektórzy sugerują, że to wina multiplatformowości tego tytułu i faktu, że najważniejsza dla CryTeka jest wersja na Xboksa 360. Oczywiście nie wierzymy złośliwym plotkom, ale mamy nadzieję, że panowie od Crysisa w końcu nachapią się forsy i nie będą jęczeć jak jeszcze niedawno mieli w zwyczaju.

[Głosów:0    Średnia:0/5]

13 KOMENTARZE

  1. pecetowa wersja gry obsługiwać będzie tylko DirectX 9 – aktualizacja do DX11 pojawić się ma według deklaracji twórców w przyszłości.

    cooooo? To ja głęboko chromolę tego Crysisa2. Jedyną zaletą Crysisa było jego technologiczne wyrafinowanie. Niech się nie krepują chłopaki i zejdą do Directa 8. 1

  2. Przejdźmy teraz do CryTeka, który na GDC też pochwalił się swoim CryEngine3. Materiał wideo także znajdziecie poniżej. Warto zauważyć, że CryTek celuje swoim oprogramowaniem nie tylko w branżę gier, ale też w rynek filmowy. Chyba zdali sobie po latach sprawę, że w temacie udzielania licencji na silniki graficzne deweloperom gier nie mają z Epic Games najmniejszych szans.

    cały dzionek czytałem o tym w sieci i w końcu ktoś zauważył, że CT celuje w studia tworzące CGI. Współpraca z Mayą i przede wszystkim LUT. Jesli dobrze rozegrają sprawę to Cryengine 3 może być szczególnie dla średnich i małych studiów filmowych prawdziwym zbawieniem. Licencje silnika. Epic jest monopolistą bo stosuje chwyty godne monopolisty. Co z tego, że Cryengine2 był świetny i miał dobre narzędzia. Epic do swojego miał jeszce lepsze toolsy, ale przede wszystkim chodzi o cenę. Kupujjesz tę wersję, masz znizkę w przyszłości itd. Nie chcesz i masz kaprys kupić u konkurencji? Jak do nas wrócisz zapłacisz jak za zboże. Nikt przy zdrowych zmysłach z tego nie zrezygnuje.

  3. Pomijając prosty fakt, że to nie silnik kształtuję grę, musimy pamiętać o jeszcze jednym. Czym większe i bardziej zaawansowane bajery graficzne, tym więcej pracy muszą włożyć developerzy w stworzenie gry, czyli czas na jej produkcje znacznie się wydłuża. Jeżeli chce się utrzymać ten czas na przyzwoitym poziomie powiedzmy półtora roku, należy zatrudnić więcej osób, a to jak wiadomo koszt, lub obciąć 3/4 zaplanowanego kontentu. Mamy więc przykład z życia wzięty. Gry albo są zbyt drogie, albo ich długość porównywalna jest z czasem trwania reklamy w TV. Także nie był bym tutaj specjalnym entuzjastą ultra nowoczesnych technologii. Fajnie się je ogląda na filmach promujących, nic poza tym.

  4. digital_cormac to czemu każdy już na 1 rzut oka rozpozna że np gra taka to a taka jest na UE? Skoro nie silnik kształtuje;)

  5. @digital_cormacmasz rację, im bardziej skomplikwoany engine, tym bardziej wydłuży się czas produkcji. Z drugiej strony lepiej, żeby firma kupiła licencję na gotowy engine, niż zaczęła tworzyć własny, a wtedy czas produkcji tytułu jeszcze bardziej się wydłuży. Jestem pewien, że nawet z CE3 można wykorzystać tylko najbardziej podstawowe rzeczy i nie poświęcać się nie wiadomo ilu pierdołom. Ale z jeszcze innej strony to marnotractwo potęgi enginu 🙂

  6. Tak znowu tony wymądrzania się, ale na moje proste pytanie dlaczego gry na tym samym silniku wyglądają prawie tak samo co kłóci się z tym co mówią tu niektórzy nikt nie kwapi się odpowiedzieć.

  7. @NewtonNie chodzi o złożoność silnika (przynajmniej nie w takim sensie). To, co oglądacie na tych demkach to nie silniki. No, może pomijając fragmenty z edytorami w filmiku CE3, bo to rzeczywiście jest ta istotna część engine’u, która odróżnia go od innych. Graficzna złożoność wynika z siły kart graficznych. Demko UE3 należy postrzegać jako pokazówkę możliwości GTX580 (zwłaszcza w 3xSLI. . . ) a nie jako pokazówkę UE3 jako takiego. I to o tym mówił DC. Silnik to mało istotna rzecz w tej kwestii i to nie z niego, a ze wzrostu mocy obliczeniowej jako takiej, wynika złożoność. Chodzi o to, że aby wypełnić dzisiejszą scenę 3D potrzeba gigantycznej ilości trójkątów, tekstur, shaderów, filtrów, animacji itd. , których ilość rośnie (wykładniczo?) z każdą kolejną generacją, bo hardware pozwala na płynne wyświetlenie coraz to bardziej złożonej grafiki. Hardware, nie silniki. Jedyne, do czego silnik jest potrzebny to ułatwienie tego procesu edytorami. Itd. itd. temat wałkowany już wielokrotnie. . . @GlorianBo to nie jest proste pytanie. To jest pytanie, na które odpowiedź wymaga przedarcia się przez hektary ignorancji i marketingu tłoczone do głów graczy przez, odpowiednio, dziennikarzy branżowych i developerów. Podałem Ci linka, gdzie ten temat został przemaglowany na wszystkie strony. Przeczytaj i nie będziesz miał żadnych wątpliwości. Wybacz, ale rozpoczynanie tego tematu na Valhalli po raz dziesiąty mija się z celem. Tym niemniej, żeby Ci trochę namieszać, odwołam się do tego, co napisałem właśnie w jednym z komentarzy w tamtym wątku — Borderlands i Mirror’s Edge powstały na Unreal Engine 3. Naprawdę, wyślę do okulisty każdego kto powie, że te gry wyglądają jak Gears of War. Że nie wspomnę o porównaniu Half Life 2 z Team Fortress 2, które nie dość, że powstały na tym samym silniku, to jeszcze w tej samej firmie.

  8. digital_cormac – dokladnie. Kiedys grafike robila jedna osoba, dzisiaj zatrudnia sie do tego juz kilkadziesiat. Jest to mozliwe, bo czolowe gry sprzedaja sie w nakladzie kilkumilionowym. Z nowym systemem moze sie okazac, ze potrzeba by bylo kilkuset osob do samej grafiki, a wtedy prog oplacalnosci to np. 10 milionow egzemplarzy. A ten prog moze przekroczyc 1-2 gry rocznie (Call of Duty. GTA). Moze sie wiec okazac, ze albo, tak jak mowisz, gry beda krotkie, albo tez technologia bedzie dostepna, ale developerzy nie beda z niej korzystac.

  9. To ja mam pytanie. Czy to ee prawda, że i w DX9 i DX10 i DX11 można uzyskać jeśli się chce np w grze takie same efekty graficzne to znaczy mgły, rozmycia no wiecie co mam na myśli, tyle, że np w DX 9 jest to dla programisty(??) bardziej skomplikowane niż w DX 10/11. Dawno temu jak wyszedł direct10 to gdzieś czytałem w artykule porównawczym na jakimś sprzętowym sajcie, że bardzo generalizując i spłycając temat tak jest.

  10. Czy to ee prawda, że i w DX9 i DX10 i DX11 można uzyskać jeśli się chce np w grze takie same efekty graficzne to znaczy mgły, rozmycia no wiecie co mam na myśli, tyle, że np w DX 9 jest to dla programisty(??) bardziej skomplikowane niż w DX 10/11

    Tak, przynajmniej pod względem pixel shaderów. Od DX9c mamy w pełni programowalne shadery i można sobie napisać co się chce. Różnica jest taka, że w kolejnych wersjach część tych efektów jest łatwiej dostępna (no i poprawia się wydajność). Dlatego, m. in, nie ma tak wielkiej różnicy między nowymi grami w trybach DX11 i DX9c. Po prostu większość z tego, co developerzy dostali OOTB w DX11 już dawno zdążyli sobie napisać, a nowych rzeczy jeszcze nikt nie wymyślił, więc różnice nie mają skąd się brać. Oczywiście pozostaje kwestia lepszej optymalizacji, ogólnie poprawionego i wyczyszczonego API etc. , ale możliwości pod względem pixel shaderów jako takich pozostają z grubsza te same. Inna kwestia, że na pixel shaderach się świat nie kończy. W DX10 doszedł Geometry Shading, jednak dopiero w DX11 jego najważniejsze zastosowanie, czyli tesselacja, doczekało się sprzętowego wsparcia. Dlatego mówiłem, że DX10 był zapchajdziurą, a dopiero DX11 rzeczywiście ma sens (zwłaszcza, że jest, jako pierwszy Direct3D od dawna, wstecznie kompatybilny), bo tesselacja naprawdę ma szansę zrobić różnicę. Jej możliwości można podziwiać w pełnej krasie chociażby w tym nowym demku UE3 oraz w Unigine Heaven ( http://unigine. com/download/). To ostatnie, oczywiście, tylko jeśli ktoś jest posiadaczem Fermi lub odpowiednika od AMD.

ZOSTAW ODPOWIEDŹ

Please enter your comment!
Please enter your name here