16 marca 2019, Paweł Maziarz

Ray tracing na kartach GeForce i Radeon - Crytek prezentuje demo Neon Noir

Kategoria: Komputery Podzespoły Gry Gry komputerowe Karty graficzne, Tematyka: Crytek Nvidia AMD Radeon AMD Nvidia GeForce Na Topie DirectX 12 Nvidia Turing, Producenci: Crytek Nvidia AMD

Zademonstrowane demo technologiczne Neon Noir prezentuje potencjał techniki śledzenia promieni w czasie rzeczywistym. Nie byłoby w tym nic nadzwyczajnego gdyby nie to, że nie musi ona działać na kartach Nvidia RTX.

Śledzenie promieni w czasie rzeczywistym (ray tracing) to jedna z tych technologii, która pozwala poprawić realizm w najnowszych grach. Funkcja wymaga jednak odpowiedniej mocy obliczeniowej, więc można z niej korzystać tylko na najnowszych kartach graficznych Nvidii z dedykowanymi jednostkami RT… a przynajmniej tak było do tej pory.

Firma Crytek opublikowała nagranie z dema technologicznego Neon Noir, które wykorzystuje potencjał silnika CryEngine 5.5 i zaawansowanej funkcji odpowiedzialnej za pełne oświetlenie. Efekty możecie zobaczyć na poniższym filmiku.

Technologia Cryteka pozwala uzyskać efekt śledzenia promieni w czasie rzeczywistym, ale, w odróżnieniu od dotychczasowych rozwiązań stosowanych w grach (np. w Battlefield V), bazuje na interfejsie programowania – można z niej korzystać niezależnie od sprzętu, a według producenta wystarczy tutaj karta graficzna GeForce lub Radeon ze średniej półki zgodna z DirectX 12 lub Vulkan.

Wygląda więc na to, że Nvidia właśnie straciła główny atut swoich nowych kart graficznych. Oczywiście wszystko będzie zależeć od deweloperów i tego czy rzeczywiście chętniej będą korzystać z rozwiązania programowego (za którym na pewno przemawia szersza dostępność dla graczy).

Źródło: Crytek, Guru3D

Komentarze

  • GuyVer, #

    W pierwszych demkach od Nvidii też nie było :P

  • GuyVer, #

    W pierwszych demkach od Nvidii też nie było :P

  • Eternal1, #

    To jest wysoko rozwinięte globalne oświetlenie.

  • pablo11, #

    RTX od Nvidii to też nie jest całe oświetlenie, w BF5tce są to odbicia, a w Metrze jest to globalna iluminacja, która jest jednym ze składników oświetlenia, widoczna głównie w zacienionych miejscach. Reszta jest wypalona starymi metodami.

  • xbk123, #

    Każdy to wie. Ale przekaz od premiery RTX był taki, że RT wymaga dedykowanego sprzętu, inaczej to dosłownie pokaz klatek albo jeszcze gorzej. BV też ma tylko odbicia robione z wykorzystaniem RT i spadek wydajności po ich włączeniu jest bardzo duży. Tutaj Crytek pokazuje naprawdę ładnie zrobione odbicia i co ważne, całość leci na starej karcie od AMD (Vega 56). Nie mówią też, że całej reszty (GI, cienie) nie można zrobić w ten sposób, po prostu ich nie ma w tym demie.

  • eninede, #

    Przeciez to tylko okreslenie dla nazwy technologii sledzacych odbicia skierowanych do obserwatora. Myslisz, ze "Ray Tracecing" to rzeczywiste sledzenie "promieni"? Promieni czyli wiazek swiatla? Wiazek swiatla czyli - fotonow? Wirtualnych fotonow? :D

  • Arael, #

    To są właśnie skutki poziomu nauczania matematyki w Polsce.

  • Mati-PL, #

    To nie jest tylko nazwa marketingowa, to jest nazwa techniki, sposobu kalkulowania propagacji promieni w wirtualnej przestrzeni. I tak jak sama nazwa mówi, owszem, jest to śledzenie promieni ale nie świetlnych, są to promienie wystrzeliwane z kamery w stronę sceny i w zależności na co trafią, to takie informacje otrzymuje renderer. Taki promień może nieść bardzo wiele informacji, od GI i cieni po odbicia i refrakcje. W demo Crytek pokazał zapewne jakiś bardzo skuteczny algorytm na liczenie promieni dla odbić i pewnie tylko odbić, ale to się okaże. Ray-Tracing jest znany od dawna, ale sprzętowe implementacje tej techniki to już naprawdę nowość.

    Pozdrawiam

  • Eternal1, #

    Demo było renderowane przy użyciu Radeon Vega56.

    Czyli nowe konsole dostaną Ray-Tracing działający na standardowych jednostkach wykonawczych GPU.
    nVidia po raz kolejny zostanie z kwitkiem za swoje uber-luxury własnościowe technologie ograniczone dla najdroższego sprzętu.
    Co wybierze developer? RTX dla ledwie garstki najbogatszych graczy PC? Czy funkcje API DX12/Vulkan dostępne dla większości graczy PC oraz wszystkich nabywców nadchodzących konsol?

  • Eternal1, #

    Przecież to DEMO działa na Vega56, nowe konsole spokojnie dostaną GPU o podobnej mocy.

  • awesome1337, #

    zgadzam się ze nowe konsole raczej na pewno jakaś formę RT dostana ale to jest demo, baardzo daleka droga do tego żeby użyc tego w grze i podobna wydajnością co obecnie nvidia

  • Kenjiro, #

    Od kiedy Vega 56 jest na poziomie RTX 2080? Przecież ona jest na poziomie 1070 Ti lub niższym (w wybranych tytułach tylko zdarza się jej pokonać 1080), a do RTX 2080 jej daleko.

    Innymi słowy, nie pij alkoholu z rana, to nie będziesz bełkotać.

  • pablo11, #

    Byś sie zdziwił. Obaj macie racje. Vega 56 rzeczywiście nie może się równać w grach z RTX 2080, ale jeśli wziąć pod uwagę obliczenia na uniwersalnych jednostkach, to sytuacja się wyrównuje i Vega 56 ma więcej suchej mocy obliczeniowej. To co będą posiadały Nextgeny to będzie raczej coś pokroju 2080, czyli raczej będą słabsze niż Vega 56 (Navi jako generacja ma być pozbawiona nadmiaru jednostek nieprzydatnych obecnie w grach, przez co ma zbliżyć się w kwestii wydajność/Wat do obecnych produktów Nvidii,a przy okazji ma być tańsza w produkcji- czy w sprzedaży, to się jeszcze okaże).

    To wszystko nie są oficjalne informacje, ale to jest bardzo prawdopodobne, szczególnie, że AMD coś wspominało, że Radeon VII ma być najmocniejszą kartą w tym roku. Co wcale nie oznacza, że Navi będzie słabsze od niego w grach.

  • kombajn, #

    Tak? A ty skąd wiesz że rdzenie RT będą wspierały inne techniki ray tracingu? Nie przypominam sobie żeby karty Nvidii mające hardwarowego PhysX sprzętowo wspierały o niebo bardziej popularnego Havoc

  • awesome1337, #

    stad wiem że RT nvidia działa przez DXR w DX12
    to jest standardowa implementacja ray tracingu dla win10
    KAŻDY kto korzysta z DX12 będzie się do tego podpiąć (o ile ma wystarczająco dużo mocy) i tak samo każda gra która będzie działać na DX12 i będzie miała ray tracing poprzez DXR będzie mogła być wspierana hardwareowo przez nvidie


    >PhysX sprzętowo wspierały o niebo bardziej popularnego Havoc

    bo było to zaimplementowane inaczej niż teraz
    zresztą, ostatecznie rozwiązanie nvidi wygrało, 90% gier dziś korzysta z physx

  • awesome1337, #

    a przeczytałeś chociaż co linkujesz?

    to jest lista gier z hardware acceleration która rzeczywiście jest mała
    ale ilość gier które używają physx jako swojego silnika fizyki jest gigantyczna, obecnie physx nie działa tylko na kartach nvidi ale na cpu jako normalna cześć silnika gry
    a korzystają z niego wszystkie gry na silniku unreal, unity i cześć na cryengine

    samo unity i unreal dają bardzo duża listę gier

    https://en.wikipedi...nreal_Engine_games

    https://en.wikipedia.org/wiki/List_of_Unity_games

    ale nice try

  • kombajn, #

    TY naprawdę do tego stopnia nie jesteś w stanie zrozumieć prostych argumentów czy robisz sobie jaja? Ja powiedziałem że obecność rdzeni RT wcale nie gwarantuje że te rdzenie będą wspierały obliczenia ray tracingu z wykorzystaniem innych technik niż te wymyślone przez Nvidię. Jako przykład podałem brak wsparcia dla innych silników fizyki przez sprzęt który wspomaga obliczenia fizyki w systemie PhysX a ty mi jako kontrargument podajesz że PhysX jest liczony na CPU. Człowieku a co ma piernik do wiatraka?

  • awesome1337, #

    > a ty mi jako kontrargument podajesz że PhysX jest liczony na CPU.

    chyba masz problem z czytaniem

    powiedziałem na marginesie że ostatecznie physx wygrał, jako że ewidentnie nie wiesz co to jest physx dziś i nie widzisz różnicy miedzy tym czym był 10lat temu to ci wytłumaczyłem

    to nie jest żaden kontrargument tylko dygresja na boku

    kontrargumentem jest to co napisałem wcześniej, physx był inaczej zaimplementowany niż obecnie RT od nvidi

    RT który oferuje nvidia działa poprzez DXR dla DX12
    to nie jest ograniczone tylko do nvidi a dostępne dla każdego kto chce stworzyć grę opierając się o DX12 i jest to również rozwiązanie otwarte dla AMD

    zestaw instrukcji na których działaniu opiera się DXR może byc wspierany przez software czyli po przez np. cuda cores które nie zostały stworzone do jednego zadania czyli liczenia promieni (czy raczej dla obliczeń na których działa przewidywanie jak odbija się światło, dzięki temu są też bardzo przydatne przy AI, machine learning etc) tak jak i AMD Stream Processors, tylko w przeciwieństwie do akceleracji hardwarem, czyli RT cores, radzą sobie z tym dużo gorzej (z oczywistych powodów, mam nadzieje)

    i działa to też w druga stronę, RT cores już teraz umożliwią obliczanie wielu innych rzeczy niż sam ray tracing (wspomniane wyżej AI) i ze względu na to jakie obliczenia wykonują mogą być zastosowane do innych technik RT niż tylko ta oferowana w tym momencie, to że beda wspierać wszystko co będzie szło przez DX12 i DXR to jest dość oczywistsze ale również inne autorskie rozwiązania będą mogły być wspierane niewielkim nakładem pracy


    dotarło teraz? czy 3 raz muszę to samo powtarzać

  • BariGT, #

    Karty mega drogie - > karty malo popularne -> male zainteresowanie technologia na nich rozwijana.

    Pamietasz jak bylo G-synciem?

  • awesome1337, #

    jedyne co to porównanie pokazuje to ze nic nie wiesz na ten temat lol

  • BariGT, #

    Zakładam, ze zaraz sie dowiem ile ty wiesz na ten temat?

  • awesome1337, #

    nie ja nie wiem jaka jest różnica między jednym a drugim

  • awesome1337, #

    może jakis argumenty przeciw zamiast samych minusów ?

    krzyczenie nie bo nie, nie sprawi nagle ze nie mam racji lol

  • GuyVer, #

    Dla mnie HIT tego roku, pozamiatali
    Znowu bełkot marketingowy sprawił że kazali nam wierzyć że tylko przeprojektowane karty że stajni Nvidii na to pozwalają..
    I jeszcze pokazali to na Vedze 56 , demo chodzilo w 4K niestety nieznane są klatki na sekundę... Podobno do końca następnego tygodnia ma być dostępny do pobrania benchmark na bazie tego dema...

  • awesome1337, #

    >niestety nieznane są klatki

    znane, 30fps

  • GuyVer, #

    Dla mnie HIT tego roku, pozamiatali
    Znowu bełkot marketingowy sprawił że kazali nam wierzyć że tylko przeprojektowane karty że stajni Nvidii na to pozwalają..
    I jeszcze pokazali to na Vedze 56 , demo chodzilo w 4K niestety nieznane są klatki na sekundę... Podobno do końca następnego tygodnia ma być dostępny do pobrania benchmark na bazie tego dema...

  • GuyVer, #

    Dla mnie HIT tego roku, pozamiatali
    Znowu bełkot marketingowy sprawił że kazali nam wierzyć że tylko przeprojektowane karty że stajni Nvidii na to pozwalają..
    I jeszcze pokazali to na Vedze 56 , demo chodzilo w 4K niestety nieznane są klatki na sekundę... Podobno do końca następnego tygodnia ma być dostępny do pobrania benchmark na bazie tego dema...

  • Michał 06, #

    Wiecie dlaczego silnik Cry-engine ? Bo niemcy płakali jak tworzyli ,tak byli pewni sukcesu .

  • suntzu, #

    Nie wiem czy to jakiś przekaz dnia AMD, że NV oszukała itp...
    W grach dynamiczne oświetlenie czy odbicia są od dawna oraz "raytracing".

    W tym w Cryengine. Problemem było limitowanie funkcji do elementów statycznych i problematyczne działanie. Działało to na Maxwellach już, więc kij z tym.

    W Turningach NV wprowadziło dedykowane jednostki do liczenia pathtracingu i soft do wsparcia tego i tyle. Na jednostka SP i w OpenCL policzycie to nawet na radeonach HD48xx ale bardzo wolno.

  • Chiny_X, #

    GI było już w stalkerach tylko trzeba było sobie je włączyć z konsoli.
    Inna sprawa, że wraz z nowszymi sterownikami działało to coraz gorzej. A dziwnym zbiegiem GI W Call of Prip. na HD5770 i Phenom 2 955 działa z taką samą liczbą klatek na sekundę jak na 8700k + r9 390

  • suntzu, #

    Dlatego podstawowa różnica czy masz pathtracing czy też nie. GI jest od dawna.

  • szymcio30, #

    Zgadzam się;)

    Przecież raytracing można było uruchomić np na kartach Pascal !! Jednak to nie znaczy, że będzie działał tak szybko i wydajnie jak na Turingach. Kurcze przecież to było dawno powiedziane, a teraz będą teorie, że NVIDIA oszukuje

  • Eternal1, #

    DEMO było odpalone na Vega56 w 4K@30FPS.
    Podobną mocą dysponuje już Pascal GTX1070/1070Ti.

  • suntzu, #

    Tu jest inna technika raytracingu- jednostki RT nie będą wykorzystywane o ile Crytek nie wykorzysta ich.
    Przewaga TU będzie wynikała jedynie z archi.

  • BariGT, #

    Hurrrrrr durrrrrrrrrrrrrr RT, karty musza byc 2x drozsze niz kiedykolwiek bo jest RT - nowoczesnosc!!!!!111111oneone

  • xbk123, #

    Czemu dla ubogich? Te odbicia wyglądają bardzo dobrze. To co masz w BV nie jest doskonałe, z tego co pamiętam w necie znajdziesz sporo filmików pokazujących niedoskonałości i artefakty. I o tym, ile do tego trzeba wybulić na "specjalną", "dedykowaną" kartę nawet nie wspomnę. Ciekawi mnie jak to się rozwinie i czy wypuszczą to demo i będzie można sprawdzić jak to chodzi.

  • mobil12, #

    Szkoda że w swojej zapalczywości w pochwałach dla marketingu zielonych nie bierzesz pod uwagę, że ci "ubodzy" mogą dostać to samo na ekranie co "bogaci", którzy zapłacili frycowe za reklamę :P

  • EH_Gosu, #

    Nie, nie tak to działa. DXR działa na wszystkich kompatybilnych z tą techniką kartach. Natomiast chodzi tutaj o jakość tego działania, że tak to określę.

    Suche demko technologiczne, nijak ma się do gry. Fakt, że Radeon VEGA 56 renderował to demko w 30 fps oraz 4k, jest przyjemny natomiast warto poczekać na to by zobaczyć jak to samo demko obsłuży chociażby RTX 2060, bo ten dzięki jednostkom RT całkowicie zdeklasuje tutaj nawet Radeona VII, czy TITAN Xp. Powiem więcej, w grach z DXR takich jak "Battlefiled V" czy "Metro Exodus", RTX 2060 z włączonym DXR rozjeżdża TITAN V. Akurat świeżo po testach jestem :)

    Trochę ludzie się pospieszyli z wyrokowaniem opinii, za kilka dni będzie GDC 2019 to wiele się wyjaśni.

  • Eyesofthesouth, #

    BUAHAHAHAH, widze ze dales sie nabrac obslizgłej zielonej firmie , kupiłes RTX 2080? Ngreedia powinna nazwac te karty znowu GTX 2080 hahah

  • mobil12, #

    Brawo dla Crytek, skoro AMD sobie z monopolem nie może poradzić :P
    A ja wciąż czekam na przyzwoitą kartę za przyzwoite (realną wartość) pieniądze bez marketingowego bełkotu o RT, tensorach i innych bzdurach.

  • JanuszJestem, #

    Śmieszą mnie te komentarze...

    Do tej pory:
    "RT po co to komu? Nvidia kosi hajs na idiotach."

    Po demie z Cryteka:
    "A masz Nvidia! AMD też będzie miało RT! Ale super!"

    Gdyby nie Nvidia to nikt by RT nie ruszył nawet kijem przez szmatę. A teraz nagle to Crytek ratuje świat.

    Ja się cieszę, że temat się rusza i potrzeba jak najszerszej implementacji i możliwości użycia na wszystkich platformach, żeby można było faktycznie skorzystać z dobrodziejstw tej technologii. To przecież nie jest tak, że Nvidia wymyśliła RT, oni się po prostu za to wzięli. Postanowili dać dodatkowe dedykowane sprzętowe wsparcie - to jest ich implementacja. W mojej ocenie pełniejsza, bo to co Crytek dorzuci do swojego silnika, to jest do wykorzystania tylko w tym silniku i tak jak oni to wymyślili. CryEngine nie jest jakiś bardzo popularny, żeby nagle w każdej grze tego używano. I to jest główna różnica. Nvidia chce stworzyć standard w DirectX, z którego wszyscy developerzy mogą korzystać i używać w swoich silnikach, Crytek rozbudował tylko swój silnik.

    Co do samego dema... trochę jakość tych odbić myślę, że kuleje. Ale nie ma co oceniać po filmiku na youtube. Jak wydadzą demo publicznie to chętnie zobaczę u siebie na żywo i porównam do tego co mogę zobaczyć w BF5 na RTX2080. Pamiętajcie, że Crytek pokazuje tylko demo, to nie jest gra, która jest dużo bardziej złożona niż przejazd kamerą. Jak ktoś myśli, że na Vega 56 pogra w 4k @ 30fps z tym śledzeniem promieni od Crytek w jakiejś grze to się grubo rozczaruje. (Pomijam już to, że nie wiadomo kiedy i czy w ogóle pojawi się jakaś gra na CryEngine z wykorzystaniem tych efektów).

    Pamiętajcie, im więcej prac nad RT tym ta technologia się szybciej upowszechni a implementacje będą coraz bardziej wydajne. Trzymam kciuki za wszystkich, którzy dokładają swoją cegiełkę.

  • xbk123, #

    Mnie też bawią te tytuły filmików, że AMD ma w końcu swój RT. Jakie AMD? AMD nic w tym kierunku nie zrobiło. To Crytek ma swój RT, w swoim silniku, dostępny do odpalenia na wszystkich kartach. To, że puścili to na AMD nie znaczy, że zrobili to pod AMD. To funkcjonalność dostępna tylko dla silnika CryEngine póki co, który IMO świetny, ale jakoś specjalnie popularny to nie jest. Ale moim zdaniem jakość tych odbić jest bardzo dobra. Chyba, że ktoś zamiast grać chce chodzić z lupą.

  • Juan Sanchez Villa-Lobos Ramir, #

    Musicie się wszyscy wiele nauczyć od JanuszJestem jako jedyny piszę największe komentarze w historii serwisu toż to prawie powieść!nie jakieś tam 3 zdaniowe popierdółki!

  • JanuszJestem, #

    Zazdrościsz, że umiem złożyć kilka zdań w przeciwieństwie do ciebie? Ile godzin siedziałeś nad swoim?

  • mobil12, #

    Nie sztuką jest pisać dużo ... ważniejsze by pisać mądrze.
    Jest takie stare powiedzenie, że dzwon jest głośny, bo w środku pusty ...

  • Premek1804, #

    Niech chociaż to zaimplementują i pokażą w nowym Crysisie.

  • Blashix, #

    Crysis 4.

  • Dunny, #

    Buahahaha az mi żal tej dzieciarni modlącej sie do nvidii :) RT w ich wydaniu to taki sam hit jak Hairworks ahahahahahahah

  • Ciekawski_, #

    Nie wchodząc w szczegóły. To uniwersalne rozwiązanie jest na pewno lepszym pomysłem niż wchodzenie w dedykowane specjalistyczne jednostki jak u Nvidii.
    Łatwiej tworzyć gry w oparciu o uniwersalne rozwiązania, które pójdą zarówno na PC jak i konsolach, niż tworzyć mocno dedykowane wersje z wykorzystaniem rdzeni RT i bez.

  • awesome1337, #

    ale jedno nie wyklucza drugiego
    nvidia korzysta z standardowej implementacji Ray tracingu dla win10, po prostu wspiera go hardwarem bo inaczej obecnym karta brakuje mocy
    to wszystko działa przez dx12 i konsole też mogą z tego korzystać i jak również karty amd

    to już jest uniwersalne rozwiązanie

  • Ciekawski_, #

    Od strony technicznej tak. Ale nie da się napisać jednego uniwersalnego kodu na RT i bez. Po prostu albo rdzenie RT będą się nudzić albo na GPU bez rdzeni RT gra zacznie bardzo mocno zwalniać w miejscach gdzie przewidziano wykorzystanie pełnej mocy rdzeni RT.
    Można to rozwiązać warunkowo if RT działaj tak else działaj inaczej. Ale wyobraź sobie ile takich miejsc będzie w grze, ile trzeba by testów aby je wszystkie wyłapać. To jest dodatkowy czas i koszty.
    Dużo łatwiej pisać kod od początku zakładający "liniową moc GPU" (bez skoków które dają rdzenie RT).
    No a nikt nie napisze gry na zasadzie "niech ci co nie mają rdzeni RT w GPU (95% po uwzględnieniu konsol) się męczą ze spadkami FPS". W ten sposób praktycznie zabili by sprzedaż gry, gdy w recenzjach pojawiło by się stwierdzenie "bez RTX nie podchodź". Reakcja klientów - w takim razie może kiedyś kupię.

  • JanuszJestem, #

    "Można to rozwiązać warunkowo if RT działaj tak else działaj inaczej. Ale wyobraź sobie ile takich miejsc będzie w grze, ile trzeba by testów aby je wszystkie wyłapać."

    Czy ty kiedykolwiek coś programowałeś? Nikt nie pisze tak programów, żeby szpikować je ifami w zależności od zmiennej konfiguracyjnej. Jakby było tak jak piszesz to co chwilę byś miał setki warunków do sprawdzenia.

    "Dużo łatwiej pisać kod od początku zakładający "liniową moc GPU" (bez skoków które dają rdzenie RT)."

    To zdanie potwierdza, że o programowaniu nie masz żadnego pojęcia.

    PS. Z matematyki też masz braki... nie liniowa moc tylko stała... funkcja liniowa może być też rosnąca albo malejąca. Tak czy inaczej to o mocy jest bzdurą.

  • Ciekawski_, #

    Ty to chyba masz braki z logiki.
    "Liniowo" było celowo użyte bo chodzi o to, że są różne GPU o różnej wydajności. Chodzi o to żeby nie było tak, że jedna karta jest powiedzmy x1,5 mocniejsza od drugiej, ale dzięki rdzeniom RT w momencie gry w którym "ray tracing" jest mocno wykorzystywany nagle różnica zmieniała się na x10.
    Nie da się tego zrobić inaczej niż przez opcjonalne, zapisane w kodzie, użycie jednostek RT.
    Widać, że ty nie masz pojęcia o programowaniu(instrukcje "if/else" są niemal "beznakładowe" dla współczesnych procesorów w porównaniu z niemal każdą inna linijką kodu, zwłaszcza jeśli sprawdzasz wartość "bool").
    Jeśli zrobisz to inaczej, bez warunkowania to będziesz miał to co napisałem wcześniej:
    "Po prostu albo rdzenie RT będą się nudzić albo na GPU bez rdzeni RT gra zacznie bardzo mocno zwalniać w miejscach gdzie przewidziano wykorzystanie pełnej mocy rdzeni RT."

  • człowiek-taboret, #

    Po pierwsze dostałem bana za słowo "udob*uchać", bo zawiera niecenzuralny wyraz, co pokazuje jak tragiczną walidację tu prowadzą. I oczywiście wszystkie moje komentarze zostały usunięte. Super Benchmark!

    Wracając do tematu...

    Nie rozumiem co ty starasz się tu wytłumaczyć. Po to masz opcje graficzne w grze, żeby dostosować je do swojego sprzętu. Dlatego np RT zaimplementowane w DX12 w bibliotece DXR mimo, że może być liczone przez każdą kartę graficzną jest np w BF5 dostępne tylko kart RTX, bo nie ma sensu używania tych efektów, gdyż żadne inne karty sobie z tym nie poradzą.

    "Ale nie da się napisać jednego uniwersalnego kodu na RT i bez."

    No jak to nie... to jak np wg ciebie pisze się kod na użycie 3 różnych typów AA? Albo Ambient Occlusion? Chcesz mi może powiedzieć, że użycie RT jakoś szczególnie się różni od innych ustawień graficznych, które w różnych miejscach mogą mieć różne wykorzystanie i różnie będą działać na różnych konfiguracjach sprzętowych?

    Zmieniasz jeden parametr w konfigu i program leci zupełnie inną ścieżką tam gdzie powinien. Jak wszystkie karty będą miały moc, żeby obsłużyć jakąś formę RT to nie będziesz miał w grze ograniczeń do kart z serii RTX. A to że teraz takie ograniczenie jest nie znaczy, że kod jest jakoś specjalnie napisany czy duplikowany.

    "Po prostu albo rdzenie RT będą się nudzić albo na GPU bez rdzeni RT gra zacznie bardzo mocno zwalniać w miejscach gdzie przewidziano wykorzystanie pełnej mocy rdzeni RT."

    To nie od dewelopera zależy które rdzenie w karcie graficzne będą liczyć daną rzecz. Właśnie w DX12+DXR chodzi o to, że to sterownik karty rozdziela pracę i jak w przypadku kart z RTX są dostępne specjalne rdzenie to przekieruje dane obliczenia na te rdzenie. Jak nie to nie. Jak AMD będzie miało jakieś swoje rdzenie to biblioteka DXR zostanie odpowiednio zmodyfikowana, żeby odpowiednio komunikowała się ze sterownikiem karty. Twórca gry, nie będzie w kodzie, żadnych ifów pisał. Aktualnie jest jeden globalny w konfiguracji, albo masz kartę RTX albo nie.

    Proponuję ci zapoznać się najpierw jak jest generowana w grze klatka obrazu to może zrozumiesz jak bardzo się mylisz w swoich wyobrażeniach i jakichś ifach.

Dodaj komentarz

Dodawanie komentarzy tylko w wersji dla PC. Już wkrótce wersja mobilna.

Nie przegap

Szanowny Czytelniku.

Aby dalej móc dostarczać Ci materiały redakcyjne i udostępniać nasze usługi, pozostając w zgodzie z zasadami RODO, potrzebujemy również zgody na ewentualne dopasowywanie treści marketingowych do Twojego zachowania. Dbamy o Twoją prywatność. Nie zwiększamy zakresu naszych uprawnień. Twoje dane są u nas bezpieczne, a zgodę możesz wycofać w każdej chwili na podstronie polityka prywatności. Dowiedz się więcej.