
Fable Legends, DX12 i wymiatające Radeony

Na początek zastrzeżenia. Po pierwsze nie my te testy wykonywaliśmy, a poniższe wykresy pochodzą z serwisu extremetech.com. Po drugie wykonano je przy użyciu wbudowanego w nieskończoną wersję gry benchmarka, który z samą grą ma niewiele wspólnego. A po trzecie – zwróćcie uwagę nie na najmocniejsze karty (bo akurat GeForce GTX 980 Ti i Radeon FuryX idą łeb w łeb), a nieco wolniejsze.


Chodzi oczywiście o Radeona R9 390, który zarówno w Full HD jak i 4K okazuje się szybszy niż GeForce GTX 980. Ten drugi wprawdzie lepiej się podkręca, więc pewnie może tą różnicę zniwelować, ale nie zmienia to faktu, że porównujemy karty za odpowiednio 1400 i 2200 zł. Przy okazji okazuje się również, że Radeon R9 380 jest zauważalnie szybszy od GeForce’a GTX 960, wygląda więc na to, że przy obecnym stanie sterowników to właśnie AMD jest lepszym wyborem na przyszłość.
Choć, co ciekawe, za wyjątkiem najnowszych układów Fury…

Czytaj dalej
34 odpowiedzi do “Fable Legends, DX12 i wymiatające Radeony”
Dodaj komentarz
Musisz się zalogować, aby móc dodać komentarz.
Może Nvidia ma pod kontrolą większość część rynku kart graficzny ale ich karty nie radzą sobie DX12, swoją drogą przewaga Ati jest przytłaczająca i zarazem zaskakująca.
Ja tu nie widzę nic zaskakującego. Już od czasów Mantle było wiadomo, że najbardziej na niskopoziomowym API skorzystają Radeony 😛
Widać potencjał radków w dx12 ale bardzo mnie dziwi że lepiej dają sobie radę te z GCN 1.1 niz te z 1.2 , ponadto nie podali czy chodzi o 380 w wersji 2 czy 4 gigowej. Mała przewaga Fury nad 390X to zapewne wynik tego ze gra zabiera dużo Vramu.
@Dantes|problemem w tym przypadku jest mała moc geforce’ów – w ich przypadku dużo nadrabia sterownik. w dx12 natomiast przydaje się dużo bardziej czysta moc karty – i w tym przypadku przewaga amd jest bardzo widoczna.
Na innych stronach podali tez wyniki Fable w dx 12 i widać ze karta bezie pożerała Vram. Dlatego niekiedy 980Ti jest szybsza od FuryX tylko dlatego że ma więcej ramu. Z drugiej strony nVidia powiedziała że tu Geforce`y nie mają włączonych Asynchronicznych Shraderów, Ale nagle wg nich Maxwelle(seria900) posiada je w swoim hardware, a dotąd była mowa że u nich to tylko rozwiązanie software`owe.
Przecież na GCN 1.2 są tylko Nano, Fury, FuryX i 380, pierwsze 3 wygrywają z 390 i 390x (GCN 1.1) a 380 nie ma najmniejszych szans zbliżyć się do 390 po poza nowszą architekturą przegrywa z nią we wszystkim – przecież to inna półka cenowa. Brak wsparcia jednej z ważniejszych funkcji dx12(Async Compute/Shaders) to kpina, takie rzeczy powinno załatwiać się na jak najniższym poziomie a nie próbować poprawiać w sterownikach. Tak jak ktoś pisał wcześniej, moc radków pokazywał Mantle.
Dobra poprawka, W ogóle tu wyłączyli AsyncShradery, by geforce`y nie wyglądały masakrycznie. Druga sprawa: Fable Legends jedzie na Unreal engine 4 wiec to silnik zielonych.
@aleksdraven|Ciekawe po co blokowaliby coś takiego jakby mieli wsparcie Hardware – chyba tylko po to żeby za rok wcisnąć wszystkim te same karty tylko z Asynchronicznymi Shaderami… Najprawdopodobniej wprowadzą wsparcie software’owe i będą się tym chwalić – jak tak zrobią to stracą dużo, przecież dx12 ma zminimalizować udział software.
@Scytian- no pamiętaj jeszcze że pierwsze GCN 1.2 to była Tonga( r9 285), Chodzi o to, że Tonga i Fiji radzą sobie o wiele lepiej z Tessalacją niż poprzednicy, spokojnie doganiając geforce`y. Chociarz z drugiej strony rozwala 960-tkę patrząc na półki cenowe to jest lepiej. Mimo wszystko nie spodziewam się że gra na Unreal engine 4 będzie tak faworyzowała radki. BTW AsyncShradery za wiele nie pomogą na Xone wiec pewnie za bardzo ich nie udostępnia w wersji pecetowej.
@ Scytian- nie stracą, po prostu wmówią wszystkim że Funkcja Conservative Rasterization(jedyne w czym są lepsi od radków w dx12) jest ważniejsza i że pozwoli na lepsze bajery graficzne. Będą chcieli sprzedać ludziom ideę że dx12 to tylko kolejny Wyciskacz bajerów graficznych. Nie widzisz jak wzrosła sprzedaż topowych Geforce`ów?? Po takich akcjach jak z ACU nity, Watch Dogs czy wiedźminem 3 teraz widać ze trza mieć topową grafę żeby mieć ta pewność 60 fps w 1080i.
Jako zwolennik zielonych, cieszy mnie, że AMD w końcu przegania konkurencje. Ożywi to rynek. Jednak teraz jest kiepski czas na zmianę karty. Niby czerwoni mają lepsze osiągi na DX12 i przyszłościowo kupno ich kart ma większy sens, ale z drugiej strony jest mało gier na DX12, a z 11 AMD już tak dobrze sobie nie radzi. Cóż, trzeba poczekać rok albo dwa i zobaczyć co z tego wyjdzie. Według mnie, teraz jest zbyt duże zamieszanie by sensownie kupić kartę.
Rzeczywiście nie jest to dobry moment na kupowanie karty, bo w przyszłym roku zadebiutuje Pascal od Nvidii i wtedy dowiemy się czy architektura od AMD (GCN) rzeczywiście daje Radeonom przewagę nad GeForce’ami.
r9 380 jest okej, choć niedługo będzie premiera wzmocnionej wersji tej karty, ale jak ktoś ma 1500 złotych na kartę, niech kupi 970
@Scythian Mantle niewiele pokazywał, bo tak naprawdę zmniejszał tylko overhead. Wielu rzeczy, które były w Mantle nie wykorzystywano w tytułach na PC. Np. Async Shadery na PC były wykorzystywane tylko w grze Thief. To, co można wyciągnąć z Radków dużo lepiej widać na PS4 (a i trzeba pamiętać, że tam jest wykorzystywana nieco zmodyfikowana architektura GCN 1.0, potem w GCN 1.1, 1.2 oraz drugiej iteracji 1.2 było trochę poprawek).
@wielki0fan0gier W tej samej cenie co GTX 970 jest R9 390. W obecnych grach jest remis, ale Radeon wydaje się być bardziej przyszłościową kartą. Z tego powodu GTX 970 nie ma sensu. W ogóle inwestowanie w karty z tego przedziału cenowego to taki sobie pomysł, lepiej jest wziąć R9 380 i w przyszłym roku wziąć coś z nowej generacji kart.
I w sumie jeszcze jedna rzecz odnośnie Fable:Legends – na innych portalach jest dużo większa różnica między Fury X, a GTX 980Ti na korzyść tego drugiego, ale reszta wyników się pokrywa. Przy czym tak patrząc na sterowniki dla Linuksa, to najpewniej sterowniki dla Windowsa do Fury X nie są jeszcze skończone i ta karta ma nieco ukrytej mocy. Wydaje się, że np. Async Shadery w tej karcie nie działają tak, jak należy.
@Sevard- DICE wykorzystano AsyncShradery w Battlefield 4 na PS4 wiec Na PC tez były pod mantle. Po drugie Architektura Pascal była już była głęboko opracowywana jak pokazano pierwsze Demo z Dx12 jakieś 3 miechy po premierze łatki z mantle do bf4(która była około lutego 2014). Nie zrobili żadnych hardware`owych poprawek tylko software bo nie mieli czasu. Wiec sadze że na Pascala długo poczekamy zarówno przez opóźnienie produkcji HBM2 przez Samsunga jak i dostosowanie się do nowego standardu.
Mam gtxa 980 i w sumie to mnie to nie rusza. Owszem przyznaje że AMD wykonało dobrą robotę biorąc pod uwagę przyszłość dx 12, ale nvidia wprowadza pascale w 2016 więc różnica znów się zniweluje, a dopiero wtedy bedzie wysyp gier z dx12. A jeśli nie… sprzedam 980 i kupie radka prawdopodobnie jeszcze na tym zarobie:P
@aleksdraven|W BF 4 na PS4 AsyncShadery były wykorzystywane, ale na PC nie. Z prezentacji AMD: http:images.anandtech.com/doci/9124/Async_Games.png|Dostawy HBM2 problemem być nie powinny – nVIDIA już jest dogadana z Samsungiem oraz SK Hynix, więc tu bym problemu nie widział. Problemem mogą być interposery.
Co do architektury, to pierwsze próbki Pascali były wyprodukowane zanim wyszła afera z Async Shaderami, więc możliwości są dwie – albo Pascale od początku w zamyśle miały obsługiwać Async Compute w sposób natywny, albo nie. Jeśli miały, to będą to obsługiwać sprzetowo, jeśli nie miały to będą obsługiwać programowo i pierwszymi kartami nVIDII z prawdziwymi asynchronicznymi shaderami będą karty oparte o architekturę Volta.|I w przyszłym roku nie tylko nVIDIA wypuszcza nowe karty.
@Sevard- tylko pamiętaj, że te architektury w rok się nie robi, AMD pracuje nad Zen od 2012, nad HBM pracowali 8 lat. A Nvidii zostało jakieś 5 miesięcy na premierę architektury Pascala, a dopiero od roku wiedzą ze AsyncShradery to główny ficher dx12. Do tego musieli by zaimplementować resztę bajerów z listy dx12 hardware`owo. Mogą zdążyć ale wtedy cena będzie wysoka.
No toteż piszę – albo async shadery mają od dawna, albo nie. Jeśli nie mieli ich od początku, to nie liczyłbym na to, że je dorobią, bo musieliby pracę zacząć od nowa, a GPU nie robi się w rok.
Czyli największą zagadką jest, czy Pascal jest projektowany pod DX12. Chciał bym wierzyć że jest, bo Volt ma być dopiero w 2018. Radeony nie będą tyle czekać na Nvidię, a do tego czasu przewaga zielonych na rynku mogła by stopnieć. Chociaż mogło by to wyjść rynkowi na zdrowie.
AMD nadal nie dało kodeka H.264 (AMD APP) do akceleracji GPU, potrzebnego przy nagrywaniu pulpitu, gier itp. Po wersji 15.6beta, kodek ten jest blokowany przez sterownik. Zgłaszałem to, ale mają to w d***e. Usunięto już: Hydravision, program w Catalyst do konwerterowania wideo, 2 rodzaje wygł krawędzi Narrow-Tent i Wide-Tent. Wydajność w DX11 ssie i nie poprawi się do poziomu Nvidii, mimo że coś tam robili ostatnio, to poprawiło się tylko nieznacznie. AMD usuwa funkcje, a nie dodaje.
Kupujesz takiego Radeona na zimę i rezygnujesz z ogrzewania ze spółdzielni.
@BimberPL|Co do H.264, to dziwne, u mnie działa.|Wydajność w DX11 w porównaniu do nVIDII jest na podobnym poziomie, może z wyjątkiem najwyższej półki, czyli GTX 980Ti/Fury X, gdzie rzeczywiście AMD nieco odstaje. Choć z drugiej strony na poziomie GTX 960/R9 380/R9 280X to nVIDIA zostaje w tyle.
Z PCLab: „Redaktorzy wyraźnie jednak zaznaczają, że w swoim teście wykorzystali wyniki udostępnione im przez AMD, a sami nie byli w stanie sprawdzić wydajności Radeonów R9 390X, R9 390 i R9 380.”. O tym już widać osobie piszącej news trudno było wspomnieć 🙂 Poza tym wybraliście ten portal, który jako jedyny w testach ukazuje przewagę FuryX nad 980Ti. Nie ma to jak rzetelny i fachowy research 😉
PCLab jak to PCLab – wybrał sobie te zdania, które im pasowały. Akurat ExtremeTech testy GTX 980Ti oraz R9 Fury X zrobił, bo te karty mieli. I pokryły się one z tym, co zaprezentowało AMD. Przewaga GTXa 980Ti na TechReport bierze się stąd, że użyli mocno podkręconej karty, o czym PCLab oczywiście zapomniał wspomnieć: http:techreport.com/review/29090/fable-legends-directx-12-performance-revealed|Właściwie wyniki AMD tym razem są nawet zbieżne z rzeczywistością.
Innymi słowy ani Allor, ani Ty nie wykazaliście się fachowym researchem.
szkoda Allor, że nie podałeś też wyników testów fps… gdzie sytuacja jest inna. http:benczmark.pl/uploads/backend_img/b/fotki_newsy/2015-09/PM/fable-legends-wydajnosc-directx-12-wykres-techreport-1.gif|http:benczmark.pl/uploads/backend_img/b/fotki_newsy/2015-09/PM/fable-legends-wydajnosc-directx-12-wykres-techreport-2.gif|http:benczmark.pl/uploads/backend_img/b/fotki_newsy/2015-09/PM/fable-legends-wydajnosc-directx-12-wykres-extremetech.png
no i też kwestia jakie dokładnie modele były używane… same pkt w benchmarku fable nic nie mówią
@silvver Już w sumie napisałem w poprzedniej swojej wypowiedzi.|Te wklejone testy pochodzą od AMD i dotyczą referencyjnych kart (no prawie, bo według testów wychodzi, że jednak referencyjny GTX 980 jest ciut słabszy niż to wyszło w testach AMD). Reszta wydaje się pokrywać z tym, co można spotkać w innych miejscach. TechReport w swoich testach wziął wyżyłowane GTXy i Radeony właściwie na stockowych zegarach (tylko R7 370 jest w wersji podkręconej, reszta jest podkręcona o jakieś śmiesznie małe wartości).
@Sevard taa, widziałem później. BTW nie są te radki już i tak nawet stockowe dość mocno wyżyłowane, że podkręcanie niewiele im daje?
Wszystko zależy od chłodzenia (i jak wszędzie od sztuki), ale zegary GPU w Radeonach R9 380 da się przeważnie podkręcić do 1100MHz, R9 390 w okolice 1150MHz, a R9 390X w okolice 1200MHz. Na tech report te zegary wynoszą odpowiednio 973, 1015 i 1070 MHz, więc trochę miejsca tu jest.