DX12 und Vega64 gg. 1080Ti

AW: Dx12 und Vega 64 gg. 1080ti

Raytracing = ebenfalls Vulkan
Raytracing = absolute Nische


Das ergibt einfach keinen Sinn...

Doch gibt einen Sinn. Nur verstehen muss man es. Habe es auch erklärt.
Nochmal ein wenig leichter und einfacher.

Die Vega hat enorme Möglichkeiten die sie nicht ausschöpfen kann, aber sie macht aus dem was. Ihr derzeit zur Verfügung steht und möglich ist das Beste draus. Also trifft dieser Satz zu und nichts anderes ist die Aussage, die gesamte Zeit über.
 
Naja wir können jetzt lange rum lavieren und kommen wohl so oder so nicht auf einen Nenner.

Vega wird denke ich die nächste Zeit weiter von den moderneren Engines gegenüber Pascal profitieren würde ich vermuten.
Hinzu kommt das die HDR Darstellung inklusive Freesync verlustfrei erfolgt und alle aktuellen/kommenden großen Spiele haben HDR an Bord.

Pascal dagegen verliert teils deulich mit 144Hz Gsync und/oder HDR. Sieht man auch schön an dem Link von DaHell.
Screenshot (337).png Screenshot (336).png Screenshot (338).png

Der Vorsprung der 1080ti schmilzt in so einem Setting förmlich dahin.Mit etwas OC kassiert dann schon ne Ref die 1080ti Ref.
Das einarbeiten des Tonemappings für HDR gibts aktuell auch nur bei AMD, funktioniert aber bislang nur in FarCry5 und ACOdissey.
 
Kommt immer drauf an was man will.
HDR, dann Vega oder die RTX 2080 TI. Full HD und dafür 144 HZ, 1080 TI oder 2080 TI.
Ich persönlich tu mir schwer obwohl ich all diese Karten selber besitze jetzt zu behaupten nimm die oder die. All diese Karten haben ihre vorlieben und all diese Karten mögen gewisse Sachen nicht.
 
Die Vega hat enorme Möglichkeiten die sie nicht ausschöpfen kann, aber sie macht aus dem was. Ihr derzeit zur Verfügung steht und möglich ist das Beste draus. Also trifft dieser Satz zu und nichts anderes ist die Aussage, die gesamte Zeit über.
Das ist doch Quatsch. Hat enorme Möglichkeiten (wie beispielsweise Rohleistung), holt aber das Beste aus dem Schlechten heraus? Genau das ist es nämlich was du sagen willst. Und das ist einfach nur eine dämliche Relativierung von AMD Unfähigkeit im Gegenteil zu Nvidia (fast) alles aus der Karte rausholen zu können. Da kann ich auch sagen, eine RX560 oder GT1030 ist eine supertolle Gamerkarte für das was ihr zur Verfügung steht. Vega ist in jeder Hinsicht ineffizient, sofern man ihr nicht den roten Teppich ausrollt und explizit auf sie optimiert, während Pascal der Allrounder ist, der v.a. mit allem Wichtigem gut oder gar sehr gut zurecht kommt.

Dass sich das wenden wird glaube ich nicht, denn bis sich LL (was die Voraussetzung für Vega ist um die Rohleistung auszufahren) durchsetzt, sind beide Generationen längst überholt. Denn deren Durchbruch mit riesigen Performancegewinnen wird uns schon seit weit über 3 Jahren versprochen. Getan hat sich bis auf vereinzelte Ausnahmen, die du an einer Hand abzählen kannst, nichts.

Hinzu kommt das die HDR Darstellung inklusive Freesync verlustfrei erfolgt und alle aktuellen/kommenden großen Spiele haben HDR an Bord.
Da brauchst du aber erst mal einen entsprechenden Monitor. Das ist dann wieder so eine Nische, die AMD bedient.
 
Zuletzt bearbeitet:
Diese "Nische" bedienen mittlerweile schon alle Konsolen. Es ist auf dem PC Markt weniger verbreitet weil Nvidia kein einziges Panel mit Gsync und HDR anbieten kann.
 
Diese "Nische" bedienen mittlerweile schon alle Konsolen. Es ist auf dem PC Markt weniger verbreitet weil Nvidia kein einziges Panel mit Gsync und HDR anbieten kann.

Doch für 2500€ bekommst du so einen Monitor ;)
HDR spielt bisher noch absolut keine Rolle im Gaming Segment, es gibt schlicht zu wenige Monitore.
 
Naja liegt auch schlicht daran das Zocker Ihre Panels nicht jedes Jahr umwälzen, was ja auch Sinn macht.

Als eigenes Resümee muss ich aber sagen dass mit mein neues Display deutlich mehr gebracht hat als jede neue GraKa die ich gekauft hätte, auch wenn ich meinen 170ppi immer noch ein wenig nachtrauere.
 
Diese "Nische" bedienen mittlerweile schon alle Konsolen. Es ist auf dem PC Markt weniger verbreitet weil Nvidia kein einziges Panel mit Gsync und HDR anbieten kann.
Was hat denn das mit Gsync und Nvidia zu tun? Es gibt einfach kaum Interesse von Spielern an HDR. Es gibt jetzt auch nicht haufenweise Spiele, die das unterstützen. Somit bleibt es eine Nische. Ich würde deswegen auch keinen Neuen kaufen.
Und auch Konsolenspieler kaufen sich nicht alle 2 Jahre einen neuen Fernsehr, weil der alte kein 3D, UHD oder HDR kann oder 5" zu klein ist.
 
Was hat denn das mit Gsync und Nvidia zu tun? Es gibt einfach kaum Interesse von Spielern an HDR. Es gibt jetzt auch nicht haufenweise Spiele, die das unterstützen. Somit bleibt es eine Nische. Ich würde deswegen auch keinen Neuen kaufen.
Und auch Konsolenspieler kaufen sich nicht alle 2 Jahre einen neuen Fernsehr, weil der alte kein 3D, UHD oder HDR kann oder 5" zu klein ist.

Das Nvidia keine Panels bereitstellen kann die beides behrschen, das normale Gsync Modul kann kein HDR.

Spiele gibts wie Sand am Meer, Battlefront, Tomb Raider, Forza M7, Forza H4, Destiny, Resident Evil 7, Far Cry 5, Strange Brigade, Shadow Warrior 2, Shadow of Mordor usw. usw.
 
Das Nvidia keine Panels bereitstellen kann die beides behrschen, das normale Gsync Modul kann kein HDR.
Und das wird benötigt um aus der Karte in stinknormales Bild zu bekommen? Oder kramst du wieder in einer Nische?

Spiele gibts wie Sand am Meer, Battlefront, Tomb Raider, Forza M7, Forza H4, Destiny, Resident Evil 7, Far Cry 5, Strange Brigade, Shadow Warrior 2, Shadow of Mordor usw. usw.
Hast du da eine aktuelle Liste? Habe nur eine vom Anfang diesen Jahres gefunden und das waren keine 30 Titel. Von 1/3 davon habe ich persönlich noch nie etwas gehört.
 
Wobei HDR bei NvidiaUsern, mangels Gsync+HDR, ein größer "Nische" ist als bei AMDUsern. Kauft man also GPU und Monitor nicht nur für heute sondern auch für morgen, dann ist HDR schon ein starkes Argument.
 
Wenn die Hersteller mal gute Panele mit HDR bringen, bin ich auch bereit etwas mehr Geld dafür auszugeben.
Aktuell ist das ganze mit zu vielen Kompromissen verbunden und für das Geld sehe ich es nicht ein. Ein Monitor kaufe ich ja nicht jedes Jahr, der bleibt auch gern mal 5 Jahre
 
Also die drei HG70 Panels sind ja schon Top. Hinzu die abgespeckte Variante der Gsync HDR Monitore, dort gibts UHD, 144Hz und HDR 400 für rund 1200Euro.
Oder der Dell mit HDR 1000 ist auch ein feines Panel.

Wobei HDR bei NvidiaUsern, mangels Gsync+HDR, ein größer "Nische" ist als bei AMDUsern. Kauft man also GPU und Monitor nicht nur für heute sondern auch für morgen, dann ist HDR schon ein starkes Argument.
Thats it.
 
Letztendlich wirst du für die eierlegende Wollmilchsau entsprechend was hinlegen, sofern man sie denn findet. UHD, HDR, gute Reaktionszeit, Sync und hohe Bildwiederholfrequenz gleichzeitig in einem guten Panel zu finden, dürfte die Auswahl erheblich einschränken und massiv ins Geld gehen. Das bedeutet, dass man wahrscheinlich Kompromisse eingehen muss und auf Features verzichten wird. Und da denke ich wird HDR das Erste sein worauf die meisten verzichten.
Wäre mal interessant zu wissen wie viele einen HDR-Monitor haben oder sich in absehbarer Zeit einen holen werden. Und zwar nicht nur im Nischenforum hier, sondern beim normalen Spieler. Mit Letzteren hat man nämlich die potentielle Zielgruppe für Entwickler.

EDIT: mal ein wenig rumgespielt:
Monitore mit Auflösung: 3840x2160 (4K UHD), Panel: IPS/VA, Panel-Besonderheiten: HDR10, Reaktionszeit: bis 5ms, Variable Synchronisierung: Adaptive Sync/AMD FreeSync/NVIDIA G-Sync, Maximale Signalfrequenz (vertikal): ab 75Hz Preisvergleich Geizhals D
Viel Auswahl sehe ich da nicht. Der "günstige" Monitor hat auch keine 120Hz, sondern wohl übertaktete 76Hz.
 
Zuletzt bearbeitet:
23x "HDR ready". Ne danke, darauf würde ich verzichten. Und wenn du von den restlichen 11 noch die unterhalb von UHD und mit TN Panel rausfischst, bleibt noch weniger übrig. Mit Sync und hoher Bildfrequenz wird auch nicht einfacher.

1000€ ist ne Menge Holz für einen Monitor. Da hast du wieder eine Nische gefunden.
 
Die meisten HDR Gamer spielen auf Fernsehern (ich auch) und das wird auch noch eine Weile so bleiben. Die haben weder AMD noch Nvidia Support sondern werden schlicht bei 60Hz mit HDR10 angesprochen.
 
Die Spezifikationen kannst du vergessen, die sagen überhaupt nichts.
Die Specs. die zählen werden nirgends angegeben aktuell auf den Seiten.
Das ist HDR 400/600/1000
Aber ist auch egal jetzt wie scheifen hier eh vom Thema ab. Bleibt es halb für dich eine Nische, ist ja in Ordnung. Stand heute würde ich aber niemanden mehr ein Display ohne empfehlen.

Die meisten HDR Gamer spielen auf Fernsehern (ich auch) und das wird auch noch eine Weile so bleiben. Die haben weder AMD noch Nvidia Support sondern werden schlicht bei 60Hz mit HDR10 angesprochen.
Stimmt, gibt aber mittlerweile einige mit Freesync.
Variable Refresh Rate - RTINGS.com
 
Mich würde interessieren ob die Vega 64 den Rückstand auf die gtx 1080ti verringern könnte aufgrund neuer Treiber und Dx12 in den letzten Wochen oder ob es in nächster Zeit dazu kommen kann das eine Vega evtl. noch größeres Potenzial hat um seine Leistung auszubauen.

Es geht nicht um Kaufinteresse, sondern eher um Entwicklung.
Da ich erst relativ frisch in die Sache eingetaucht bin fehlen mir Erfahrungen zu früheren Generationen.
GCN ist eine Multiplattform Technologie für Konsolen, Workstations und PCs.

Der Vega Chip war im Workstation Bereich bis zum Release der 2080Ti bzw. Volta (beides Riesenchips!) absolut konkurrenzfähig.

GCN schleppt allerlei Performancefeatures und einen Hardwarescheduler mit sich rum, daher ist ein Polaris/Vega Chip größer als ein unter unoptimierten Bedingungen (sprich DX11, denn das kann diese Features nicht ansprechen) ähnlich performanter Pascal Chip. Kurz nach GCN kam damals aus gutem Grund Mantle. AMD wusste sehr genau, dass die Architektur unter DX11 nicht optimal genutzt werden kann und da man gleichzeitig gerade die Konsolenchips gebastelt hat, hatte man auch im Hinterkopf, dass diese Steinzeit-API in einer Konsole keine Verwendung finden wird.

Der Hardwarescheduler nimmt die Daten so an, wie sie vom Spiel bereitgestellt werden. Der Programmierer hat also maximalen Einfluss und maximale Verantwortung über die Performance im CPU Limit. Hinzu kommt, dass GCN vor diesem Hintergrund natürlich optimal mit Low Level APIs funktioniert, denn die schmeißen den Treiberoverhead eh über Board, was den negativen Einfluss eines potenziell inkompetenten Programmierers entschärft. In dem Moment der Low Level API Nutzung wird auch Nvidias toller Treiber-Scheduler nutzlos und macht höchstens noch Probleme (siehe Ryzen/Threadripper Performance) bzw. verursacht selbst einen (Software)Overhead, der zwar geringer als der von DX11 ist, aber höher als der von DX12. Letzteres konnte man schon vereinzelt beobachten, wenn Vegas sogar besser als Geforces im CPU Limit performten. Dann muss Nvidia in jedem Einzelfall von Hand nachsteuern. AMD hat sich bei dem Hardwarescheduler durchaus was gedacht. Hier im Forum wird das Thema oft so dargestellt als wäre das ein grundsätzlicher Designfail bzw. das Treiberteam inkompetent - solche Kommentare braucht man nicht ernst nehmen.

Performancefeatures: Wer Async Compute und Shader Intrinsics in Aktion sehen will, der soll Doom, Forza, Horizon: Zero Dawn oder irgendein Naughty Dog Spiel spielen, dann weiß er was GCN kann.

Dass alles kann einem DX11 PC Spieler reichlich egal sein, wenn er einfach nur so wenig wie möglich Overhead Probleme haben will. Das Thema ist im Jahr 2018 aber überdramatisiert, denn a) ist der Scheduler von Vega gegenüber Hawaii deutlich verbessert worden und weniger anfällig für unoptimierten Input (im Extremfall liegt Vega im Overhead Limit mal 20% hinter den Geforces, das war bei Hawaii/Fiji noch ganz anders) und b) werden die meisten neuen CPU kritischen Spiele auch mit DX12 Unterstützung released - mit ein paar Ausnahmen wie Assassins Creed, weil Ubisoft die alte Müllengine nicht entsorgen will, denn dann würde man den jährlichen Release einer neuen Assassin's Creed Melkkuh gefährden.

Weshalb man so darauf pocht, dass die Vega 64 mit der 1080Ti konkurrieren soll, ist mir aber ein Rätsel. Wer meint die Chipgröße sei entscheidend, sollte sich dringend mit Kosten/Nutzen-Rechnung befassen. Es kann nämlich durchaus sein, dass die Entwicklung eines einzigen etwas größeren Chips für verschiedene Märkte im Ergebnis ertragreicher ist als die Entwicklung von mehreren kleineren Chips für diese Märkte.

Für den Konsumenten zählt für die Positionierung am Ende der Preis. AMDs UVP für die Vega 64 ist 499 Euro. Die UVP der 1080Ti ist 819 Euro (!). Die Vega 64 wurde nie offiziell gegen die 1080Ti positioniert. Was letztlich im Handel für die Karten verlangt wird, ist eine komplett andere Geschichte, denn da spielen noch tonnenweise andere Faktoren (HBM2 Knappheit, Mining Nachfrage etc.) mit rein, die mit der Positionierung in einem bestimmten Gaming-Performancebereich überhaupt nichts zu tun haben.
 
Zuletzt bearbeitet:
Zurück