DX12 und Vega64 gg. 1080Ti

Noch reichen zwei Hände zum zählen, alle sind Samsung und die Range bei 4k ist absurde 48Hz-60Hz.
HDMI2.1 wird dann interessant, hat aber leider aktuell noch keine Grafikkarte und quasi kein Fernseher.

Stimmt schon, aber die Geräte haben auch auf geringerer Auflösung meist 100-120Hz und eine breitere Range.
 
AW: Dx12 und Vega 64 gg. 1080ti

Über das Thema "wird Grafikkarte X reifen und besser werden als Grafikkarte Y" bin ich in letzter Zeit, vor allem in Bezug auf Vega, des öfteren gestolpert.
Deshalb hätte ich mal generell eine Frage zu diesem Thema. Ist irgendein Fall bekannt in dem eine Grafikkarte nur durch Treiber-/ Entwickler -optimierungen ihre Leistung enorm gesteigert hat?
Also nicht nur in einem einzelnen Spiel sondern allgemein bessere performance?

Und damit meine ich jetzt nicht eine leichte Steigerung, sonder so richtig BAM.

Manchmal habe ich nämlich das Gefühl die Nutzer erwarten einfach nur durch Treiberoptimierung eine komplett neue Karte.

Was ich übrigens noch los werden will und auch der Anstoß meines Beitrags ist:

Bitte richten lesen und verstehen!!! Sie macht aus ihren Möglichkeiten das Beste und daran ändert sich erstmal nichts.
Dieser Satz beinhaltet auch die Aussage, daß die Möglichkeiten sehr groß sind aber es nicht entsprechend dieser genutzt werden, deswegen macht sie das Beste draus.

Dieser Satz ist genau richtig und trifft voll zu. Über etwas spekulieren was nicht gegeben ist, ist sinnlos.

Das Beste ist nicht das was möglich wäre, aber die Vega macht das Beste aus dem was möglich ist.

Das ergibt keinen Sinn und trifft die Thematik gut. Wieso wird ein lebloses Objekt so sehr verteidigt? Die Karte liefert nicht wie sie sollte, that's it. Daran wird sich nichts gravierendes ändern.
Ist doch egal.
 
als Mantle neu war (und noch lebte) gabs seitens AMD nen heftigen Leistungsschub via Treiber, bzw dem Einführen von der low-Level-API Mantle. bei BF 3 oder 4 war das. Punkt. nur da. aber dass der Leistungsschub wirklich krass war, ging sogar durch alle hardware/Zocker-Foren.
1, 2 Monate später hat dann aber NV per Treiber ebenfalls nicht schlecht nachgelegt, nur ohne low-Level-API.
ansonsten kann ich mich an vergleichbare Leistungsschübe durch Treiber (/APIs) nicht erinnern.
 
Stimmt schon, aber die Geräte haben auch auf geringerer Auflösung meist 100-120Hz und eine breitere Range.
Da sind wir dann wieder beim Thema Kompromisse. Wir drehen uns im Kreis.

Der Vega Chip war im Workstation Bereich bis zum Release der 2080Ti bzw. Volta (beides Riesenchips!) absolut konkurrenzfähig.
Wir reden hier über die Gaming Karte. Workstation ist total OT und bringt uns nicht weiter. Es bestätigt sogar, dass Vega im Gamingbereich eine totale Enttäuschung ist, wenn er im Workstationbereich das ausfährt, was er kann.

GCN schleppt allerlei Performancefeatures und einen Hardwarescheduler mit sich rum, daher ist ein Polaris/Vega Chip größer als ein unter unoptimierten Bedingungen (sprich DX11, denn das kann diese Features nicht ansprechen) ähnlich performanter Pascal Chip.
Das interessiert den Spieler nicht. Der will nur Leistung. Von ungenutzten Features hat er nichts. DX11 ist nun einmal der Standard und wird es noch eine Weile bleiben. Selbst bei LL gibt es genug Beispiele wo nicht sauber programmiert wurde und es keine nennenswerte Leistungssteigerung gibt.
Du sagst ja selbst, dass der Programmierer mit dem Hardwaresheduler maximale Verantwortung. Genau das geht oft in die Hose und ist einer der Gründe, weshalb sich LL auf dem PC nicht durchsetzt. In der heutigen Zeit, wo ein Spiel total verbuggt veröffentlicht wird, würde ich auch keine saubere Programmierung der Engine und des Leveldesigns erwarten. Natürlich gibt es immer Ausnahmen, aber allgemein tut sich die Branche schwer mit der Qualität. Heutzutage kann man sich ja nicht mal mehr auf das OS verlassen.

AMD hat sich bei dem Hardwarescheduler durchaus was gedacht.
Auch zu Ende gedacht? Denn die Karten können ihre Leistung trotzdem nur selten voll abrufen. Und das ist doch das was zählt. Interessante technische Features, die Vega absolut hat, sind etwas für das Datenblatt in der Vitrine, aber nicht für die Praxis, wenn sie aus irgendeinem nicht das bringen, was sie bringen sollten.

Performancefeatures: Wer Async Compute und Shader Intrinsics in Aktion sehen will, der soll Doom, Forza, Horizon: Zero Dawn oder irgendein Naughty Dog Spiel spielen, dann weiß er was GCN kann.
Mit anderen Worten: er kann das Hobby gleich aufgeben, da er mangels Abwechslung extrem eingeschränkt ist.

Dass alles kann einem DX11 PC Spieler reichlich egal sein, wenn er einfach nur so wenig wie möglich Overhead Probleme haben will. Das Thema ist im Jahr 2018 aber überdramatisiert, denn a) ist der Scheduler von Vega gegenüber Hawaii deutlich verbessert worden und weniger anfällig für unoptimierten Input (im Extremfall liegt Vega im Overhead Limit mal 20% hinter den Geforces, das war bei Hawaii/Fiji noch ganz anders) und b) werden die meisten neuen CPU kritischen Spiele auch mit DX12 Unterstützung released - mit ein paar Ausnahmen wie Assassins Creed, weil Ubisoft die alte Müllengine nicht entsorgen will, denn dann würde man den jährlichen Release einer neuen Assassin's Creed Melkkuh gefährden.
Genau das ist doch der Punkt, DX11 ist aktuell absoluter Standard. Hier und dort mal ein DX12 Spiel. Nur bis sich das mal richtig durchgesetzt hat (und zwar so, dass es auch spürbar etwas bringt), vergehen noch Jahre und Vega ist alt und hat viel verpasst.

Weshalb man so darauf pocht, dass die Vega 64 mit der 1080Ti konkurrieren soll, ist mir aber ein Rätsel.
Kommt darauf was du vergleichst. Wenn du die UVP oder praktische Leistung vergleichst, dann nicht. Wenn du aber die Rohleistung (also das Potential von Vega) oder die Effizienz [EDIT: selbstverständlich Energieverbrauch, nicht Effizienz] nimmst, dann sind das durchaus die beiden Konkurrenten.
 
Zuletzt bearbeitet:
Wow, ist das nur eher eine Ausnahme oder wird es sich weiterhin mit kommenden Spielen so verhalten das die Vega der 1080ti so nah kommt??
 
Es werden mehr werden. Die Arch ist schlicht moderner.

Ohne eine Wertung zu haben aber dann ist die Vega ihrer Zeit voraus gewesen, allerdings fehlt dann doch Speicher? Für 1440p ist die Vega perfekt denke ich..... I h würde die auch nehmen aber ich finde die 1080ti einfach schlichter besonders beim Thema übertakten. Bei der Vega gibt es soviel was man machen kann, da steige ich nicht so dur h
 
AMD kriegt seit Jahren die Leistung nicht auf die Strasse.
Erst jetzt wird es in einigen AAA Titeln besser.
Aber bis die Leistung wirklich da ist wo sie sein sollte, ist man eh schon 1-2 Generationen weiter.
 
Es werden mehr werden. Die Arch ist schlicht moderner.
Und trotzdem eher Einzelfälle bleiben. Wirklich viel wird sich da innerhalb ihrer Lebenszeit nicht tun.

Ohne eine Wertung zu haben aber dann ist die Vega ihrer Zeit voraus gewesen, allerdings fehlt dann doch Speicher?
Der Zeit voraus sein, bedeutet bei schnelllebiger Technik versagt zu haben, da man die Zeichen der Zeit des Produkts nicht erkannt hat und daher das Potential nicht nutzen konnte. Bei einem Auto ist das etwas anderes, das kann später ein Kultklassiker werden. Mit einer GPU kannst du bereits nach 4-5 Jahren nur noch wenig anfangen.
Zukunftsorientiert zu kaufen ist sinnvoll. Die Ware sollte diese Zukunft an die man denkt aber auch noch erleben.
 
Zunächst vielen Dank für alle Kommentare und Beiträge in jeglicher Hinsicht.

Wer am Ende nun die Nase vorn hat ist ebenso unwichtig wie dieTatsache, das keiner wirklich was die Zukunft bringt.

Des Weiteren braucht man auf dem Niveau eine höhere Performance nicht derart verteidigen wie es hier gemacht wird.
Alle haben ihre Ansprüche und Ideen in Bezug auf in diesem Fall Grafik. Das Budget ist auch verschieden.

Letztlich sind wir doch froh, daß der Markt es möglich macht, das wir uns an dem erfreuen was wir haben. Jeder so wie er es will, braucht und kann.

In diesem Sinne Danke und allen viel Spaß.

-closed-
 
Aus aktuellem Anlass:
http://www.pcgameshardware.de/FIFA-19-Spiel-61534/Specials/PC-Grafik-Benchmarks-Test-1266986/

Grenzen des Nvidia Software Schedulers (1080p Benchmarks)

Hardware Scheduling + gute Fütterung durch das Game = bessere Performance - sogar unter DX11

In DX12 wird's dann noch deutlicher.

Und wer sagt Nvidias Wundertreiber hätte damals mit AMD @ Mantle fast gleichgezogen, der hat damals offensichtlich nichts verstanden. Der Nvidia Treiber war nur mit High End CPUs konkurrenzfähig. Hat man in BF4 einen alten Phenom II genutzt, war Mantle mehr als doppelt so schnell wie Nvidia mit Wundertreiber. Da lagen die Grenzen.

Und dann gab's da Leute, die meinten direkt darauf man paart keine Uralt CPU mit einer High End Karte und offenbarten so, dass sie wieder nichts verstanden hatten. Es geht darum zukünftige Spiele deutlich Draw Call intensiver gestalten zu können um auch High End CPUs maximal nutzen zu können. Vorher wird es keine Entwicklung im Game Design geben. Nvidias Treiber ist nur eine künstliche Lebenserhaltung einer längst dem Tod geweihten API.
 
Ich muss sagen das ich echt überrascht bin wie nützlich der HBCC im CPU Limit ist, ein Szenario was ich vorher überhaupt nicht auf dem Schirm hatte. Aber auf meinem HTPC mit der schwachen CPU ist das Feature wirklich ein Gamechanger und macht vor allem bei Forza den Unterschied zwischen ruckeln und flüssig aus.
 
Aus aktuellem Anlass:
http://www.pcgameshardware.de/FIFA-19-Spiel-61534/Specials/PC-Grafik-Benchmarks-Test-1266986/

Grenzen des Nvidia Software Schedulers (1080p Benchmarks)

Hardware Scheduling + gute Fütterung durch das Game = bessere Performance - sogar unter DX11

In DX12 wird's dann noch deutlicher.

Und wer sagt Nvidias Wundertreiber hätte damals mit AMD @ Mantle fast gleichgezogen, der hat damals offensichtlich nichts verstanden. Der Nvidia Treiber war nur mit High End CPUs konkurrenzfähig. Hat man in BF4 einen alten Phenom II genutzt, war Mantle mehr als doppelt so schnell wie Nvidia mit Wundertreiber. Da lagen die Grenzen.

Und dann gab's da Leute, die meinten direkt darauf man paart keine Uralt CPU mit einer High End Karte und offenbarten so, dass sie wieder nichts verstanden hatten. Es geht darum zukünftige Spiele deutlich Draw Call intensiver gestalten zu können um auch High End CPUs maximal nutzen zu können. Vorher wird es keine Entwicklung im Game Design geben. Nvidias Treiber ist nur eine künstliche Lebenserhaltung einer längst dem Tod geweihten API.
Jep, mit 347FPS könnte ich auch nicht spielen. Totales Geruckel. FIFA19 ist offiziell also nur mit AMD spielbar. :wall:
Wie sieht das Ergebnis eigentlich unter UHD aus?
 
Klick doch bei Resolution auf UHD, dann hast du die fps.
Die 1080ti ist da so wie aussieht immer noch halb im CPU Limit.
 
...
Und wer sagt Nvidias Wundertreiber hätte damals mit AMD @ Mantle fast gleichgezogen, der hat damals offensichtlich nichts verstanden. Der Nvidia Treiber war nur mit High End CPUs konkurrenzfähig. Hat man in BF4 einen alten Phenom II genutzt, war Mantle mehr als doppelt so schnell wie Nvidia mit Wundertreiber. Da lagen die Grenzen....
Nvidias Treiber ist nur eine künstliche Lebenserhaltung einer längst dem Tod geweihten API.
na, da ist es gleich doppelt so bedauerlich, dass AMD nichts aus Mantle machen konnte.
und btw, die "längst totgesagte API" DX11 ist nach wie vor noch die meistgenutzte API :cool:
 
Wäre es demnach also richtig, wenn man sagt, das eine 1080 ti für 1440p etwas überqualifiziert ist. Dementsprechend eine 8GB Karte für die kommenden 2 Jahre ausreichend ist wenn man auch weiß das zb eine Vega 64 möglicherweise noch Potenzial zu Verbesserung haben könnte.
Je nach Monitor evtl noch: Gsync oder Freesync
 
Zurück