AMD Radeon Vega Frontier Edition: In Spielen pro Takt so schnell wie Fury X

und der Restliche platz auf dem Chip sind einfach nur Luft und Liebe?
Nur 4096 Shader sind für knapp 500mm² in 14nm wenig, vielleicht hat die GPU eigentlich eh mehr, waren ja mal 96 CUs, jetzt NCUs im Gespräch.
Der PHY wurde im Vergleich zu Fiji ja immerhin auch kleiner und so extrem viel Platz kann die Fabric jetzt nicht brauchen.
 
Das aulassen verdeckter Polygone müsste doch:
"tile based deferred rasterization" TBDR
sein, oder?

"tile based rasterization" also TBR
ist die Art wie Polygone gerendert werden, komplett oder teilweise.

Was von beidem ist jetzt wirklich auf Vega FE deaktiviert und welches Leistungspotential schlummert dort wirklich? Hier im Thread steht was von 30%? Hat jemand mal eine Quelle mit ein paar Infos für mich?

Tile Based Rasterization als Geheimrezept hinter der Maxwell/Pascal-Architektur enthullt - Hardwareluxx

Jede (Basis-)Architektur reagiert darauf wohl anders - sich hier hinzustellen und eine einzige Zahl in den Raum zu werfen, halte ich für unseriös. Und der Nutzen von TB(D)R hängt auch stark vom jeweiligen Test/Benchmark/Spiele-Engine ab.
Wobei richtig umgesetzt könnte es mehr bringen als bei Nvidia (vorallem für einen Fiji Nachfolger), denn es soll ja die Auslastung der Shader verbessern. Das ist ja eh noch das größere Problem bei AMD, auch Polaris läuft nicht optimal.
 
Achja - weils heir noch keiner erwähnt hat:
wenn man sich von Nvidia die Workstation karten ansieht dann haben die in Spielen durchaus die gleiche Leistung wie ihre GTX Gegenstücke.
Und die FE version wird speziell für Spieleentwickler und Spieler nagepriesen - mit extra Spiele-mode etc. Und dennoch ist sie langsamer als eine 180Ti und frisst mehr Strom als eine Titan.

Selbst wenn der Treiber jetzt wirklcih ein wunder vollbringt und die karte dann so schnell wie eine GTX1080Ti ist das ncoh nicht genug - sie muss dann mal midnestens 100€ billiger sien um den Stromverbrauch zu rechtfertigen.



Nur das an sich TBR wenig bis keine Liestung bringt.
Vergleich mal eine GTX 680 mit einer GTX 1080:
Die 1080 hat 1.6 fachen takt und shadern - also würde man davon eine EListungssteigerung von ungefähr +160% erwarten.
Was gibts wirklich? Oh ja, zwischen 100% und 200%, meist in der Gegend von +150%.....
 
Zuletzt bearbeitet:
Manche Leute haben halt von GPUs oder Treibern nicht viel Ahnung, da erfindet man schnell einen angeblichen "Wundertreiber", um etwas schlecht zu reden.
Die nehmen wahrscheinlich echt nur einen Treiber für Fiji, weil die Treiber für Polaris wohl kaum mit HBM richtig umgehen können.

Laut AMD soll Vega auch DX12.1 unterstützen, auch das benötigt noch die Unterstützung eines Treibers.



Nein, ist es nicht!
Wunschdenken kommt von dir, halt in negative Richtung.

Aber egal, in einem Monat wirst du eh ganz stimm sein, weil es nicht so eintreffen wird wie du es dir wünscht;)

Übrigens, scheinst du nicht wirklich viel Ahnung zu haben, weder von treibern noch von dem was ich mir Wünsche. Ich wünsche mir ausgewogenheit zwischen AMD und Nvidia, da habe ich nämlich über den preis am meisten davon.

Allerdings sollte alleine dein Nickname schon sugerieren das du wenig objektiv bist und wohl eher zuviel freizeit in deinen ferien hast. Ich wünsche dir jedenfalls alles gute:daumen:.
 
Oh-ha!
Wobei richtig umgesetzt könnte es mehr bringen als bei Nvidia (vorallem für einen Fiji Nachfolger), denn es soll ja die Auslastung der Shader verbessern. Das ist ja eh noch das größere Problem bei AMD, auch Polaris läuft nicht optimal.
Die Auslastung der Shader wird dadurch nicht verbessert - es wird ein möglicher Flaschenhals bei der Rasterisierung beseitigt oder zumindes geweitet. Primär bringt es was für die Speichertransferrate - und hier muss AMD auch ansetzten, denn 52,38% mehr Rechenleistung auf dem Papier wollen auch irgendwie mit Daten gefüttert werden - und ebenfalls auf dem Papier, liegt die Vega FE hier sogar minimal hinter der Fury X.

Was die Auslastung der gesamten GPU tatsächlich verbessern dürfte, ist die Überarbeitung der ROPs und des L2-Caches, speziell, dass die ROPs jetzt direkt am L2 hängen. MMn ist das der für die unmittelbare Zukunft fast noch entscheidendere Architekturvorteil. Klingt aber nicht so sexy und wird ergo in den meisten Berichten kaum beachtet.
 
Jede (Basis-)Architektur reagiert darauf wohl anders - sich hier hinzustellen und eine einzige Zahl in den Raum zu werfen, halte ich für unseriös. Und der Nutzen von TB(D)R hängt auch stark vom jeweiligen Test/Benchmark/Spiele-Engine ab.

Der hauptsächlich auf TBR basierende Effizientgewinn von Kepler auf Maxwell ist bekannt und geht im Schnitt natürlich über alle Anwendungen. Etas anderes zu suggerieren ist unseriös. Worüber sich im Moment als einziges nur rätseln lässt ist, ob 20 oder 30 oder in Einzelfällen eben auch noch mehr Prozent rauskommen.

Für eine Ti@stock wird es nach meiner Glaskugel aber schon langen.
 
Bei NVIDIA brachte es vor Jahren ca. 30%...

Stimmt nicht. Verlgeich mal ne 680 mit ner 1080 - nur ein der beiden hat TBR - und dennoch ist der Liestungsunterschied mit Shaderanzahl und Takt genau gedeckt.


Der hauptsächlich auf TBR basierende Effizientgewinn von Kepler auf Maxwell ist bekannt und geht im Schnitt natürlich über alle Anwendungen. Etas anderes zu suggerieren ist unseriös.

Und hast du auch was anderes als leere Behauptungen?
 
Wenn Vega, ein Highend Chip, von der letztjährigen Mittelklasse weggefegt (Stromverbrauch) wird, hat der arme Volta überhaupt nichts zu befürchten. Das ist dann schon dreist von AMD, Sprüche rauszuhauen die eher das eigene Produkt bezeichnen, als das der souveränen Konkurrenz.

Am meisten interessieren mich immer noch die Gründe, die dazu geführt haben, dass der Chip ein halbes Jahr "warten" musste, bis man ihn angeboten hat.

Mal schauen, was der lustige Inder am Ende des Monats präsentiert. Wenn er bis dahin nicht das Weite gesucht hat.
 
Nvidia wird untergehen.
Die haben sich einfach zu lange auf ihrer Marktposition ausgeruht ohne in neue Technologien zu investieren.
Schon 2018 wird niemand mehr eine Geforce wollen und spätestens 2019 wird der Laden von AMD aufgekauft.

Oh, Zeit für meine Tabletten...
 
Der hauptsächlich auf TBR basierende Effizientgewinn von Kepler auf Maxwell ist bekannt und geht im Schnitt natürlich über alle Anwendungen. Etas anderes zu suggerieren ist unseriös. Worüber sich im Moment als einziges nur rätseln lässt ist, ob 20 oder 30 oder in Einzelfällen eben auch noch mehr Prozent rauskommen.
Schön, dass du mir ausnahmsweise mal vollumfänglich zustimmst!
 
Stimmt nicht. Verlgeich mal ne 680 mit ner 1080 - nur ein der beiden hat TBR - und dennoch ist der Liestungsunterschied mit Shaderanzahl und Takt genau gedeckt.




Und hast du auch was anderes als leere Behauptungen?

Lies bitte einfach den thread. Ein paar Beiträge weiter oben findest Du den entsprechenden link...:rolleyes:

Schön, dass du mir ausnahmsweise mal vollumfänglich zustimmst!
Wenn möglich doch immer gerne. ;-)

Dazu muss AMD aber erstmal eine Architektur haben, die ähnlich gut auf die Effekte von TBR reagiert UND natürlich eine ähnlich gute TBR-Implementierung.

Beides muss AMD erstmal nachweisen, aktuell schaut es eher schlecht aus.

Aktuell schaut es so aus, als brächte es Null, teil sogar Verschlechterung. Verwundert? Erklärungen? Schlussfolgerungen?
Ich bin mir sicher, das Monatsende wird ein Knaller.
 
Zuletzt bearbeitet:
Ok danke schon mal. So wie sich das ließt, sind TBR und TBDR ein alter Hut und keine neuen Innovationen. Umso unverständlicher, dass ein Treiber damit nicht umgehen kann und es deaktiviert. Das es irgendwo mal 30% gebracht haben "soll" würde ich um den Hinweis "unter optimalen Umständen in einem darauf ausgelegten Spiel" ergänzen.
Auf der Straße kommen davon noch 5-10% an.
 
So wie sich das ließt, sind TBR und TBDR ein alter Hut
Da hast du wohl etwas nicht verstanden, bei AMD ist das neu, deswegen unterstützen die Treiber das auch nicht.

Umso unverständlicher, dass ein Treiber damit nicht umgehen kann und es deaktiviert.
Der Treiber deaktiviert nichts, er unterstützt es nur einfach nicht.

wenn eine Vega RX ein paar Wochen später zum halben Preis raus kommt aber 30% schneller wäre.
Ist sie doch nicht, die RX udn FE verwendet doch die Selbe GPU.
Die Optimierungen im Treiber greifen also bei beiden Karten!
 
AMD muss klar gewesen sein, dass auch Leute, die Spiele-Benchmarks machen werden, eine Vega FE kaufen (können). Dass der Treiber so unoptimiert sein soll, dass er in der öffentlichen Wahrnehmung ein schlechtes Licht auf den Markennamen „Vega“ werfen könnte, kann ich mir nur schwer vorstellen. Warum sollte AMD so ein Risiko eingehen?

Gegenfrage, wie egal wäre Dir die jetzt dargebotene Gamingleistung der VFE wenn die VRX tatsächlich deutlich schneller auftritt bei Release auf eine Skala von 1-10
10 = Sch... egal
.
.
.
1 = Aber aber aber VFE ist doof also kauf ich keine VRX

;-)
 
Dazu muss AMD aber erstmal eine Architektur haben, die ähnlich gut auf die Effekte von TBR reagiert UND natürlich eine ähnlich gute TBR-Implementierung.

Beides muss AMD erstmal nachweisen, aktuell schaut es eher schlecht aus.
Warum schaut es aktuell schlecht aus?

Aktuell ist doch noch nichts bekannt, also schaut es weder schlecht noch gut aus!

Ist doch jetzt auch völlig egal, mit willkürlichen "Fakten" umsich werfen ist gerade in!
Die haben das Forum übernommen, so viel langeweile muss man erstmal haben...

Die ganzen Glaskugeln könnten gut mal eine Pause gebrauchen, 3 Wochen zumindest.
 
Zurück