AMD Radeon VII: 3DMark-Benchmarks auf RTX-2080-Niveau

Du meinst damit NVidia gehe ich davon aus. RTX sollen Konsumenten Zahlen und eventuell wird das Produkt in 10 Jahren von Beta zu Alpha Version.

Neue Funktionen sind ein anderes Thema. Die kann man gut oder schlechtheißen bis sie durchschlagen. Gleiche Thema kannst auch auf DX12 und Vulkan übertragen. Sollte ja schon die letzten 2 Jahre AMD Karten reifen lassen. Bis jetzt läuft die breite Masse aber immer noch auf DX11.

Rest in Sachen Power auf die Straße und Stromaufnahme sind halt etwas besser abgestimmt bisher bei Grün. Auch wenn man es oft etwas zu übertrieben sieht.

Kunden bisschen OC machen lassen ist ja okay. Trotzdem sollten Produkte halt ab Werk nahe dem Sweetspot sein. Gerade wenn sie 700,- und mehr kosten.
 
Natürlich, die bringt dir Lisa Su höchstpersönlich vorbei. Edel-Fanaufkleber gibt es obendrauf.^^
Als ob AMD rein was für Fans macht und keine neuen Kunden hinzugewinnen will.
Gibt es wenigstens eine Bastelanleitung dazu?
Normalerweise sollte eine Firma die Ware vorher optimal einstellen und nicht Kunden noch rumbenchen lassen. Manche wollen halt lieber gleich spielen und nicht Highscore ansehen. ;)

Es ist eine Philosophie. Glaube an Hardware-Nerds. Ein Kampf gegen proprietäre Wege und geplante Obsolenz.
Wissen wir nicht alle, dass Vega nie primär für Gamer entwickelt wurde? :schief:

Um Nvidianer abzuholen sind ganz ander Ansätze in der Pipeline.
Aber eigentlich auch nicht so wichtig, mach du mal ruhig weiter OneKlick-Optimierung in GeForceExperience. Sorry, den kann ich mir jetzt nicht verkneifen dude ;)

Ich bin glücklich darüber hier im PC Games Hardware Extreme Forum schon dem ein oder andern Seelenverwandten begegnet zu sein.
 
Zuletzt bearbeitet:
Man kann nur hoffen, dass die Radeon und die RTX2080 in einen Preiskampf gehen.

Das wäre das Beste für alle. BTW: Nice UV-Settings!

In general: Alle profitieren. Immer diese Fanboy Debatten. Mich kotzt NV momentan nur wegen den PT-Abriegelungen an. Wenn ich eine GPU kaufe, dann will ich die so lange optimieren, bis die Kotzgrenze erreicht ist. Ansonsten geht sie zurück (wie meine RTX2080. Läppische 2 GHz Core...pfft). Nvidias Karten sind nicht schlecht, aber restriktiv und zu teuer. War halt mehr oder minder ein Monopol, also konnte NV auch diese Preise fahren. Das ändert sich nun.
 
Meine Vega (1420 Core, 1020 HBM) schafft ziemlich exakt 5400 Graphics Score im FS Ultra. Damit wäre die Radeon VII dort (wahrscheinlich @Stock)~26% schneller.

Das auf den Takt projeziert wären das bei der VII ggü. meiner Vega 1790MHz, wobei Takt ja bekanntermaßen nicht 1:1 skaliert. Stock würde mich es auch wundern, wenn sie damit läuft. Dazu ist das nicht (im Gegensatz zur Vega64) der Vollausbau. Ist die Frage, inwiefern die Bandbreite im 3DMark eine Rolle spielt. Wobei das selbst dann fast danach aussieht, als würde man noch irgendwo anders Performance freigesetzt haben.
 
Meine Vega (1420 Core, 1020 HBM) schafft ziemlich exakt 5400 Graphics Score im FS Ultra. Damit wäre die Radeon VII dort (wahrscheinlich @Stock)~26% schneller.

Das auf den Takt projeziert wären das bei der VII ggü. meiner Vega 1790MHz, wobei Takt ja bekanntermaßen nicht 1:1 skaliert. Stock würde mich es auch wundern, wenn sie damit läuft. Dazu ist das nicht (im Gegensatz zur Vega64) der Vollausbau. Ist die Frage, inwiefern die Bandbreite im 3DMark eine Rolle spielt. Wobei das selbst dann fast danach aussieht, als würde man noch irgendwo anders Performance freigesetzt haben.

Die Bandbreite macht einiges aus. Bei meiner damaligen Vega56 Pule von Sapphire hat nur die Steigerung von 800 MHz auf HBM zu 1.1 GHz HBM, alles andere gleich, knapp 6-8% mehr Score gegeben. Klar, skaliert nicht unbegrenzt, aber einen Großteil der Performance kommt auch vom Speicher und der Bandbreite. Würde es skalieren, bei knapp 140 GB/s min 6% mehr Leistung, dann kommen dadurch alleine schon mind. 15% mehr Leistung raus.

Was man sagen kann ist, dass der GPU-Takt nicht mehr durch den Speicher limitiert wird. GGf. kann man den Speicher sogar underclocken, damit mehr Luft für den GPU-Takt übrig bleibt. Muss alles getestet werden :D
 
Es gibt sehr ähnliche Graphics Scores mit sehr viel älteren und schwächeren CPUs.
Hab HBM auf 1GHz gesetzt, jetzt hat es geklappt - Timespy und Ultra sogar schneller (HT on), die anderen beiden etwas langsamer. Also zwischen 18-23% schneller als die V64 im 3DMark. Für "nur" geschrinkt bei weniger Shadern wird die Bandbreite da schon ordentlich mitmischen. Passt dann auch zu Timespy und Co..

Es gibt nichts von AMD was einer RTX 2080Ti gewachsen wäre also bleibe ich bei nVidia als nativer 4K Spieler.
Da gibt es bisher kaum Alternativen, wohl wahr.

Mich kotzt NV momentan nur wegen den PT-Abriegelungen an.
Die Karten sind alle VCore limitiert und das liegt an FinFET. NVidias Binning in A und B Dices lässt die Karte die Garantiezeit halten, die man den Partnern verspricht. So haben die weniger mit RMAs zu kämpfen. Das Ganze passt zu den PT.
 
Zuletzt bearbeitet:
Wenn ich solche Beiträge lese muss ich immer denken wie dumm doch AMD ist das jeder Hobby-Bastler mehr aus einer Vega holt.
Sorry aber ich glaube Dir nicht.

AMD bringt mit der R7 eine Steigerung von nur ca 30% gegenüber der Vega 64 und dann soll ein Bastler aus einer Vega 64 30% Mehr an Leistung rausholen was AMD jetzt gerademal mit der R7 geschafft hat in 7nm?

Reines Fan-Boy-Geplauder.

Naja, Vega56@Stock FS Score: 19700
Meine Vega 56 OHNE Flash: 25100
sind auch knapp 28%
 
Leider geht bei meiner v56 Le nicht viel mehr, auch die meisten Spiele die ich testete wollen gar kein oc untervolten lief immer gut.
Mittlerweile lasse ich sie Stock mit 1570 laufen das reicht auch.

Sollte AMD zum Release den Preis anpassen tausche ich sonst behalte ich meine Karte. Da ich jetzt schon jedes Spiel beschränken muss auf 144 fps, mehr braucht es nicht
 
Hmm...bei diesen Diskussionen fühle ich mich mittlerweile total veraltet :lol:...aber tatsächlich, die 970 tuts noch problemlos ihre Dienste in FHD bei 60Hz, was aber sicher auch daran liegt, dass ich nie das neueste haben muss und FC5 und ANNO2205 zu den hungrigsten Spielen in meiner Sammlung zählen...
Die Karte klingt in jedem Fall interessant, aber es war ja nun wirklich schon vor Release der RTX ein offenes Geheimnsi, dass aufgrund der alten Lagerbestände höhere Preise bei den neuen Karten gezogen werden.
Demnach könnte eine VegaII auch für Kunden des grünen Riesen interessant werden...Als Fanboy kommt mir sowas natürlich nicht in den Sinn^^ Ohne MiningHype hätte ich auch ne 580X drin statt der 970G1...aber das war die einzig erschwingliche Karte als die 280X sich verabschiedet hat...
 
Das schönste an der ganzen Sache ist, dass ich seit fast 2 Jahren diese Leistung für 659 (exkl. Steuer) habe :devil::hail:

....und die GTX1070 gab es bereits 2016 für unter 350.-
GTX1080 war nicht viel teurer.

...dann kam AMD mit der schrottigen Vega und die Preise gingen hoch.

So viel zum thema NV braucht konkurrenz damit die preise annehmbar bleiben, genau das gegenteil ist der Fall.:lol:
 

Anhänge

  • Screenshot_2019-01-29 GTX 1070 günstig kaufen ⇒ Beste Angebote amp; Preise - mydealz de - .png
    Screenshot_2019-01-29 GTX 1070 günstig kaufen ⇒ Beste Angebote amp; Preise - mydealz de - .png
    37,2 KB · Aufrufe: 41
  • Screenshot_2019-01-29 GTX 1070 günstig kaufen ⇒ Beste Angebote amp; Preise - mydealz de - .png
    Screenshot_2019-01-29 GTX 1070 günstig kaufen ⇒ Beste Angebote amp; Preise - mydealz de - .png
    46,6 KB · Aufrufe: 38
Zuletzt bearbeitet:
Nein, kein Fanboy geplapper :D und ich kann es sogar beweisen :)

Guckst du auf MEIN FireStrke result: AMD Radeon RX Vega 64 video card benchmark result - Intel Core i9-9900K Processor,Gigabyte Technology Co., Ltd. Z390 GAMING X-CF - bitte den Graphics Score beachten und Vergleichen mit dem Ergebnis aus dem Artikel.

Das einzige was mich immer erstaunt ist, wie unwissende Menschen immer alles in Frage stellen müssen, wovon sie einfach keine Ahnung haben...schlimm sowas. Man darf auch mal was glauben. BTW: MEINE RTX2080 habe ich heute retourniert. Also, spreche ich nicht als Fanboy :( Sorry.

PS: Effektiver Takt bei meiner alten Sapphire Nitro+ war um die 1.73 GHz auf dem Core und 1.19 GHz auf dem HBM. Einfaches Custom Design, keine Veränderung, keine Wakü. Klar, Bench-Settings. 24/7 ist dann näher an 27k graphcis score.

Wahrscheinlich auf 350-400W. Edit: Wurde ja bestätigt im späteren Verlauf. Du kommst auch überhaupt nicht so rüber, als ob das was du erzählst, vertrauenswürdig ist. Wenn du 350W zugibst, waren es bestimmt mindestens 380 oder 400. 300W bei nur marginal weniger Leistung im 24/7 Betrieb wird wahrscheinlich dann eher 330+/350+ gewesen sein.

Und warum genau? Kennst du dich mit der Vega-Architektur aus? Das "glaube" ist auch genau das, wo es zu finden ist.

Was machst du denn? Du glaubst ebenfalls.

Weißt du auch was ich glaube? Dass du hier vom Pferd erzählst. Modebranche und so, ist ja auch üblich da, prahlen alle groß raus und erzählen irgendwas, was niemals eintreffen wird. Starker Narzissmus, der nicht selten bis in die Psychopathie reicht.

Die Karte wird im Schnitt 2070 Niveau haben, wohl leicht darüber, und wenn du sie dann irgendwo wieder auf deine 400W gebracht hast, wird womöglich auch etwas mehr drin sein. Dann kannst du sie wieder mit 200W Karten vergleichen und weiter vom Pferd erzählen.

Das ist, was ich glaube.

@JSXShadow:
Donnerwetter!
Ich bin mit meiner ja nicht unzufrieden, aber Du hast wohl einen "Golden Chip" erwischt!

So ist es immer, bei solchen Kandidaten. Nur das Beste vom Besten und Feinste vom Feinsten. So stellen sie sich dar - vom Leben mit Glück belohnt, weil sie so toll sind. Und wenn du mal hinter die Kulissen schaust, bleibt davon nicht viel übrig. Die eine Hälfte schwärmt von solchen Menschen und möchte möglichst nahe an sie heran kommen, damit es abfärbt, während die andere Hälfte sich kopfschüttelnd abwendet.
 
Zuletzt bearbeitet:
....und die GTX1070 gab es bereits 2016 für unter 350.-
GTX1080 war nicht viel teurer.

...dann kam AMD mit der schrottigen Vega und die Preise gingen hoch.
So viel zum thema NV braucht konkurrenz damit die preise annehmbar bleiben, genau das gegenteil ist der Fall.:lol:

ehm mining war schuld nicht amd......
 
Zurück