AMD Radeon VII: Vorerst keine Custom-Designs der Boardpartner

Genau. Wenn man jetzt noch die AMD Benchmarks der Vergangenheit als Basis nimmt (Ryzen, VEGA), haben unabhängige Tests weniger Leistung bescheinigt bzw. maximal die Best-Case Szenarien von AMD bestätigt. Der Schnitt lag jedoch darunter. Von daher kann man auch bei der Radeon 7 davon ausgehen, dass sie im Schnitt langsamer als eine RTX 2080 sein wird, vielleicht sogar langsamer als eine 1080Ti OC sein wird. Beim Kühler wird AMD nicht zaubern können und 300W unter 2 Sone mit einer Dual Slot Lösung zu kühlen. Sie wird also wahrscheinlich langsamer, teurer, heißer und lauter als viele 2080er werden. Wieder mal ein schwerer Stand für AMD.

Eine 1080Ti OC ist so schnell wie eine 2080 OC in etwa. 2080 zu einer 1080Ti Custom schenken sich nichts. Man sieht erst einen richtigen Unterschied wenn man eine 2080 FE gegen eine 1080TI FE bencht weil die TI mit Blower-Kühler den Takt nicht hält. Erreicht sie die 2080 erreicht sie gleichzeitig auch die 1080Ti.
 
Genau. Wenn man jetzt noch die AMD Benchmarks der Vergangenheit als Basis nimmt (Ryzen, VEGA), haben unabhängige Tests weniger Leistung bescheinigt bzw. maximal die Best-Case Szenarien von AMD bestätigt. Der Schnitt lag jedoch darunter. Von daher kann man auch bei der Radeon 7 davon ausgehen, dass sie im Schnitt langsamer als eine RTX 2080 sein wird, vielleicht sogar langsamer als eine 1080Ti OC sein wird. Beim Kühler wird AMD nicht zaubern können und 300W unter 2 Sone mit einer Dual Slot Lösung zu kühlen. Sie wird also wahrscheinlich langsamer, teurer, heißer und lauter als viele 2080er werden. Wieder mal ein schwerer Stand für AMD.

das ist mir dann doch zuviel spekulation.
wie das referenzdesign der r7 performt wird man sehen, folien sind immer und von allen mit vorsicht zu geniessen.
die referenzdesigns der 20er serie zum beispiel finde ich top, besitze selbst eins.
das es ein fehler ist keine customs anzubieten ist dagegen fakt, da dann der msrp + steuer der einzige preis für die r7 sein wird, und der ist für ein produkt was als konkurrenz zur 2080 ins rennen geht schlichtweg zu hoch.
 
Solange AMD GPUs für hohe Preise rausbringt sind sie gut, auch wenn sie gegen die 2080 von der Leistung her abstinken wird.

Hauptsache 16GB RAM.

Jetzt 100 Eur mehr bezahlen aber dafür 2-3 Jahre länger auskommen.
Denke mit 16 GB wird man so schnell nicht mehr aufrüsten müssen. :daumen:

Und selbst wenn die Radeon 7 jetzt ein paar % langsamer sein sollte,
wird das in 2-3 Jahren ganz anders aussehen, wenn 8GB nicht mehr ausreichen.

Du bist aber auch lernresistent, die gleiche Unterhaltung hatten wir schon damals mit 7970 vs Gtx 680.
Und wer hat recht behalten ? :schief: Jetzt ist es nicht 1 GB mehr sondern doppelt soviel VRAM !

Naja, AMD gibt in 4K 28,5% mehr Leistung als die Vega 64 im Ref Deign an.
Den Rest kann sich doch jeder erschließen.

Ja kann man...

Radeon 7 vs Vega 64 +28,5%
RTX 2080 vs Vega64 + 26,0 %
............................................................
= Radeon 7 vs RTX 2080 + 2,5%

Na gut, reden wir in 3 Jahren nochmal, wie es dann mit Radeon 7 16GB vs RTX 2080 8GB aussieht :D

UserBenchmark: AMD RX Vega 64 vs Nvidia RTX 2080
 
Zuletzt bearbeitet:
Ouch, die Karte ist nicht mal raus. RTX 2080 Besitzer machen Radeon VII schlecht, weil sie merken, dass ihr Speicherkrüppel schnell im Preis verfällt. Das liegt leider in der Natur des Menschen. Verhungerte AMD-Junger hoffen auf einen RTX 2080 Killer und endlich mal auf etwas Bewegung im Markt.
1. RTX 2080 ist Speicherkrüppel für eine neue Highedkarte im 4K, egal wie rum man es dreht.
2. Es gibt nicht mal unabhängige Tests zu Radeon VII. Es kann sehr wohl sein, dass sie von der GPU-Lesitung her 10-20% schwächer als RTX 2080 ist. 700€ sind zu teuer.
 
"besser" ist immer so ne sache, die 2080 wird diesem artikel nach ja weniger kosten und vergleichbare leistung bringen, für 4k sind auf absehbare zeit die 8gb ausreichend.
was dann besser ist muss der jeweilige endkunde entscheiden.

Wow... auf absehbare Zeit? Was heißt das? Es wird wohl eher so kommen, dass Texturpakete immer größer werden und es gibt aktuell schon Beispiele wo auch 8 GB schon gut ausgenutzt werden. Szenario: 2080 und VII sind in etwa gleich schnell (es ist schon realistisch anzunehmen, das durch Treiberarbeit seitens AMD noch Leistung dazu kommt)... und es kommen immer mehr Games mit massig Texturen daher. Die Folge: Wenn beide Karten dann noch in der Lage sind genügend FPS zu erzeugen, wird das Spiel auf der 2080 sehr wahrscheinlich schlechter aussehen, da Texturen eingespart werden müssen. Oder im schlimmsten Fall bricht sie einfach weg.

Die Vergangenheit hat es doch oft genug gezeigt, dass Speicher für die Zukunft gehörig was bringt (GTX680 vs. HD7970 um nur ein Beispiel zu nennen). Auf lange Sicht - ich denke die meisten die Karten zu diesen Preisen kaufen, behalten Sie für längere Zeit - zahlt sich Speicher immer aus. Wirkt sich auch positiv auf den Wiederverkaufswert aus.

Die 2080 kann zwar mit RTX punkten, aber halt nur in einer sehr sehr begrenzten Anzahl an Spielen und da RTX massig Leistung kostet, sehe ich da für künftige Titel eher schwarz, was das Feature angeht. Das wird erst mit den nächsten Generationen wirklich interessant.

Dafür das die VII eigentlich so nicht geplant war und nur durch die eher teure und "maue" 2000er-Generation von Nvidia auf den Markt kommt, scheint es doch eine sehr passable Karte zu sein. Wenn mir das Leistungsplus zu meiner jetzigen Karte nicht als zu gering erscheinen würde, würde ich ggf. zuschlagen. Aber ne 2080Ti ist einfach absurd teuer, von daher warte ich mal was das Jahr 2020 so bringen wird.
 
also ich bekkomme in WQHD 6gb schon brechend voll. Und das merkt man an z.b. extremen Texturenbrei. An 4k will ich gar nicht denken

das speicherdesign einer 980ti mit turing zu vergleichen ist aber auch schwierig.
ich spiele teilweise auf meinem oled in 4k mit der 2080, da gibt es keine probleme, auch im netz finden sich keine berichte das der vram der 2080 zum momentanen zeitpunkt ein problem darstellt.
natürlich ist man mit mehr immer auf der sichereren seite was die zukunkt angeht, aber wie sich das entwickelt bleibt abzuwarten.
 
so schlimm ist es auch nicht. ich sehe da einen axialkühler, oder?

ich erinnere mich noch an die ati radeon x800 xl mit 512 MB. eig. hat man den ganzen vram nie gebraucht. die 256 mb version hat gereicht.
 
YouTube
R7: min:54 avg:60 max:74
Mangels passendem monitor hat der typ in 3620*2036 nachgebencht, was 7.370.320 pixel entspricht.
2080: min:51 avg:57 max:67

Sieht doch gut aus!

Amd hat sicher nicht umsonst gesagt, dass sie mit der R7 sehr zufrieden sind.
 
Zuletzt bearbeitet:
Wow... auf absehbare Zeit? Was heißt das? Es wird wohl eher so kommen, dass Texturpakete immer größer werden und es gibt aktuell schon Beispiele wo auch 8 GB schon gut ausgenutzt werden. Szenario: 2080 und VII sind in etwa gleich schnell (es ist schon realistisch anzunehmen, das durch Treiberarbeit seitens AMD noch Leistung dazu kommt)... und es kommen immer mehr Games mit massig Texturen daher. Die Folge: Wenn beide Karten dann noch in der Lage sind genügend FPS zu erzeugen, wird das Spiel auf der 2080 sehr wahrscheinlich schlechter aussehen, da Texturen eingespart werden müssen. Oder im schlimmsten Fall bricht sie einfach weg.

Die Vergangenheit hat es doch oft genug gezeigt, dass Speicher für die Zukunft gehörig was bringt (GTX680 vs. HD7970 um nur ein Beispiel zu nennen). Auf lange Sicht - ich denke die meisten die Karten zu diesen Preisen kaufen, behalten Sie für längere Zeit - zahlt sich Speicher immer aus. Wirkt sich auch positiv auf den Wiederverkaufswert aus.

Die 2080 kann zwar mit RTX punkten, aber halt nur in einer sehr sehr begrenzten Anzahl an Spielen und da RTX massig Leistung kostet, sehe ich da für künftige Titel eher schwarz, was das Feature angeht. Das wird erst mit den nächsten Generationen wirklich interessant.

Dafür das die VII eigentlich so nicht geplant war und nur durch die eher teure und "maue" 2000er-Generation von Nvidia auf den Markt kommt, scheint es doch eine sehr passable Karte zu sein. Wenn mir das Leistungsplus zu meiner jetzigen Karte nicht als zu gering erscheinen würde, würde ich ggf. zuschlagen. Aber ne 2080Ti ist einfach absurd teuer, von daher warte ich mal was das Jahr 2020 so bringen wird.

absehbare zeit bedeutet 2-3 jahre.
die entwicklung von vram nutzung bleibt abzuwarten, mit keinem wort habe ich gesagt das 16gb nutzlos sind, sondern das genaue gegenteil.
auch rede ich die r7 nirgendwo schlecht, es kann durchaus sein das sie sich langfristig als die bessere karte etabliert.
einzig die preisgestaltung kritisiere ich und zwar in 2 punkten:

1. die r7 geht in direkte konkurrenz zur 2080 ist dafür aber zu teuer bei einem msrp von 699 plus steuer und nur als referenzdesign erhältlich, was günstigere modelle von vornerein verhindert.
2. amd macht dasselbe wie nvidia beim generationensprung, das nachfolgemodell der v64 ist 200€ teurer.

ob die 2080 besser als die r7 ist wird man sehen, kurzfristig verkauft man masse über den preis, welches produkt dann am ende leistungsmässig die nase vorn hat ist spekulation.
wenn karten mit mehr als 8gb vram keine breite adaption finden wird es auch keine breite masse an titeln geben die mehr als 8gb brauchen.
wie mit rtx auch, verkaufen sich die rtx karten nicht wird es keine breite adaption von rtx features geben.
das sind simple marktgesetze.
 
so schlimm ist es auch nicht. ich sehe da einen axialkühler, oder?

ich erinnere mich noch an die ati radeon x800 xl mit 512 MB. eig. hat man den ganzen vram nie gebraucht. die 256 mb version hat gereicht.

Ist doch egal ob du den GANZEN Vram brauchst oder nicht. Aber 8 sind definitiv zu wenig. Siehe Rise of the Tomb Raider, Shadow of the Tomb Raider, Resident Evil 2, The Division 2, Call of Duty Black Ops 3, Deus Ex Mankind Divided nehmen sich alle schon in WQHD mehr als 8 GB sofern er da ist. Von 4K braucht man da gar nicht reden...

Und klar man kann auch die Details senken denke 2GB reichen auch auf 1080p und minimum, wenn das das Ziel ist bei Grafikkarten für 500€+
 
ob die 2080 besser als die r7 ist wird man sehen, kurzfristig verkauft man masse über den preis, welches produkt dann am ende leistungsmässig die nase vorn hat ist spekulation.
wenn karten mit mehr als 8gb vram keine breite adaption finden wird es auch keine breite masse an titeln geben die mehr als 8gb brauchen.
wie mit rtx auch, verkaufen sich die rtx karten nicht wird es keine breite adaption von rtx features geben.
das sind simple marktgesetze.
Texturen sind kein Features wie RTX oder DLLS, sie sind feste Bestandteile jedes Spiel. Entwickler werden den VRAM soweit befüllen, wie das geht. Falls man weniger VRAM hat, läuft das Spiel trotzdem prächtig, aber eben mit matschigen Texturen in niedriger Auflösung (Streaming). Die Frage ist, warum soll man sich eine 4k Karte kaufen, um dann matschige Texturen auf dem Bildschirm zu sehen? Texturen und Beleuchtung ( RTX ist eine Methode davon) sind die Faktoren, die die Grafik schön aussehen lassen.
 
absehbare zeit bedeutet 2-3 jahre.
die entwicklung von vram nutzung bleibt abzuwarten, mit keinem wort habe ich gesagt das 16gb nutzlos sind, sondern das genaue gegenteil.
auch rede ich die r7 nirgendwo schlecht, es kann durchaus sein das sie sich langfristig als die bessere karte etabliert.
einzig die preisgestaltung kritisiere ich und zwar in 2 punkten:

1. die r7 geht in direkte konkurrenz zur 2080 ist dafür aber zu teuer bei einem msrp von 699 plus steuer und nur als referenzdesign erhältlich, was günstigere modelle von vornerein verhindert.
2. amd macht dasselbe wie nvidia beim generationensprung, das nachfolgemodell der v64 ist 200€ teurer.

ob die 2080 besser als die r7 ist wird man sehen, kurzfristig verkauft man masse über den preis, welches produkt dann am ende leistungsmässig die nase vorn hat ist spekulation.
wenn karten mit mehr als 8gb vram keine breite adaption finden wird es auch keine breite masse an titeln geben die mehr als 8gb brauchen.
wie mit rtx auch, verkaufen sich die rtx karten nicht wird es keine breite adaption von rtx features geben.
das sind simple marktgesetze.

Ne MSRP muss AMD aber ansetzen. Das sind 699 plus Steuer, bei der 2080 FE waren es 799 plus Steuer, die billigen Chips/Karten mit 699 (alles Dollar). Klar kann man nach 3-4 Monaten schon mit den Preisen runter gehen, aber jetzt bei AMD meckern dass die die Karte 100 Dollar günstiger als die 2080 FE und auf höhe der 2080 kleinen Customs ansetzen ist schon etwas lächerlich. ;) Vor allem weil die Karte ja erst kommt, die 2080 wurde damals von Nvidia Fans gefeiert während alle anderen die Karte Leistungsmäßig eher kritisch gesehen haben (in Kombination mit dem kleineren Speicher).

Wenn ich den MSRP der Radeon VII kritisiere muss ich auch den MSRP der 2080 kritisieren, der ist dann nämlich auch zu hoch.
 
Ist doch egal ob du den GANZEN Vram brauchst oder nicht. Aber 8 sind definitiv zu wenig. Siehe Rise of the Tomb Raider, Shadow of the Tomb Raider, Resident Evil 2, The Division 2, Call of Duty Black Ops 3, Deus Ex Mankind Divided nehmen sich alle schon in WQHD mehr als 8 GB sofern er da ist. Von 4K braucht man da gar nicht reden...

Und klar man kann auch die Details senken denke 2GB reichen auch auf 1080p und minimum, wenn das das Ziel ist bei Grafikkarten für 500€+

shadow of the tomb raider bspw. performt auf einer 2080 in 4k im schnitt besser als die 1080ti.
nur weil eine engine den verfügbaren vram reserviert bedeutet es nicht das er gebraucht wird, sehen was wirklich genutzt wird kann man leider nicht.
die pauschale aussage 8gb sind für 4k zu wenig kann man so nicht gelten lassen, sonst wäre die performance der 2080 nicht so wie sie ist, gleichauf mit der 1080ti.
 
Texturen sind kein Features wie RTX oder DLLS, sie sind feste Bestandteile jedes Spiel. Entwickler werden den VRAM soweit befüllen, wie das geht. Falls man weniger VRAM hat, läuft das Spiel trotzdem prächtig, aber eben mit matschigen Texturen in niedriger Auflösung (Streaming). Die Frage ist, warum soll man sich eine 4k Karte kaufen, um dann matschige Texturen auf dem Bildschirm zu sehen? Texturen und Beleuchtung ( RTX ist eine Methode davon) sind die Faktoren, die die Grafik schön aussehen lassen.

danke für die information lieber lehrmeister!
welches AAA spiel hat den mit 8gb auf der 2080 matschige texturen?
 
shadow of the tomb raider bspw. performt auf einer 2080 in 4k im schnitt besser als die 1080ti.
nur weil eine engine den verfügbaren vram reserviert bedeutet es nicht das er gebraucht wird, sehen was wirklich genutzt wird kann man leider nicht.
die pauschale aussage 8gb sind für 4k zu wenig kann man so nicht gelten lassen, sonst wäre die performance der 2080 nicht so wie sie ist, gleichauf mit der 1080ti.

Geb mir mal ein Beispiel wo ein Spiel mehr VRAM reserviert und es dann durch weniger VRAM besser läuft. Ist ja schon das die 8GB noch reichen und man noch nichts von den nicht mehr so glatten Frametimes mitbekommt... aber es ist immer noch ein Armutszeugnis das man eine 11GB 1080TI durch eine 8GB 2080 ersetzt. Der VRAM ist bei der Leistung nicht umsonst auf der Karte 1080TI. (Das wusste Nvidia da auch noch)

Gerade durch 2x 1080iger hab ich sehr schnell sogar bemerkt das es nicht mehr glatt läuft wenn mehr VRAM adressiert wird. Ob das nun auf einer Karte nicht so extrem auffällt ist noch lange kein Grund krampfhaft an dieser 8GB Politik festzuhalten...
 
Ne MSRP muss AMD aber ansetzen. Das sind 699 plus Steuer, bei der 2080 FE waren es 799 plus Steuer, die billigen Chips/Karten mit 699 (alles Dollar). Klar kann man nach 3-4 Monaten schon mit den Preisen runter gehen, aber jetzt bei AMD meckern dass die die Karte 100 Dollar günstiger als die 2080 FE und auf höhe der 2080 kleinen Customs ansetzen ist schon etwas lächerlich. ;) Vor allem weil die Karte ja erst kommt, die 2080 wurde damals von Nvidia Fans gefeiert während alle anderen die Karte Leistungsmäßig eher kritisch gesehen haben (in Kombination mit dem kleineren Speicher).

Wenn ich den MSRP der Radeon VII kritisiere muss ich auch den MSRP der 2080 kritisieren, der ist dann nämlich auch zu hoch.

der msrp der 2080 liegt schon immer gleichauf mit der r7 bei 699$, die FE ist teurer.
sofern amd "kleine" customs zulassen würde wäre der msrp auch egal, aber die wird es nunmal nicht geben und das ist markttechnisch ein problem.
 
Zurück