Radeon VII: Wird sie dem Hype gerecht? - das sagen die PCGH-Redakteure dazu

Gib ma bitte jemand Link zum Hype, ich find ihn irgendwie nicht.

Eben. :daumen:

Das Thema "hype" in diesem Zusammenhang, hatten wir doch schon ausführlichst abgehakt. Da is keiner !


Lasst AMD doch einfach mal eine Karte rausbringen, als Alternative zu einer 2080 für AMD-(z.B. auch freesync-)User und gut is.
Wenn die dann halt ebenso, wie die 2080, zu teuer ist, dann is das eben so.

Aber warum sollen nur Nvidia-Käufer die Berechtigung haben, überhöhte Preise zu zahlen ? :D


Von der Speichermenge her, sollte die allerdings zumindest mal die nächsten 1-3 Jahre halten. ;)
Danach braucht man irgendwann eh wieder was Neues, wenn die raytracingpläne von nvidia, AMD, Xbox usw. tatsächlich irgendwann mal Früchte tragen.

Es sei denn, einem geht raytracing völlig am ... vorbei. Soll's ja auch geben.
Dann geb' ich der Karte sogar 4-6 Jahre, sollte sie so lange durchhalten(ohne Defekt mein ich) und man z.B. mit einem WQHD freesync Monitor vollkommen zufrieden sein.
Is doch auch mal was.
Dafür könnten die 700€ evtl. sogar gerechtfertigt sein, wenn man eine so lange Nutzungszeit einplant und z.B. schon einen dementsprechenden freesync Monitor besitzt.


Ob die Karte im Spiel X dann 5% vorn liegt(vor einer 2080) und in Spiel Y 5% hinten, interessiert den Kaufinteressierten dann glaube ich wenig.
 
Hier hat kein Mensch Lobeeren verteilt, aber ein haufen "Anderer" haben wild drauf eingeschlagen. AMD geht mit dem Thema absolut fair um, hat frühzeitig Benchmarkergebnisse veröffentlicht und SU hat klar gesagt, wozu sich die Karte eignet, wo sie steht und was sie kann (mal schneller mal langsamer als eine 2080).

Den negativen Hype betreiben andere, weil in ihren Kopf kaum was passt als grüne Farbe.

Rechenbeispiel:
Die 2080 ist unter Ultrapreset 35% langsamer als eine 2080ti und 6% schneller als eine 1080ti (Auflösungen und Spiele kumuliert), wobei die Vega64 Air 38% langsamer ist als eine 2080 und ihr unter UHD hier oder da wegen Vulkan/DX12 Spiele auch mal liegen. Da weiss man doch wo die Karte herauskommt?

Es gibt keinen Hype und das ist auch richtig so.

Diskutiert wurde über Sinn oder Unsinn größerer SI's und schneller angebundenen Speicher der größer ausfallen kann.
 
Zuletzt bearbeitet:
Sie ist wohl irgendwo genauso schnell wie ein undervoltetes V56 Crossfire bei halbem Verbrauch (500W versus 250-300w).

Ich finds immer lustig, wenn absolute Laien über Cf eine Performance+Verbrauchsschätzung abgeben.
(mal abseits von Problemen in Game XYZ, was auch oft am Sys und Einstellungen liegt)

Wenn man 56cf auf eine VDDC =0,9V einstellt hat man ca. avg. 2x175W GPU-only + 2x 15W HBM +2x XYZ =ca,400W<<500W.
Damit ist man z.Bsp. in Sup4k immer noch schneller als ne 2080oc und sicher auch als die R VII mit OC.
In diesem speziellem Benchmark wird die 2080 vor der R VII landen, weil Ihr Defered Lighting besser liegt.
24/7
Bei 4k60fps verbraucht 56Cf logischerweise 1/3 weniger.(es gibt ja Fps-Limit und FS-Monis)
(im Anhang das GPU-Z der primären Graka ohne Fps-Limit)

edit: Hier bitte kein Diskussion über mGPU.
Danke und ein schönes WE
 

Anhänge

  • Sup_nachW10Update_22Jan.PNG
    Sup_nachW10Update_22Jan.PNG
    167,3 KB · Aufrufe: 38
Zuletzt bearbeitet:
Und eine GPU deren Taktdomäne sich an eine Voltagetable koppelt, boostet dann mit 1500-1600MHz? AMD geht bei der Seven und deren Benchmarks von keinem 60fps Limit aus. Wenn dem Treiber nicht passt was du dort einstellst, ignoriert er es kurzzeitig einfach, weil es auch noch ein Graka-Bios gibt. Die Optimierung der Software-Powetable unter Windows ist eine der Möglichkeiten um das Regelverhalten von AVFS einzugrenzen oder Wattman-Modi per Treibersetup direkt anzupassen.

Nur mal was zu deiner Bemerkung - es handle sich um Laien. Was du privat mit AMD Hardware machst, ist ja dein Problem und was Programme auslesen und AMD angibt ist lediglich Asicpower. Es liegt am Layout und der VRM was ein Board tatsächlich verbrezelt. 175+15+60W?

Dann nochmal kurz überlegen was "4K optimiert" bedeutet und ob das Ultra Preset sein könnte?

Bitte keinen Hype veranstalten!
 
Zuletzt bearbeitet:
Vega + 30% mit 16GB wurde von AMD gesagt. Da braucht es gar keine Gerüchteküche mehr und alle "Phantasisten" und "Spekulanten" können einpacken.
Wir bekommen also eine Karte, die vermutlich im Schnitt wieder leicht unter der 2080 landen wird, wo es dann wirklich egal sein wird, welchen Hersteller man bevorzugt.
AMD bietet dann sicherlich wieder den Kaufgrund wegen mehr Speicher (Langlebigkeit) und 100% Adaptive-Sync-Unterstützung bei Monitoren.
Hat man bereits einen G-Sync-Monitor zu Hause, oder meint, 5-10 Euro Stromersparnis im Jahr seien wichtig, greift man zur NVidia Karte.
Letztendlich wird es auch Käufer geben, die einfach zu der günstigsten Karte greifen werden.
Wer keine 600-800 Euro für eine Karte ausgeben möchte, und derweil auf eine glitzernde 2060 schielt, der sollte aber unbedingt bis zum Sommer zum Launch der Navi-Karten warten.
Raff und Willi warnen ja schon vor dem zu kleinen Speicher der 2060, falls man Spiele wie Wolfenstein 2, Resident Evil 2 Remake und Metro Exodus (und zukünftige solcher Titel) ordentlich zocken möchte und nicht schon jetzt am Drehregler feinjustieren möchte, obwohl die Grundleistung eigentlich da wäre.
Jedenfalsl werden die nächsten Wochen udn Monate wieder spannend.
Es wäre doch wirklich schade und öde ohne AMDs Versuch, und da ein tiefes Loch offen zu lassen, bis man vielelicht in einem Jahr wieder was "gutes" entgegenzusetzen hat.
 
Den einzigen Hype den ich sehe machen vielleicht die Medien aber sonst keiner. Ist aber auch verständlich die brauchen ja diese Art der Meldungen und Aufmachung.

Was die 16 GB bringen und was nicht werden wir erst in den Test sehen. Vorher ist das schwer zu sagen.

Ich denke wenn die Karte gut mit einer 2080 mit halten kann, ist das ein gutes Zeichen. Das hat einer so gesagt, er glaubt nicht das sie eine 2080 überholen kann, aber ihre Rücklichter gut abdeckt. Das würde auch schon reichen. Man kann nicht erwarten das AMD so aus dem Nichts eine Karte aus dem Ärmel schüttelt die eine 2080TI schlägt. Das wird sicher noch 1 oder eher 2 Jahre dauern. Wichtig ist das AMD hier am Ball bleibt.

Den Preis selbst sehe ich eher gelassen, denke wenn die Karte ausreichend verfügbar ist werden der Preis auch schnell nachgeben. Man muss ja nicht gleicht mit erscheinen kaufen. Ein bisschen warten sich in ruhe mal die Test ansehen ist sicher nicht verkehrt.

Mir wäre zwar auch einen AMD Karte die auf Augenhöhe einer 2080TI liegt lieber als mir eine von den Grünen zu kaufen. Aber man muss halt auch realistisch sein. Ich hatte vorher eine 1080 A8G von Asus und jetzt eine Asus Vega 64. Hab gewechselt wegen Freesync. Mit sehr zu frieden mit der Karte. Große unterschiede sehe ich zu der vorigen nicht. Außer vielleicht im Stromverbrauch. Daher denke ich das die Radeon VII schon ein Schritt in die richtige Richtung ist.
OB? Ich sie mir kaufen werden? Wie gesagt zuerst mal die Test abwarten und nicht nervös werden.
 
Ich hab extra gerade noch mal nach dem "Hype" gesucht, weil mir das hier langsam auf den Pinn geht, mit dem "gehype" und mal bei hardware unboxed gesucht, nach dem hype, die ich als gutes youtubeformat ansehe.

Hier was Steve dazu sagt (nur bis 1:40, also in 40 Sekunden is alles dazu gesagt): YouTube

Kurz: (wahrscheinlich laut AMD) In etwa RTX 2080 performance zum ca. RTX 2080 Preis. Also ... tja ... eben so. That's it. Nix hype.
 
Gerade einmal EIN Redakteur spricht den Stromverbrauch an. Das ist in Zeiten der Klimaerwärmung fast schon ein Armutszeugnis. Die Radeon VII ist eine Notlösung und Nischenprodukt um im Gespräch zu bleiben. Weder der auf 16GB gewachsene VRAM (nett aber wer achtet bei einem Heizkörper auf Zukunftsfähigkeit? Die angesprochene Käuferklasse dieses Produkts tauscht die Karte zum Großteil bei Erscheinen einer besseren Alternative) noch die kolportierte RTX2080 Leistung sind es wirklich wert der Karte Beachtung zu schenken.
 
Gerade einmal EIN Redakteur spricht den Stromverbrauch an. Das ist in Zeiten der Klimaerwärmung fast schon ein Armutszeugnis...

~50W mehr Verbrauch ebnen den Weg für die Klimaerwärmung?
Jeder, wirklich jeder hat im Haushalt so einige Geräte welche um ein Vielfaches mehr an Strom verbrauchen als der PC. Zudem kaum einer seinen Rechner 24/7 unter Volllast laufen hat. Da macht sich der Mehrverbrauch selbst auf lange Zeit kaum bemerkbar.

Wenn man wirklich Energie "sparen" will, dann sollte man in der Industrie ansetzen welche Unmengen an Energie "verschwendet" um Unmengen an sinnlosem Schrott herzustellen welcher sowieso nur für die Müllhalde produziert wird. Dem Endverbraucher den schwarzen Peter unterzujubeln und daraus ein Kontra-Argument zu AMD abzuleiten ist in meinen Augen ziemlich weit hergeholt.
 
Zuletzt bearbeitet:
Gerade einmal EIN Redakteur spricht den Stromverbrauch an. Das ist in Zeiten der Klimaerwärmung fast schon ein Armutszeugnis. Die Radeon VII ist eine Notlösung und Nischenprodukt um im Gespräch zu bleiben. Weder der auf 16GB gewachsene VRAM (nett aber wer achtet bei einem Heizkörper auf Zukunftsfähigkeit? Die angesprochene Käuferklasse dieses Produkts tauscht die Karte zum Großteil bei Erscheinen einer besseren Alternative) noch die kolportierte RTX2080 Leistung sind es wirklich wert der Karte Beachtung zu schenken.


Ob jetzt eine Radeon 7 oder eine RTX 2080 im Rechner werkelt, es hilft beides nicht dem Klimawandel.
Ob man sich darüber dann aufgeilt das die 2080 nur 225 verbraucht und die Radeon 7 vermutlich 300 spielt am Ende des Kalenderjahres keine wirkliche Rolle...

Klimaverbrechen werden an großer Stelle definitiv an anderen Orten begangen und nicht an einem Heim Rechner welcher 75W mehr beim Zocken verbraucht und das in einem Land welches Weltweit mit zu den führenden Nationen mit erneuerbaren Energien gehört. Der Anteil liegt nämlich bei 33-78%. je nach Wetterlage. Wenn man seinen Energie Lieferanten also Zukunftsorientiert und fürsorglich auswählt, was spricht dann dagegen das lächerliche 75W davon mehr in den PC fließen?
 
Hier hat kein Mensch Lobeeren verteilt

Das ist falsch, Lorbeeren wurden in den entsprechenden Threads schon genügend voreilig verbreitet.


Hier hat kein Mensch Lobeeren verteiltaber ein haufen "Anderer" haben wild drauf eingeschlagen.

RTX 2080 wurde wegen Preis und Raytracing permanent kritisiert, die selben User haben dann über die Radeon 7 Lobeshymnen angestimmt.

und was sie kann (mal schneller mal langsamer als eine 2080).

Sie hat gesagt sie kann ab und zu mit der 2080 mithalten.

Den negativen Hype betreiben andere, weil in ihren Kopf kaum was passt als grüne Farbe.

Das liegt weniger an der Farbe sondern an einfachen Metriken: Preis, Leistung, Features, Leistungsaufnahme.
Und da hat die Vega einen Punkt für sich. Alle anderen Punkte sprechen für die Nvidiakarte die ja durchweg kritisiert wurde.
Was man nun wieder lesen muss, ist in den üblichen Threads die Hypebotschaften.
Beispielhaft:

Es wird halt sehr schwer sein die perfekte Referenzkarte zu übertreffen. Radeon VII wird einschlagen wie einen Bombe, die erste Karte die bereits für die zukünftigen Konsolenportierungen bereit ist, dank 16GB Highspeed HBM2 VRAM. :hail:


Dann noch die typischen Hype Kommentare von 5 bis 10 typischen anderen Usern.
Außerdem ist diese News ja als Frage formuliert.

Die 2080 ist unter Ultrapreset 35% langsamer als eine 2080ti und 6% schneller als eine 1080ti (Auflösungen und Spiele kumuliert), wobei die Vega64 Air 38% langsamer ist als eine 2080 und ihr unter UHD hier oder da wegen Vulkan/DX12 Spiele auch mal liegen. Da weiss man doch wo die Karte herauskommt?

Es gibt keinen Hype und das ist auch richtig so.

Man sollte sich halt auch nichts schönrechnen.

Die 1080 Ti liegt in 4K 29% vor der Vega 64.
AMD gibt 28,5% Steigerung an - was sicher etwas geschönt ist.
Sagen wir mal im Schnitt eher ~24%.

Damit bleibt man etwa 5% hinter der 1080 Ti und gut 10% hinter der 2080 bei CB.
Im Durchschnitt aller Reviews (3D Center) oder PCGH Leistungsindex wirds noch ein bisschen schlechter aussehen, zumal die Radeon Seven unter 4K keine 1700Mhz halten wird, sondern eher auf ~1650 abfällt.
Siehe hint von Raff.

Nvidia GeForce RTX 2070 im Test (Seite 3) - ComputerBase


 
Zuletzt bearbeitet:
Gerade einmal EIN Redakteur spricht den Stromverbrauch an. Das ist in Zeiten der Klimaerwärmung fast schon ein Armutszeugnis. Die Radeon VII ist eine Notlösung und Nischenprodukt um im Gespräch zu bleiben. Weder der auf 16GB gewachsene VRAM (nett aber wer achtet bei einem Heizkörper auf Zukunftsfähigkeit? Die angesprochene Käuferklasse dieses Produkts tauscht die Karte zum Großteil bei Erscheinen einer besseren Alternative) noch die kolportierte RTX2080 Leistung sind es wirklich wert der Karte Beachtung zu schenken.

Joa, ich hoffe du fährst immerhin schon kein Auto... Da du ja scheinbar Zugang zum Internet hast kann man auch nicht davon ausgehen dass du 100% Grün im Wald lebst. Generell sind alle Karten/PC die nicht für die Forschung oder andere Dinge die die Menschheit voran bringen genutzt werden schlecht fürs Klima und ein Armutszeugnis. Völlig egal ob die jetzt nur 240 Watt braucht und RTX 2080 heißt oder 300 Watt zieht und auf die Bezeichnung RX Vega 64 hört.
 
~50W mehr Verbrauch ebnen den Weg für die Klimaerwärmung?

Was heißt da 50 Watt? Jetzt untertreibst du aber.
300 Watt vs 225/215 Watt TDP, sind keine 50 Watt, sondern 85/75 Watt und das nicht mal bei selber Geschwindigkeit.

Jeder, wirklich jeder hat im Haushalt so einige Geräte welche um ein Vielfaches mehr an Strom verbrauchen als der PC.

Der PC ist in meinem Haushalt Hauptkostentreiber (Server, Desktop).
Es geht auch um Abwärme und Kühlbarkeit.
Was waren die Threads des 9900K voll mit Beschwerden über seinen Stromverbrauch, obwohl es da in der Praxis (Gaming) gerade mal 20 bis 30 Watt gegenüber dem 2700X sind.
Nein, hier wird ganz glasklar wieder mit zweierlei Maß gemessen. Stromverbrauch gehört klar kritisiert.
Eine 300 Watt GPU ist kein Zuckerschlecken, schon gar nicht wenn die Konkurrenz mit 225/215 Watt mehr Leistung liefert.

Dem Endverbraucher den schwarzen Peter unterzujubeln und daraus ein Kontra-Argument zu AMD abzuleiten ist in meinen Augen ziemlich weit hergeholt.

Wieviel Endvebraucher gibt es denn auf der Welt? 8 Milliarden.
 
Zuletzt bearbeitet:
Sie hat gesagt sie kann ab und zu mit der 2080 mithalten.

Damit bleibt man etwa 5% hinter der 1080 Ti und gut 10% hinter der 2080 bei CB.
Im Durchschnitt aller Reviews (3D Center) oder PCGH Leistungsindex wirds noch ein bisschen schlechter aussehen, zumal die Radeon Seven unter 4K keine 1700Mhz halten wird, sondern eher auf ~1650 abfällt.
Siehe hint von Raff.

Nvidia GeForce RTX 2070 im Test (Seite 3) - ComputerBase



Da bin ich absolut bei Deiner Meinung und finde es auch seltsam das die 2080 für die Leistung und den Preis kritisiert wurde aber AMD mit der R7 aufeinmal ein Technikwunder bringt.

Mir hat der Benchmark von AMD darüber Aufschluss gegeben bei BF5 das die R7 etwas besser als eine 2070 in den meisten Spielen sein wird und nur wo die Radeons eh schon gut laufen wie BF5 wird sie schneller als eine 2080 sein.

Für den Preis den AMD verlangt werden eh nicht viele gekauft werden wie auch die 2080 von Nvidia.
Es ist auch immer erstaunlich wie sich manche Leute Preis und Leistung schön reden dabei kann man die R7 und auch die RTX-Reihe von Nvidia einfach in die Tonne kloppen da diese von der P/L gesehen unterirdisch sind.
Wem sein Geld lieb ist und Leistung für sein Geld will wartet lieber auf die nächste Gen wie Navi und Ampere dann könnte wenigstens wieder Leistung kommen.

Außerdem macht das eine GPU nicht besser wen man einen Flop dann in 7nm bringt ;-)
 
Zuletzt bearbeitet:
Joa, ich hoffe du fährst immerhin schon kein Auto... Da du ja scheinbar Zugang zum Internet hast kann man auch nicht davon ausgehen dass du 100% Grün im Wald lebst.

Gehts noch ? Was treiben sich hier für Leute rum...

Lass ihn doch, er macht sich Gedanken um den Energieverbrauch. Ist ja auch bei AMD ein gerechtfertigtes Thema wo fast immer deutlich mehr Energie verbraten wird bei weniger Leistung...
Darf er das gar nicht mehr nur weil er nicht im Wald lebt?

Muss ich jetzt im Wald leben um mir Gedanken über den Energieverbrauch einer GPU oder sonstwas machen zu dürfen ?

Langsam fehlen mir hier echt die Worte...

Immer diese "totalen" Aussagen und Meinungen, so manchen hier würde ich echt gerne mal im RL beobachten.
Soziales Verhalten, Allgemeinbildung, Fähigkeit der Selbstreflexion... Tellerrand, Anstand usw...
 
Was heißt da 50 Watt? Jetzt untertreibst du aber.
300 Watt vs 225/215 Watt TDP, sind keine 50 Watt, sondern 85/75 Watt und das nicht mal bei selber Geschwindigkeit.



Der PC ist in meinem Haushalt Hauptkostentreiber (Server, Desktop).
Es geht auch um Abwärme und Kühlbarkeit.
Was waren die Threads des 9900K voll mit Beschwerden über seinen Stromverbrauch, obwohl es da in der Praxis (Gaming) gerade mal 20 bis 30 Watt gegenüber dem 2700X sind.
Nein, hier wird ganz glasklar wieder mit zweierlei Maß gemessen. Stromverbrauch gehört klar kritisiert.
Eine 300 Watt GPU ist kein Zuckerschlecken, schon gar nicht wenn die Konkurrenz mit 225/215 Watt mehr Leistung liefert.



Wieviel Endvebraucher gibt es denn auf der Welt? 8 Milliarden.

Du versuchst durchgehend AMD schlecht zu reden. Freu dich doch das Nvidia ein wenig Konkurrenz hat. Und es macht für einen Spieler, der sich einen High End PC baut, wohl kaum einen Unterschied, ob man monatlich 5-10€ mehr an den Stromanbieter zahlt. Jetzt hat man halt, zumindest bis zur 2080 Leistung wieder die Wahl, was man nimmt. Und das ist gut so. Ich hoffe Intel spielt auch in der Liga mit. Vielleicht bekommt man dann endlich wieder richtige Leistungssprünge mit jeder neuen GPU Generationen.
 
Zurück