Radeon VII: Wird sie dem Hype gerecht? - das sagen die PCGH-Redakteure dazu

Ja, ein 443mm^2 kommt gegen einen 800mm^2Chip nicht an.
So sieht das nämlich ca. genormt aus.
Echt ich kann das nicht mehr hören, Leistung von 2016 oder früher ( NVIDIA hat 1 bessere auch nicht dicke) und dann nicht mal die 16 nm (12nm sind’s) werden geschlagen bla bla bla

Dann gebt halt 1300 Euro für mehr Leistung ( jedenfalls meistens und so lange der RAM reicht) aus,
 
Ich seh da jetzt keinen Hype. Ca. ne 2080 mit 16GB VRam füt ca 700€ ist jetzt nicht so abwegig.
Ob die 16GB sich lohnen werden zeigt dann eben die Zukunft. Wir werden es sehen.

Kp. wo man da Hype riecht.
 
Ich hab das mit dem Rattenschwanz nicht despektierlich gemeint. Es hängt halt immer was dran. Müsste ich davon leben hätte ich es wohl auch so gehandhabt.
 
Das ist nicht weniger als ein Durchbruch in der Chip-Herstellung!

Nochmal: Nenne mir in der Preisklasse eine bessere GPU für 4K
 
Quizfrage: Ist eine Radeon R9 390(X) "zu langsam für aktuelle Spiele" oder profitiert sie heute tatsächlich von 8 GiByte?

MfG,
Raff

Ganz nüchtern betrachtet, blendet sie zumindest keine (Texture)Details aus, sprich Ultra-Texturen/Details sind Ultra-Texturen/Details, was bei der GTX 970/980 in vielen aktuellen Titeln nicht mehr der Fall ist. Ausserdem ist das Performance-Rating in Relation zu den genannten Nvidia-Pendants spürbar angestiegen. Zuletzt gibt es keine markanten Ruckler/Stocker aufgrund von Speichermangel in VRAM-kritischen Titeln, die sich allmählich häufen. Totalausfälle wie in Wolfenstein 2 gibt es auch keine.
 
Ich bitte um Verzeihung, dann sinds halt ~100W. Ich sehe aber nicht inwiefern das, in Relation zum gesamten Stromverbrauch eines normalen Haushaltes, auf einmal den Weltuntergang durch die Klimaerwärmung beschleunigt.

Wer hat denn das behauptet? Da steht ja nur in "Zeiten der Klimaerwärmung".
Also früher spiele der Stromverbrauch einer PC Komponente jedenfalls bei den Reviews eine deutlich größere Rolle, obwohl da die Stromkosten noch geringer waren.

Und bei mir ist der Hauptkostentreiber der Elektro-Boiler, danach gleich die Zimmerbeleuchtung.

Also bei mir und meiner Frau ist es grundsätzlich so, dass wir alle Komponenten die wir kaufen, sei es PC, LED, Waschmaschine, Kühlschrank etc.. in punkto Energieeffizienz mit vergleichbar teuren Produkten vergleichen und uns dann für das energieeffizientere Produkt entscheiden.
Zimmerbeleuchtung ist bei uns kein Kostentreiber, wir haben 3 bis 12 Watt LED Lampen und kommen mit 80 Watt hin das komplette Haus Abends ausreichend zu beleuchten.
Der Server der im Keller steht und die 4 Rechner an der Zahl sind die größten Kostentreiber, aber eben aus beruflichen Gründen auch notwendig, zumindest der Server.

Mein Rechner läuft kaum unter Last, in Relation zu der Idle-Zeit gesehen. Nichtmal eine Stunde pro Tag, wenn ich über das ganze Jahr das Mittel ziehe. Da macht es das Kraut nicht fett wenn eine AMD statt einer Nvidia im Rechner steckt.

Das kommt natürlich auf die Nutzungszeit an. Seitdem ich pro Woche nur noch etwa 25 Stunden arbeite, spiele ich schon mal gerne etwa ~6h pro Woche im Schnitt und der Rechner läuft eigentlich durchgängig, sei es wegen der Arbeit oder eben wegen des Servers im Keller. Kleinvieh macht auch Mist und läppert sich eben mit der Zeit.
Aber mit geht es da primär eher um die Hitzeentwicklung im Gehäuse.
Ich weiß nicht mehr ob ich mich an dieser 99K vs. 27X Diskussion beteiligt habe.

Meinte damit auch nicht dich. Aber ich finde es sehr erstaunlich wenn man beide Threads miteinander vergleicht.
Der 9900K zieht in der Praxis kaum mehr Strom als ein 2700x, wurde aber wegen seines Stromverbrauchs bei der Userschaft zerrissen, obwohl die Unterschiede niedriger liegen als bei den GPUs und der 9900K ja eine vergleichbare bis sogar bessere Effizienz als der 2700x aufweist.

Üblicherweise ist mir der Stromverbrauch völlig egal. Für mich zählt ausschließlich das P/L-Verhältnis.

Wenn für dich das P/L Verhältnis zählt, dann zählen zwangsläufig auch die Betriebskosten, außer jemand anderes übernimmt deine Stromkosten.
Das man die Abwärme auch wegkühlen muss ist ein Argument für sich.

Ich hab aktuell eine RX 580 gegen eine GTX 2060 in meinem kleinen Rechner mit Ryzen 5 2600 getauscht.
Und dieses Jahr bin ich mit meinem Hadware Budget schon an der Grenze, ergo kann ich nur durch verhökern alter Hardware wieder neue kaufen.
Jedenfalls spüre ich den Unterschied in meinem kleinen 0815 Gehäuse schon deutlich. Die 60 Watt weniger die die 2060 zieht, machen das Gesamtsystem inkl Lüfter deutlich leiser.
Ok. Ich hab mir das kapitalistische Wirtschaftswunder nicht auf den Wunschzettel geschrieben.

Geht auch ein bisschen ums Prinzip.
Die HD 58XX Serie war die letzte AMD GPU Serie wo man noch wirklich auch wegen dem Strombedarf für eine AMD Karte argumentieren konnte.
Ich persönlich werde bei 2 vergleichbaren Produkten immer das mit deutlich weniger Strombedarf vorziehen.

Was ihr euch alle scheckisch macht ... lasst die Redaktion doch über Hype oder nicht Hype philosophieren.

Wie gut dass es in Deutschland Meinungsfreiheit gibt, ergo kann Hype oder Nicht-Hype jeder ja anders beurteilen.

Und das ein Schaffe hier wieder meint seine Glaskugel im Bezug auf die Performance der Radeon7 auszupacken und ohne offz. Benchmarks meint einzuordnen, spricht wieder nur für ihn.

Mit Glaskugel hat das eher wenig zu tun. Du kannst davon ausgehen, dass meine Einschätzung mit einer Abweichung von wenigen Prozent im unteren einstelligen Bereich, genauso eintritt.
Oder du greifst auf die Einschätzung von Leo im 3D Center zurück.
AMD hat ja eine Performancesteigerung von 28,5% angegeben. Damit lässt sich ziemlich viel anfangen.
Generell sehe ich Herstellerangaben immer relativ nüchtern - damit fährt man unterm Strich bei fast jedem Launch am besten.
Finde es übrigens lustig das sich über AMD, egal was sie machen, entsprechend ausgekotzt wird.

Entnimmst du einen Querschnitt der Beiträge aus dem Forum, wird AMD in der Gunst der User deutlich bevorzugt, das liegt nicht zuletzt an den Sympathiewerten des Unternehmens, die einfach deutlich höher als bei Intel oder Nvidia liegen, alleine aus den kleinen Skandalen letzterer begründet, die in den Foren hohe Wellen schlagen.

Aufgrund der Vergangenheit da sie kein vergleichbares Produkt hatten was in den Enthusiast Bereich aufschloss und nun bringen sie (wahrscheinlich!) eines was die Lücke im oberen Highend Bereich schließen könnte und es wird wieder drauf eingedroschen.

Ich sehe außer ein oder zwei Usern niemanden der auf das Produkt eindrischt, während es bei Turing Release ein viertel des Forums war.
Die Außeinandersetzung bei der Radeon Seven ist deutlich konstruktiver als bei Turing Themen.
Es wird auch erheblich weniger über den Preis philosophiert und deutlich mehr über die Technik gesprochen. Heißt Bandbreite, V-ram, (eventuelle Verbesserungen an der IP gegenüber Vega usw.) und Leistung.
Das hätte man sich bei Turing auch gewünscht.
Und ich kann nur immer wieder sagen, wir können froh sein das wir AMD als zweiten GPU Hersteller noch haben. Der bei dem Umsatz und den verfügbaren Entwicklungsgeldern die sie haben, überhaupt noch Highend GPU's entwickeln und Nvidia nicht noch höher die Preise treiben kann als ohnehin schon.

Ja, da kann man froh sein, aber die Preise treiben beide Hersteller in die Höhe.
Jedenfalls haben sie das in der Vergangenheit immer sukzessive getan, bzw AMD hat sich mit den GPU Preisen einfach an Nvidia orientiert.
Und wäre Nvidias Angebot schwach und die Radeon Seven wäre der Platzhirsch, dann würde sie bestimmt keine 699 Dollar kosten, sondern wohl 999 Dollar.

Deshalb werde ich AMD in Zukunft auch weiter unterstützen und werde deshalb im Sommer auch auf ein neues Zen2 System mit 6-8 Kernen aufrüsten und wenn wir AMD weiterhin als Konkurrenten gegenüber Nvidia und Intel sehen wollen, sollten wir AMD auch entsprechend unterstützen als wie den Markt einzig und allein Nvidia und Intel zu überlassen.

Ich werde keine Aktiengesellschaft unterstützen, sondern immer das Produkt kaufen, was mir mehr zusagt.
Idealismus ist keine schlechte Eigenschaft, aber ich halte sie für einen angeblich fairen Grafikkartenmarkt für falsch eingesetzt, oder gar missbraucht.

AMD orientiert sich da doch auch nur an den Preisen der Turing Karten und wenn die R7 auf dem Niveau einer RTX2080 liegt, die um die ~700€ kostet, wieso sollte AMD da dann 200€ weniger verlangen.

Ob sie sich orientieren oder nicht, dennoch hat AMD den Preis auch um 200 Euro angehoben und sie würden die Karte wesentlich teurer verkaufen, wenn sie könnten.

Wobei immer noch nicht klar ist ob Navi nicht erst mal nur Polaris beerbt.

Das ist selbstverständlich klar. Der Navi der offenbar im dritten Quartal 2019 kommt, ist ganz klar ein Mittelklasse Derivat.
AMD hat höchstselbst ihre neue High End GPU auf einem AI Event für 2020 angekündigt.
 
Zuletzt bearbeitet:
~50W mehr Verbrauch ebnen den Weg für die Klimaerwärmung?

Das ist genau die engstirnige Sichtweise, die überhaupt erst zur Klimaerwärmung geführt hat. Es ist nie das Problem des Einzelnen - stets werden Ausreden dafür gefunden, was andere denn alles dafür tun könnten, dieses oder auch andere Probleme in den Griff zu bekommen. Kleine Denkhilfe: Du bist nicht alleine auf diesem Planeten, es gibt 7-8 Mrd. andere und wenn alle so denken - was die meisten bekanntlich tun - dann sieht die Rechnung gleich ganz anders aus. Es wird hier ja nicht nur eine Radeon VII verkauft, sondern vermutlich - ach was, mit Sicherheit deutlich mehr. Wie heißt es doch so schön: Auch Kleinvieh macht Mist. Also erst denken und den Strom für Kommentare des Typs "heiße Luft" sparen.
 
So einen riesen Unterschied macht es trotzdem nicht für die Umwelt, wenn 1000 oder 5000 Radeon 7 Karten verkauft werden. Es würden viel mehr bringen, wenn die Menschen kaum mehr Fahrzeuge benutzen würden für in die Arbeit zu gehen oder zum Fussball schauen in den Stadien zu gelangen usw. Oder halt gar nicht mehr gamen, dann braucht man auch keine Grafikkarte die mehr als 75 Watt verbraucht.
 
Auch wenn es nicht Ideal ist was AMD da mit dem Verbrauch out of the box treibt, reicht im Grunde nur ein klick bei Wattman im Treiber um den Verbrauch um 60-100w im Power Safe Mode zu senken. Bei kaum oder keinen FPS Einbußen. Denke das wird bei der R7 nicht anders gelöst sein und für jeden anderen der sich bissi mit der Materie Hardware befasst, kann dann auch die Karte entsprechend noch undervolten.

Gamestar hat da zum Release der Vega Karten eine sehr schöne Übersicht erstellt, um die verschiedenen Treiber Einstellungen zu testen.
Radeon RX Vega 64 Liquid Cooled - Vergleich mit Nvidias GTX 1080 (Ti) - GameStar

Meine Vega64 verbraucht übrigens keine 190w im Schnitt bei sogar 70MHz OC bei Chip und 55MHz beim Ram.
 
Zuletzt bearbeitet:
Zurück