Radeon VII: Wird sie dem Hype gerecht? - das sagen die PCGH-Redakteure dazu

Gehts noch ? Was treiben sich hier für Leute rum...

Lass ihn doch, er macht sich Gedanken um den Energieverbrauch. Ist ja auch bei AMD ein gerechtfertigtes Thema wo fast immer deutlich mehr Energie verbraten wird bei weniger Leistung...
Darf er das gar nicht mehr nur weil er nicht im Wald lebt?

Muss ich jetzt im Wald leben um mir Gedanken über den Energieverbrauch einer GPU oder sonstwas machen zu dürfen ?

Langsam fehlen mir hier echt die Worte...

Immer diese "totalen" Aussagen und Meinungen, so manchen hier würde ich echt gerne mal im RL beobachten.
Soziales Verhalten, Allgemeinbildung, Fähigkeit der Selbstreflexion... Tellerrand und so...

Die Karte im Energie verbrauch zu kritisieren ist auch ok.
Aber er hat sie als Klimasünde Nr.1 dargestellt das geht gar nicht... und auch nicht verteidigt.
 
Du versuchst durchgehend AMD schlecht zu reden. Freu dich doch das Nvidia ein wenig Konkurrenz hat. Und es macht für einen Spieler, der sich einen High End PC baut, wohl kaum einen Unterschied, ob man monatlich 5-10€ mehr an den Stromanbieter zahlt. Jetzt hat man halt, zumindest bis zur 2080 Leistung wieder die Wahl, was man nimmt. Und das ist gut so. Ich hoffe Intel spielt auch in der Liga mit. Vielleicht bekommt man dann endlich wieder richtige Leistungssprünge mit jeder neuen GPU Generationen.

Also ich freu mich nicht was AMD und Nvidia da für GPU´s bringen die kaum Mehrleistung haben aber MEHR an Preis. Ich bin enttäuscht von beiden Entwicklern und besonders von AMD da sie das Kellerkind sind aber auch nur die Leute über den Tisch ziehen und saftige Preise verlangen dabei haben sie mit Ryzen gezeigt wie man den Marktführer bekämpft. So erreichen die garnix im GPU-Sektor.

Der Preis spielt eine große Rolle wo ich mir schon einen I7 8700K geholt hätte aber der kostet ja knapp 400€ und die Abzocker-CPU 9900K kann man ganz vergessen also warte ich auf Ryzen 3000 da ich denke da einen ordentlichen Achtkerner zu Bekommen für bis 300€ der für Spiele was taugt.

Was Nvidia und Intel da treiben ist nur Marktmahtausnutzung aber die Quittung bekommen die schon den ndie RTX verkaufen sich nicht so gut und die neuen I9 von Intel sind auch Ladenhüter denn WIR haben die Macht :-)
 
Also ich freu mich nicht was AMD und Nvidia da für GPU´s bringen die kaum Mehrleistung haben aber MEHR an Preis. Ich bin enttäuscht von beiden Entwicklern und besonders von AMD da sie das Kellerkind sind aber auch nur die Leute über den Tisch ziehen und saftige Preise verlangen dabei haben sie mit Ryzen gezeigt wie man den Marktführer bekämpft. So erreichen die garnix im GPU-Sektor.

Der Preis spielt eine große Rolle wo ich mir schon einen I7 8700K geholt hätte aber der kostet ja knapp 400€ und die Abzocker-CPU 9900K kann man ganz vergessen also warte ich auf Ryzen 3000 da ich denke da einen ordentlichen Achtkerner zu Bekommen für bis 300€ der für Spiele was taugt.

Was Nvidia und Intel da treiben ist nur Marktmahtausnutzung aber die Quittung bekommen die schon den ndie RTX verkaufen sich nicht so gut und die neuen I9 von Intel sind auch Ladenhüter denn WIR haben die Macht :-)

Gerade AMD hat nichts zu verschenken und aus Marktwirtschaftlicher Sicht ist es nachvollziehbar, das man für 2080 Leistung auch so viel bezahlt. Und wenn es keinen Miningboom gibt, könnte es in einem halben Jahr auch anders aussehen. Außerdem finde ich das das Preis/Leistungsverhältnis bis zur RX 590 Region völlig okay und eine sinnvolle Alternative zu Nv ist.
 
Eigentlich gibt es keinen Hype. Es bringt nur sehr viele Klicks, wenn Nv und AMD Fanboys anfangen zu diskutieren.

DAS ist der Nagelkopftreffer ... Kein Hype = Keine Klicks ... Ich finde ja das die Redaktion und oder die Moderation die Grabenkämpfe eher verhindern sollte aber nun gut, ich soll ja auch nicht vom Journalismus leben. Der Rattenschwanz ist eben länger ...
 
Man sollte sich halt auch nichts schönrechnen.

Die 1080 Ti liegt in 4K 29% vor der Vega 64.
AMD gibt 28,5% Steigerung an - was sicher etwas geschönt ist.
Sagen wir mal im Schnitt eher ~24%.

Damit bleibt man etwa 5% hinter der 1080 Ti und gut 10% hinter der 2080 bei CB.
Im Durchschnitt aller Reviews (3D Center) oder PCGH Leistungsindex wirds noch ein bisschen schlechter aussehen, zumal die Radeon Seven unter 4K keine 1700Mhz halten wird, sondern eher auf ~1650 abfällt.
Siehe hint von Raff.

Nvidia GeForce RTX 2070 im Test (Seite 3) - ComputerBase


Verlink doch lieber uns. :-)

http://www.pcgameshardware.de/Grafi...liste-GPU-Grafikchip-Benchmark-1174201/2/#a24

MfG,
Raff
 
Der Hype den keiner mitbekommen hat? Reden wir von dem? :hmm:
Ohne PCGH hätte ich davon gar nix mitbekommen und die meisten User hier wohl auch nicht, zumindest wenn ich mir die Kommentare so durchlese.

Ich finde die Vega 7 toll was den Videospeicher anbelangt, 16 sind wirklich ordentlich.
Aber ich frage mich, wann werden die denn mal genutzt? Vermutlich dann wenn die Karte eh wieder zu langsam für aktuelle Spiele ist und man wieder eine neue bräuchte zwecks FPS Boost.
Zukunftssicher bezogen auf den VRAM ist sie wohl, aber zukunftssicher bezogen auf FPS ist generell gar keine GPU.
(Wobei die Wörter Zukunftssicher und PC auch nicht wirklich zusammen passen)

Also ist die Vega 7 eine 2080 die ich etwas länger im Rechner lassen kann und evtl. die Texturen öfter auf -Ultra- statt -high- stehen lassen kann, habe aber kein Raytracing und evtl. sogar weniger FPS.
Schade, ich habe die AMD-Show ja verfolgt und Ryzen 3000 scheint sehr interessant, aber GPU technisch habe ich mir nichts anderes gewünscht als 2080Ti Leistung ohne Raytracing, dafür günstiger.

So wird das nix nVidas Mondpreise zu senken, aber vielleicht wenigstens Intel ihre. ;)
 
Was heißt da 50 Watt? Jetzt untertreibst du aber.
300 Watt vs 225/215 Watt TDP, sind keine 50 Watt, sondern 85/75 Watt und das nicht mal bei selber Geschwindigkeit.

Ich bitte um Verzeihung, dann sinds halt ~100W. Ich sehe aber nicht inwiefern das, in Relation zum gesamten Stromverbrauch eines normalen Haushaltes, auf einmal den Weltuntergang durch die Klimaerwärmung beschleunigt. Kaum einer hat den Rechner durchgehend unter Vollast laufen.

Der PC ist in meinem Haushalt Hauptkostentreiber (Server, Desktop).
Es geht auch um Abwärme und Kühlbarkeit.
Was waren die Threads des 9900K voll mit Beschwerden über seinen Stromverbrauch, obwohl es da in der Praxis (Gaming) gerade mal 20 bis 30 Watt gegenüber dem 2700X sind.

Und bei mir ist der Hauptkostentreiber der Elektro-Boiler, danach gleich die Zimmerbeleuchtung. Der PC gliedert sich bei mir ganz am Schluss ein. Und das obwohl ich mich als "PC-Enthusiast" bezeichnen würde. Mein Rechner läuft kaum unter Last, in Relation zu der Idle-Zeit gesehen. Nichtmal eine Stunde pro Tag, wenn ich über das ganze Jahr das Mittel ziehe. Da macht es das Kraut nicht fett wenn eine AMD statt einer Nvidia im Rechner steckt.

Ich weiß nicht mehr ob ich mich an dieser 99K vs. 27X Diskussion beteiligt habe. Üblicherweise ist mir der Stromverbrauch völlig egal. Für mich zählt ausschließlich das P/L-Verhältnis.

Das man die Abwärme auch wegkühlen muss ist ein Argument für sich.

Nein, hier wird ganz glasklar wieder mit zweierlei Maß gemessen. Stromverbrauch gehört klar kritisiert.
Eine 300 Watt GPU ist kein Zuckerschlecken, schon gar nicht wenn die Konkurrenz mit 225/215 Watt mehr Leistung liefert.

Meinetwegen, in Anbetracht der Klimaerwärmung ist diese Differenz aber völlig nichtig. Wieviele Leute haben denn die Qual der Wahl zwischen Heizkörper und Ökowunder?

Wieviel Endvebraucher gibt es denn auf der Welt? 8 Milliarden.

Ok. Ich hab mir das kapitalistische Wirtschaftswunder nicht auf den Wunschzettel geschrieben. Also häng mir bitte nicht an, das es wegen mir drölf verschiedene Varianten eines jeden Produktes gibt die es dann nichtmal in den Verkauf schaffen und nur für die Müllhalde hergestellt werden.
 
Kann man so sehen muss man nicht. Die Karte eigent sich nur für Jünger die 4K in Ultra spielen wollen. Genauso bewirbt sie AMD auch.

BF 2 @UHD+Ultra Preset [*Guru3dBenchmarks*]:
2080ti=88fps
2080=70fps
1080ti=68fps
Vega64=55fps
2070=55fps

55*28,5%=70,6fps


Merkst du was?


Ich merk nur dass man mit dem reinen 4k Gaming als Werbung vorsichtig sein soll. Hat man schon bei Vega 56/64 zu sehr getan.

Eine 1080 Ti/2080 und dann wohl Radeon 7 wird nur für bestimmte Genre für 4k reichen.

Selbst bei einer 2080 Ti musst bei vielen Games paar Einstellungen zurück in 2160p oder auf 3840x1600p runter.

Wenn künftige Spiele wieder etwas mehr Leistung ziehen ist es mit 4k Gaming außerhalb Renngames und Schlauchshooter schnell wieder vorbei.
Regler bedienen scheint eine breite Masse eh nicht zu sehr zu können. Da werden Ultraeinstellungen genutzt due eh 20-30% der Framerate kosten für etwas mehr Optik.


Die R7 wird nicht genug Leistungspuffer haben um in 2 Jahren große Titel in UHD zu stemmen. Auch wenn man mal von Ultra absieht.
Da wird selbst die 2080 Ti nicht die nötigen Prozent gaben sich da zu halten. Für 1800/1600p schon eher.
 
Was ihr euch alle scheckisch macht ... lasst die Redaktion doch über Hype oder nicht Hype philosophieren. Weis ehrlich gesagt nicht wo das Problem ist. Und das ein Schaffe hier wieder meint seine Glaskugel im Bezug auf die Performance der Radeon7 auszupacken und ohne offz. Benchmarks meint einzuordnen, spricht wieder nur für ihn.

Ansonsten werden wir in knapp 2 Wochen sehen was AMD da liefert, daher wie immer, macht euch doch einfach locker. Ansonsten schreiben wir uns diesbezüglich wieder zu Zen2 und Navi im Sommer. Finde es übrigens lustig das sich über AMD, egal was sie machen, entsprechend ausgekotzt wird. Aufgrund der Vergangenheit da sie kein vergleichbares Produkt hatten was in den Enthusiast Bereich aufschloss und nun bringen sie (wahrscheinlich!) eines was die Lücke im oberen Highend Bereich schließen könnte und es wird wieder drauf eingedroschen.

Und ich kann nur immer wieder sagen, wir können froh sein das wir AMD als zweiten GPU Hersteller noch haben. Der bei dem Umsatz und den verfügbaren Entwicklungsgeldern die sie haben, überhaupt noch Highend GPU's entwickeln und Nvidia nicht noch höher die Preise treiben kann als ohnehin schon. Davon mal abgesehen das AMD auf zwei Hochzeiten tanzt, nämlich auf dem CPU und GPU Markt und wie ich finde sich bis dato sehr gut, und wie man bei Ryzen sieht, sogar (zurück) schlägt.

Deshalb werde ich AMD in Zukunft auch weiter unterstützen und werde deshalb im Sommer auch auf ein neues Zen2 System mit 6-8 Kernen aufrüsten und wenn wir AMD weiterhin als Konkurrenten gegenüber Nvidia und Intel sehen wollen, sollten wir AMD auch entsprechend unterstützen als wie den Markt einzig und allein Nvidia und Intel zu überlassen.
 
Gerade AMD hat nichts zu verschenken und aus Marktwirtschaftlicher Sicht ist es nachvollziehbar, das man für 2080 Leistung auch so viel bezahlt. Und wenn es keinen Miningboom gibt, könnte es in einem halben Jahr auch anders aussehen. Außerdem finde ich das das Preis/Leistungsverhältnis bis zur RX 590 Region völlig okay und eine sinnvolle Alternative zu Nv ist.

Klar hat AMD nichts zu Verschenken aber mit Ryzen haben sie die richtige Strategie gewählt denn ein Achtkerner von Intel kostete 1000€ und wen nAMD auch soviel verlangt hätte für den R7 1800X wäre Ryzen nicht der Erfolg geworden.

Ich verstehe eben nicht diese Meinungen die gerade bei der R/ kommt oder auch der Vega 64 das sie ja die gleiche Leistung hat denn das hat sie nicht. Die R7 wird mit der 2080 wohl mithalten aber ansonsten eher bei der 2070 liegen und daraufhin wäre ich mit AMD einverstanden auch wenn ich Vega als Flop sehe, für die R7 499€ verlangen und da würde man viel mehr erreichen da würde auch ich überlegen mir eine R7 zu holen aber 699€ für alte TI-Leistung ist Abzocke.
 
AMD orientiert sich da doch auch nur an den Preisen der Turing Karten und wenn die R7 auf dem Niveau einer RTX2080 liegt, die um die ~700€ kostet, wieso sollte AMD da dann 200€ weniger verlangen. Die Preise werden erst fallen wenn die Hersteller auf ihren Karten sitzen bleiben und niemand diese zu dem Kurs kauft. Solang das nicht der Fall ist, wird sich dahingehend auch nichts am Preis ändern.

Aber stimmt, die R7 hat ja kein Raytracing und DLSS und sollte allein deshalb, auch wenn mit 16GB VRam, min. 200€ weniger kosten. Bei vergleichbarer RTXoff Leistung zur RTX2080 ...
 
AMD orientiert sich da doch auch nur an den Preisen der Turing Karten und wenn die R7 auf dem Niveau einer RTX2080 liegt, die um die ~700€ kostet, wieso sollte AMD da dann 200€ weniger verlangen. Die Preise werden erst fallen wenn die Hersteller auf ihren Karten sitzen bleiben und niemand diese zu dem Preis kauft. Solang das nicht der Fall ist, wird sich dahingehend auch nichts am Preis ändern.

Wieso?
Weil sie nicht der Marktführer sind und Nvidia auch übertrieben hat mit den Preisen und für eine 2080 die gerademal 1080TI-Leistung hat immer noch 699€ nimmt.
Weil AMD Kellerkind ist und Marktanteile braucht und gerade nach dem Flop Vega wieder punkten sollte.
Weil diese R7 auch nur Abzocke ist wie die 2080 von Nvidia.

Anscheinend gebt ihr gerne mehr Geld aus für Produkte die keine Mehrleistung bringen und kein Wunder das die Hersteller solche Wucherpreise verlangen.
 
Aber ich frage mich, wann werden die denn mal genutzt? Vermutlich dann wenn die Karte eh wieder zu langsam für aktuelle Spiele ist und man wieder eine neue bräuchte zwecks FPS Boost.
Zukunftssicher bezogen auf den VRAM ist sie wohl, aber zukunftssicher bezogen auf FPS ist generell gar keine GPU.
(Wobei die Wörter Zukunftssicher und PC auch nicht wirklich zusammen passen)

Quizfrage: Ist eine Radeon R9 390(X) "zu langsam für aktuelle Spiele" oder profitiert sie heute tatsächlich von 8 GiByte?

MfG,
Raff
 
Quizfrage: Ist eine Radeon R9 390(X) "zu langsam für aktuelle Spiele" oder profitiert sie heute tatsächlich von 8 GiByte?

MfG,
Raff

Ich habe mir jetzt noch mal schnell Tests etc. angeschaut und wenn ich bei einer Radeon R9 390(x)
die Qualität, Details oder sonstwas wie DSR/VSR so hoch drehe wo die 8GB annähernd genutzt bzw. interessant werden:

Ist sie viel zu schwach, die 8GB VRAM bringen heute gar nichts würde ich sagen.
Klingen nur toll.

Steinigt mich bitte nicht wenn ich falsch liege, ich hab mich nie für die 390 interessiert.

Ernst gemeinte Frage:
Kann mir jemand Games nennen wo zum Beispiel 7 GB VRAM der 390(x) genutzt werden aber die FPS bei stabilen 60 liegen?!
 
Zuletzt bearbeitet:
Was ihr euch alle scheckisch macht ... lasst die Redaktion doch über Hype oder nicht Hype philosophieren. Weis ehrlich gesagt nicht wo das Problem ist. Und das ein Schaffe hier wieder meint seine Glaskugel im Bezug auf die Performance der Radeon7 auszupacken und ohne offz. Benchmarks meint einzuordnen, spricht wieder nur für ihn.

Ansonsten werden wir in knapp 2 Wochen sehen was AMD da liefert, daher wie immer, macht euch doch einfach locker. Ansonsten schreiben wir uns diesbezüglich wieder zu Zen2 und Navi im Sommer. Finde es übrigens lustig das sich über AMD, egal was sie machen, entsprechend ausgekotzt wird. Aufgrund der Vergangenheit da sie kein vergleichbares Produkt hatten was in den Enthusiast Bereich aufschloss und nun bringen sie (wahrscheinlich!) eines was die Lücke im oberen Highend Bereich schließen könnte und es wird wieder drauf eingedroschen.

Und ich kann nur immer wieder sagen, wir können froh sein das wir AMD als zweiten GPU Hersteller noch haben. Der bei dem Umsatz und den verfügbaren Entwicklungsgeldern die sie haben, überhaupt noch Highend GPU's entwickeln und Nvidia nicht noch höher die Preise treiben kann als ohnehin schon. Davon mal abgesehen das AMD auf zwei Hochzeiten tanzt, nämlich auf dem CPU und GPU Markt und wie ich finde sich bis dato sehr gut, und wie man bei Ryzen sieht, sogar (zurück) schlägt.

Deshalb werde ich AMD in Zukunft auch weiter unterstützen und werde deshalb im Sommer auch auf ein neues Zen2 System mit 6-8 Kernen aufrüsten und wenn wir AMD weiterhin als Konkurrenten gegenüber Nvidia und Intel sehen wollen, sollten wir AMD auch entsprechend unterstützen als wie den Markt einzig und allein Nvidia und Intel zu überlassen.

AMEN!
Dem ist nichts hinzuzufügen.
Ich selber benutze seit dem ersten Tag eine Vega64 (Day 1 käufer) und kann mich weder über die Leistung noch über Probleme beklagen.
Finde es sehr lustig wie hier Fanboys auf der Karte rumhacken ohne sie selbst mal getestet zu haben. Ja sie verbraucht mehr Strom als eine 1080
OMG wie kann sie nur, eine overclockte 1080 TI braucht sogar mehr ? Die Nvidia 1080 ist soooooo viel schneller unter DX11 und Gameworks Titeln! Weil ja Vulkan oder DX12 Leistung
keine Sau interessiert solang man auf den bösen nichtskönnern von AMD rumhacken kann. Weil AMD ja auch so sch**** ist vertrauen
Sony und Microsoft auf die Technik von AMD. Wie technisch rückständisch AMD ist sieht man ja an der 7 nm Fertigung und ich vergaß
HBM ist ja auch soooo nen Mist den braucht man gar nicht.

Meine güte kriegt euch mal ein. Sollen wir mal von Nvidia Anfangen?
Angefangen bei der GTX 970 3,5 GB+0,5 GB was nicht "kommuniziert" worden ist?
Die GTX 1060 6 GB im vergleich zur 1060 3GB wo die GPU beschnitten wird ohne Ende?
Die RTX 20XX Karten die momentan am sterben sind? Wer nen bisschen mit geguckt hat
wird Sicherlich gemerkt haben das das nicht "nur" die RTX 2080 TI FE (die ja so nen Schnäppchen ist) betrifft?
Sondern auch 2080 und 2070? und das nicht nur im FE Design sondern auch in Custom Karten? (Video YT Joker 2070 died)
Von der 2060 in 6/4/3 GB fangen wir nicht an ok?

Aber hebt ruhig mal weiter Nvidia in den Himmel. Ist ja alles so Top was die machen.
Selbst ich als AMD Nutzer sage klar:

Ja Nvidia hat die schnellste Gaming GPU und Punkt.
Raytracing und DLSS sind Innovationen und es ist mutig von Nvidia diesen schritt zu gehen.
Ich denke nur das die RTX Generation nicht Leistungsfähig genug für "Full Raytraced" ist.
Nvidia baut effizientere Karten. AMD´s GCN ist auch nicht gerade neu.
Einzig die Preisgestaltung der RTX Serie geht mal gar nicht.

Beide Hersteller haben Pro und Contras und beide Hersteller bauen auch mal Mist.
Beide Hersteller haben ab und an Treiber Probleme.

Tatsache ist und bleibt aber eins:
Leute freut euch doch wenn die Radeon VII der RTX 2080 Paroli bieten kann!
Dadurch kommt Bewegung in den Markt und es hat für uns alle nur Vorteile,
egal ob man AMD oder Nvidia bevorzugt.

Abschließend zur Radeon VII
Ich freue mich schon die Performance der Karte zu sehen.
um die 1800MHz Boost Clock hören sich nett an. 16GB HBM2 mit 4096 Bit angebunden
ist schon brutal. Vega64 wurde durch die "nur" 483GB/s auf jeden Fall noch gebremst.
Es wird sein wie bei jeder neuen GPU von AMD oder NV wartet nen paar Treiber ab
und guckt dann noch mal. War immer so und wird immer so bleiben.

Hoffe es fühlt sich nicht irgendwer "Persönlich Angegriffen"
aber nuja man kann es halt nicht allen recht machen.

MFG Aks-ty
 
Zurück