News Radeon-Grafikkarten sollen dank KI deutlich effizienter werden

Hab ich ja auch nicht behauptet. Ich habe mit Powercolor nie schlechte Erfahrungen gemacht... auch früher schon nicht. Nehme da immer die Red Dragon oder Devil Karten... war Deine eine Hellhound? Die neigen nämlich tatsächlich zu Fiepen. Asrock habe ich keine Erfahrung... würde bei AMD aber auch nur zu Powercolor oder Sapphire greifen.
Was mich aber auch wundert bei der Hellhound, da die auch beim Hersteller getestet werden. Da wird auch nach sehr auffälligen Spulengeräuschen gefiltert.

Ich würde nur immer wieder darauf hinweisen, das es auch oft mit unterschiedlichen Netzteilen deutliche Auswirkungen auf die Spulengeräusche geben kann.

Ich habe schon mal ein und die selbe Karte an zwei Netzteilen probiert. Einmal deutliches Fiepen und einmal nichts (Silenttauglich).
Treiberprobleme hatte ich tatsächlich nie. Habe beim Wechsel immer Treiber sauber deinstalliert und neu installiert... zumindest bei Wechsel rot-grün und grün-rot. ;-)
Wobei man schon oft bei RX7000 von Treiberabstürzen lesen darf, wenngleich meine persönliche Erfahrungen zu AMD / Nvidia auch durchweg ohne Treiberprobleme waren.
Einzig zu DX11 Zeiten, die Overheadprobleme waren nervig, aber auch kein Treiberbug.
Der Takt ist aber auch von Spiel zu Spiel unterschiedlich. Es gibt Spiele da machen -10% Powerlimit fast nichts aus dann wiederum gibt es Spiele da verlierst du fast 10% an Leistung dadurch weil der Takt gleichzeitig runtergeht, klar kann man das ausgleichem mit reduzierung der Spannung bis zu einem gewissen Teil aber gute Undervolter sind diese Karten wahrlich nicht.
Wo liegt denn hier jetzt der Hund begraben?

Du hast geschrieben das man die RX7000 nicht klassisch undervolten kann. Doch das geht genauso.

Die Karte versucht aber das Powerlimit auszuschöpfen, was meine 4070ti super übrigens genauso macht.

Wenn ich nur etwas undervolte bleibt die Karte bei 285W, nur mit etwas höherem Takt.


Als nächstes schreibst du, das die AMD Karte je nach Spiel nicht den selben Takt schafft, auch das ist bei Nvidia identisch.

Die Karte verliert dadurch auch keine Leistung. Dir ist bekannt wie heutige Karten arbeiten mit Powerlimit und so.
Keine Karte hat heute den einen fixen Takt.

Wenn du eine RX7000 jetzt um 80mV undervoltest, wird die einfach etwas höher takten und das in jeder Szene, bezogen auf den Stocktakt in der jeweiligen Szene.

Willst du weniger Verbrauch, musst du das Powerlimit reduzieren. Das funktioniert bei Nvidia genau so.
Die Amd Karten nutzen ihr Powerlimit auch fast immer aus während die Nvidia karten sehr oft unter ihrer TBP werkeln. Was PCGH ja auch gut festhält mit der ansage average verbrauch.
Ich weiß was du meinst, aber meine Nvidia arbeitet schon fast immer am Powerlimit, einfach mal richtig fordern ;)

Außerdem, es ist bekannt das AMD in dieser Gen weniger Effizient ist, das hat aber nichts mit deiner Aussage bezogen aufs Undervolting zu tun.
Aber was Powercolor hier vorhat kann man auch nur mutmaßen, einen uv knopf hat amd ja im treiber auch wenn der nur um -25mv senkt und dadurch nur der takt um 100-150 mhz steigen kann.

Woher kommen denn 25mV und 100-150 MHz (never ever)
Aber besser als nichts. Amd braucht ein Rdna 2 . 2.00,
AMD braucht RT Leistung. Raster lief doch gut.
ich glaube das wird Rdna 5 liefern. Mit Rdna 1 haben sie auch ausgesetzt und mit dem Rdna 2 Hammer zugeschlagen dann.
Welcher Hammer denn?
Daher denke ich das Blackwell und Rdna 3 maximal langweilig werden. hier 30% mehr Leistung da ein bisschen weniger verbauch das wars. Langwilige Gpu Jahre werden nun folgen. Es wiederholt sich ja immer wieder.

Ich denke RDNA4 als Architektur kann schon was... Wird nur kein High End verkauft.
 
Zuletzt bearbeitet:
Was mich aber auch wundert bei der Hellhound, da die auch beim Hersteller getestet werden. Da wird auch nach sehr auffälligen Spulengeräuschen gefiltert.

Ich würde nur immer wieder darauf hinweisen, das es auch oft mit unterschiedlichen Netzteilen deutliche Auswirkungen auf die Spulengeräusche geben kann.

Ich habe schon mal ein und die selbe Karte an zwei Netzteilen probiert. Einmal deutliches Fiepen und einmal nichts (Silenttauglich).
...
Naja, dennoch waren die Hellhounds bis auf die GRE da recht anfällig. Powercolor hat dies dann wohl selbst bemerkt und das bei der GRE besser gemacht.

Gut, mir auch egal, weil ich nie die Einsteigervarianten der Hersteller nehme... so wie gesagt, bei Devils und Dragons nie irgendwelche Probleme gehabt.
 
Naja, dennoch waren die Hellhounds bis auf die GRE da recht anfällig. Powercolor hat dies dann wohl selbst bemerkt und das bei der GRE besser gemacht.

Gut, mir auch egal, weil ich nie die Einsteigervarianten der Hersteller nehme... so wie gesagt, bei Devils und Dragons nie irgendwelche Probleme gehabt.
Du ihre Probleme haben alle.
Stellenweise deutlich erhöhte Verbräuche, gerade auch im Idle sind nicht selten bei so üppigen PCB´s.

Ich habe mit meinen Netzteil- Auswahlen bisher egal ob üppig PCB, oder spar PCB noch nie Probleme in meinem eigenen System gehabt, mit Fiepen ;)

Alles hat Vor- und Nachteile.
 
Du hast geschrieben das man die RX7000 nicht klassisch undervolten kann
Ich meinte damit das wenn man die Spannung senkt der verbauch nicht automatisch auch sinkt, bei Nvidia schon.

Die Karte verliert dadurch auch keine Leistung.
MKan merkt du hast keine erfahrung mit einer Rdna 3 Karte :)

Welcher Hammer denn?
Doppelte Leistung zur vorgen, konkurrenzfähig in effizienz und Leistung, wo war das bitte kein Hammer? AMD hatte zuvor Jahre nichts das an Nvidia rankam wenn es um absolute Leistung ging. Rdna 2 war in jeder Klasse Konkurrenzfähig in vielen auch viel besser. Etwa 3070 gegen die 6800. Heute ist doch schon eine 6700Xt oft auf 3070 Level. :)


Ich denke RDNA4 als Architektur kann schon was... Wird nur kein High End verkauft.
Da warte ich auf Tests. Vorher nur Spekulation aber nvidias Historie belgt meine These. Alle 2 Gens knallts da mal. Immer wenn AMD kokurrenzfähig war versuchte nvidia einen Hammer rauszuhauen ala 4090, weil Rdna 2 sie richtig zum schwitzen gebracht hat. Es hat einen Grund warum sie von den klassichen 250 Watt High End Karten auf über 300 Watt Monster geworden sind. Weil es nun einmal nötig war.
 
Ich meinte damit das wenn man die Spannung senkt der verbauch nicht automatisch auch sinkt, bei Nvidia schon.
Nein, auch bei Nvidia nicht.
Meine 4070ti super macht das Powerlimit dann trotzdem voll ;)
MKan merkt du hast keine erfahrung mit einer Rdna 3 Karte :)
Sorry, aber eher merkt man das du keine Ahnung hast wovon du da schreibst.
Doppelte Leistung zur vorgen, konkurrenzfähig in effizienz und Leistung, wo war das bitte kein Hammer? AMD hatte zuvor Jahre nichts das an Nvidia rankam wenn es um absolute Leistung ging. Rdna 2 war in jeder Klasse Konkurrenzfähig in vielen auch viel besser. Etwa 3070 gegen die 6800. Heute ist doch schon eine 6700Xt oft auf 3070 Level. :)
Die Gen davor hat kein High End bedient. Da ist es leicht das nächste mal mehr drauf zu legen.

Damals wie heute war die 3070 für reine Raster Aufgaben schwächer als die 6800, war auch nicht dafür gedacht.

Wenn man sich mal die 3080 und die 6800XT anschaut wird auch schnell deutlich das der Fine Wine nicht immer funktioniert.
Da warte ich auf Tests. Vorher nur Spekulation aber nvidias Historie belgt meine These. Alle 2 Gens knallts da mal. Immer wenn AMD kokurrenzfähig war versuchte nvidia einen Hammer rauszuhauen ala 4090, weil Rdna 2 sie richtig zum schwitzen gebracht hat.
Kann ich nicht sehen. RDNA 2 war immerhin etwas mehr Konkurrenz.
Es hat einen Grund warum sie von den klassichen 250 Watt High End Karten auf über 300 Watt Monster geworden sind. Weil es nun einmal nötig war.
Bei AMD und Nvidia.
 
Meine 4070ti super macht das Powerlimit dann trotzdem voll
Welches Spiel? Seltenst das eine 40er RTX am anschlag läuft in 98% der Spiele bei weitem nicht.

Während eine Rdna 3 eher in 98% am anschlag läuft.
Sorry, aber eher merkt man das du keine Ahnung hast wovon du da schreibst.
Kannst ja deine Meinung haben aber gut der Frage ausgewichen und somit mit Ja beantwortet. Generell scheint mir du willst nur argumentieren um des argumentieren willens.
Die Gen davor hat kein High End bedient. Da ist es leicht das nächste mal mehr drauf zu legen.

Damals wie heute war die 3070 für reine Raster Aufgaben schwächer als die 6800, war auch nicht dafür gedacht.

Wenn man sich mal die 3080 und die 6800XT anschaut wird auch schnell deutlich das der Fine Wine nicht immer funktioniert.
Irrelevant. Die Steigerung war trotzdem da und es hatte sich niemand erhofft.

Aha nicht dafür gedacht deiner meinung nach nicht faktuell.

Niemand hat Fine Wine erwähnt was ich persönlich eher anders nennen würde.

Scheinst wohl eine Aversion gegnüber Amd gpus zu haben, ohne diese jemals selber getestet zu haben, aber meinung hast du jeden falls satt. Nicht unüblich aber auch nicht sonderlich Klug.

Damit klinke ich mich dann auch raus hier. Bin hier um fun zu haben nicht um sinnlos zu quatschen. :) you do you do
 
Welches Spiel? Seltenst das eine 40er RTX am anschlag läuft in 98% der Spiele bei weitem nicht.

Während eine Rdna 3 eher in 98% am anschlag läuft.
Jetzt langsam wird ein Schuh daraus ;). Es ist nicht pauschal zu sagen.
Kannst ja deine Meinung haben aber gut der Frage ausgewichen und somit mit Ja beantwortet. Generell scheint mir du willst nur argumentieren um des argumentieren willens.
Was schreibst du, du hast an der Stelle keine Frage gestellt. Lediglich eine Behauptung aufgestellt.
Irrelevant. Die Steigerung war trotzdem da und es hatte sich niemand erhofft.
Nein, einfach nein
Aha nicht dafür gedacht deiner meinung nach nicht faktuell.
500€ UVP sind nicht 600€ UVP ;), den Fine Wine habe ich nur dazu mit ins Spiel gebracht.
Niemand hat Fine Wine erwähnt was ich persönlich eher anders nennen würde.

Scheinst wohl eine Aversion gegnüber Amd gpus zu haben, ohne diese jemals selber getestet zu haben, aber meinung hast du jeden falls satt. Nicht unüblich aber auch nicht sonderlich Klug.
Du schreibst eine Grütze.
Ich hatte regelmäßig AMD GPUs und aktuell habe ich keine eigene, aber schon einige RX7000 in meinen Händen und Wechsel die Tage auch wieder auf eine 7900XT(X).
Damit klinke ich mich dann auch raus hier. Bin hier um fun zu haben nicht um sinnlos zu quatschen. :) you do you do
Das ist so typisch für die heutige Zeit. Anderen vorwerfen, was man selber macht.

Schönen Tag noch.
Als 4090 besitze kann ich das bestätigen. Zwar läuft sie Stock nur selten ins Limit. Aber es passiert gerade bei Hohen auflösungen läuft sie gerne in das 450 Watt limit.
Dabei ist die 4090 das schlechteste Beispiel dafür, weil das Powerlimit am üppigsten ist.

Aber es ist nun mal grundsätzlich so. Heutige GPUs nutzen nach Möglichkeit das Powerlimit aus, sofern nicht irgendetwas limitiert.

Egal ob AMD und Nvidia (Intel).
 
7 verbauten Lüftern liegt am Tower.
Man kanns auch übertreiben. Ev. verwirbelts mehr als es kühlt.
Komisch das keine einzige Geforce Probleme gemacht hat, vor der 7900XTX eine 4070 Ti verbaut, da war auch alles bestens.
Naja eine midrange 4070ti... Das ist schon wieder so ein Äpfel/Birnen Vergleich.
Die XTX ist nunmal AMD's "highend"-Karte.

Zurzeit kann man AMD schwer mit NV vergleichen, dazu sind die NV-Karten - im Vergleich - zu effizient.

Aber eine highend Karte des einen Herstellers, mit einer des anderen Herstellers zu vergleichen, die nur im midrange Bereich liegt, ist nicht zielführend. Deshalb hast du ja wohl auch umgerüstet.
 
Zum Glück baue ich mir meine Computer nicht seit 30 Jahren selbst, dementsprechend weiß ich natürlich garnix :P

Abgesehn davon, dass es unzählige Tests gibt, die bestätigen, dass viele Lüfter nicht bedeuten, dass es im Tower kühler ist.

Glaub was du willst. Why would I care?
Und ich seit Gersten, wenn es nach dir geht, glaub mir, es hat nichts mit den Lüftern oder dem Gehäuse zutun es liegt einfach an den Karten selbst. Die Radeon waren und sind empfindlicher, was das angeht. Kenne ich nicht anderes, auch schon mit der 290x erlebt.
Der Luftstrom in mein Gehäuse ist optimal, meine GPU wird nicht wärmer wie 70 Grad, der Prozessor beweget sich zwischen 60 und 65 Grade beim Spielen wie schon gesagt es lag nicht an meinem Tower, das die Radeons als Treiberprobleme hatten.
 
Also ich weiß ja nicht, meine 7970GHZ,R9 290 und meine VEGA64 hatten nie Probleme.
Also entweder habe ich einfach nur immer Glück gehabt. Oder aber die leute schieben ihre Crashes immer auf AMD.
Was ich nämlich eher glaube.
Wie oft man Sieht AMD CPU und Nvidia GPU, muss die CPU das Problem sein schlussendlich war es dann doch die Nvidia CPU oder der RAM.
Oder auch gern gesehen Intel CPU plus AMD GPU muss die AMD GPU sein, war dann aber mal wieder das ASUS board mit Auto OC.

Aus meiner Erfahrung raus sieht die fehler liste wie folgt aus:
1. RAM
2. Mainboard Auto oc
3. Defekte GPU (AMD oder Nvidia)
4. Defekte CPU
5. AMD treiber Probleme
6 Nvidia Treiber Probleme.
 
Meine 2 kleinen RX 6700 XT sind göttlich. 0 Probleme, sparsam und leise und mit hardware-göttlichen Lüftern die fast nie laufen. Naja. Mit denen schau ich auch nur Videogedöns. :schief:
 
Zurück