Special AMD Radeon RX 7800 XT im Test: Mit 16 GiB zum Sieg gegen die Geforce RTX 4070?

Klar, das Intel-Sys mit RTX4090 brauch beim daddeln ja auch 2KW. Meine Fresse! Das ist nicht Kindergarten, das ist Krabbelgruppe:schief:

Gruß
Warum nicht? Mit tripple rtx4090 im system + trippel I9 13900k oc schafft man in 8k die 2k vielleicht. Stromverbrauch ist beim zocken oft gar nicht so wichtig was € betrifft. Nur mal eine Rechnung 60h Zocken im Monat = 720h im Jahr. Ein rtx4090 verbraucht vielleicht 200-300w mehr als ein 4070. 720 x 0,300 kw x 0,40 €/kw = 85€ im Jahr. Und da vergleicht man aber die schnellste GPU des Planeten mit einer der effizientesten mittelklasse gpu. Denke da sind die 85€/Jahr nicht dramatisch.
 
Ein rtx4090 verbraucht vielleicht 200-300w mehr als ein 4070. 720 x 0,300 kw x 0,40 €/kw = 85€ im Jahr. Und da vergleicht man aber die schnellste GPU des Planeten mit einer der effizientesten mittelklasse gpu. Denke da sind die 85€/Jahr nicht dramatisch.
Sorry, aber eine 4090 braucht im Schnitt etwa 350W (je nach Game/Auslastung öfters auch mal weniger) beim daddeln. Gerade einmal "Cyberpunk 2077" nötigt Nvidia's schnellster Karte über 400W ab.

Deswegen öfters Tests checken, sich kundig machen (ODER BESSER NOCH) einfach mal die Klappe halten, wenn man Dinge nicht weiß...

Gruß
 
Sorry, aber eine 4090 braucht im Schnitt etwa 350W (je nach Game/Auslastung öfters auch mal weniger) beim daddeln. Gerade einmal "Cyberpunk 2077" nötigt Nvidia's schnellster Karte über 400W ab.

Deswegen öfters Tests checken, sich kundig machen (ODER BESSER NOCH) einfach mal die Klappe halten, wenn man Dinge nicht weiß...

Gruß
Musst nicht gleich so auf beleidigend rumhacken. Hab einfach geschwind google gefragt und der hat direkt 450W. Pcgh liegt in vielen Titeln bei 400-440W bei FE! https://www.pcgameshardware.de/Gefo...t-Benchmarks-RTX-4090-vorbestellen-1404846/5/

Also wo ist das Problem? Und was die custom/oc Karten verbrauchen, denke mit den 500W als oberen Wert liege ich nicht falsch.
 
PCGH testet aber worst case ;) . Meine 4070ti kann auch bis zu 280 watt aber es sind selten über 250 Stock.
Pcgh testet nicht "worst case", sondern best case! Denn was ist daran schlecht wenn das teuerste Bauteil im PC bei max Power also 100% Auslastung läuft? Dann ist alles perfekt. Worst case ist wenn ein rtx4090 nur 300W zieht! Das heißt die läuft nicht bei 100% Last da irgendwo anders wie cpu, ram, hdd ein großer Flaschen hals ist und die >1000€ gpu nicht richtig Arbeiten kann.
Wenn gpu's 100 Last + max power ziehen bedeutet das immer das alles perfekt im Computer ist.
 
Perfekt im Bezug dass die gpu max läuft. Und das erkennt man am allerbesten am hohen Stromverbrauch. Dieser ist der beste Indikator dass die gpu bei maximaler Auslastung läuft. Bei hardwareluxx haben die gute rtx4090 custom mit ein wenig am Regler drehen auch bei über 500W Stromverbrauch laufen lassen. Und was spricht dagegen? Das Geld ist ausgegeben also will man auch max fps. Bei Monitor kann bei 5120x1440 240hz also 240 fps. Mein aktuelle gpu läuft auch bei max OC. Dazu ist Gaming Hardware da, alles ausquetschen was fps bringt.
 
alles ausquetschen was fps bringt.
Wenn es gut fürs Ego ist, warum nicht. Bei Shootern oder Ähnlichem sind viele FPS natürlich toll. Warum ich Lara mit über 120FPS durch den Dschungel jagen soll erschließt sich mir nicht. Single Player cappe ich irgendwo zwischen 50 und 90 FPS. Je nachdem was der PC im Stande ist zu leisten und für mich smoothed genug ist. Da brauche ich die GPU nicht auf max laufen lassen. Sehe da keinen Sinn.

240hz also 240 fps
Wenn Du meinst, dass das so ist. Der kann bestimmt auch mit 60FPS 240hz.
 
Ja dann sind wohl fast alles spiele müll da ich nie ins powerlimit laufe mit der 4070ti. ada zieht fast nie max power was schreibst du für einen unsinn.
 
Wenn es gut fürs Ego ist, warum nicht. Bei Shootern oder Ähnlichem sind viele FPS natürlich toll. Warum ich Lara mit über 120FPS durch den Dschungel jagen soll erschließt sich mir nicht. Single Player cappe ich irgendwo zwischen 50 und 90 FPS. Je nachdem was der PC im Stande ist zu leisten und für mich smoothed genug ist. Da brauche ich die GPU nicht auf max laufen lassen. Sehe da keinen Sinn.


Wenn Du meinst, dass das so ist. Der kann bestimmt auch mit 60FPS 240hz.
60fps auf 240hz? Dann hast du Tearing vom feinsten. Daher hat man normal gsync oder freesync an was dann die hz zahl des Bildschirms auf die fps Zahl runterregelt. Der 240hz läuft bei 60fps dann mit 60hz.
 
60fps auf 240hz? Dann hast du Tearing vom feinsten. Daher hat man normal gsync oder freesync an was dann die hz zahl des Bildschirms auf die fps Zahl runterregelt. Der 240hz läuft bei 60fps dann mit 60hz.
Also ich kann bei 240hz kein tearing mehr wahrnehmen. Das ist für mich übrigens der Vorteil von Monitoren mit so hoher Refreshrate. Von 240fps hab ich null Vorteile. Eher nur Nachteile. Spilenfieben, hoher Stromverbrauch, teure Hardware. Besser wird ein Spiel dadurch definitiv nicht. Hatte bei meinem 240hz Monitor nie sync an.
 
Ja dann sind wohl fast alles spiele müll da ich nie ins powerlimit laufe mit der 4070ti. ada zieht fast nie max power was schreibst du für einen unsinn.
Sorry aber genauso ist. Mach ein Benchmark und schau was deine gpu max ziehen kann. Wenn du diese Leistung im Spiel nicht erreicht läuft die aus irgendeinem Grund nicht bei max power. Vielleicht ist sie auch zu heiß und taktet sich runder oder die game Engine ist suboptimal, oder deine cpu zu langsam...
Also ich kann bei 240hz kein tearing mehr wahrnehmen. Das ist für mich übrigens der Vorteil von Monitoren mit so hoher Refreshrate. Von 240fps hab ich null Vorteile. Eher nur Nachteile. Spilenfieben, hoher Stromverbrauch, teure Hardware. Besser wird ein Spiel dadurch definitiv nicht. Hatte bei meinem 240hz Monitor nie sync an.
Hast du denn freesync oder gsync an?
Wenn ja dann lies bitte mal wie diese funktionieren! Wenn du bei 240hz keines davon an hast und bei 60fps kein tearing siehst verstehe ich nix mehr. So ist nunmal die technische Grundlage etc. Wenn es bei dir 240hz/60fps ohne sync = kein tearing...lucky you!
 
Hast du denn freesync oder gsync an?
Wenn ja dann lies bitte mal wie diese funktionieren! Wenn du bei 240hz keines davon an hast und bei 60fps kein tearing siehst verstehe ich nix mehr.
Kein Sync. Kannst Du gern Mal probieren. Da ist tearing für mich nicht mehr wahrnehmbar. Der refresh passiert so schnell, dass das nicht mehr auffällt. Das ist der einige Grund warum ich wieder mindestens 240hz will. 240FPS brauch ich auf keinen Fall um Spaß an einem Spiel zu haben. 240HZ, OLED und 4k, ein Traum.

verstehe ich nix mehr.
Offensichtlich ?
 
Guter versuch aber troll wen anderen bitte aber danke für den lacher.
Naja Getrolle ist eher was anderes. Das ist eher die Realität. Ich übertakte cpu/gpu seit 20 Jahren. Stromverbrauch ist dabei essentiell. Max Leistung immer max Stromverbrauch auch wenn nicht immer sinnvoll.

Sieht man auch gut wenn man rx6900xt mit rx6950xt vergleicht, oder alle anderen referesh von cpu/gpu. Takt hoch, Stromverbrauch hoch, Leistung hoch.

Etwas zum bilden wie chips (gpu/cpu) funktionieren.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Kein Sync. Kannst Du gern Mal probieren. Da ist tearing für mich nicht mehr wahrnehmbar. Der refresh passiert so schnell, dass das nicht mehr auffällt. Das ist der einige Grund warum ich wieder mindestens 240hz will. 240FPS brauch ich auf keinen Fall um Spaß an einem Spiel zu haben. 240HZ, OLED und 4k, ein Traum.


Offensichtlich ?
Das ist deine ganz persönliche Wahrnehmung, und das ist ok. Aber das ändert nix an dem Fakt das es so ist und genau deshalb gsync und freesync überhaupt existieren. Die regeln die hz des Monitor exakt auf die fps herunter so dass hz=fps sind. Ob du tearing wahrnimmst oder nicht ist da egal, denn hier gehts um technische Arbeisweise. Ich habe immer gysnc an wodurch mein 240hz Monitor mit 72fps (fps lock) läuft da ich sehr wohl tearing wahrnehme und es mich sehr stört.
Gute Erklärvideo:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zuletzt bearbeitet von einem Moderator:
Die regeln die hz des Monitor exakt auf die fps herunter
Und genau das kann ich bei einem Onlineshooter nicht gebrauchen.
Aber das ändert nix an dem Fakt das es so ist
Ja, deswegen schrieb ich, dass ich es nicht mehr wahr nehme. Nicht, dass es nicht mehr existiert.

ich sehr wohl tearing wahrnehme und es mich sehr stört.
Vielleicht ist irgendwo irgendwas nicht richtig eingestellt. Vielleicht läuft der Monitor gar nicht mit 240hz ? Quatsch, aber vielleicht hilft ja ein anderer FPS Lock. 60 ist im Gegensatz zu 72 ein voller Teiler. Versuch doch einfach mal 80FPS.
 
Und genau das kann ich bei einem Onlineshooter nicht gebrauchen.

Ja, deswegen schrieb ich, dass ich es nicht mehr wahr nehme. Nicht, dass es nicht mehr existiert.


Vielleicht ist irgendwo irgendwas nicht richtig eingestellt. Vielleicht läuft der Monitor gar nicht mit 240hz ? Quatsch, aber vielleicht hilft ja ein anderer FPS Lock. 60 ist im Gegensatz zu 72 ein voller Teiler. Versuch doch einfach mal 80FPS.
Meine gpu + Monitor unterstützten gysnc. Ist ein super Feature also nutze ich es. Da in meinem titel meine gpu nur 70-80 fps packt hab ich einfach 72pfs lock an. So habe ich konstante 72 fps und konstante 72hz. Als Nebeneffekt ging natürlich auch die temp+Stromverbrauch der gpu runter da die natürlich nicht mehr bei konstanten 100% Auslastung läuft.
 
Ob hier einige sich nochmal die Überschrift, heißt das Thema, nachlesen. Lasst eure 4090 mit dem Stromverbrauch doch woanders raus.
 
Zurück