Radeon RX 5700 XT: 2,2 GHz Boost bei 15 Prozent Mehrverbrauch

Wegen was? Weil meine GTX 1080 ohne Spannungserhöhung 7-8% langsamer als Gurdis Karte ist? Die Welt geht unter.

Es ist ja nicht so als ob die Nvidia Karten nicht zu übertakten wären. Selbst ne GTX 1080 schafft die Werte
NVIDIA GeForce GTX 1080 video card benchmark result - Intel Core i9-9900K Processor,ASUSTeK COMPUTER INC. ROG MAXIMUS XI HERO (WI-FI)

man hätte vielleicht auch ne übertaktete RTX 2080 nehmen können
NVIDIA GeForce RTX 2080 video card benchmark result - Intel Core i9-9900K Processor,ASUSTeK COMPUTER INC. ROG MAXIMUS XI HERO (WI-FI)
NVIDIA GeForce RTX 2080 video card benchmark result - Intel Core i9-9900K Processor,ASUSTeK COMPUTER INC. ROG MAXIMUS XI HERO (WI-FI)

oder wenn man schon einen Benchmark nimmt der AMD gut liegt, vielleicht noch einen Vergleich in dem die RTX gut ist. Eventuell Time Spy. Aber da dreht die RTX dann so große Kreise.........lassen wir das.
Vielleicht nicht immer so einseitig denken.
Es geht nicht darum, wer den längeren hat, sondern was mit den Customs theoretisch möglisch ist. Eine RTX 2080 spielt in ganz anderen Preisregionen, das hast du aber nicht erwähnt.
PCIe mit GPU NVIDIA nach Serie: RTX 2080 Preisvergleich Geizhals Deutschland
Du vergleichst eine ehemeals Highendkarte für 500€ mit einer hochgezüchteten Karte für 350€. Der Gegenspieler ist RX 5700 XT oder RTX 2070 Super, sie sind schon mehr als 10% schneller als eine GTX 1080. Bei Nvidia ist die Taktbarriere bei 2GHz, bei Pascal war sie sogar höher bei 2.1 GHz, der verbraucht steigt nicht linear. 10% mehr Takt bei 15% Mehrverbrauch ist exzellent. Das kostet übrigens eine RTX 2070s
PCIe mit GPU NVIDIA nach Serie: RTX 2070 SUPER Preisvergleich Geizhals Deutschland

Ein Reg Mod wird dann zum Taktwunder wenn es einem passt, das ist ein Power Mod per Software ist dir das bewusst?

Natürlich mit Standard mäßige GPU Wasserkühlung der bei jeder GPU dabei ist und auch explizit gesagt wird
das ist keine 24/7 Config ist, sondern eine für einen kurzen Benchmark ist.

So sieht also ein Taktwunder aus das ist nichts anders wie ein Volt Mod, da werden statt 1,2 Volt 1,25 Volt geben und 95% Powerlimit Erhöhung und dann brauchst dafür eine Potente Kühlung.
Ist zwar überhaupt nicht Alltagstauglichkeit und zählt als Extem OC für Benchmarks aber so sehen dann Taktwunder aus.
Ist genau das gleiche wie wenn man einen Volt Mod bei Nvidia macht, dann hast sogar 2350 Mhz auf einer 2080ti aber was willst damit machen
3D Mark anstarren weil zum Zocken sind solche Volt Moding Sachen überhaupt nicht. Außer man will die Karte möglichst schnell ins Grab bringen
und wozu alleine die Kühlung kostet dann schon mehr als eine 2070 Super.


Aber gut ich mach dir nicht mal Vorwürfe aber PCGH, weil der Artikel hier richtig schlecht ist. Da fehlen so viele Angaben und es kommt einem
hier vor als müsste man nur ein Paar Parameter ändern und schub hat man 2,2 Ghz. Nutzer die einen Plan haben wissen das man solche Sprünge nicht
ohne deutlich mehr Spannung macht, aber eben nicht alle.
Das ist eine Sommerloch News die auch noch einen Falschen Anschein erweckt wie als ob man mit Custom Kühlung 1,25 Volt betreiben könnte.
Tomsharde sagt deutlich bleibt bei 1,2 Volt und nutz halt nur genügsame Anpassungen wie Powerlimit erhöhungen. Damit lässt sich aber wenig erreichen,
alles andere ist ein klare Volt Mod der eben nicht fürs Zocken ist.
Bei euch kommt das aber so rüber als kommen Custom Modele und mit Mod schwub 2,2 Ghz. Das Entspricht nicht der Realität und so etwas komplexes in ein paar
Zeilen zu hauen ist die Konsequenz davon.
Die Customs können dem Chip von Hause aus erhöhte Spannung verpassen. Das ist nichts ungewöhnliches bei Sapphire und PowerColor.
 
@PCGH Ich finde übrigens, ihr solltet vielleicht nicht mehr TomsHardware nennen sondern Igor Wallossek direkt oder "IgorsLab". Die Seite hat zwar noch den Namen, aber eigentlich läuft da nichts mehr unter TomsHardware und die Messungen finden alle in good old Germany statt Nachdem die Amis neulich ganz die Freundschaft gekündigt haben muss man den Namen nicht unbedingt weiter puschen!
 
@-ElCritico
Den Vergleich mit der RTX 2080 hab ja nicht ich gemacht. Sondern Gurdi in einem Benchmark der einer RTX nicht liegt. Aber immer best Case wie bei ausgesuchten Spielen.
Allerdings will ich nicht Gurdi die Schuld geben, sondern den Leuten die aus solchen Ergebnissen die falschen Schlüsse ziehn und meinen sie müßten jetzt ablästern
Ebenso hätte man den Vergleich mit einer hochgezogenen RTX 2070 non super im Time Spy machen können, um anschließend verkünden die RTX 2070 nagelt alles nieder was AMD so anbietet.
NVIDIA GeForce RTX 2070 video card benchmark result - Intel Core i5-8600K Processor,Micro-Star International Co., Ltd. Z370 SLI PLUS (MS-7B46)

Hochgezogene Karten kann man auch nicht mit stock Karten Vergleichen. Hier mal ein Vergleich mit einer GTX 1080 Ti (PCGH) und meiner GTX 1080 in Battlefield 5 mit RTX auf ultra.
Ich seh da von den FPS keinen Unterschied. Trotzdem würde ich nie auf den Gedanken kommen und behaupten die GTX 1080 ist so schnell wie eine GTX 1080Ti. (Mit meine GTX 1080Ti habe ich die selben FPS in 1440p wie PCGH in 1080p)

Battlefield.PNG bfv_2019_04_14_10_52_11_537.jpg bfv_2019_04_14_10_52_03_462.jpg bfv_2019_04_14_10_55_52_433.jpg bfv_2019_04_14_10_56_21_824.jpg bfv_2019_04_14_10_56_43_731.jpg bfv_2019_04_14_10_56_56_150.jpg bfv_2019_04_14_10_58_05_152.jpg bfv_2019_04_14_10_57_50_890.jpg bfv_2019_04_14_10_57_26_679.jpg bfv_2019_04_14_10_57_11_166.jpg bfv_2019_04_14_10_58_34_378.jpg
 

Anhänge

  • bfv_2019_04_14_10_56_05_369.jpg
    bfv_2019_04_14_10_56_05_369.jpg
    2 MB · Aufrufe: 22
  • bfv_2019_04_14_10_56_09_276.jpg
    bfv_2019_04_14_10_56_09_276.jpg
    2 MB · Aufrufe: 24
Wegen was? Weil meine GTX 1080 ohne Spannungserhöhung 7-8% langsamer als Gurdis Karte ist? Die Welt geht unter.

Es ist ja nicht so als ob die Nvidia Karten nicht zu übertakten wären. Selbst ne GTX 1080 schafft die Werte
NVIDIA GeForce GTX 1080 video card benchmark result - Intel Core i9-9900K Processor,ASUSTeK COMPUTER INC. ROG MAXIMUS XI HERO (WI-FI)

man hätte vielleicht auch ne übertaktete RTX 2080 nehmen können
NVIDIA GeForce RTX 2080 video card benchmark result - Intel Core i9-9900K Processor,ASUSTeK COMPUTER INC. ROG MAXIMUS XI HERO (WI-FI)
NVIDIA GeForce RTX 2080 video card benchmark result - Intel Core i9-9900K Processor,ASUSTeK COMPUTER INC. ROG MAXIMUS XI HERO (WI-FI)

oder wenn man schon einen Benchmark nimmt der AMD gut liegt, vielleicht noch einen Vergleich in dem die RTX gut ist. Eventuell Time Spy. Aber da dreht die RTX dann so große Kreise.........lassen wir das.
Vielleicht nicht immer so einseitig denken.

Jetzt übertreib mal nicht. Ne übertaktete Custom 2080 evtl. noch mit Wasser gegen meine kleine 5700 in der Blechdose wäre dann wohl doch ein wenig zu viel des guten oder.
Zumal das Speicher OC aktuell broken ist bei den Navis. 1900 ist nix für GDDR6, im Peak kriegt man da 2,1 drauf.

Das Argument eine teurere Karte ebenfalls mit OC Werten ran zu ziehen hinkt wie so oft. Ziel von OC ist ja die nächst höhere Klasse zu erreichen, ich hab ja schon eine Übersprungen bei den Vergleichen weil ich die 2070 und die XT deutlich übertreffe. Klar schafft die 5700 im all over keine 2080.
 
Zuletzt bearbeitet:
Ebenso hätte man den Vergleich mit einer hochgezogenen RTX 2070 non super im Time Spy machen können, um anschließend verkünden die RTX 2070 nagelt alles nieder was AMD so anbietet.

Genau hier liegt mMn das/dein Problem. Denn derartiges hat hier keiner außer dir ausgedrückt, nicht mal angedeutet. Dennoch hast du es so interpretiert. So gesehen verstehe ich deine Reaktion und Erklärung, aber es ist eben nicht angebracht. Ich denke das hast du schlicht falsch aufgefasst.

Gesendet von meinem HTC U12+ mit Tapatalk
 
Interessant, 450 verkaufte Karten (RX 5700XT) vs. 95 verkaufte Karten (RTX 2060 Super) bei Mindfactory. Beide im gleichen Preisbereich, die Radeon jedoch merklich schneller.

Interessant was du unter "merklich" verstehst. Laut PCGH sind das 5 bis 6%.
Immer wieder wird uns erklärt, dass 10 bis 15% mehr CPU Leistung eines stock 9900K irrelevant sind.
Was stimmt nun? Oder wird mit zweierlei Maß gemessen?

Da sieht man mal wie wichtig den Leuten RT ist.
Nach den Aussagen einiger "Experten" hier müsste sich die 2060S ja um Welten besser verkaufen weil sie RT liefert.

Also die Lieferbarkeit von 2060 Super Karten ist

a) noch nicht richtig gegeben und
b) decken sich AMD Käufer zu einem AMD Launch natürlich mit mehr AMD Karten ein, ist doch klar.
Nvidia hatte man doch jetzt beinahe ein Jahr kaufen können. Also der Vergleich hinkt wirklich stark.

Hab ich jetzt einen anderen Artkel als du gelesen? Ich lese da nicht raus das er einen Chiller benutzt hat. Es steht sogar man braucht keinen Chiller, aber eine halbwegs gute Wakü und Erfahrungen im OC.


Und dennoch sind das keine 15% Mehrverbrauch gegenüber stock, sondern gegenüber einer Karte mit 2Ghz.

Auch wenn das mit Sicherheit keine 24/7 Settings sind, so zeigen sie möglich Potenziale mit Customs und spätere RDNA Produkte.

Gute Geforce Modelle sind schon 2016 mit der Brechstange auf 2,2Ghz gelaufen.

äh zeig mir die stelle mit dem Chiller oder wieder nur ausgedacht wie die 20 RT Spiele bis zum Ende des Jahres?

Das siehst du doch im Video, wie die Karte gekühlt wird. Haste ja gar nicht angeschaut. Natürlich wird da mit einem Chiller gekühlt, ist aber nicht nötig.
Ungefesselt: Radeon RX 5700 XT auf ueber 2,2 GHz uebertaktet. Break the limits mit den neuen SoftPowerPlayTables fuer die RX 5700 und RX 5700 XT – igor sLAB

"Es war ein recht mühsames Herantasten, denn es gab ja noch keine Erfahrungen. Man muss im Übrigen keinen Chiller nutzen, um auf ähnlich hohe Werte zu kommen, eine einfache Wasserkühlung reicht durchaus, wenn man es nicht übertreibt, man muss also nicht einmal einen Chiller verwenden."

Du kommst mit Übertreibungen das es nicht mehr feierlich ist ( Chiller, obwohl alle hier wissen, dass den bisher nur Intel genutzt hat) und bist oft einfach nur direkt persönlich.

Aha, du weißt also gar nicht, dass Igor mit einem Chiller kühlt? Das sind keine 24/7 Settings im übrigen, das wird dort aucg gesagt, aber 2Ghz sind gesetzt, auch mit dem Stock Kühler, das ist also gar nicht schlecht für OC.

Bei Nvidia ist die Taktbarriere bei 2GHz, bei Pascal war sie sogar höher bei 2.1 GHz, der verbraucht steigt nicht linear. 10% mehr Takt bei 15% Mehrverbrauch ist exzellent. Das kostet übrigens eine RTX 2070s

Das hier ist eine komplett ausgereizte Radeon, mit Soft Power Tables, also eine Art Over-overclocking.

NVIDIA RTX 2080 Overclocking Guide >> Page 2 - RTX 2080 Overclocking Guide: Hitting Those High Numbers - Overclockers Club
Bei Nvidia sind auch solche Taktraten möglich, Luftgekühlt bis 2150Mhz und per Wakü noch etwas mehr, also ihr verbreitet schon wieder Nonsense.
Bei jedem AMD Launch dasselbe, die Stories von der unglaublichen Optimierbarkeit.

Die hörte man bei der Vega und bei der Radeon VII rauf und runter.
 
Zuletzt bearbeitet:
Interessant was du unter "merklich" verstehst. Laut PCGH sind das 5 bis 6%.
Immer wieder wird uns erklärt, dass 10 bis 15% mehr CPU Leistung eines stock 9900K irrelevant sind.
Was stimmt nun? Oder wird mit zweierlei Maß gemessen?

Du tust ja gerade so als seist du ein totaler Neuling in der Materie. Selbstveratändlich wird mit zweierlei Maß gemessen. Muss doch auch. Hast du einen 9900k mit einer 2080ti sitzt du in den meisten Spielen für die man sich High End GPUs kauft im GPU Limit. Hast du statt dem 9900k einen 2700X sitzt du auch im GPU Limit. Entlockt man der Karte aber 5% mehr fps, hat man 5% mehr fps.
Was gibt's daran denn nicht zu verstehen?

Gesendet von meinem HTC U12+ mit Tapatalk
 
Du tust ja gerade so als seist du ein totaler Neuling in der Materie. Selbstveratändlich wird mit zweierlei Maß gemessen. Muss doch auch. Hast du einen 9900k mit einer 2080ti sitzt du in den meisten Spielen für die man sich High End GPUs kauft im GPU Limit. Hast du statt dem 9900k einen 2700X sitzt du auch im GPU Limit. Entlockt man der Karte aber 5% mehr fps, hat man 5% mehr fps.
Was gibt's daran denn nicht zu verstehen?

Gesendet von meinem HTC U12+ mit Tapatalk
Wie kann man im GPU Limit sitzen und 5% mehr FPS haben ?
 
Klar schafft die 5700 im all over keine 2080.
Das ist doch genau der Grund, warum Nvidia so auf ihre Highend-Flaggschiffe setzt. Die Leistung von den mega-teuren Karten "färbt ab" auf die normalen Karten. Zwar nicht in den Frameraten, aber in den Köpfen der Leute. Wie oft ich diesen Monat schon unzulässige Vergleiche gelesen hab von 5700 zu 2070 Super oder gar 2080, das geht auf keine Kuhhaut. Gerade auch die Fachartikel (z.B. bei PCGH) sind voll davon. Dass die im selben Atemzug genannten Karten viel teurer sind als das mit dem man vergleicht, wird gern mal kurz vergessen. Zwei Sätze später wird dann zwar wieder der Preis genannt, aber bis dahin hat sich im Gehirn des Lesers längst der Eindruck festgesetzt, dass Nvidia schneller ist.
 
Zuletzt bearbeitet:
Wenn ihr liebe PCGH da eine andere Hardware-Seite erwähnt dann schreibt auch bitte das diese 2,2GHZ mit einer Wasserkühlung und heftige Einschnitte in die Registry zustande kam. Wer bitte der ein normaler Gamer ist der nicht übertaktet wie ich einer bin liest hier 2,2GHz.... ui toll klasse was Navi da leistet. Sehe ich aber nicht so denn AMD hat mit Navi eine sehr gute Architektur-Verbesserung gebracht aber Übertaktungswunder ist Navi nicht genauso wie auch Ryzen 3000 die alle keine Übertaktungswunder sind.

Was für ein Aufwand für ein paar MHZ in der Registry rumfingern und eine gute Wakü draufklatschen um das zu Erreichen. Ihr habt ja auch ein gutes Video wo bei 2,1GHZ Schluss ist aber ihr habt einen sehr dicken Luftkühler von Arctic drauf de rüber 3 Slots belegt. Navi ist schwer zu bändigen wie Vega es schon war und zeigt das diese GPU´s ab Werk schon am Limit laufen.

Mir kommt keine Navi und auch keine Turing Super duper Abzocke ins Mainboard. Das ist das Gesamtfazit dieser GPU-Generation von AMD und Nvidia.
 
Wie kann man im GPU Limit sitzen und 5% mehr FPS haben ?
Einfach nochmal lesen, nachdenken was da steht und dann posten.

Die Karte ist der limitierende Faktor in meinem Beispiel. Damit ist aber kein Hardwarelimit gemeint, sondern vielleicht ihr Powerlimit, oder die Temperatur, also im Endeffekt schlicht der Takt. Bekommt man aus der Karte aber mehr Rechenleistung, kommen auch mehr fps an, egal welche von beiden CPUs verbaut ist, denn auch hier sind wir weiterhin im GPU Limit, nur eben etwas versetzt.

Gesendet von meinem HTC U12+ mit Tapatalk
 
Poly, just4fun seziere ich dein Posting in deiner Manier auch mal in Kleinteile.

Interessant was du unter "merklich" verstehst. Laut PCGH sind das 5 bis 6%.

Und laut Computerbase sind es 9% und laut 3DCenter (20 Reviews gemittelt) sind es 8%. Warum aber hängst du dich auf einer Nebenbemerkung so auf?

Immer wieder wird uns erklärt, dass 10 bis 15% mehr CPU Leistung eines stock 9900K irrelevant sind.

Was ist für dich "CPU-Leistung", Leistung ausschließlich in Games ohne die Berücksichtigung in Anwendungen? Und in Relation zu welcher CPU überhaupt?

Bezug auf Ryzen 9 3900X (gleicher Preispunkt = 499 Dollar)?
7% mehr Gaming-Leistung sind bei gleichzeitig 30-35% weniger Anwendungsleistung tatsächlich wenig relevant.

Bezug auf Ryzen 7 3700X (329 Dollar vs. 499 Dollar)?
8% mehr Gaming-Leistung werden mit 170 Dollar Aufpreis vergleichsweise teuer erkauft. Das macht die RX 5700XT nicht gegenüber der gleichteuren RTX 2060 Supi


Was stimmt nun? Oder wird mit zweierlei Maß gemessen?

Ja, offensichtlich misst du mit zweierlei Maß, wenn du Preise und die generelle bzw. Anwendungsleistung ausblendest.

Mir scheint du würdest gerne Aussagen und Ansichten verschiedener Menschen miteinander vermischen um einen (allgemeinen) Widerspruch zu konstruieren.
Dein Feindbild "AMD-User" ist ja noch paranoider als das Feindbild "beschi**ener Hersteller", das einige Foristen (aus Konsumentensicht teils zu Recht) haben.
 
Zuletzt bearbeitet von einem Moderator:
Hab ich jetzt einen anderen Artkel als du gelesen? Ich lese da nicht raus das er einen Chiller benutzt hat. Es steht sogar man braucht keinen Chiller, aber eine halbwegs gute Wakü und Erfahrungen im OC.

Auch wenn das mit Sicherheit keine 24/7 Settings sind, so zeigen sie möglich Potenziale mit Customs und spätere RDNA Produkte.

Den Test hat Igor gemacht und sein Standardaufbau ist halt eine Wakü in Kombination mit einem 1500W Chiller der das Wasser auf 20°C herunterkühlt. Die Frage ist jetzt natürlich wie schauen die Temperaturen aus, wenn man keine Wakü und keinen Chiller hat. Mit dem Blower Kühler kommt man schon ohne OC unter Dauerlast (10+ Minuten) an die 90°C Junction Temp wo die Karte sich wieder heruntertaktet. Für nen kurzen Benchmark reicht das aber im Alltagsgebrauch wird die Karte heruntertakten. Custom Modelle mit besserer Kühlung werden die Temperaturen auf irgendwo 60-70°C herunterdrücken (siehe Eigenbauten mit Accelero 4 Extreme) bei 1800 MHz und 180W. Bei 2000 MHz und 270W liegt man mit der Junction Temp wieder bei 90°C und man kommt ins Temp Limit. Realstisch sind mit ner Custom unter Luft nur 2GHz drin, für mehr wird man eine Wakü brauchen und dann ist halt die Frage wie heiß man die GPU werden lassen will. Die 2,2GHz bei 300+W wird man sicherlich auch ohne Chiller kühlen können, nur werden die Temperaturen entsprechend hoch sein und man muss halt auch gucken wie die Temperaturen der anderen Bauteile ausschauen.
 
Interessant was du unter "merklich" verstehst. Laut PCGH sind das 5 bis 6%.
Immer wieder wird uns erklärt, dass 10 bis 15% mehr CPU Leistung eines stock 9900K irrelevant sind.

Hier mal wieder ein exzellentes Beispiel dafür, wie schaffe argumentiert.

Der 9900k hat im Mittel weniger Leistung als seine Konkurrenz. Falls du die alten Spiele als Maßstab für die allgemeine Performance einer CPU nimmst, ist dir nicht mehr zu helfen.
Ich kann mittlerweile mit perfekter Präzision vorhersagen, ob du unter einer News in PCGH kommentiert hast.

Wie wärs, wenn du einfach die Hersteller von GPUs und CPUs endlich aus deinem Kopf verbannst und die Produkte nur noch als Artikel X und Y siehst? Stehst du in deiner Freizeit auch im Müsliregal und zwingst anderen Leuten das Seitenbacher Müsli auf, weil 10-15% mehr Hafenflocken enthalten sind obwohl anderen Müslis ein viel besseres Gesamtpaket bieten?
 
Du tust ja gerade so als seist du ein totaler Neuling in der Materie.

Warum das denn nun wieder. Jetzt kommt wieder der nächste völlige unlogische Cleriker Beitrag. Der Beitrag war als Frage formuliert, weil ich die unterschiedlichen Wahrnehmungen von Mehrleistung in diesem Forum witzig finde.

Hat nur mit GPU und CPU Limit gar nichts zu tun. Ich bin gespannt wie du 6% FPS am Bildschirm merkst. Laut dir ist das ja ein merklicher Unterschied.
Selbstveratändlich wird mit zweierlei Maß gemessen. Muss doch auch.

Eher nicht, wenn ich die faktischen Leistungsunterschiede beziffern.
Hast du einen 9900k mit einer 2080ti sitzt du in den meisten Spielen für die man sich High End GPUs kauft im GPU Limit. Hast du statt dem 9900k einen 2700X sitzt du auch im GPU Limit.

Und wenn ich einen 1800X verbaue, sitze ich auch im GPU Limit, wenn ich Anno 1800 spiele?
Entlockt man der Karte aber 5% mehr fps, hat man 5% mehr fps.
Was gibt's daran denn nicht zu verstehen?

Also die GPU vs CPU Limit Diskussion hast alleine du begonnen. CPUs werden normal länger behalten als GPUs, also ist der faktische Unterschied auch bei CPUs wichtig.
Dieses €€HEY schaut ich bin immer im GPU Limit€€ ist doch Phrasendrescherei, weil man es schlicht nicht ist.

Und laut Computerbase sind es 9% und laut 3DCenter (20 Reviews gemittelt) sind es 8%. Warum aber hängst du dich auf einer Nebenbemerkung so auf?

Weil du mehrfach den faktischen Vorsprung der 2080 gegenüber der Radeon VII als irrelevant hinstellt, hier aber wieder merkliche und nice Performance Unterschiede proklamierst.
Dein Fähnchenwandert je nach Windrichtung mal in die eine, mal in die andere Richtung, deshalb die Frage. PCGH testet übrigens auch mit ARK und Three Kingdoms Mal ein wenig Gaming Praxis und nicht immer den AAA Kram.
Was ist für dich "CPU-Leistung", Leistung ausschließlich in Games ohne die Berücksichtigung in Anwendungen?

Kommt jetzt in einem Gaming Szenario wieder die Anwendungskeule? Rechenintensive Anwendungen die ~ 1% der Bevölkerung nutzt und das nicht mal auf professioneller Basis?
Und in Relation zu welcher CPU überhaupt?

Bezug auf Ryzen 9 3900X (gleicher Preispunkt = 499 Dollar)?
7% mehr Gaming-Leistung sind bei gleichzeitig 30-35% weniger Anwendungsleistung tatsächlich wenig relevant.

I'm CPU Limit sind es mit gleichem Speicher nach wie vor 15% Abstand. Messungen in GPU Bottlenecks zählen wie üblich nicht.

8% mehr Gaming-Leistung werden mit 170 Dollar Aufpreis vergleichsweise teuer erkauft. Das macht die RX 5700XT nicht gegenüber der gleichteuren RTX 2060 Supi

Jetzt kommt wieder die Preisdiskussion. :D

Ja, offensichtlich misst du mit zweierlei Maß, wenn du Preise und die generelle bzw. Anwendungsleistung ausblendest.

Blende ich nicht aus, keine Sorge, nur habe ich davon nicht ansatzweise gesprochen.
Dass ein 3700X overall die empfehlenswertere CPU ist, steht doch gar nicht zur Debatte.

Mir scheint du würdest gerne Aussagen und Ansichten verschiedener Menschen miteinander vermischen um einen (allgemeinen) Widerspruch zu konstruieren.

Ich versuche grundsätzlich die Motivation hinter den Wendehälsen zu verstehen.
Der 9900k hat im Mittel weniger Leistung als seine Konkurrenz. Falls du die alten Spiele als Maßstab für die allgemeine Performance einer CPU nimmst, ist dir nicht mehr zu helfen.

Okay, du sagst jetzt also die AMD CPUs besitzen mehr Spieleleistung und begründest das mit in Zukunft erscheinenden Spielen?
Und die aktuellen sind also alt und es wird alles so geil werden? Warum hat sich diese Theorie bei 6700K,7700K, 8700K, 9900K nicht bestätigt und die Ryzen sind abgesehen von den 4c4t CPUs wie dem 7600K, der an zu wenigen Threads verhungert, immer weiter abgefallen?

Paradoxon.
Nimmst du stattdessen Cinebench um die Spieleleistung zu ermitteln?

Ich kann mittlerweile mit perfekter Präzision vorhersagen, ob du unter einer News in PCGH kommentiert hast.

Achso, da wehrt sich doch wirklich noch jemand gegen diesen Fake News Stil von manchen die sich wie Pipi ihre Welt zusammenbasteln wie sie sie brauchen. Ich kann mittlerweile auch mit Präzision vorhersagen unter welchen Themen wieder die Grabenkämpfe beginnen. Zen2 ist der Spiele könig, du musst nur 5 Jahre warten dann zieht der 3900X am 8700K vorbei.

Alles wird gut. ;)

Wie wärs, wenn du einfach die Hersteller von GPUs und CPUs endlich aus deinem Kopf verbannst und die Produkte nur noch als Artikel X und Y siehst?

Mach ich doch auch so, du hingegen nicht, wenn du hier erzählst die Zen 2 CPUs seien in Spielen schneller. Die schaffen doch nicht mal einen 7700K @4,5 GHz oder einen I5 9400F mit gleichem RAM im Mittel.

Stehst du in deiner Freizeit auch im Müsliregal und zwingst anderen Leuten das Seitenbacher Müsli auf, weil 10-15% mehr Hafenflocken enthalten sind obwohl anderen Müslis ein viel besseres Gesamtpaket bieten?

Gesamtpaket? Hier geht es um Gaming.
Für die paar anderen Dinge am PC reichen 99% der Menschen 4c8t locker aus. Ich selbst nutze in der Arbeit einen alten i7 2c4t am Notebook und mache deutlich rechenintensivere Dinge als die meisten Nutzer zu Hause.

Und für den der es braucht, bestreite ich nirgends die großartige Anwendungsleistung eines 3700X, noch würde ich bei einem Neukauf als Streaming oder Anwendungs PC einen 9700K statt 3700x empfehlen, kaufe ich mir auch selbst nicht.
 
Zuletzt bearbeitet:
Bald lächerlich, was heute als "einiges raus holen" beziffert wird ;)

10% mehr Takt, da könnte ich heulen.
Das letzte Modell das sich gut takten lies waren eher so AMD Vega 56 und Nvidida GTX1080TI FE.

Meine taktfreudigste Karte (gemessen an dem Referenztakt) war damals meine HD7950.
Kam original mit 800MHz und lief unter Wasser bei 1,3V und 37°C stabil (egal welches Progarmm / Spiel das empfindlich war) mit 1360MHz.

Das sind 70% mehr Takt. Der Speicher ging übrigens auf 3800 statt 2500MHz.

Ja, das war ein Glücksfall, aber hier die 2,2GHz auch.

Auch damals die GTX460, ging schon mal um 50% mehr Takt.
 
Immer wieder wird uns erklärt, dass 10 bis 15% mehr CPU Leistung eines stock 9900K irrelevant sind.

Hat nur mit GPU und CPU Limit gar nichts zu tun. Ich bin gespannt wie du 6% FPS am Bildschirm merkst

:schief:

Einerseits bist du vermutlich berechtigt dagegen, dass die Mehrleistung eines gewissen Prozessors unter den Tisch gekehrt wird, auf der anderen Seite ist dir eine gewisse Mehrleistung in FPS egal? Wiederspricht sich das nicht irgendwie?
Grob: "Mehrleistung nicht unter den Tisch kehren vs. Mehrleistung unter den Tisch kehren"
 
Jetzt übertreib mal nicht. .

Wieso übertreiben? Du hast doch den sinnlosen Vergleich mit der RTX 2080 gemacht. Es ist schon klasse was man aus der 5700 rausholen, keine Frage. Aber dein Vergleich mit der RTX 2080 im Fire Strike finde ich eben deplaziert.
Solche Vergleiche nehmen die Forensoldaten gerne als Vergleich...........ja und dann ist nach denen eine 5700/5700XT so schnell wie eine RTX 2080.

Der nächste holt jetzt Time Spy raus und siehe da, eine rtx 2060 reicht aus um da locker mit der AMD mitzuhalten. Egal ob super oder nicht. Da brauchts auch keinen Power Mod, oder ähnliches.
NVIDIA GeForce RTX 2060 video card benchmark result - Intel Core i9-9900K Processor,ASRock Z390 Phantom Gaming-ITX/ac
NVIDIA GeForce RTX 2060 Super video card benchmark result - Intel Core i9-9900K Processor,Gigabyte Technology Co., Ltd. Z390 AORUS XTREME-CF

Fire Strike und RTX, keine gute Kombi. Selbst meine GTX 1080 schlägt die RTX 2070 super FE da durchgehend. Im normalen Fire Strike sogar die RTX 2080 FE.
Zweimal RDNA als Navi: Die Radeon RX 5700 und Radeon RX 5700 XT im Test - Hardwareluxx
Deine VegaII, oder meine GTX 1080Ti hat da schon die RTX 2080Ti FE als Gegner. Aber ist das Realität? Ich glaube nicht.
 
:schief:

Einerseits bist du vermutlich berechtigt dagegen, dass die Mehrleistung eines gewissen Prozessors unter den Tisch gekehrt wird, auf der anderen Seite ist dir eine gewisse Mehrleistung in FPS egal? Wiederspricht sich das nicht irgendwie?

Eine faktische Mehrleistung ist nie egal.
Man kann die 5.bis 10% der 5700XT gerne als Vorteil für den gleichen Preis verbuchen, mache ich auch gerne so.

Nur heisst das noch lange nicht, dass User das immer so sehen. Freiheraus hat die Mehrleistung einer 2080 gegenüber der Radeon VII immer kleingeredet, obwohl das tendenziell noch etwas mehr ist, auch heute noch.

Bei CPUs dasselbe. Nunja. Face-palm....
 
Zurück