Ryzen 7 3850X und 3750X: Matisse-Refresh als Antwort auf Comet Lake-S?

Im GPU-Limit kann ich auch einen i3 nehmen - nach deiner "Logik" ist damit jeder Ryzen sinnlos.
Man kann im worst case ja auch gleichzeitig im GPU- und CPU-Limit sein, aber davon abgesehen haben solche Aussagen immer einen faden Beigeschmack. Da könnte man auch sagen, dass ein 1600AF für alles und jeden im GPU-Limit genügen muss. ;)
 
Es ist doch ganz einfach: Will ich wissen, welche CPU schneller ist, müssen Limitierungen durch andere beteiligte Komponenten ausgeschlossen oder zumindest minimiert werden.
Im Idealfall testet man, ohne dass andere Komponenten beteiligt sein müssen, also zum Beispiel komplett ohne Grafikausgabe. Für viele Anwendungen im Workstation-Segment oder für Server geht das.

Hier sind der konkrete Anwendungsfall aber Spiele, und die brauchen nun einmal Grafikausgabe. Dieser Umstand ist für Manche verirrend, weil sie sich sagen "Moment mal, wenn ein konkreter Anwendungsfall getestet wird, dann doch unter praxisnahen Bedingungen!"
Radio Eriwan meint dazu: "Im Prinzip ja, aber ..."

Klar, wenn man wissen will, welche aktuelle Hardware harmoniert und welche nicht, kann man mit aktuell üblichen Einstellungen testen. Nur ist das recht kontraproduktiv, wenn die beteiligten Komponenten eine unterschiedliche Lebenserwartung bzw. abweichende Austauschzyklen haben.
Wenn man eine CPU testen, will man nicht nur wissen, ob sie *jetzt* die erforderliche Leistung bringt, sondern auch dann, wenn sie im Rechner verbleibt und andere Komponenten gegen neuere/stärkere ausgetauscht werden.
Im Fall von Spielen ist das naturgemäß die Grafikkarte. Diese beim Test zu Entlasten simuliert quasi eine potentiell stärkere Grafikkarte, wie man sie in zwei, drei Jahren einbaut, wenn die CPU noch lange nicht zum alten Eisen gehört.

Um zu wissen, ob die getestete CPU etwas im Zusammenspiel mit bestimmter sonstiger Hardware oder in bestimmten Spielen bei der und der Auflösung bringt, braucht man keinen CPU-Test, sondern Konstellations- bzw. Anwendungstests. Und die gibt's in mal guter, mal fragwürdiger Qualität auf Youtube und Co..

Was die ewige Frage angeht, ob 720p oder 1080p, ist das weniger eine Glaubensfrage, als eine der Logistik und/oder angestrebten Genauigkeit.
720p ist ein derzeit weit verbreiteter *Kompromiss*. Man könnte auch - ich übertreibe mal gnadenlos - @320p testen, nur sind da viele, für den Anwendungszweck möglicherweise wichtige Details nicht mehr sonderlich gut erkennbar.
1080p (jedoch auch mit reduzierten GPU-lastigen Einstellungen) verschiebt die Last geringfügig auf die Grafikkarte. Dadurch können Unterschiede zwischen getesteten CPUs verschwimmen, wenn diese sehr gering sind. Viele möchten das nicht in Kauf nehmen. Manche nehmen es in Kauf - hauptsächlich deshalb, weil die @1080p erfassten Daten aus dem CPU-Test besser mit den separat durchgeführten Konstellations- bzw. Anwendungstests abgleichbar sind. Man spart sich sozusagen eine Testreihe @720p, die bei diesen nicht verwertbar wäre. Und das ist letztlich auch nur ein weiterer Kompromiss.

Das Schöne ist, dass wahnsinnig viele Leute mit allen möglichen Variablen, aber im Regelfall ziemlich identischem Komponenten testen. Dadurch kann man direkt vergleichen, wie viel Ungenauigkeit CPU-Tests @1080p gegenüber 720p erzeugen.
Ich sage es mal vorsichtig: Diese Entscheidung ist die Aufregung weder aus der eine noch aus der anderen Perspektive wert. Wenn man sich aufregen möchte, dann über CPU-Test auf Ultra und/oder @1440p, weil das ja für so starke CPUs "praxisnäher" wäre. :rollen:
 
@Mahoy

Der große Irrtum ist doch, dass viele meinen, dass bei niedrigeren Auflösungen in Engine weniger berechnet würde, weil man ja nicht so viel Details sieht. Das ist aber 99,9% nicht der Fall.
Auch ein 320x200 Pixel Output rendert die volle Geometrie mit allen Effekten, Physik, Sound etc. also den Großteil, den die Rechenlast ausmacht.
Es wird halt dann bei der Ausgabe dementsprechend runtergescaled.

So lange das nicht begriffen wird, versteht man natürlich auch nicht, dass die Auflösung fast unerheblich ist, wenns darum geht die CPU- Leistung zu messen und dass auch ein Testest mit 640x480 die gesuchte Information liefert.
Und die ist nunmal, wieviele FPS die CPU min. und max. liefern kann.

Wenn es eine theoretisch niemals begrenzende GPU gäbe, dann kommen dabei für 640x480 als auch 4k, 8k und 16k die gleichen Werte raus.

LG
Zero
 
Und dennoch limitert die gpu eher als die cpu
Nun wie stellt man dann fest was wann limitiert
an der gpu Auslastung.
Und daran würde ich es festmachen
Spiele die in 720p eine rtx2080ti auslasten existieren nicht
Hier setzt das gpu limit erst ab 1440p an wenige Titel schon bei 1080p
daher kann man nicht generell sagen das cpu test nur in 720p ausreichen würden manchmal sorgt es dafür das Ergebnisse verfälscht werden.
Lösung weg von sturen fps mit games test bei cpu test
Das bringt nix außer die Bestätigung das man eine high end gpu mit dieser cpu dann auslasten kann.
Nett zu wissen aber für die meiste eher LW
Wichtiger bei CPu test sind rendern multicasting speicherdurchsatz verschlüsseln und Arbeitsgeschwindigkeit von software Effekten sei es audio oder video.
Und wie schnell ein export geht.
Dann P/L
Und ein hinweis bis welcher gpu man auslasten kann
Was sicher Spielabhängig ist
 
Und dennoch limitert die gpu eher als die cpu
Nun wie stellt man dann fest was wann limitiert
an der gpu Auslastung.
Ja- Wobei man auch hier beachten muss, dass diese, je nach Lastszenario, bereits schon vor 99-100% Nutzung in ein Limit läuft.

Und daran würde ich es festmachen
Spiele die in 720p eine rtx2080ti auslasten existieren nicht
Das ist wiederum eine Sache der Einstellung. Zünde ich in der Auflösung eine Shaderbatterie mit allerlei Supersampling- Effekten, dann können vielleicht auch die 720p limitieren.

daher kann man nicht generell sagen das cpu test nur in 720p ausreichen würden manchmal sorgt es dafür das Ergebnisse verfälscht werden.
Wieso sollte ein Rasterizer bei niedrigen Auflösungen das Ergebnis verfälschen?

Es gibt einen ganz einfachen Test. Nimm das Lieblingsspiel Deiner Wahl, welches eine hohe Zahl an Auflösungen unterstützt.
Benche ab 640x480 bis FullHD und notiere die mins, 99tel und max FPS.
Du wirst feststellen, dass diese bis zum Bottleneck der Grafikkarte immer gleich bleiben.

Das bringt nix außer die Bestätigung das man eine high end gpu mit dieser cpu dann auslasten kann.
Was für Spieler genau die Information ist, die an einer CPU nebst aktuellen Leistungswerten wichtig ist.

Wichtiger bei CPu test sind rendern multicasting speicherdurchsatz verschlüsseln und Arbeitsgeschwindigkeit von software Effekten sei es audio oder video.
Und wie schnell ein export geht.
Dann P/L
Das sind Teilaspekte, die wiederum dem Spieler wenig helfen, der für sein Geld einen Prozessor kaufen möchte, der die nächste Grafikkartengeneration nicht limitiert.

Das Aufrüsten der Grafikkarte ist ein gängiges Szenario (Haube ab, Karte raus, neue Karte rein- Fertig).
Wohingegen man sich eher scheut, im Extremfall das Mainboard samt Komponente rausreißen zu müssen.

Somit muss nebst dem aktuellen P/L Verhältnis eben auch in Betracht gezogen werden, wie eine CPU mir für meinen Zweck in Zukunft dienen kann.

LG
Zero
 
Ja- Wobei man auch hier beachten muss, dass diese, je nach Lastszenario, bereits schon vor 99-100% Nutzung in ein Limit läuft.


Das ist wiederum eine Sache der Einstellung. Zünde ich in der Auflösung eine Shaderbatterie mit allerlei Supersampling- Effekten, dann können vielleicht auch die 720p limitieren.


Wieso sollte ein Rasterizer bei niedrigen Auflösungen das Ergebnis verfälschen?

Es gibt einen ganz einfachen Test. Nimm das Lieblingsspiel Deiner Wahl, welches eine hohe Zahl an Auflösungen unterstützt.
Benche ab 640x480 bis FullHD und notiere die mins, 99tel und max FPS.
Du wirst feststellen, dass diese bis zum Bottleneck der Grafikkarte immer gleich bleiben.


Was für Spieler genau die Information ist, die an einer CPU nebst aktuellen Leistungswerten wichtig ist.


Das sind Teilaspekte, die wiederum dem Spieler wenig helfen, der für sein Geld einen Prozessor kaufen möchte, der die nächste Grafikkartengeneration nicht limitiert.

Das Aufrüsten der Grafikkarte ist ein gängiges Szenario (Haube ab, Karte raus, neue Karte rein- Fertig).
Wohingegen man sich eher scheut, im Extremfall das Mainboard samt Komponente rausreißen zu müssen.

Somit muss nebst dem aktuellen P/L Verhältnis eben auch in Betracht gezogen werden, wie eine CPU mir für meinen Zweck in Zukunft dienen kann.

LG
Zero
Generell kann man sagen in der aktuellen Situation sollte man von 7700k also 4 Kerne 8 Threads schon ans aufrüsten denken.

Die Spiele nutzen immer mehr Kerne natürlich kommt es auch auf die Grafikkarte an.



Gesendet von meinem D6603 mit Tapatalk
 
Generell kann man sagen in der aktuellen Situation sollte man von 7700k also 4 Kerne 8 Threads schon ans aufrüsten denken.

Was allerdings auch CPUs wie den 3300x obsolet machen würde: Nichts für Office, weil dafür überdimensioniert und ohne integrierte Grafik, aber nun auch angeblich für Gaming ungeeignet, obwohl sie den 3600 in etlichen Titeln schlägt? - Nein, als Mittelklasse-Gamer ist man mit einer 4C/8T-CPU neueren Datums immer noch gut dabei. Was inzwischen in immer mehr Spielen ernstlich zurückstecken muss, sind (auch an sich starke) Vierkerner ohne SMT/HT und ältere CPUs mit an sich ausreichend Threads, aber zu geringer Singlecore-Leistung.

Anwendungen sind dabei noch einmal ein Thema für sich.
 
Was allerdings auch CPUs wie den 3300x obsolet machen würde: Nichts für Office, weil dafür überdimensioniert und ohne integrierte Grafik, aber nun auch angeblich für Gaming ungeeignet, obwohl sie den 3600 in etlichen Titeln schlägt? - Nein, als Mittelklasse-Gamer ist man mit einer 4C/8T-CPU neueren Datums immer noch gut dabei. Was inzwischen in immer mehr Spielen ernstlich zurückstecken muss, sind (auch an sich starke) Vierkerner ohne SMT/HT und ältere CPUs mit an sich ausreichend Threads, aber zu geringer Singlecore-Leistung.

Anwendungen sind dabei noch einmal ein Thema für sich.
Es geht noch mit 4 Kerne mit Ht. Aber mit den neuen Konsolen könnte es sein das mehr Kerne genutzt werden.

Natürlich kommt es drauf an was man spielt und wieviel fps man braucht.

Gesendet von meinem D6603 mit Tapatalk
 
Was die ewige Frage angeht, ob 720p oder 1080p, ist das weniger eine Glaubensfrage, als eine der Logistik und/oder angestrebten Genauigkeit.
720p ist ein derzeit weit verbreiteter *Kompromiss*. Man könnte auch - ich übertreibe mal gnadenlos - @320p testen, nur sind da viele, für den Anwendungszweck möglicherweise wichtige Details nicht mehr sonderlich gut erkennbar.
1080p (jedoch auch mit reduzierten GPU-lastigen Einstellungen) verschiebt die Last geringfügig auf die Grafikkarte. Dadurch können Unterschiede zwischen getesteten CPUs verschwimmen, wenn diese sehr gering sind. Viele möchten das nicht in Kauf nehmen. Manche nehmen es in Kauf - hauptsächlich deshalb, weil die @1080p erfassten Daten aus dem CPU-Test besser mit den separat durchgeführten Konstellations- bzw. Anwendungstests abgleichbar sind. Man spart sich sozusagen eine Testreihe @720p, die bei diesen nicht verwertbar wäre. Und das ist letztlich auch nur ein weiterer Kompromiss.

Können verschwimmen ist gut. :D Hardware Unboxed kommt mit 1080p auf einen Unterschied von 7%* zur reinsten Freude der AMD Fans. Tatsächlich sind's aber rund 20%. Wenn man solche Unterschiede als "Kompromiss" betrachet, dann kann man CPU Tests von mir aus ganz abschaffen, zumindest die Gaming Tests. Ist ja eh alles egal...

* 3900X vs. 10900K
 
Zuletzt bearbeitet von einem Moderator:
Können verschwimmen ist gut. :D Hardware Unboxed kommt mit 1080p auf einen Unterschied von 7%* zur reinsten Freude der AMD Fans. Tatsächlich sind's aber rund 20%. Wenn man solche Unterschiede als "Kompromiss" betrachet, dann kann man CPU Tests von mir aus ganz abschaffen, zumindest die Gaming Tests. Ist ja eh alles egal...

* 3900X vs. 10900K

Der Knackpunkt ist der, dass HardwareUnboxed nicht nur @1080 und höher testet, sondern auch ohne reduzierte (GPU-lastige) Grafikeinstellungen. Allein die Auflösung hätte nur geringe Auswirkungen.

Und der einzige Grund, warum das dort klar geht ist der, weil dort keine CPUs-Leistungstests stattfinden, sondern Eignungstests mit einer teils wahnsinnigen Anzahl an Spielen und spezifischer Besprechung, wann und wo das GPU-Limit einsetzt und was das jeweils bedeutet, wenn man eine schwächere/stärkere CPU oder GPU zum Einsatz brächte.
Wer reinrassige CPU-Tests will, muss anderswo schauen - hier zum Beispiel. :)
 
Und der einzige Grund, warum das dort klar geht ist der, weil dort keine CPUs-Leistungstests stattfinden, sondern Eignungstests mit einer teils wahnsinnigen Anzahl an Spielen und spezifischer Besprechung, wann und wo das GPU-Limit einsetzt und was das jeweils bedeutet, wenn man eine schwächere/stärkere CPU oder GPU zum Einsatz brächte.
Wer reinrassige CPU-Tests will, muss anderswo schauen - hier zum Beispiel. :)

Jetzt gibt's sogar schon Begriffe dafür - Eignungstests. :D Das Problem ist dann aber, dass solche Aussagen gemacht werden wie: Intel ist ja nur 7% schneller, es spielt also keine Rolle, was man fürs Gaming kauft. Und das ist halt Quatsch, wenn dann solche Knaller wie Anno 1800 oder FC5 dabei sind, wo's an die 30% geht. SotTR ist auch so ein Fall.

Das ist Politik und Business. Was glaubst du, was die AMD Fans rumpoltern würden, wenn Steve wieder auf 720p geht. Das wäre geschäftsschädigend für die Truppe. Glaubst du nicht? Ich habe erst kürzlich einen Shitstorm hinter mir auf Twitter. :D Ich sag' mal so, die Jungs haben nicht so durchdacht formuliert wie du. Ich musste kräftig blockieren.
 
Jetzt gibt's sogar schon Begriffe dafür - Eignungstests. :D Das Problem ist dann aber, dass solche Aussagen gemacht werden wie: Intel ist ja nur 7% schneller, es spielt also keine Rolle, was man fürs Gaming kauft. Und das ist halt Quatsch, wenn dann solche Knaller wie Anno 1800 oder FC5 dabei sind, wo's an die 30% geht. SotTR ist auch so ein Fall.

Das ist Politik und Business. Was glaubst du, was die AMD Fans rumpoltern würden, wenn Steve wieder auf 720p geht. Das wäre geschäftsschädigend für die Truppe. Glaubst du nicht? Ich habe erst kürzlich einen Shitstorm hinter mir auf Twitter. :D Ich sag' mal so, die Jungs haben nicht so durchdacht formuliert wie du. Ich musste kräftig blockieren.
Klar sind die Intel cpu's schneller ja und in höheren Auflösungen kann ein 7700k genauso schnell sein wie ein 10900k wenn man im Grafikkarten Limit ist.

Die Frage ist was macht man sonst mit der CPU.

Für normales Gaming braucht man keinen 10900k oder 9900k.

720p Cpu Tests sind Praxis fern denn es spielt keiner auf der Auflösung.

Nur um zu sehen welche Cpu so viel schneller ist sagt dann nicht viel aus.

Denn nicht jeder hat die gleiche Grafikkarte.

Ein 10900k mit gtx1660 bringt nicht mehr fps in 1080p.

Als vorher 8700k mit gtx1660 in 1080p.



Gesendet von meinem D6603 mit Tapatalk
 
Jetzt mal ehrlich.
Du kreierst jetzt schon Seiten/Tagelang Szenarien warum Intel in Wirklichkeit gar nicht schneller ist, da Grafikkarte XY in Auflösung XY sowieso limitiert. Jeder kleine AMD ist da genauso geeignet.
Mit welcher Begründung soll man dann überhaupt auf ZEN3 warten, wenn die CPU eh egal ist da ja Grafikkarte XY in Auflösung XY eh der limitierende Fakror ist? Oder werden dann die 720p Tests doch wieder relevant?
Alles was Du hier vor bringst kann ich ebenso auf AMD ummünzen.
Ich werde mal dafür voten, daß in Zukunft nur in 4K getestet wird, dann hält mein oller i7 3930K auch mit ZEN3 mit :D.
 
Jetzt gibt's sogar schon Begriffe dafür - Eignungstests. :D Das Problem ist dann aber, dass solche Aussagen gemacht werden wie: Intel ist ja nur 7% schneller, es spielt also keine Rolle, was man fürs Gaming kauft.

Na, die Aussage ist eher: "Schau mal, du Zocker, wenn du Mama und Papa irgendwie die Kohle für eine RTX 2080 Ti aus den Rippen geleiert haben solltest, musst du das für die dafür erforderliche CPU nicht erfolgreich wiederholen; für das Nötige genügt dein überdimensioniertes Taschengeld. Und bis du du es irgendwann geschafft hast, deinen Erzeugern das Geld für die hypothetische RTX 4080 Ti abzuschwatzen, reicht das Taschengeld auch für eine neuere stärkere CPU, falls du zu diesem Zeitpunkt feststellen solltest, dass du die vollen 20% CPU-Mehrleistung nun doch gebrauchen könntest." :D

Anders ausgedrückt: Die Zielgruppe sind eher stark begeisterungsfähige Anwender mit Wohlfühl-Anspruch. Das ist wie der Unterschied zwischen Kindern, die souverän mit Smartphones hantieren und solchen, die angesichts einer Kommandozeile nicht in Schweiß ausbrechen. Beide werden als technikaffin bezeichnet, aber es ist nicht dasselbe.

Das ist Politik und Business. Was glaubst du, was die AMD Fans rumpoltern würden, wenn Steve wieder auf 720p geht. Das wäre geschäftsschädigend für die Truppe. Glaubst du nicht? Ich habe erst kürzlich einen Shitstorm hinter mir auf Twitter. :D Ich sag' mal so, die Jungs haben nicht so durchdacht formuliert wie du. Ich musste kräftig blockieren.

Wenn ich mir die Kommentare dort so durchlese, bekommt Steve mehr als genug Feuer aus allen Lagern, egal was er tut oder lässt.
Sein Geschäftsmodell (bzw. Alleinstellungsmerkmal) basiert aber im Wesentlichen auf der schieren Fülle an Benchmarks, und um dabei kein schiefes Ei auf die Schiene zu nageln, muss man nun einmal dort einsparen, wo man gar keine Aktien haben will. Wie ich schon schrieb: Irgendwo werden immer Kompromisse eingegangen, um die selbst erhoben Daten vergleichbar zu halten. Beispielsweise fesselt Steve die Intel-Boliden weder hinsichtlich der TDP noch hinsichtlich des verwendeten Speichers - was glaubst du, wie die Intel-Fans rumpoltern würden, wenn er davon abwiche. :P

Nein, mal wieder ernsthaft: Unsereins hat den Luxus, die Schwächen unterschiedlicher Konzepte erkennen und die ermittelte Daten in Einklang bringen zu können. Andere können das nicht, aber die *wollen* das auch gar nicht. Sie wollen dümmstenfalls nur in ihrer Ansicht bestätigt werden und idealerweise einen Orientierung bekommen, die zwar oberflächlich, für die begrenzte Erwartungshaltung jedoch vollkommen ausreichend ist.

Man wird nicht erleben, dass in ein paar Jahren jemand bei HWU vorbei kommt und schreibt "Steve, du Ar***, wegen dir habe ich mir fälschlicherweise den 3900X gekauft und jetzt bin ich mit meiner neuen Grafikkarte ganz schlimm im CPU-Limit! Ich hasse dich!" :ugly:
 
Jetzt mal ehrlich.
Du kreierst jetzt schon Seiten/Tagelang Szenarien warum Intel in Wirklichkeit gar nicht schneller ist, da Grafikkarte XY in Auflösung XY sowieso limitiert. Jeder kleine AMD ist da genauso geeignet.
Mit welcher Begründung soll man dann überhaupt auf ZEN3 warten, wenn die CPU eh egal ist da ja Grafikkarte XY in Auflösung XY eh der limitierende Fakror ist? Oder werden dann die 720p Tests doch wieder relevant?
Alles was Du hier vor bringst kann ich ebenso auf AMD ummünzen.
Ich werde mal dafür voten, daß in Zukunft nur in 4K getestet wird, dann hält mein oller i7 3930K auch mit ZEN3 mit :D.
720p ist nicht realitäts nah.

1080p ist entspricht eher der realität.

Igor oder auch andere Hardware gurus testen in 1080p da es eher der realität entspricht.

Es spielt keiner mehr auf 720p.

Man kann in 1080p genauso gut sehen welche cpu schneller ist.

Momentan ist es intel.

Im vergleich zur 9000 Serie hat sich fast nichts getan bei der 10000 Serie.

Und ob man aufrüsten muss muss jeder für sich selbst entscheiden.

Es bringt aber nichts wenn man schon in spielen dauerhaft über 160fps ist die cpu oder gpu aufzurüsten mit 144hz Monitor.





Gesendet von meinem SM-A520F mit Tapatalk
 
Schon mal eine titan rtx im rechner gehabt?

Diese gpu ist so schnell das in 1080p diese gar nicht unter 6ghz cpu takt ausgelastet werden kann
Und as zu etwa 80% der spiele am markt
Die paar Grafik Spitzenreiter sind ausnahmen. Aktuell sind nur vulkan Spiele nahezu cpu limetless das man quasi kein cpu limit erzwingen kann selbst auf 720p nicht.
 
Zuletzt bearbeitet:
Ist egal wie sehr man es versucht es dir zu erklären - es schein dir einfach nicht möglich sein einfache Dinge zu begreifen - warum bist du überhaupt noch hier wenn du weder die Artikel noch die Kommentare hier verstehen kannst und nur weiter Unfug, Unterstellungen und Lügen verbreitest?
nach dir ist Ryzen absolut wertlos weil man mit einem FX 6300 und einer RX 550 auf 8K ja eh noch GPU-limitiert ist :ugly:
Hey du unwissender.

Hast du den Test nicht gelesen von 8700k und 10600k die sind nah beieinander.

Damit hatte ich schon mal recht.

Zweitens ich hatte recht Sockel 1200 hätte nicht sein müssen.

Drittens der 10900k wird heiß und verbraucht mit oc bis zu 300watt.

Alles zu sehen bei der8auer auf YouTube.


Hier das Video damit du suchen musst.

YouTube
 
Zuletzt bearbeitet von einem Moderator:
720p ist nicht realitäts nah.

1080p ist entspricht eher der realität.

Igor oder auch andere Hardware gurus testen in 1080p da es eher der realität entspricht.

Es spielt keiner mehr auf 720p.

Man kann in 1080p genauso gut sehen welche cpu schneller ist.

Momentan ist es intel.

Im vergleich zur 9000 Serie hat sich fast nichts getan bei der 10000 Serie.

Und ob man aufrüsten muss muss jeder für sich selbst entscheiden.

Es bringt aber nichts wenn man schon in spielen dauerhaft über 160fps ist die cpu oder gpu aufzurüsten mit 144hz Monitor.

Keine Sorge Bruder, werde dich supporten, genauso wie der WAHRE STEVE^^
Hör genau hin.
YouTube
 
Es spielt keiner mehr auf 720p.
Den Benchmark führt man ja nicht zum Spielen durch, sondern weil man wissen will, wie schnell die CPU unter Gaming- Workloads ist.

Man kann in 1080p genauso gut sehen welche cpu schneller ist.
Es gibt aber viele, die von einem Benchmark erwarten, genau sehen zu können WIE schnell sie dann ist.

Es bringt überhaupt keinen logischen Grund oder irgendeinen Vorteil auf 1080p zu benchen, außer dass man sich doch die Gefahr eines GPU Bottleneckings aussetzt.
Wieso zur Hölle sollte man das unsinniger Weise riskieren?

Wieso sind dann aber dann Prime- Maximal Torture- Test Verbrauchswerte legitim und immer gut genug für eine Argumentation?
Ist das denn Praxisgerecht, einfach ungebremst und außerhalb des Herstellerlimits das Maximum an Strom auf so eine CPU zu knallen?
Mit Workloads, die in der Praxis nie erreicht werden?

LG
Zero
 
Zuletzt bearbeitet:
Zurück