AMD Ryzen 7 5800X3D dominiert auch im erweiterten Spieletest

Hm die Richtung finde ich schon überraschend stark. Aber es fehlen schon richtige Tests, 12xxx mit DDR5, ein Vergleich zum 5800x mit boost. Ich wackle noch zwischen dem 3D und dem 5700x, der den 5800x irgendwie obsolet für mich gemacht hat. Mal sehen ob der Unterschied/Aufpreis lohnt.
 
Alder Lake klar im Vorteil hier. Ich finde die Szenenauswahl auch nicht so sexy, um ehrlich zu sein. Kann sein, dass der 5800X3D in meinem Review 5-7% vor dem KS liegen wird.
Zudem habe ich das Gefühl das min. 2-3 Titel bereits im GPU-Limit hängen bzw. der Ampere-Overhead zuschlägt.
Nach den ersten Infos würde ich auch meinen, dass der 5800X3D mindestens 5% vor dem 12900K(S) herauskommt in einem sauberen, ausgeglichenen Parcour.
 
Bin mal gespannt, obs Unterschiede in den Reviews gibt, wenn ne 6900XTXH (LC bei PCGH) verwendet wird.(x)
(sollte in DX12 doch etwas anders laufen als die mickrige 3080 bei TPU)

(x) um mal das GPU-Limit ein mue nach oben zu schieben
(kann mir praktisch net vorstellen, das ein Mittelklasse-User ca. 150€ Aufpreis ggü. dem normalen 5800X@328€ bezahlt,
eher dann doch Enthusiasten mit der schnellsten Graka)


Und wenn jetzt Einer sagt, PCGH sollte die 3090Ti benutzen, ... warum net die 6900LC mit PL+15 und 150MHz mooore.
(wenns wirklich darum geht, aus dem GPU-Limit herauszukommen)
 
Zuletzt bearbeitet:
In drei getesteten spielen ist sie schneller wie der Intel, in allen anderen Games ist der 12900er vorne. Ich bin der Meinung AMD hätte sich das sparen können und sich lieber auf die nächste Generation kümmern sollen, ist reine Ressourcen Verschwendung.
 
Ich sehe hier im Thread keine Hardcore AMDler nur einen bekannten Foren (nennen wir ihn mal Unterhalter), der nur sinnloses Geschreibsel von sich gibt, worauf man nun wirklich nicht einsteigen muss.
Man sieht nur das was man sehen will ;)
Hier mal ein Post eines Users, der deinen geliket hat:
Es geht um den Durchschnitt, nicht einzelne Games, also wie kommst du darauf das der AMD im Durchschnitt dem Intel, der mind. das 3 Fache an Strom in Spielen benötigt und das doppelte kostet, nicht das Wasser reichen kann?
Alder Lake lutscht also das 3 Fache an Strom aus der Dose ja? Das ist gelogen und reinster Nonsense:

Zumal es hier genügend User mit tiefblauer Brille gibt, deren Unsinn (ich würde es ja als Lügen bezeichnen, aber die Wahrheit sagen darf man hier wohl nicht mehr) auch regelmäßig stehen gelassen wird. Beispiel dafür der 3D-Cache wäre für AMD so unfassbar teuer, wofür es keinen einzigen Beleg gibt, im Gegenteil bei den großen Epycs nimmt AMD 11% mehr, wovon man ausgehen kann, dass mehr wie die Hälfte extra Marge sein wird. Da die Anwender in ihren Spezialfällen 60% mehr Leistung bekommen und da wären mir das die 11% Mehrausgaben allemal wert.
Keine Ahnung, wen du jetzt im speziellen meinst, aber ich habe nirgends gelesen, dass der 3D Cache unfassbar teuer wird. Es gab Behauptungen, dass der Cache nicht günstig sein wird und das stimmt ja auch.
Den 5800X bekommst du heute für 328€ und der 5800X3D wird $450 kosten. Selbst wenn AMD den Preis 1:1 in Euro umrechnet, wovon ich nicht ausgehe, sind das 120€ nur für den popligen Cache und das bezeichnest du nicht als teuer?
Für das Geld kriege ich einen 5900X mit 4 Kernen mehr und habe noch 40€+ übrig. Für knapp 500€ gibt es bereits den 5950X.

Genau. Die 8 E-Kerne des 12900K reissen es dann total raus. :D
Aber von dir habe ich auch nichts anderes erwartet.

Wobei ein MSI-Board bzgl. AM4 -Sockel ohnehin suboptimal ist.
Wieso ist ein MSI Board suboptimal? Weil dir die Zahlen nicht passen? :lol:
 
Zuletzt bearbeitet:
Wo dominiert er? Overall kann er nur nur bei 1/3 der Spiele seinen Cache Vorteil nutzen und in Anwendungsleistung fällt er zurück. Für jeden Anwender sind die anderen CPUs 5900x/12700k von Preis Leistung Overall Usecases besser. Natürlich man baut komplett neu auf... Hat man ein AM4 Board fällt AL erstmal raus...

 
Das macht AMD ganz bewusst nicht.
Ein 16-Kerner mit 3D Cache wär natürlich was feines. In Spielen schnell UND in Anwendungen.
Dann gäbs aber nicht die Möglichkeit hier spezialisierte Produkte zu verkaufen und mehr zu verdienen

Ich denke das wird auch eher am preislichen liegen, ein 5950X mit 3D-Cache muss sich preislich nochmals oberhalb des 5950 positionieren und mit dem 5800X mit 3D-Cache erreicht man dann einfach mehr Käufer.
Über die Verfügbarkeit ist zum aktuellen Zeitpunkt ja nichts zu sagen.

Man sieht nur das was man sehen will ;)

Dass du das nur tust ist mir klar...


Alder Lake lutscht also das 3 Fache an Strom aus der Dose ja? Das ist gelogen und reinster Nonsense:

Und damit kann man dich eigentlich auch direkt in die gleiche Schublade stecken, da Tests immer nur so zitiert werden, wie sie gerade in den Kram passen. Dass igo hier vollkommen Murks gemessen hat und mehr Verbrauch wie beim Ryzen Release Test gemessen hat, ist dir natürlich nicht entgangen.
Nimmst du Volkers Test (der ja nun wahrlich kein AMD Fan ist) von gestern und stellst die Werte dem 5800X gegenüber, dann bist du halt mit dem KS bei dem dreifachen Verbrauch:

Auch wenn es der geneigte intelkäufer nicht hören möchte.


Keine Ahnung, wen du jetzt im speziellen meinst, aber ich habe nirgends gelesen, dass der 3D Cache unfassbar teuer wird. Es gab Behauptungen, dass der Cache nicht günstig sein wird und das stimmt ja auch.
Den 5800X bekommst du heute für 328€ und der 5800X3D wird $450 kosten. Selbst wenn AMD den Preis 1:1 in Euro umrechnet, wovon ich nicht ausgehe, sind das 120€ nur für den popligen Cache und das bezeichnest du nicht als teuer?
Für das Geld kriege ich einen 5900X mit 4 Kernen mehr und habe noch 40€+ übrig.

Von dem User und seinen wall of textes hat man auch (gottseidank) schon länger nichts mehr gelesen. Ansonsten haben wir ein Produkt, welches mehr leistet und zu einem höheren Preis verkauft wird. Wie man hier darauf schließen kann, dass die Differenz der beiden Produkte die Mehrkosten sein sollen ist mir ein Rätsel. Wenn AMD der 3D-Cache 50€ mehr kostet, dann ist es viel.
Die Fertigung des Caches wird sehr günstig sein, da die Bausteine recht klein und in einem ausgereiften Prozess mit hoher Yieldrate gefertigt werden. Also bleibt letztendlich noch der Schritt des Zusammensetzens übrig und ich gehe nicht davon aus, dass dies so extrem teuer sein wird.

Manche verstehen einfach nicht, dass sich die Aussage Cache macht eine CPU teuer auf das CPU Design bezieht, weil durch mehr Cache logischerweise die DIE Fläche steigt und man weniger DIEs aus dem Wafer erhält... Daher ist das Stacking auch sehr klug, da man den Cache kostengünstiger erweitern kann, was hoffentlich auch bei den GPUs mit RDNA 3 gemacht wird :) Der Infinitycache würde sich da ja auch hervorragend für eignen, man könnte die DIEs einfach kleiner machen und per Stacking dann den Cache erhöhen.



Die Spieleauswahl mit CSGO finde ich übrigens sehr semi gut gewählt, an FPS mangelt es da ja mittlerweile nicht mehr. Aber ein TIE bei so einer Auswahl ist dann schon sehr beachtlich, da kann es mit anderen deutlich in die andere Richtung gehen.
 
Und damit kann man dich eigentlich auch direkt in die gleiche Schublade stecken, da Tests immer nur so zitiert werden, wie sie gerade in den Kram passen. Dass igo hier vollkommen Murks gemessen hat und mehr Verbrauch wie beim Ryzen Release Test gemessen hat, ist dir natürlich nicht entgangen.
Nimmst du Volkers Test (der ja nun wahrlich kein AMD Fan ist) von gestern und stellst die Werte dem 5800X gegenüber, dann bist du halt mit dem KS bei dem dreifachen Verbrauch:

Auch wenn es der geneigte intelkäufer nicht hören möchte.
Hört doch endlich auf mit den scheiß Lügen. Was soll das denn?
Wo verbraucht Alder Lake das 3 Fache in Spielen?
Selbst in Anwendungen ist es nicht das 3 Fache, sondern "nur" das 1,8 Fache:

Screenshot 2022-04-13 093841.png


Oder willst du mir erzählen, dass 199W ein Drittel von 368W ist? Das kann doch nicht dein ernst sein?!
Selbst im PCGH Test ist es nicht ansatzweise das 3 Fache: https://www.pcgameshardware.de/Core...sts/Kaufen-Preis-Release-Benchmark-1392574/4/
Hier liegt der 5800X bei 80W und der KS bei 186W. Das 3x von 80W ist aber 240W, also ist die Aussage, dass der 12900KS in Spielen das 3x verbrauchen würde gelogen.

Von dem User und seinen wall of textes hat man auch (gottseidank) schon länger nichts mehr gelesen. Ansonsten haben wir ein Produkt, welches mehr leistet und zu einem höheren Preis verkauft wird. Wie man hier darauf schließen kann, dass die Differenz der beiden Produkte die Mehrkosten sein sollen ist mir ein Rätsel. Wenn AMD der 3D-Cache 50€ mehr kostet, dann ist es viel.
Der Unterschied zwischen dem 5800X und X3D ist für mich als Endverbraucher nur der Cache und dafür soll ich 120€ mehr bezahlen. Wie gesagt kriege ich dafür bereits den 5900X und komme sogar noch günstiger bei weg.
Aus Sicht des Endverbrauchers, die wir nun mal alle sind, ist das teuer.

Die Fertigung des Caches wird sehr günstig sein, da die Bausteine recht klein und in einem ausgereiften Prozess mit hoher Yieldrate gefertigt werden. Also bleibt letztendlich noch der Schritt des Zusammensetzens übrig und ich gehe nicht davon aus, dass dies so extrem teuer sein wird.
Und das saugst du dir gerade aus den Fingern oder gibt es dafür eine verlässliche Quelle?
Wenn das angeblich so günstig ist, wie kommen dann die 120€ Mehrkosten für den Endverbraucher nur durch den Cache zustande?
 
Zuletzt bearbeitet:
Hört doch endlich auf mit den scheiß Lügen. Was soll das denn?
Wo verbraucht Alder Lake das 3 Fache in Spielen? WO?
Selbst in Anwendungen ist es nicht das 3 Fache, sondern "nur" das 1,8 Fache:

Anhang anzeigen 1392524

Oder willst du mir erzählen, dass 199W ein Drittel von 368W ist? Das kann doch nicht dein ernst sein?!
Selbst im PCGH Test ist es nicht ansatzweise das 3 Fache: https://www.pcgameshardware.de/Core...sts/Kaufen-Preis-Release-Benchmark-1392574/4/
Hier liegt der 5800X bei 80W und der KS bei 186W. Das 3x von 80W ist aber 240W, also ist die Aussage, dass der 12900KS in Spielen das 3x verbrauchen würde gelogen.
Wenn du den Verbrauch der CPUs vergleichen willst, solltest du vielleicht nicht die Zahlen fürs Komplettsystem verwenden...
 
Wenn du den Verbrauch der CPUs vergleichen willst, solltest du vielleicht nicht die Zahlen fürs Komplettsystem verwenden...
Screenshot 2022-04-13 094746.png


"CPU ONLY" und trotzdem nicht das 3 Fache oder willste mir erzählen, dass das ganze System mit GPU nur 80W in Spielen benötigt?
Auch bei CB verbraucht der KS nicht das 3 Fache des 5800X. Es ist schlichtweg eine Lüge!
 
Zuletzt bearbeitet:
Hört doch endlich auf mit den scheiß Lügen. Was soll das denn?
Wo verbraucht Alder Lake das 3 Fache in Spielen? WO?
Selbst in Anwendungen ist es nicht das 3 Fache, sondern "nur" das 1,8 Fache:


Oder willst du mir erzählen, dass 199W ein Drittel von 368W ist? Das kann doch nicht dein ernst sein?!
Selbst im PCGH Test ist es nicht ansatzweise das 3 Fache: https://www.pcgameshardware.de/Core...sts/Kaufen-Preis-Release-Benchmark-1392574/4/
Das Problem ist der gemeine Fanboi aus beiden Lagern vermischt gerne ZDF, so dass sie in seine Argumentationskette passen. In den Diskussionen wird dann größtenteils Äpfel mit Birnen verglichen... Zum einen sind die max. Werte unter Vollast bei synth Benches oder professionellen Anwendungen zu beobachten, zum anderen werden diese in Gaming Szenarien von beiden Herstellern nicht erreicht. Im Gaming verbrauchen beide fast gleich viel, mal hat der eine , mal der andere die Nase etwas vorn. Darüber hinaus hat Intel aus meiner Sicht den Fehler gemacht und die TDP offen gelassen, sie hätten einen Riegel bei 200 Watt vorschieben sollen, da der Sweetsport iwo bei 180 liegt, alles darüber bringt nur marginal Mehrleistung. Darauf hin hätte man die Möglichkeit die TDP zu öffnen und als extra Feature mit Understatement vermarkten sollen...
 
Anhang anzeigen 1392525

"CPU ONLY" und trotzdem nicht das 3 Fache oder willste mir erzählen, dass das ganze System mit GPU nur 80W in Spielen benötigt? Ach komm...
Ich will dir gar nichts erzählen, ausser dass man um den CPU Verbrauch zu vergleichen auch den CPU Verbrauch vergleichen sollte.
Was du im zweiten Schaubild dann ja auch gemacht hast.
 
Die Spieleauswahl mit CSGO finde ich übrigens sehr semi gut gewählt, an FPS mangelt es da ja mittlerweile nicht mehr. Aber ein TIE bei so einer Auswahl ist dann schon sehr beachtlich, da kann es mit anderen deutlich in die andere Richtung gehen.
Sicherlich diskussionswürdig. aber mit 11 Spielen schon mal ein Tendenz... Für 450€ nur bei ca. 40% etwas die Nase vorn haben, schon fragwürdige Anschaffung, da man ja sonst in Anwendungen und so weiter eigentlich auch der 400€ CPU 5900x nicht mal das Wasser reichen kann. Der 12700k/5900x ist die vernünftigere Wahl...
 
Hört doch endlich auf mit den scheiß Lügen. Was soll das denn?
Wo verbraucht Alder Lake das 3 Fache in Spielen?
Selbst in Anwendungen ist es nicht das 3 Fache, sondern "nur" das 1,8 Fache:

Anhang anzeigen 1392524

Oder willst du mir erzählen, dass 199W ein Drittel von 368W ist? Das kann doch nicht dein ernst sein?!
Selbst im PCGH Test ist es nicht ansatzweise das 3 Fache: https://www.pcgameshardware.de/Core...sts/Kaufen-Preis-Release-Benchmark-1392574/4/
Hier liegt der 5800X bei 80W und der KS bei 186W. Das 3x von 80W ist aber 240W, also ist die Aussage, dass der 12900KS in Spielen das 3x verbrauchen würde gelogen.
Häng dich nicht am Drittel auf, denn fakt ist, der KS braucht viel zu viel Energie, um in der Höhenluft zu überleben.
Wenn ich meine Lieblingsverkäufer aus "Mediamarkt" und "Saturn", oder jetzt sogar bei "Euronics" höre, argumentieren die immer noch, das AMD-CPU's nicht lange halten und frühzeitig kaputt gehen.
Ob die sich die Frage auch stellen, wenn Intels KS soviel Energieverbrauch in vorwiegend nur Wärme umsetzt?
Im Alltagsgebrauch ist das sowieso kein Thema, da meistens eh nur Wartezeiten im Idle vorrangig sind.
Ich für meinen Teil, halte trotzdem den KS weiterhin, so wie "Rollora" es benannte, als ein "Halo-Produkt", was objektiv betrachtet für Intel eventuell in die Hose geht.
Warten wir weitere Tests zum 5800X3D ab und entscheiden es dann.
Schön finde ich aber auch, das man sich für, oder wieder, für sehr gute Produkte entscheiden kann, ohne dabei mit dem Finger auf nur negative Eigenheiten zu zeigen, denn die haben beide Lager gewissermaßen, bzw. offensichtlich auch!
 
Immerhin. Bei AMD reicht ein AGESA Update. Intel braucht dafür einen neuen Prozessor mit 30-75% höherer Leistungsaufnahme.
Ok, den fand ich sogar witzig. :D
Genau. Die 8 E-Kerne des 12900K reissen es dann total raus. :D
Ja, genau das tun sie.

Und damit kann man dich eigentlich auch direkt in die gleiche Schublade stecken, da Tests immer nur so zitiert werden, wie sie gerade in den Kram passen. Dass igo hier vollkommen Murks gemessen hat und mehr Verbrauch wie beim Ryzen Release Test gemessen hat, ist dir natürlich nicht entgangen.
Nimmst du Volkers Test (der ja nun wahrlich kein AMD Fan ist) von gestern und stellst die Werte dem 5800X gegenüber, dann bist du halt mit dem KS bei dem dreifachen Verbrauch:
Volker kocht auch nur mit Wasser, soll heißen, er nimmt die Softwarereadings (HWiNFO glaube ich). Ich habe mich damit intensiv beschäftigt in der letzten Zeit. Es kann, muss aber nicht, ziemlicher Murks dabei rumkommen. Überprüft habe ich das mit ElmorLabs PMD. Igors Werte sehen dagegeben ein wenig zu optimistisch aus, aber im Zweifel würde ich die physikalischen Messungen heranziehen.

Die Fertigung des Caches wird sehr günstig sein, da die Bausteine recht klein und in einem ausgereiften Prozess mit hoher Yieldrate gefertigt werden. Also bleibt letztendlich noch der Schritt des Zusammensetzens übrig und ich gehe nicht davon aus, dass dies so extrem teuer sein wird.
Bärenmarke geht nicht davon aus, dass es teuer sein wird. Super, dann haben wir ja jetzt ne Quelle, die wir im Netz verlinken können. :D
 
Zuletzt bearbeitet von einem Moderator:
Hört doch endlich auf mit den scheiß Lügen. Was soll das denn?
Wo verbraucht Alder Lake das 3 Fache in Spielen?
Selbst in Anwendungen ist es nicht das 3 Fache, sondern "nur" das 1,8 Fache:

Zum einen Lüge ich nicht und zum anderen kann ich auch nichts dafür, dass du scheinbar einfach zu blöd bist einen Test zu lesen. Auf Seite 3 des von mir verlinkten Tests, gibt Volker den Verbrauch der CPU an und vergleicht 12900K mit 12900KS. Im Worstcase Battlefield V ergibt sich eine Differenz von 80% zum 12900K und wenn man sich dann die Verbrauchswerte des 5800X anschaut kommt man schon in die Richtung...


Oder willst du mir erzählen, dass 199W ein Drittel von 368W ist? Das kann doch nicht dein ernst sein?!

Jetzt vergleichen wir plötzlich Gesamtsysteme? Wird ja immer besser hier!

Selbst im PCGH Test ist es nicht ansatzweise das 3 Fache: https://www.pcgameshardware.de/Core...sts/Kaufen-Preis-Release-Benchmark-1392574/4/
Hier liegt der 5800X bei 80W und der KS bei 186W. Das 3x von 80W ist aber 240W, also ist die Aussage, dass der 12900KS in Spielen das 3x verbrauchen würde gelogen.

Deine mathematischen Kenntnissen scheinen wohl äußerst schlecht ausgeprägt zu sein, aber wieso wundert mich das nicht?
Nehme ich den obigen Worstcase von BF5 und rechne die 80% auf den K drauf, dann komme ich für den KS auf 232,2, womit wir fast beim 3fachen wären. Und auch sonst bist du beim pcgh Durchschnit beim 2,3 fachen, wo soll das bitte ein guter Wert sein? Zumal es auch durchaus sein kann, dass der 5800X3D um den es ja geht, noch etwas darunter angesiedelt ist...
Und wenn man dann das fps/Watt Verhältnis ausrechnet, sieht es ganz übel aus.

Der Unterschied zwischen dem 5800X und X3D ist für mich als Endverbraucher nur der Cache und dafür soll ich 120€ mehr bezahlen. Wie gesagt kriege ich dafür bereits den 5900X und komme sogar noch günstiger bei weg.
Aus Sicht des Endverbrauchers, die wir nun mal alle sind, ist das teuer.

Offensichtlich verstehst du den Unterschied zwischen Ladenpreis und Herstellkosten nicht. Ich habe jetzt schon mehrfach geschrieben, dass von den 120€ Preisunterschied für AMD eine gute Marge rausspringt... Selbiges gibts übrigens auch bei intel oder meinst du allen ernstes der 12900K oder KS kostet sie so viel mehr... Junge, Junge.


Und das saugst du dir gerade aus den Fingern oder gibt es dafür eine verlässliche Quelle?
Wenn das angeblich so günstig ist, wie kommen dann die 120€ Mehrkosten für den Endverbraucher nur durch den Cache zustande?

Ich saug mir gar nichts aus den Fingern, was du hier beschreibst nennt sich Marge! Oder meinst du allenernstes das Hersteller, nur die Mehrkosten weitergeben? Da wird auch nochmal ordentlich was für die Marge raufgehauen, wenn man einen Mehrwert liefert...

Sicherlich diskussionswürdig. aber mit 11 Spielen schon mal ein Tendenz... Für 450€ nur bei ca. 40% etwas die Nase vorn haben, schon fragwürdige Anschaffung, da man ja sonst in Anwendungen und so weiter eigentlich auch der 400€ CPU 5900x nicht mal das Wasser reichen kann. Der 12700k/5900x ist die vernünftigere Wahl...

In dem anderen Vorabtest sieht es deutlich besser aus... Man muss halt wie bei allem abwegen was man haben möchte. Für AM4 Nutzer mit Sicherheit die Beste Aufrüstmöglichkeit fürs Gamen und auch bei einem Neukauf, da man noch den günstigen DDR4 Ram nehmen kann, sollte man nicht vergessen.

Volker kocht auch nur mit Wasser, soll heißen, er nimmt die Softwarereadings (HWiNFO glaube ich). Ich habe mich damit intensiv beschäftigt in der letzten Zeit. Es kann, muss aber nicht, ziemlicher Murks dabei rumkommen. Überprüft habe ich das mit ElmorLabs PMD. Igors Werte sehen dagegeben ein wenig zu optimistisch aus, aber im Zweifel würde ich die physikalischen Messungen heranziehen.

Wenn man nicht in der Lage ist, zwei unterschiedliche Architekturen zu vergleichen, wäre ich an der Stelle mal ganz schnell ruhig ;)
Und dass Volker absichtlich schlechte Werte ausliest (die sich mit vielen Reviewern überschneiden), bezweifle ich an der Stelle doch mal stark.
Aber ja, wenn einem das gewünschte Ergebnis nicht in den Kram passt...

Bärenmarke geht nicht davon aus, dass es teuer sein wird. Super, dann haben wir ja jetzt ne Quelle, die wir im Netz verlinken können. :D

Super, dass wir jetzt auch hier die Quatschbeiträge des Zerostrat haben, wäre ja auch zu Schade, wenn man sich nur auf cb darüber "freuen" darf.
Ansonsten zeige uns doch die Herstellkosten, wenn du soooooooooooo gut bescheid weißt?
Was soll an der Herstellung von kleinen Speicherchips die wir hier haben so unfassbar teuer sein? Vor allem in einem bewährten Prozess?
Und wenn man sich dann noch die Preisaufschläge bei Epyc anschaut, dann kann auch der Prozess der Zusammenführung nicht sooooooooo teuer sein, wie du und deine Kumpanen permanent behaupten, ohne jemals eine Quelle genannt zu haben. Aber ich weiß, nachdenken liegt nicht jedem.
 
Deine mathematischen Kenntnissen scheinen wohl äußerst schlecht ausgeprägt zu sein, aber wieso wundert mich das nicht?
Nehme ich den obigen Worstcase von BF5 und rechne die 80% auf den K drauf, dann komme ich für den KS auf 232,2, womit wir fast beim 3fachen wären. Und auch sonst bist du beim pcgh Durchschnit beim 2,3 fachen, wo soll das bitte ein guter Wert sein?
Holy Shit, hast du nicht mal gesagt, dass du irgendwie Tests machst für Software? Sag mal bitte, welche Software das ist, dann kann ich vielleicht noch ein paar Leute warnen, bevor es zu spät ist.

Und dass Volker absichtlich schlechte Werte ausliest (die sich mit vielen Reviewern überschneiden), bezweifle ich an der Stelle doch mal stark.
Aber ja, wenn einem das gewünschte Ergebnis nicht in den Kram passt...
Mal an die Mitlesenden hier im Thread: es geht natürlich nicht darum, dass irgendjemand Werte absichtlich falsch ausliest. Man nimmt halt die Werte, die man kriegt von der Software. Je nach Board sind die gar nicht mal so schlecht. Es kann leider aber auch ganz anders laufen.
 
Zuletzt bearbeitet von einem Moderator:
Zurück