Duvar
Kokü-Junkie (m/w)
Bedankt euch bei AMD @ Intel Befürworter und zickt nicht rum.
https://mobile.twitter.com/TechPowerUp/status/1142012514047266816
https://mobile.twitter.com/TechPowerUp/status/1142012514047266816
Bedankt euch bei AMD @ Intel Befürworter und zickt nicht rum.
https://mobile.twitter.com/TechPowerUp/status/1142012514047266816
Alos wird man beim gaming den unterscheid zwischen 3700x und 3800x deutlich merken und der 3800 reicht auch in zukunft ?
Summa summarum weißt du nicht, was du da blubberst...
Effektiv wird der 3800 etwas besser takten aber du kannst beim 3700 ebenso 105 Watt oder auch mehr freischalten statt 65. Dann ist der Unterschied relativ gering. Allerdings sind beim 3800er wohl die besseren Chiplets verbaut.
Und jedem, der hofft, dass der Konkurrent gut wird um den alten Schrott günstiger zu kaufen, würde ich es gönnen, dass sich die Preise noch einmal verdoppeln... ^^
Denn mit dem Vorgehen unterstützt ihr nicht den finanzell schwächeren Konkurrenten, von dem ihr einen Preisverfall erhofft, statt diesen durch einen Kauf bei der zukünftigen Entwicklung zu unterstützen. Ihr habt erst für die aktuellen Hardwarepreise gsorgt. Genießt eure Schöpfung also, egal ob überteuerte GPUs oder CPUs
Das sieht schon mit 2133MHz sehr ordentlich aus.
Wahrscheinlich hat der Speichertakt weiterhin einen Einfluss, weil er bis 3733 MHz an das Infinity Fabric gekoppelt ist. Darüber wird ein Teiler im Verhältnis 2:1 angelegt
Das bedeutet also, wenn man einen RAM-Takt von 4000 MHz erreicht, läuft das IF nur noch mit 2000 MHz. Das wäre dann eventuell auch die dümmstmögliche Einstellung.
Wir können also davon ausgehen, dass der Einfluss zwar deutlich verringert wurde, aber ich denke, dass es weiterhin einen gibt.
Wenn also nur 1% zwischen den CPUs liegen, kann es gut sein, dass die gleiche CPU bei einem RAM-Takt von 3200 MHz (OEM-Rechner) ein gutes Stück über dem 9900K liegt.
Und für uns hier im Forum wird wahrscheinlich das 3733-MHz-Setting das normale sein.
Oh und ob u ich freue mich das den Propellerjungens die Realität schmerzt .
Schließlich war man im Vorfeld Intel gegenüber ja so arrogant wie nie zuvor ,jetzt wo sich abzeichnet das man nicht über einen Gleichstand hinaus kommt,und dafür schon den 7nm Joker auspacken muss, ist das sehr befriedigend
Also ich sehe das recht pragmatisch - wenn ich eine vergleichbare Leistung bei AMD bekomme für 500-750€ (12/16 Kerne) wo ich bei Intel 1500-2000€ rum die Kante latzen muss und dabei noch deutlich weniger Strom verbrauche setze ich mich freiwillig zu AMD ganz hinten in den Bus.
5400 Single Threaded Punkte schafft Coffee Lake @ 4,1 GHz (DDR4 3200).
Wenn man jetzt davon ausgeht, dass der 3800X (4,5/3,9GHz) auch tatsächlich bis 4,5GHz im Single Threaded Bench geboostet ist, dann kann man sich wunderbar ableiten, dass AMD in punkto IPC im Schnitt noch 10% langsamer als Intel ist.
Wenn der 3800X bei 400 Euro bleibt, wird der 9900K leider nicht nennenswert im Preis fallen. Das war wohl wieder nix.
Wenn man nicht grade ein 144Hz-Spieler ist oder sonstwelche Geltungsbedürfnisse befriedigen muss (oder glaubt mit 400 fps besser zu spielen als mit 300) ist es sowas von egal ob im Spiele-PC ein 1700X, 2700X, 3700X oder 9900K oder 8100 steckt wie der vielzitierte Sack Reis.
Willste mir etwa von deinem Stuhl aus erklären wie viel Unterschied ich hier sehe und fühle nachdem ich von nem 5960X (OC) auf nen 8100er gewechselt habe?
Ich hab den Thread verfolgt und außerordentlich konstruktiv bis auf das Geblubber von Scully gefunden.
Aber der Käse den du da sagst, setzt dem ganzen dann noch die Krone auf.
Ja, ein i3 8100 mit nur 4 Threads, oder ein lahmer 1700x vs 9900K...spürt man nur als 144 Hertz Spieler..., ich lege dir ans Herz einen Bulldozer zu holen, immernoch verfügbar.
Ich empfehle dir mal aktuelle CPU Benchmarks in Anno, Frostpunkt oder Far Cry 5 anzusehen.
Da bist du mit einer guten CPU selbst bei letzteremoft bei 70 FPS am Limit und eine 4 Thread CPU leidet ab und zu unter Schluckauf. Kindom come deliverance würde ich auch empfehlen...
Vll öfter mal die PCGH lesen.
Da haste natürlich Recht, der Punkt ist: das hab ich nicht mal getan, meine Einstellungen sind die gleichen. Klar bin ich mit 4K@Ultra voll im GPU-Limit und die CPU entsprechend bedeutungslos. Und natürlich ist das in anderen Spiele (Genres) oder anderen Zielsetzungen (etwa 144Hz) was anderes. Aber ich hab eben nur von meinen Spielen, meinen Einstellungen und meiner Erfahrung gesprochen. Das alles sofort wieder zu pauschalisieren gegen irgendwelche Chips, Firmen, Personengruppen und was weiß ich was endet immer gleich. Schaffe raged und ich grinse.Es gibt auch ein paar Regler in den Einstellungen. Die kann man anpassen. Somit kann man auch sehr schöne Bilder selbst aus einem 8100 rauskitzeln, ohne abstriche zu machen.