Intel im Oktober: Core i9-9900KS mit mit echten 5 GHz und Cascade Lake X mit doppelter Perfromance pro Dollar

Da sie aktuell etwa gleich (bescheiden) boosten - nö, 3700X. Die CPUs sind identisch bis auf den Takt.

Wieso? Weil es besser für die Gleichung passt? 9900KS =8 Kerne 16 Threads, Teuer und nicht Notwendig, schnellster 8 Kerner+HT von Intel ; 3800X= 8 Kerne 16 Threads, Teuer und nicht Notwendig, schnellster 8 Kerner+ SMT von AMD PUNKT

@Duvar: Du entwickelst dich aktuell LEIDER zum Schaffe der AMD Fraktion.....lass einfach gut sein und sei glücklich mit deiner CPU (die ich ernsthaft jedem mit kleinerem Budget empfehle)....Du betreibst mittlerweile (genau wie die einschlägigen NVIDIA/INTEL- Nazis hier im Forum) das selbe krasse Cherry-Picking und beharrst stur nur auf deiner Meinung...Früher habe ich gerne deine Beiträge gelesen...Gut gemeint von mir, soll kein ANgriff sein, nur etwas zum nachdenken


Die erreicht er auch nicht. Also genau das, was Intel jetzt auch AMD vor den Latz knallt. :lol:
Ok, krass! Dachte bei dir auch immer, dass du wenigstens ETWAS Ahnung hast....
 
Zuletzt bearbeitet:
Hätte nicht schon der i9-9900k "echte" 5 GHz haben sollen? :ugly:

Was sind "echte" GHz? - Ok, echte, tatsächliche, offizielle GHz hat der i9-9900K 3.6 GHz. (Seit Gen8 und Gen9 taktet bei Intel alles regulär unter 4,0 GHz, das nennt sich Basistakt. Einzige Ausnahme ist der i7-8086K von Anfang 2018.) Der 9900K hat darüber hinaus (ebensowenig garantierte) 5,0 GHz SingleCore-Boost-Takt und 4,7 GHz AllCore-Boost-Takt. (Letztere erfordern im Dauerbetrieb ohne Undervolting rd. 210 W.)
(Wenn man 100%ig sicher sein will, kauft man sich eine vorselektierte, geköpfte CPU, bspw. bei Caseking, zahlt dann aber bis zu 750 € dafür. Oder man kauft auf gut Glück und hofft auf das Beste, wobei man gemäß der Zahlen von RH derzeit bei Intel jedoch eine höhere Wahrscheinlichkeit erwarten können darf, bei Intel eine hochtaktende CPU zu erwischen.)
Dass Intels vielfach optimierter Fertigungsprozess höhere Taktraten erreicht, ist der einzige Grund, warum Intel derzeit beim HighEnd-Gaming überhaupt noch infrage kommt.

In diesem Sinne echt echte 5,0 GHz hat der i9-9900KS auch nicht. Vorgestellt wurde die CPU schon im Mai mit 4,0 GHz Basistakt und nun 5,0 GHz AllCore-Boost-Takt (interessant dürfte hier der PL2-Watt-Wert sein ;-)). Wo der SingleCore-Boost-Takt liegt, weiß ich nicht, jedoch dürfte der für die Gesamtperformance relativ irrelevant sein.
 
Zuletzt bearbeitet:
Wieso? Weil es besser für die Gleichung passt? 9900KS =8 Kerne 16 Threads, Teuer und nicht Notwendig, schnellster 8 Kerner+HT von Intel ; 3800X= 8 Kerne 16 Threads, Teuer und nicht Notwendig, schnellster 8 Kerner+ SMT von AMD PUNKT

@Duvar: Du entwickelst dich aktuell LEIDER zum Schaffe der AMD Fraktion.....lass einfach gut sein und sei glücklich mit deiner CPU (die ich ernsthaft jedem mit kleinerem Budget empfehle)....Du betreibst mittlerweile (genau wie die einschlägigen NVIDIA/INTEL- Nazis hier im Forum) das selbe krasse Cherry-Picking und beharrst stur nur auf deiner Meinung...Früher habe ich gerne deine Beiträge gelesen...Gut gemeint von mir, soll kein ANgriff sein, nur etwas zu nachdenken

Kannst du mir bitte mal sagen, wo genau ich cherry picking betreibe? Ich stehe halt zu meiner Meinung, akzeptiere auch die Meinung von anderen wie zB Igor seine, nur irgendwann bin ich es auch leid bei all dem ... den manche hier ablassen (nenne mal keine Namen).
So führt eins zum anderen und da stehen wir nun, danke für deine ehrliche Meinung, ich werde drüber nachdenken, habe in letzter Zeit ein wenig übertrieben, stimme dir zu.
 
So führt eins zum anderen und da stehen wir nun, danke für deine ehrliche Meinung, ich werde drüber nachdenken, habe in letzter Zeit ein wenig übertrieben, stimme dir zu.

Habe zwar Euren "Fight" nicht verfolgt und kann und will auch nicht bewerten wer Recht hat, aber auf jeden Fall ein **dickes Lob** für diesen Satz. So was liest man in solchen Foren höchst selten ... wie gesagt, unabhängig davon ob Du tatsächlich einlenken solltest oder nicht ... die wenigsten trauen sich so etwas mal zu schreiben, sondern suchen i. d. R. die Schuld/die fehlende Einsicht immer bei den anderen. (Das nur so am Rande, wenn auch komplett Off-Topic.)
 
Kannst du mir bitte mal sagen, wo genau ich cherry picking betreibe? Ich stehe halt zu meiner Meinung, akzeptiere auch die Meinung von anderen wie zB Igor seine, nur irgendwann bin ich es auch leid bei all dem ... den manche hier ablassen (nenne mal keine Namen).
So führt eins zum anderen und da stehen wir nun, danke für deine ehrliche Meinung, ich werde drüber nachdenken, habe in letzter Zeit ein wenig übertrieben, stimme dir zu.

Ich kann dich ja auch verstehen, dass man bei einigen hier ROT (haha ;) ) sieht! Die Anwendungen die du gezeigt hast, laufen alle sehr gut auf AMD, aber d hast z.B. keine Spiele mit z.B. den Verbräuchen gezeigt.

Egal jetzt! Bist ja eigentlich (deinen sonstigen Beiträgen nach) ein guter :) .Wir sind ja beide der Meinung, dass beide Hersteller GRUNDSÄTZLICH auf Augenhöhe sind (mal der Eine vorne, mal der Andere) und beide sehr gute Produkte haben. Wem welches Produkt, welchen Preis wert ist, muss ja am Ende jeder für sich entscheiden :)
 
Zuletzt bearbeitet:
... Du möchtest also das CPUs hart in der TDP begrenzt werden und keine Möglichkeit mehr bieten den Turbo ohne Limit halten zu können?...
Nein, dass habe ich weder geschrieben, noch angedeutet. Ich sagte, dass entweder der mögliche Maximalverbrauch ohne OC aufgedruckt werden sollte, oder das Messverfahren für die genannten TPD. So ist das doch nur ein besserer Witz:

".... Intel definiert die TDP aktuell als „die durchschnittliche Leistungsaufnahme (in Watt), die der Prozessor beim Betrieb auf Basisfrequenz ableitet, wenn alle Kerne bei einer von Intel definierten, hochkomplexen Arbeitslast aktiv sind. ...."

Quelle; CPU-Leistungsaufnahme: Was „TDP“ bei AMD und Intel aktuell bedeutet - ComputerBase

Oder wie würdest Du es finden, wenn Autohersteller ihre Verbrauchswerte nach einem eigenen hochkomplexem Prüfstandslauf mit Basisdrehzahl messen würden. Was für Zwergenaufstände gibt es da, wenn auch nur 10% Abweichung zum realen Verbrauch der Zwergen entsteht. Und hier reden wir über 250 Prozent Mehrverbrauch gegenüber der reichlich willkürlichen Angabe.
 
Also ich hatte ja schon oft INTEL CPUs ( so gar weit länger als AMD ) und war immer zufrieden damit. Aber so schnell wie die heute altern bin ich echt froh das ich jetzt einen AMD drin habe. Denn wenn man das hier so liest kann ja einer der eine 6700K hat nur mehr mit ach und krach Minecraft zocken. Echt erschreckend wie INTEL da nach gelassen hat. Dabei waren die CPUs die ich früher von INTEL hatte immer echt gut. Ja so ändern sich die Zeiten*gg

Bis jetzt hab ich kein Spiel gesehen das auf Grund der schwachen Leistung einer aktuellen CPU ruckelt. Gut ich hab jetzt das Teil nicht was hier viel anstrecken. Aber vielleicht hat wer ja das Spiel auf Steam. Dann möge er mir doch bitte eine Anfrage schicken ich weil das echt mal Testen ob das ruckelt denn ich habe daran starke Zweifel das dem so ist. Oder anderes rum gesagt, egal ob AMD- oder INTEL- Nvidia Fanboy, sie alle haben eines mit Marketing Abteilungen gemeinsam. Sie verkaufen zu viele Bananen.


Nach 37 Jahren Computer hat sich immer eines gezeigt. Wenn ein Spiel ruckelt wegen der Leistung der CPU dann ist die schon echt alt. Oder was halt heute auch noch dazu kommt, das neben den Spiel noch so viel mit läuft das die Kernzahl einfach nicht mehr reicht. Wenn es ruckelt dann ist es meist die Grafikkarte oder bei Online Spiel weil die Server überlastet sind - oder die Leistung.

Aber ihr werdet es nicht glauben, gibt es auch bei mir das ein Spiel ruckelt, aber das liegt nicht an der CPU von AMD sondern an Nvidia und das obwohl ich einen 2080 OC habe. Der Grund die Karte ist eine Nvidia mein Monitor kann aber Free Sync. Zwar wird mein Monitor offiziell unterstützt von Nvidia. Nur haben die das noch bei weiten nicht so in dem Griff wie sie das behaupten. Nvidia hat zwar zur Zeit sicher die schnellsten Grafikkarten reden aber auch manchmal mehr als wirklich ist.

Man man sagt ja nicht um sonst, Jeder Krämer lobt seine Wahr.

Ich würde mal sagen das der 9900KS sicher einen CPU ist, aber auch eine Marketing CPU. Vor allem was Spiel angeht. 5 GHz all Kern hört sich ja mal gut an, nur wie viele Spiel nutzen den 8K und 16T????? Ich würde so gar sagen wenn einer einen 8700K oder 9900K rauf prügelt wird bei der Spiel Leistung der unter schied im einstelligen Prozentbereich liegen gegenüber einen 9900KS. Die 5 GHZ all Kern bringen nur dann was wenn man alle Kerne zu fast 100% ausnutzt.
Das ist so wie mit meinen 3900X. Die Spiele Leistung zu einen 3600 wird nicht all zu groß sein. Der Unterschied ergibt sich dann wenn alle Kerne ran müssen.


Bei so Marketing muss man immer vorsichtig sein und schon genau hinsehen. Das hat INTEL jetzt gerade wieder im Mobil Bereich gezeigt. Stellen uns die neuste CPU vor und zweigen auch gleich um wie viel schneller die ist gegen über einen vergleichbaren Ryzen aus dem bereich.
Leute ich denke jetzt nicht das die Benchmark Ergebnisse falsch sind. Die werden schon stimmen. Der Vergleich ist auch nicht Unfair, den so konnten es ja nur mit einen Zen+ vergleichen ist in dem Bereich ja noch kein Zen2 da. Nur bei der Sache sehe ich halt auch einen Hacken der mich ein wenig Zweifeln lässt. Denn normalerweise werden im Mobilbereich die CPUs immer damit beworben das sie sehr Stromsparend sind. Das Dumme dabei ist aber das der neu INTEL da mehr Energie verbraucht als dern Ryzen.
So und jetzt die große Frage. ist der wirklich so schnell, oder ist der nur um so viel schneller weil man mehr Energie reinsteckt? Sollte das letztere der Fall sein würde ich bei den Desktop Versionen die Erwartungshaltung mal ein wenig nach unterschnauben.
Da wäre es wirklich mal interessant so bald hier auch ZEN 2 verfügbar ist beide mal auf den gleichen Verbrauch zu setzen.

Ohne frage ist ein 8700K und ein 9900K eine wirklich super CPU. Das wird auch der 9900KS werden, auch wenn er am Ende nicht mehr ist als ein von Werk ab übertakteter 9900K. Wer solch eine CPU kauft man mit Garantie nichts falsch. Aber man muss halt INTEL auch wo verstehen. Den INTEL hat es mit ist Stand jetzt noch nicht geschafft mit einer kleinern Fertigung und/oder mit einer neuen Architektur zu kontern. Aber irgendwie muss INTEL genau so wie alle anderen den Leuten erklären warum sie ihren Kram kaufen sollen und nicht dem Mist der anderen.

Man darf aber auch nicht vergessen nur die kleinere Fertigung und eine neue Architektur allein macht es auch nicht. AMD ist ja auch nicht her gegangen und hat sich nur auf die 7nm verlassen. So haben da auch noch einiges verbessert. Hätten sie das nicht getan wäre der Leistungsunterschied wohl nicht so groß.
Es ist eben halt nun mal nicht so das man schnell mal in die Entwicklungsabteilung geht und sagt, macht mal bis zum Wochenende eine neue Architektur. Das dauert seine Zeit und soll ja auch irgendwo besser sein. Denn es ist ja nicht so das die neue Architektur automatisch auch besser sein muss. Vor allem muss man da auch viel drehen bis das Ding mal echt super läuft. Da ist ja AMD auch nicht anderes gegangen. Da hat sich genau so wenig die Entwickler am Montag hin gesetzt und am Freitag war der Ryzen 1000 fertig. Wir sehen es ja selber das von Generation zu Generation noch immer verbessert wird. Das ist auch bei INTEL nicht anderes und wird mit einer neuen Architektur anders sein.

Das Problem das INTEL mit einer neuen Architektur hat. Sie dachten auf Grund der Umstände sie seinen AMD meilenweit voraus. Außerdem sind wir der Marktführer was soll schon sein. Mit einen Wort sie dachten sie hätten genau Zeit und müssen es daher auch nicht eilig haben. Machen wir halt jedes Jahr 10% mehr Leistung, das reicht das AMD uns nicht einholt und so lässt sich auch viel mehr Geld verdienen ohne groß investieren zu müssen.
Bis zu dem Zeitpunkt als der Ryzen erschien war an der Ansicht auch nichts falsch, Kaufmännisch absolut richtig gedacht. Die haben nichts falsch gemacht.
So wie viele Marktführer schon, hat auch INTEL nicht damit gerechnet das die Konkurrenz einen echt guten Wurf machen könne. Anders gesagt INTEL hat AMD so was wie einen Ryzen nicht zu getraut.

Aber damit ist INTEL nicht allein. Denkt mal an Nokia. Wer hätte das je gedacht wo doch Nokia das Mass aller Dinge war. Das die mal und auch auch noch so schnell in der Bedeutungslosigkeit verschinden. Dabei halt Nokia nur einen kleinen Fehler gemacht. Sie dachten immer das Handy wird mit den Organisa und den Musikplayer verschmelzten. Nur Apple dachte sich halt mir Steven Jobs das es besser ist wen das Handy mir dem Computer verschmilzt. Übrigens würde zuerst der iPod entwickelt der um iPhone umgebaut und zuerst auf den Markt gebracht. Ich höre es noch wie heute als bekannt wurde das Apple ein Handy bauen wir was man bei Nokia gesagt hat. Wir sind der Marktführer Apple hat keine Ahnung von Handy, das kann ja mal nicht viel werden. Die haben sich das nur einfach nicht vorstellen können was da jetzt kommt.

Nvidia ist da ein wenig vorsichtiger. Auch wenn sie genau wissen das sie die Schnellern Grafikkarten haben, bringen sie doch lieber schnell mal eine Super aus wenn AMD was neues bringt. Auch wenn sie wissen AMD wird morgen nicht unbedingt weit schneller Karten bauen.
 
hrhrhrhr, erstmal contra geben weil es nicht ins weltbild passt. kennst gar nicht die daten der karre und wieso übst du kritik an ihm das er moderne technik nutzt? schonmal geguckt wer bei dir vor der tastatur sitzt? :D
ne der hat schon recht. frage mich wieso die politik nicht endlich hubraum und ps stark nach unten reguliert. außer nachts an feiertagen wenn keiner auf der autobahn ist, kannste die karre nicht ausfahren.

Nein danke lass mal......Ich sage immer Zylinder statt Kinder und Hubraum statt Wohnraum ;)
 
Hmmm, die lassen ja nicht locker hier bei PCGH.
Gibt anscheinend ein großes Interesse an dem Marketing-Müll der da abgesondert wird.
Geld stinkt nicht und die Server laufen eh immer, also was soll es?
 
Leute Leute Leute...

Mega lustig, dass du es nicht raffst, dass ein 9900K in Spielen halt nicht wirklich viel mehr Strom zieht und du immer mit Handbrake, Prime, Cinebench inkl. Maximallast daherkommst um dir deinen Zen schönzureden.:schief:
Die AMD Fans haben das Strom-Argument entdeckt und pushen es gleich 2x bis 3x so wichtig ein als es ist.
Aber wehe man kritisierte Vega, die gleich 100 bis 150 Watt mehr gezogen haben, nun sind 30 oder 40 Watt mehr Spiele-Strombedarf, bei immer noch besserer Leistung, das pure böse.
Verstehe ich ehrlichgesagt nicht, dass du permanent Tests zu Leistungsaufnahmen verlinkst, welche dich selbst gar nicht interessieren. Du zockst doch eh nur mit deinem Rechner. Als ob hier irgendjemand intensiv Y-cruncher, Handbrake, uswusf. nutzen würdest.:rollen:

Ich hab hier für dich auch etwas:

wdwd1ckp5.png

9900K mit 95 Watt Powertarget gleicheffizient wie ein Ryzen 5 3700x in Cinebench.
Intel braucht keine 7nm Fertigung um mit AMD in der Effizienz gleichziehen zu können.
Comet Lake wird da überall auf Augenhöhe liegen, solange Intel es mit der Taktung nicht übertreibt.

Und die Rede war vom Verbrauch im Alltag. Das geht wohl nicht in deinen Schädel. Ich vergleiche GPU´s ja auch nicht mit Furmark oder CPU´s mit Prime 95 oder synthetischen Auslastungstools, wenn die Rede von Gaming ist.

Metro Exodus trennen 3900X vs 9900k @ 5GHz nur 5%, aber du musst bedenken, dass der Ryzen 3600 kaum langsamer ist als der 3900X und unter 200€ kostet.


Es ist Bullshit CPU´s in 1080p im peripheren GPU Limit zu benchen.
Und Spiele sind nicht besonders auf die eine oder andere Arch optimiert. Da gibt es keine großen Unterschiede zwischen AMD und Nvidia.
Und wenn ich mir da die Messergebnisse alle ansehe, dann ist es einfach nicht möglich, dass der AMD teils minimal schneller oder gleichschnell ist, denn dann liegt da einfach kein hartes CPU Limit an.
 
Zuletzt bearbeitet:
ein normaler 9900 k macht auch 5 ghz auf allen kernen (und mehr) dazu muss man nicht den KS kaufen. wozu braucht man 5 ghz auf allen kernen ? ich hab meinen auf 4,7 all core und undervoltet auf 1,22 v.
 
ein normaler 9900 k macht auch 5 ghz auf allen kernen (und mehr) dazu muss man nicht den KS kaufen. wozu braucht man 5 ghz auf allen kernen ? ich hab meinen auf 4,7 all core und undervoltet auf 1,22 v.

Damit kommt man sich cooler vor, wenn man seinen jugendlichen Freunden davon erzählt, in der Realität bringt das aber kaum was, außerdem liest sich das besser :ugly:
Dem Poly antworte ich nicht mehr, hab mir nach der gestrigen Kritik vorgenommen, etwas kürzer zu treten, außerdem ist diskutieren mit dem sowieso sinnlos, weiß ja sowieso immer alles besser und die Redaktionen benchen ja so gut wie alle falsch.^^
Auf son Besserwisser kann ich gut verzichten, ist ja sowieso auf Igno bei mir.
 
@poly

Du bist ja ein lustigen, deine Grafik zeigt den Verbrauch an, aber was hat der mit Effizienz zu tun? Die andere Seite der Effizienz vergisst du scheinbar. Der 3700x wird bei gleicher Leistungsaufnahme wohl doppelt so schnell sein wie der 9900k. WARUM? Simpel, AMD hat den Vorteil der 7nm Fertigung. (Punkt!)
 
ist doch egal welcher nun in benchmarks oder in der theorie die schnellste cpu ist , wenn ich nicht hätte wechseln müssen hätte es auch ein Ryzen werden können . Ich finds gut das AMD wieder mitmischt und intel nicht mehr so die Mondpreise aufrufen kann. Mal sehen wenn der Boost Bug entfernt wird wie sie dann laufen.
der 9900k ist momentan in games eben noch das maß der dinge , laut benchmarks , schaut man sich die abstände an ist es eh nur parr % , ob ich 160 fps hab oder 144 ist doch wurst , darum hab ich meinen undervoltet auf 1,22 vcore und auf 4,7 ghz all cores obwohl er auch 5,1 schafft , hat bums und wird nicht warm ( max 55 grad unter last) , und dann passen die ganze folien eh nicht mehr die irgendwelche verbräuche und effizienz zeigen. Wie geht das mit ryzen ? kann man den auch gut undervolten ?
 
Mega lustig, dass du es nicht raffst, dass ein 9900K in Spielen halt nicht wirklich viel mehr Strom zieht und du immer mit Handbrake, Prime, Cinebench inkl. Maximallast daherkommst um dir deinen Zen schönzureden.:schief:
Die AMD Fans haben das Strom-Argument entdeckt und pushen es gleich 2x bis 3x so wichtig ein als es ist.
Aber wehe man kritisierte Vega, die gleich 100 bis 150 Watt mehr gezogen haben, nun sind 30 oder 40 Watt mehr Spiele-Strombedarf, bei immer noch besserer Leistung, das pure böse.



das waren noch zeiten mit meinem " 8 " kern Bulldozer , ich glaube der hat auch gut gesaugt und Intel hat immer die verbrauchs und effizienskeule rausgehol :-) mir ist wurst was die cpu zieht solange ich das leise weggekühlt bekomm.
 
ist doch egal welcher nun in benchmarks oder in der theorie die schnellste cpu ist , wenn ich nicht hätte wechseln müssen hätte es auch ein Ryzen werden können . Ich finds gut das AMD wieder mitmischt und intel nicht mehr so die Mondpreise aufrufen kann. Mal sehen wenn der Boost Bug entfernt wird wie sie dann laufen.
der 9900k ist momentan in games eben noch das maß der dinge , laut benchmarks , schaut man sich die abstände an ist es eh nur parr % , ob ich 160 fps hab oder 144 ist doch wurst , darum hab ich meinen undervoltet auf 1,22 vcore und auf 4,7 ghz all cores obwohl er auch 5,1 schafft , hat bums und wird nicht warm ( max 55 grad unter last) , und dann passen die ganze folien eh nicht mehr die irgendwelche verbräuche und effizienz zeigen. Wie geht das mit ryzen ? kann man den auch gut undervolten ?
Dann zeig mal her wie dein 9900k nicht über 55 grad bei voll Auslastung nicht überschreitet.

Selbst ein 6700k bei 1.24 vcore geköpft geht über 55 grad mit Aio.

Erzähle nicht so ein quatsch. Ein 9900k ist ein echter hitzkopf.

Wenn du eine Custom Wakü hast die ordentlich groß ist dann vielleicht aber sonst gehen die 9900k ordentlich hoch in den Temperaturen.

Gesendet von meinem GT-I9305 mit Tapatalk
 
Damit kommt man sich cooler vor, wenn man seinen jugendlichen Freunden davon erzählt, in der Realität bringt das aber kaum was, außerdem liest sich das besser
Aber es bringt etwas wenn man von einer älteren CPU aufrüstet. Auch Takt summiert sich.
Dem Poly antworte ich nicht mehr, hab mir nach der gestrigen Kritik vorgenommen, etwas kürzer zu treten...
Na, das ist doch mal ein Anfang.
außerdem ist diskutieren mit dem sowieso sinnlos, weiß ja sowieso immer alles besser und die Redaktionen benchen ja so gut wie alle falsch.^^
Es ist die Natur des Menschen etwas besser wissen zu wollen und nein, die Redaktionen benchen nicht alle falsch, das habe ich nicht gesagt.
Aber was wäre ein Duvar ohne eine Erfindung ala Strohmann-Argument.
Auf son Besserwisser kann ich gut verzichten, ist ja sowieso auf Igno bei mir.

Dann verzichte doch darauf, aber scheinbar kannst du es ja nicht lassen.
Inhaltlich bist du mit deiner OC vs Stock Maskerade eh weitgehend als Fanb** identifiziert.
 
Du bist ja ein lustigen, deine Grafik zeigt den Verbrauch an, aber was hat der mit Effizienz zu tun?


Preisfrage: Wie schnell sind ein 9900K und 3700x in Cinebench? Und wieviel Leistung nehmen sie bei Computerbase auf?
Die Antwort ist annähernd dieselbe Leistung, sowie Effizienz.

Die andere Seite der Effizienz vergisst du scheinbar. Der 3700x wird bei gleicher Leistungsaufnahme wohl doppelt so schnell sein wie der 9900k.


Welche andere Seite der Effizienz gibt es denn? Der 3700x ist bei gleicher Leistungsaufnahme ein bisschen schneller als ein 95 Watt 9900K, in Spielen dennoch langsamer.
Und das zeigte ich. Computerbase misst mit dem 3700x System etwas mehr Energiebedarf in Cinebench als der 95 Watt 9900K, bei 15% mehr Leistung.
Die Effizienz ist auf ähnlichem Niveau.

WARUM? Simpel, AMD hat den Vorteil der 7nm Fertigung. (Punkt!)

Hast du meinen Beitrag überhaupt verstanden? AMD hat vielleicht den Vorteil, kann ihn aber nicht entscheidend nutzen.
Ryzen5 3600 und i7 8700K benötigen gleich viel Strom und leisten auch in etwa gleich viel.
 
Der 3700x wird bei gleicher Leistungsaufnahme wohl doppelt so schnell sein wie der 9900k.
Oha, ein 3700X, der bei 65W doppelt so schnell rechnet wie ein i9-9900k bei 65W?

PCGH kommt mit dem i9-9900k bei 95W auf 83% der Handbrake Leistung eines 3700X mt unbekanntem Stromverbrauch. Kastriere ich meinen i9 auf 65W, dann bleibt er zwar unter 55°C (und 100% power limit throtteling), rechnet aber trotzdem nur 16% langsamer wie mit 95W (da ist er halt auch zu annähernd 100% im power limit throtteling). Rechne ich das nun einfach linear zusammen, sind das rund 67% des 3700X (bei unbekanntem Stromverbrauch).

Und wozu den Schwachsinn? Damit ich (hoffentlich zahlst Du den Strom wenigstens selber) dann ein paar Cent am Jahresende spare, aber nutzlos länger warte? Da kann ich auch mein Atom-Tablet rechnen lassen, das braucht noch viel weniger Strom.

Ein 9900k ist ein echter hitzkopf.
Schön, er spart mir also Heizenergie im Winter. Noch nicht einmal jemand, der seinen Rechner 24/7 unter Volllast laufen lässt, macht sich Gedanen über sowas. Der kauft sich eher eine zu seinen Ansprüchen passende CPU, weil das einzig interessante die Rechenleistung/die vertane Lebenszeit ist.

Mehr wie 144 KWh könnte mein i9 selbst freigelassen im Monat niemals verbraten (24/ mit 190W). Käme ich auch nur im Entfernten daran, steht hier ganz schell etwas anderes (und zwasr derzeit kein AMD, da AMD nicht liefern will), obwohl ich das von den 37€ Zusatzkosten im Monat niemals gegenfinanziert bekomme.

Die Zeit, die mein i9-9900K seit Januar schon reingerechnet hat, könnte ein 3900X wohl erst in ein paar Jarhen wieder reingeholt haben.
 
Zurück