Comet Lake: PCI Express 4.0 angeblich vorgesehen und wegen Problemen gestrichen

Niemand braucht PCIe 4.0 im Desktop. Ich würde immer ein PCI 3.0 Board bevorzugen. Niemand will einen dampfenden Chipsatz mit Lüfter. Niemand möchte eine dampfende SSD mit Lüfter.
In einem Monat des quälenden Versuches auch mal nur 1 Umdrehung meines X570 Chipsatzlüfter zu erzwingen,
in einem möglichen Szenario muss ich dir leider sagen: Nope, Chipsatz wird nicht mal heiß.
Ich hab des MSI MPG X570 Gaming Edge + 3600X + 32GB Ram + 2080S (leider da AMD Big Navi bisher net bringt)
und die Viper M2 als Sys und Daddelplatte, heideheide.... (Ja Schatz die is sobald Big Navi da ist deine)
Was ne fking Rakete, völlig kranker Shice.
 
Zuletzt bearbeitet:
@Rotkaeppchen
Mainboards die 250 Watt TDP 1 Minute lang Aushalten können müssen :D.
Natürlich auch die viiiiiiiiiiiiiiiiiiiiiiiel bessere und Nötige LGA 1200 Platform, den wie wir alle wissen,
kann man auf einem 1151 keine 4/8 6/12 oder gar 8/16 CPUs laufen lassen aber immerhin gibts 2933ger
Ram, also ein Fest für alle...
 
Dieses ewige Verbrauchs-Pseudoargument ist doch mal so langsam wirklich ausgelatscht, oder nicht? Natürlich haben die 14nm-CPUs höhere Verbrauchswerte, aber das alle Nase lang, in Ermangelung bessere Argumente, wieder unter dem Sofa hervor zu kramen, nervt auf die Dauer, zumal die 250 W dem PL2-Wert entsprechen. Der 10 Kerner ist mit 127 W TDP spezifiziert und in den meisten Workloads wird der sich auch um diesen Wert herum (oder gar darunter) bewegen, wie auch der 9900K bzgl. seiner TDP.
Abseits dessen wird es noch komischer, wenn man mal ein wenig zurück blickt, denn da haben eingefleischte AMD-Fans ihre Bulldozer- bis Excavator-Verbrauchswerte auch reichlich wenig interessiert und ebensowenig juckte es die CrossFire/SLI-Fraktion nicht, wenn sie sich ein 1000+W-Netztei eingebaut haben. Und aktuell interessiert bspw. das Verbrauchsargument bspw. die Gamer, die sich einen 3960X holen, ebensowenig (und der Unterschied einer solchen Plattform ist bereits im SingleThread beträchtlich im Vergleich zum 9900K/3700X).
 
Zuletzt bearbeitet:
Wenns nur Probleme mit der Anbindung zum PCH gäbe, könnte man doch GEN4 auf CPU-PEG beschränken und PCH mit DMI 3.0 anbinden.
Hatte aber auch gar nicht mit GEN4 bei CML-S gerechnet.

Nebenbei "bestätigt" der Artikel von TomsHW, dass RKL-S kompatibel zu So 1200 ist. Zumindest mechanisch :D
Ähnliches wurde schon spekuliert
 
Zuletzt bearbeitet:
In einem Monat des quälenden Versuches auch mal nur 1 Umdrehung meines X570 Chipsatzlüfter zu erzwingen,
in einem möglichen Szenario muss ich dir leider sagen: Nope, Chipsatz wird nicht mal heiß.
Ich hab des MSI MPG X570 Gaming Edge + 3600X + 32GB Ram + 2080S (leider da AMD Big Navi bisher net bringt)
und die Viper M2 als Sys und Daddelplatte, heideheide.... (Ja Schatz die is sobald Big Navi da ist deine)
Was ne fking Rakete, völlig kranker Shice.

Hau mal nen 3900x oder nen 3950x drauf und lass den mal ordentlich rödeln, mit ordentlich Bandbreite, dann wird der schon anspringen...
 
Blablabla, Rechtschreibfehler, blablabla, Verbauchsargument.

Das Verbrauchsargument, die Erhöhung der TDP, ist Intels einzige Begründung für eine neue Plattform.
Höher frequentierter Arbeitsspeicher und die Brechstange 4 Meter länger sind keine neuen Features.
Das ist der verzweifelte Versuch Intels iwas zu reißen, so wie beim P4 und ja auch beim FX, nur der
FX macht unter DX 12 ein viel besseres Bild als jede vergleichbare CPU von Intel der Epoche.
6350 vs 2500/3570 auf 64 Maps in BF One oder 5 da geht den 4/4 die Luft aus und der 6350 ist noch zu ertragen,
der 8350 ist in DX 12 und Vulkan immer noch gut zu gebrauchen. Mein alter 8350 hat fast 50% mehr FPS durch das
DX 12 Update in MHW bekommen, ist aber immer noch deutlich schlechter als ein Optimierter R5 :D.

Hau mal nen 3900x oder nen 3950x drauf und lass den mal ordentlich rödeln, mit ordentlich Bandbreite, dann wird der schon anspringen...
Hatte ich Testweise schon darauf, Nope und weist du was im Schnitt in 4K an FPS mehr rauskamen, zu über 90%
Werte in der Messtoleranz, bis auf AC und MHW, die lieben Kerne, aber auch in einem Bereich den ich nicht
wirklich als wirtschaftlich erachte. Der 3600X langt und Optimiert in 4K trennen ihn von anderen CPUs iwas
im Raum von 0-5%.
Ich hab immer gesagt die R5 Klasse ist für mich die Optimale.
 
Zuletzt bearbeitet:
Veraltete Hw vs. veraltete Hw. Wen interessierts? Es mag zwar Nutzer geben, die heutzutage noch auf einem FX spielen, aber die spielen eher selten hardwarefordernde Titel. 4c/4t ist auch in Bf3 64p nicht schön, da muss man kein neues bf ranziehen.
Eins haben FX und Core ix 2,3,4000 gemeinsam: Gegen aktuelle Hardware sehen sie kein Land mehr, damit in Anbetracht einer neuen Generation zu argumentieren, ist nicht gerade zielführend.

Was Stromverbrauch angeht, der ist mir persönlich ziemlich egal. Ob die Cpu 50W mehr oder weniger braucht macht keinen Unterschied, die Grafikkarte(n) verbraucht/en weit mehr. ich verstehe auch nicht, warum so groß auf Intels Tdp rumgeritten wird. Beim Gaming nehmen sich Ryzen und Core nicht viel bei der Leistungsaufnahme, und wenn es mal mehr ist, ist die Leistung meist auch höher (von Spielen, die auf mehr als 8c/16t wirklich profitieren abgesehen). In Anwendungen muss man gar nicht erst diskutieren, da ist Ryzen die deutlich bessere Wahl
 
Das "Verbrauchsargument" ist mir mittlerweile hinsichtlich dem offenen Limit bzw TDP-Angabe relativ egal.
Mir ist wichtig, wie gut die CPUs mit begrenztem Power-Limit performen.

Mein 3900X braucht in Games selten mehr als 65W, auf dem Desktop sind es mit dem Energiesparmodus im Idle nur 29W Package-Power, also Gesamtverbrauch der CPU, bei 4-5W Gesamtkernverbrauch. Wenn ich beim Gaming eine OBS-Aufnahme (über den CPU-Encoder) zuschalte, dann sind es durch die höhere Auslastung vielleicht mal 90-100W bei hoher Encodierungsqualität.
Da taktet alles noch völlig normal, nichts limitiert, obwohl ich mein Power-Limit hart auf 105W begrenze.

Die Frage für mich wäre jetzt, wie ein Intel 10-Kerner reagiert, wenn man ihm bei 105W den Hahn zudreht.
In modernen multithreaded Games ohne Streaming wird der sich je nach FPS so um die 80-100W gönnen, wenn die Kerne nicht manuell abgeschaltet werden. Schaltet man dann noch einen Workload im Hintergrund dazu (zB OBS), dürfte er schnell ins Power-Limit rennen und den Takt drosseln.

Es gibt Leute, die interessiert nicht, wie viel ihr PC verbraucht oder wie heiß die Komponenten werden.
Mich würde es mittlerweile schon nerven, wenn meine CPU ständig >100W zieht, die Stromkosten steigen und vor allem der PC insgesamt mehr Wärme erzeugt, die irgendwie abgeführt werden muss (steigende Lüfterdrehzahl, mehr Lautstärke).

Um es in Duvars Worten zu sagen:
20W sind im Monat ~4,2€ also etwa ein Döner. :ugly:
Bzw im Jahr ~50€, wenn der PC durchgehend läuft.
Haben oder nicht haben.
 
Zuletzt bearbeitet:
Veraltete Hw vs. veraltete Hw. Wen interessierts? Es mag zwar Nutzer geben, die heutzutage noch auf einem FX spielen, aber die spielen eher selten hardwarefordernde Titel. 4c/4t ist auch in Bf3 64p nicht schön, da muss man kein neues bf ranziehen.
Eins haben FX und Core ix 2,3,4000 gemeinsam: Gegen aktuelle Hardware sehen sie kein Land mehr, damit in Anbetracht einer neuen Generation zu argumentieren, ist nicht gerade zielführend.
gerX7a wollte auf AMD wieder herumhacken, so wie immer...
Im Vergleich macht sich ein 6 Jahre alter damals für 160€ gekaufte CPU von AMD gegen
Doppelt so teure i7 unter DX12 immer noch klasse einen guten Job aber ich sagte auch ein
R5 1600 ist deutlich besser :D.
Was Stromverbrauch angeht, der ist mir persönlich ziemlich egal. Ob die Cpu 50W mehr oder weniger braucht macht keinen Unterschied, die Grafikkarte(n) verbraucht/en weit mehr. ich verstehe auch nicht, warum so groß auf Intels Tdp rumgeritten wird. Beim Gaming nehmen sich Ryzen und Core nicht viel bei der Leistungsaufnahme, und wenn es mal mehr ist, ist die Leistung meist auch höher (von Spielen, die auf mehr als 8c/16t wirklich profitieren abgesehen). In Anwendungen muss man gar nicht erst diskutieren, da ist Ryzen die deutlich bessere Wahl
Es geht mir nicht um die TDP sondern die Veräppelung Intels am Kunden.
Nen mir mal bitte einen wirklichen Grund der Existens des LGA1200 außer einer Gewinnmaximierung.
 
Zuletzt bearbeitet:
Das Verbrauchsargument, die Erhöhung der TDP, ist Intels einzige Begründung für eine neue Plattform.
Höher frequentierter Arbeitsspeicher und die Brechstange 4 Meter länger sind keine neuen Features.
Das ist der verzweifelte Versuch Intels iwas zu reißen, so wie beim P4 und ja auch beim FX, nur der
FX macht unter DX 12 ein viel besseres Bild als jede vergleichbare CPU von Intel der Epoche.
6350 vs 2500/3570 auf 64 Maps in BF One oder 5 da geht den 4/4 die Luft aus und der 6350 ist noch zu ertragen,
der 8350 ist in DX 12 und Vulkan immer noch gut zu gebrauchen. Mein alter 8350 hat fast 50% mehr FPS durch das
DX 12 Update in MHW bekommen, ist aber immer noch deutlich schlechter als ein Optimierter R5 :D.


Hatte ich Testweise schon darauf, Nope und weist du was im Schnitt in 4K an FPS mehr rauskamen, zu über 90%
Werte in der Messtoleranz, bis auf AC und MHW, die lieben Kerne, aber auch in einem Bereich den ich nicht
wirklich als wirtschaftlich erachte. Der 3600X langt und Optimiert in 4K trennen ihn von anderen CPUs iwas
im Raum von 0-5%.
Ich hab immer gesagt die R5 Klasse ist für mich die Optimale.

Spiele sind doch keine Szenarien (meistens) in dem du ein System wirklich auf Volllast bringst. Es gibt halt ausser Spielen noch viele andere Dinge die man am PC tun kann... Nimm ne Pcie 4.0 SSD im Raid und render/codiere mal 8K Material und lass neben bei noch was anderes laufen. Da der Lüfter für den Chipsatz ist, muss man schön Bandbreite und verkehr auf die Lanes und die CPU bringen, dann kommt er auch mal ins Schwitzen. Mit bloßen Spielen hast du nur "entweder oder" Szenarien...

Außerdem hat eine CPU in 4k am wenigsten Last, da man vorher lange im GPU Limit ist. Wenn du deinen Prozzi schwitzen lassen willst, hau 720p rein oder was mit AVX.
 
Habe mit Handbrake + H.265 und UHD BDs den PC geknechtet, Testweise :D, da war schon Laune in der Hardware
aber Lüfter dreht net <3. Aber du hast recht das Setup von mir ist für das Gamen hauptsächlich ausgelegt.
Und da ist mein Wasser/Luft Gekühlter fast High/etwas Größer als Midi Tower flüsterleise. Back 1x140 + Top 360 Radi
+ Front 240 Radi so gebastelt das Luft von Oben und vorne nach hinten abgeführt wird.
 
gerX7a wollte auf AMD wieder herumhacken, so wie immer...

Das mach ich auch ganz gerne, wenn alle anderen nur auf Intel rumhacken und Amd Gott ist.
Ne im Ernst: Amd ist nicht fehlerfrei, und Intel hat immer noch die Oberhand beim Gaming (wie vorher schon gesagt, solange das Spiel nicht entsprechend von mehr Kernen profitiert, was derzeit doch etwas selten ist). Da mag Amd noch so effizient oder gut im P/L sein, sie sind trotzdem schwächer, erst recht wenn man bei beiden Seiten mal ins Bios geht und Einstellungen anpasst. Auch auf die Gefahr hin, dass deswegen wieder Theater entsteht, die Amdler ziehen doch so gerne ihre optimierten Vegas und Navis und Ryzens für vergleiche ran, da kann man das auch von der anderen Seite her machen. Und dann ist der Unterschied zwischen Intel und Amd immer noch erheblich.
Ich werde mir ziemlich sicher einen 10900k holen, dann gibts genug zu vergleichen.

Im Vergleich macht sich ein 6 Jahre alter damals für 160€ gekaufte CPU von AMD gegen
Doppelt so teure i7 unter DX12 immer noch klasse einen guten Job aber ich sagte auch ein
R5 1600 ist deutlich besser :D.

Vor 6 Jahren, als die Hardware aktuell war, sah die Lage ganz anders aus. Natürlich macht sich die höhere Kernzahl in Zeiten mit besserer multithreaded Software bemerkbar, sodass es nicht verwunderlich ist, dass ein FX 8c gegen einen damaligen i7 4c eine gute Figur macht, aber wer damals für teuer Geld einen i7 4c gekauft hat, wird sicher schon wieder aufgerüstet haben und jetzt eine stärkere Cpu haben. Irgendwann wird die eigene Hardware immer veraltet sein, das kann aber egal sein, wenn man schon neue hat.

Es geht mir nicht um die TDP sondern die Veräppelung Intels am Kunden.
Nen mir mal bitte einen wirklichen Grund der Existens des LGA1200 außer einer Gewinnmaximierung.

Keinen, das weiß ich selbst.
 
Das mach ich auch ganz gerne, wenn alle anderen nur auf Intel rumhacken und Amd Gott ist.
Ne im Ernst: Amd ist nicht fehlerfrei, und Intel hat immer noch die Oberhand beim Gaming (wie vorher schon gesagt, solange das Spiel nicht entsprechend von mehr Kernen profitiert, was derzeit doch etwas selten ist).
Ich bezweifle nicht die Stärke oder die Qualität einer Intel CPU, das die Flott sind ist allen klar.
Ich hatte schon viele Prozessoren in der Hand gehabt AMD, Intel, Motorola, MOS und Cyrix gab es in meiner Hardwarelaufbahn.
Keiner davon war fehlerfrei aber die meisten davon mochte ich sehr, bis auf den P4 und den Phenom 1..., egal.

Da mag Amd noch so effizient oder gut im P/L sein, sie sind trotzdem schwächer, erst recht wenn man bei beiden Seiten mal ins Bios geht und Einstellungen anpasst. Auch auf die Gefahr hin, dass deswegen wieder Theater entsteht, die Amdler ziehen doch so gerne ihre optimierten Vegas und Navis und Ryzens für vergleiche ran, da kann man das auch von der anderen Seite her machen. Und dann ist der Unterschied zwischen Intel und Amd immer noch erheblich.
Ja und das in vielen DX 11 Spielen oder fake DX 12 Spielen (DX 12 FL11.1 oder 11.2) was stand heute oft noch benutzt wird.
Zukunft ist klar DX 12/Vulkan und die Schnittstellen brauchen Threads. In diesen Spielen wirken oft teurere
CPUs aus dem Hause Intel ein wenig zu Teuer :D, aber Ich sag immer kauft euch was ihr wollt <3.
(Nvidia GK auch oft, COD PCGH Test :D......)
Ich werde mir ziemlich sicher einen 10900k holen, dann gibts genug zu vergleichen.
Dann freu ich mich auf deine Ergebnisse :D.
Vor 6 Jahren, als die Hardware aktuell war, sah die Lage ganz anders aus. Natürlich macht sich die höhere Kernzahl in Zeiten mit besserer multithreaded Software bemerkbar, sodass es nicht verwunderlich ist, dass ein FX 8c gegen einen damaligen i7 4c eine gute Figur macht, aber wer damals für teuer Geld einen i7 4c gekauft hat, wird sicher schon wieder aufgerüstet haben und jetzt eine stärkere Cpu haben. Irgendwann wird die eigene Hardware immer veraltet sein, das kann aber egal sein, wenn man schon neue hat.
Na klar, aber bei mir eher aus einem Basteltrieb heraus und nicht aus wirklicher FPS Not :D.
Meine Regierung hatte mich echt überrascht, als ich 2000 € Budget zugesprochen bekam,
sie so bastel dir ma was neues <3<3<3<3<3<3.
Keinen, das weiß ich selbst.
Und um mehr gehts mir nicht, bau nen fetten 10900k und ne 3080ti in dein neues Werk,
wirt bestimmt goil:daumen:.
 
gerX7a wollte auf AMD wieder herumhacken, so wie immer... [...]

Nö, konkret war das ein "Rumgehacke" auf so einer Blitzbirne wie dir, die mal wieder mit dem völlig ausgeleierten TDP-Argument ums Eck kommt.
Von etwaigem "Rumgehacke" meinerseits auf AMD kann da nicht die Rede sein, ebenso wenig wie auf Intel oder nVidia. So ein spätpubertäres Verhalten überlasse ich anderen.
Wenn ich mal die "Kontra-Position" in einem Thread belege, dann eher, weil sich in einem solchen ein extremer Bias breit macht und viele gerne dazu neigen, passende Gegenargumente zu verzerren oder gar komplett auszublenden. Dass das dem einen oder anderen dann als "Rumhacken" auf ihrem jeweiligen Liebling vorkommt, mag sein, ist mir aber auch relativ egal. ;-)
 
Zurück