News Core i7-14700K vs. Core i7-13700K: Fünf Prozent mehr Single-Core-Leistung, bei 30 Watt mehr Verbrauch [Bericht]

Was macht Intel da?

Das ist ja wie früher zu Bulldozer-Zeiten, bloß umgekehrt.

Das will ich nicht, ich will kein AMD CPU Monopol.

Dazu kommt, dass ich die nächste Zeit meine 5800X3D nicht tauschen werden müssen.


Lange kann auch Intel so eine Durststrecke mit schrottigen CPU-Produkten nicht ohne Blessuren überstehen.



Viele Grüße,
stolpi
 
Weiß jetzt nicht worüber man sich nun genau beschweren sollte?
Weil ein 14700K nicht das ist, was Intel verspricht, nämlich der Nachfolger des 13700K. Ein 14700K ist ein teil-deaktivierter 13900K. Das geht auch nicht anders, weil der "neue" 14900K nicht der alte 13900K sein kann, sondern der 13900KS. Allerdings hat ein 14700K vier E-Cores weniger und wahrscheinlich keinen TVB, ist also ein Abklatsch des 13900K. Gefeiert wird die CPU allerdings als "schnellerer 13700K". Marketing, wie es im Buche steht. :ka:
 
Schauen wir mal ob das auch nach den Sicherheitsupdates so bleibt. Ich befürchte da böses Erwachen ^^
<hüstel>
Aktuelle Sicherheitslücke bei Intel beträgt schlappe 39% Performanceverlust.
<hüstel>


By the way: auch Intel ist zum Teil von der gleichen Sicherheitslücke wie AMD betroffen!

Also "Doppel-Wums" zurück an die Intel-Fanboys! :-P

Aber mal im Ernst:
solange die Angriffsarten nur im Labor so gut funktionieren und normale Spieler und Internetsurfer da jetzt nicht akut in Gefahr sind und Seiten wie PCGH nicht alles mit Patches neu testen müssen: macht da keinen großen Hermann von und bleibt ruhig.
Die Sicherheitslücken sind meterlange Seiten, bei Intel sind das hunderte offene Punkte, viel mehr als bei AMD, weil man auch mehr darauf testet.

Einige haben auch keinen Bock mehr, dauernd Patches für solche Lücken schreiben oder einbringen zu wollen, weil man echt 20,30 oder sogar 50% an performance verlieren würde.

Z.B. hier zu lesen:

Linux hatte ja schon bei Spectre und Meltdown mal aufgegeben, weil dann zahlreiche Intel Prozessoren quasi völlig unbrauchbar geworden wären.
 
Zuletzt bearbeitet:
Und alle ernsthaften Spieler haben bereits einen AMD Ryzen 5800X3D bzw. 7800X3D und genießen die leichte, kühle Luftbrise.
Ich hab (noch) nur nen 3600 bin ich kein echter Spieler?
Was soll ich den machen bei 99% aller Spiele die ich Spiele wäre sogar ein R3 overpowered...
4000+ Stunden auf MoO2 und etwas weniger bei Colonisation, Indygames sind meist nicht so fordernd
300 Stunden mit nem <5€ Brotato...
(wobei ich schon über meine PC Power in 1% der Spiele aber froh bin, stell sich einer mal vor ich müsste
Resi 4 mit 8 GB zocken.... da kann ich ja gleich die Wii anschließen)
@PCGH_Dave das die Leutz sich noch darüber wundern :D.
 
*hüstel*
Aktuelle Sicherheitslücke bei Intel beträgt schlappe 39% Performanceverlust.
Bitte weniger dumm selektiv die Quellen zitieren... :rollen:

In der Spitze waren es 39% mit einem gammeligen i7-1165G7.
Und natürlich wird auch unterschlagen, dass es sich um AVX 2 und AVX 512 workloads handelt.
Und natürlich wird auch unterschlagen, dass die 12000er und 13000er Intels nicht davon betroffen sind.

Aber hauptsache man schmeißt mal ganz trollig eine willkürliche Zahl in den Raum um die Diskussion voran zu bringen :nene:
 
5% schneller bei 30% WENIGER Verbrauch. Das wär doch mal was..
Das geht bei den Amis net. Dort gilt doch immer bei allem: bigger is better:D Und der Verbrauch, was juckt die der Strompreis in Deutschland...

Gruß
Und alle ernsthaften Spieler haben bereits einen AMD Ryzen 5800X3D bzw. 7800X3D und genießen die leichte, kühle Luftbrise.
Problem gelöst, Markt gesättigt.
Also, deiner Aussage nach sind alle diejenigen (die keinen X3D von AMD nutzen) keine ernsthaften Spieler. Ernsthaft...:D

Gruß
 
Zuletzt bearbeitet:
Und der Verbrauch, was juckt die der Strompreis in Deutschland...
Bei 30W Mehr musste schon ~ 33h Stunden für eine kWh zocken. Solange die kWh hier nicht 5€ kostet, juckt es auch keinen in D. :D

Aber es gibt auch Leute die Arbeiten damit und da ist der AMD Prozessor weit weg von einem Allrounder!
Was ist denn für dich "damit Arbeiten"?

Im Multicorebereich liegen wir beim Vergleich 7950X3D und 13900K im einstelligen Prozentbereich zu Gunsten des 13900K und in der Tendenz deutlichen mehr Abstand beim Zocken zu Gunsten des 7950X3D bei gleichzeitig deutlich weniger Verbrauch im Schnitt beim 7950X3D - ich gehe jetzt mal von System OOTB aus, wie es die meisten vermutlich betreiben werden.
 
Wie immer zu viel Drama um die Leistungsaufnahme. Bei Geräten die 24/7 laufen ist das freilich ein entscheidender Aspekt. Beim Gaming PC ist das hingegen so was von irrelevant. 7 Tage haben 168 Stunden, wenn man davon als Vollzeitarbeiter 10-12 Stunden zockt ist das wahrscheinlich schon hoch angesetzt für viele. Ob in den 10-12 Stunden die CPU nun 70-80 Watt oder 120 Watt zieht beim Gaming ist am Ende des Jahres völlig vernachlässigbar.

Das sind Kleckerbeträge wie sie uninteressanter nicht sein könnten.
 
nur wenn man ne Vergütung von 50 Cent pro Kilowatt hat,dann ist das sehr wohl relevant.Aber man wechselt dann einfach zu nem Anbietrer mit 30 Cent pro Kilowatt.
Achja und wo werden die 5 % mehr dann sein,bei AVX Anwendung.Na dann bin ich wohl aus dem ganzen raus.
 
Die Verbräuche gehen ja mal gar überhaupt nicht. 260W bei (arbeits) Rendering Last :klatsch::rollen: die 13te Gen ist ja schon ekelerregend aber das hier muss ja jetzt nicht sein.
5% schneller bei 30% WENIGER Verbrauch. Das wär doch mal was..
Zumindest der klar richtige Weg und nicht wie nun der ganz klar falsche :schief:.
Und alle ernsthaften Spieler haben bereits einen AMD Ryzen 5800X3D bzw. 7800X3D
Was natürlich absoluter Bullshit ist :klatsch:
 
Zuletzt bearbeitet:
Zurück