News Intel Core Ultra: Meteor Lake soll der erste 3D-Hybrid-Prozessor werden

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel Core Ultra: Meteor Lake soll der erste 3D-Hybrid-Prozessor werden

Die kommenden Core-Prozessoren der Generation "Meteor Lake", die als Intel Core und Intel Core Ultra vermarktet werden, sollen als erste "3D-Hybrid-Prozessoren" insbesondere auf hohe Effizienz und KI optimiert worden sein. Im Rahmen der "Intel Tech Tour: Meteor Lake" gibt der Hersteller erstmals einen tiefen Einblick in die Mikroarchitektur der CPUs.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Intel Core Ultra: Meteor Lake soll der erste 3D-Hybrid-Prozessor werden
 
Einerseits ne neue stufe wollen mit der brechstange die 5,5ghz reisen zu wollen und dafür Effizient zu sein irgend wie passt das so garnicht zu einander und das problem ist einfach das intel aktuell so weiter macht und die aktuelle diskurs "Umweltschutz" irgend wie nicht interessiert sonst würden sie Effiziente CPUs verbauen die halt auch in Syntetischen Benchmarks weniger ziehen als bis her. Aber das ist ja nicht der fall in so fern ist das halt ne echtes Problem.

Und bei den Preisen und den möglichen Cash den amd schon hat weis ich nicht wo intels reise hin gehen soll was wollen die die Gaming Krohne zur last des Verbrauches. Irgend wo kann das auf keinen fall an gehen irgend was stinkt da total.

Hab den artikel irgend wann halb überfolgen nach der effizients gedöns.
 
Einerseits ne neue stufe wollen mit der brechstange die 5,5ghz reisen zu wollen und dafür Effizient zu sein irgend wie passt das so garnicht zu einander und das problem ist einfach das intel aktuell so weiter macht und die aktuelle diskurs "Umweltschutz" irgend wie nicht interessiert
Das passt so zusammen, dass man den Artikel einfach mal KOMPLETT liest, bevor man anfängt mal wieder blindes bashing zu betreiben.

Intel4 -> effizienter bei gleichem Takt und der ist nicht 5,5Ghz, sondern 5,1 Ghz maximal (laut leaks).
Ich weiß nicht, wo genau du die 5,5Ghz her hast. Nicht aus dem Artikel.

CPU-tile und GPU-tile werden komplett abgeschaltet, wenn man nur youtube / Filme schaut.
 
Ich find das Design spannend. Den Thread Director hat man ja bereits gut im Griff seit Alder Lake, denke das wird für Laptops richtig gut werden. Ich hoffe dass Arrow Lake für den Desktop dann ein anderes Schmankerl bereit hält.
 
Einerseits ne neue stufe wollen mit der brechstange die 5,5ghz reisen zu wollen und dafür Effizient zu sein irgend wie passt das so garnicht zu einander und das problem ist einfach das intel aktuell so weiter macht und die aktuelle diskurs "Umweltschutz" irgend wie nicht interessiert sonst würden sie Effiziente CPUs verbauen die halt auch in Syntetischen Benchmarks weniger ziehen als bis her. Aber das ist ja nicht der fall in so fern ist das halt ne echtes Problem.

Und bei den Preisen und den möglichen Cash den amd schon hat weis ich nicht wo intels reise hin gehen soll was wollen die die Gaming Krohne zur last des Verbrauches. Irgend wo kann das auf keinen fall an gehen irgend was stinkt da total.

Hab den artikel irgend wann halb überfolgen nach der effizients gedöns.

Wir haben in der IT und außerhalb davon ganz andere Dinge zu bewältigen die unserer Umwelt zu Gute kommt, als sich darum zu kümmern ob Intel jetzt 350 Watt oder AMD 220 Watt in synthetischen Benchmarks zieht.

Damit will ich das Thema nicht irrelevanter machen als es ist.
Aber es gibt noch wesentlich wichtigere Dinge auf diesem Planeten.
 
Ob das mit dem 3D so gut kommt? Ich meine AMD hat ja angefangen seine CPUs um die Bezeichnung 3D zu erweitern, man meint bei Intel jetzt was anderes aber 3 Jahre nach AMD seine CPUs nun auch irgendwie mit 3D zu beschimpfen kann mit Sicherheit verstörend empfunden werden.

Ansonsten finde ich den Ansatz interessant, glaube sogar, dass E-Cores mittelfristig wieder aus dem Compute Tile verschwinden, denke aktuell hat sich doch relativ etabliert, dass man im Consumer Segment mit bis zu 8 P Cores gut auskommen kann, im Idle (da wo man sich oftmals befindet) könnte dieser Teil somit komplett deaktiviert werden und bspw. 4 E-Cores mit 2Ghz Basis im SoC würden für 99% ausreichend sein.

AMD hat sich ja bspw. auch aus dem Wettrennen um die Anzahl der Kerne im Consumerbereich verabschiedet, 16 Kerne sind nun schon seit Jahren das Maximum und ich denke, dass sich dies auch nicht so schnell ändern wird. Wer mehr braucht, muss im Workstation Bereich schauen, da legt AMD jetzt mit 64 Kernen CPUs hin und Intel wird dort die E-Cores in hoher Anzahl bringen müssen.
 
Ich habe von den E cores noch nie viel gehalten, die Takt und Strom schraube einer vollwertigen CPU erreicht meistens das selbe Ergebnis. Damals habe ich mit meinem FX 8350 mit Untervolt auf 0,750 v und einer Takt Sperre auf den kleinsten Pstate Ergebnisse erzielt wo sich mancher Ryzen warm anziehen muss . Wobei mir das heute egal ist, der PC ist nur noch daddel Kiste und Scheiss drauf was er da zieht ?im Alltag nutze ich einen Think Client mit einer max von 16 Watt, sparsamer wird's nicht mehr...
 
Wie viel wird der Prozessor verbrauchen? Bei welcher Leistung? Danke.
Das werden dir die ganzen Tester am 14. Dezember beantworten.

Ich find das Design spannend. Den Thread Director hat man ja bereits gut im Griff seit Alder Lake, denke das wird für Laptops richtig gut werden.
Besonders die nummer, zwei E-Kerne in den SOC-Tile zu schieben ist cool. Denn seien wir ehrlich - für 95% des normalen Workloads des Ottos da draußen braucht es keine schnelle CPU oder Performancekerne. Im Internet lesen, Netflix und YouTube kucken, ne Mail schreiben, bisschen SocialMediagedöns, die ganze Treiberschieberei im Hintergrund usw. - das machen zwei E-Kerne alles mit links und der eigentliche Kern kann weiter pennen. Das könnte dazu führen, dass nicht nur die Idleverbräuche sehr niedrig sind (was sie ja heute schon sind bei intel) sondern auch nicht ständig spiken wenn der Nutzer keine Ahnung bei Outlook auf "neue Mail" klickt und ein Fenster aufgeht. Da ist für Office-/Multimedia-PCs ein irres Sparpotential drin.
 
Zuletzt bearbeitet:
Ich weiß nicht, wo genau du die 5,5Ghz her hast. Nicht aus dem Artikel.
Ich bashe nicht. Wahr nicht erwähnt überspitzt gesagt die Thematik die uns seit der 10ner generation beschäftigt und ihr wollt es nicht höhren das Intel nicht effizient ist. Sie sind es aber mit syntetischen benchmarks 300 watt aus der dose ziehen ist nicht effizient.
 
Sie sind es aber mit syntetischen benchmarks 300 watt aus der dose ziehen ist nicht effizient.
Und was ist in der tatsächlichen Praxis da draußen, wo Millionen von PCs im Idle in Büros und Wohnzimmern rumstehen aber nur ein paar Hundert Nerds systhetische Benchmarks machen wichtiger/effizienter?
Eine CPU, die im Idle 5W braucht und im Benchmark 300 oder eine CPU, die im Idle 20W braucht und im Benchmark 150?

Natürlich ziehen die großen Intel-CPUs Strom ohne Ende wenn man sie voll belastet (und lässt) - nur ist das eben in der realen Welt die absolute Ausnahme dass das vorkommt. Nur in den Foren wird das halt traditionell brutal overhyped - bei aktuellen Intels, vorher beim AMD FX und davor beim Pentium4. Immer dieselbe Leier und damals der gleiche Käse wie heute. Für die große Masse an Rechnern ist was Effizienz angeht der kleine teillastbereich entscheidend, einfach weil die Dinger heute so schnell sind dass die allermeisten Workloads den die Leute so haben nur noch winzige Lasten erzeugen.
 
Ich bashe nicht. Wahr nicht erwähnt überspitzt gesagt die Thematik die uns seit der 10ner generation beschäftigt und ihr wollt es nicht höhren das Intel nicht effizient ist. Sie sind es aber mit syntetischen benchmarks 300 watt aus der dose ziehen ist nicht effizient.
Also hast du immer Volllast anliegen? Wenn ich mir meinen 5900x in Gaming Last ansehe dann ist der Stock alles aber nicht effizient.

Am Ende ist das Prinzip echt interessant gerade im niedrigen Lastszenarien gibt es gute Einsparpotentiale aber dann muss der Scheduler liefern und da würde ich erstmal abwarten was dann am Ende rum kommt.
 
"Gemeinsam mit Microsoft wurde Windows 11 so angepasst, dass der bestmögliche Support für Meteor Lake gegeben sein soll."

Na wenn das mal gut geht ?!?
Gut, der INTEL Geldkoffer an MS war vermutlich etwas dicker um die neue Architektur zu unterstützen.,
als jener von AMD bzgl. Bulldozer oder für eine "ordentliche" 16/32 C/T CPU.
 
Für die große Masse an Rechnern ist was Effizienz angeht der kleine teillastbereich entscheidend, einfach weil die Dinger heute so schnell sind dass die allermeisten Workloads den die Leute so haben nur noch winzige Lasten erzeugen.
Wobei die schon oft dazu neigen, ab Werk relativ schnell und weit hochzuboosten. Da kann man mit einem Powerlimit noch viel machen, ohne dass man was davon merken würde.
 
Zurück