Lord-Haelmchen
PC-Selbstbauer(in)
Äääähmmmm..... NÖ!Es ist ja schon bekannt, dass Intel uns mit Meteor Lake noch mehr von diesen Dingern schenken wird. Gewöhnt euch also dran
Äääähmmmm..... NÖ!Es ist ja schon bekannt, dass Intel uns mit Meteor Lake noch mehr von diesen Dingern schenken wird. Gewöhnt euch also dran
wie flexibel ist das Ganze eigentlich: ist es möglich einfach nach Verfügbarkeit (bei Arrow Lake dann), dazuzustöpseln was man will? Also etwa die qlte GPU für Einsteigerlaptops, die bessere für hochpreisige? Kann man theoretisch, wenn man feststellt, dass die Lager noch voll mit der für MTL gedachten GPU sind, sein, dass man diese GPU dann später nochmal verwendet oder ist der Aufwand zu groß?Der CPU-Tile von MTL ist Intel 4, unten rechts entsprechen beschriftet. Die Intel 20A für Arrow Lake sind ebenfalls für den CPU-Tile bestätigt, aber der Rest meinem Wissen nach noch offen. Es wird allgemein davon ausgegangen, dass der Graphics Tile bei TSMC bleibt, da man so weniger Transferaufwand von den dGPUs hat. Aber ob es N5, N4 oder schon N3 wird? Letzteres galt für Meteor Lake und Arrow Lake mal als sicher und es kommt nicht in MTL zum Einsatz, aber damals wurde Lunar Lake auch noch als Intel 18A gehandelt und jetzt ist N3 für dessen -MX-Ausführung im Gespräch. Zu SOC und IO habe ich noch gar nichts gehört. Wie so oft interessiert sich außer dem Mainboard-Fachredakteur niemand für den "Plattform"-Teil des Produkts.^^ Denkbar wäre sogar eine 1:1-Übernahme der entsprechenden MTL-Tiles. (Ehrlich gesagt hatte ich die auch bei Graphics erwartet, aber wenn man jetzt XMX nutzen will, muss da von vorne anfangen.)
Ich verstehe diese Kritik ehrlich gesagt nicht. Gibt es mittlerweile zu viele Artikel zu Gerüchten? Ich würde sagen ja.Was für schlagende News Core Ultra vs Ryzen
Und die wenigsten interessierts realpolitisch.
Wie wärs mal wenn man sich auf das alte Format zurück besinnt und wirklich mal Prozessoren und Grafikkarten aus dem Einstiegssegment und der Mittelklasse testen würde anstatt dem nächst höheren Ziel in Arsch blässt.
PCGH ist als Zeitschrift seit 2019/20 uninteressant, ihr vergleicht nur noch Highend.
Wenn ihr meint das ist die PCGH dann wirds wohl so sein,
wieso gibts dann aber Youtube Channels mit zig tausend Abos wo einfach nur die Mitte der Konsumenten angesprochen werden wo von CPU vom Entry alias 10400F bis zum 14900K von der Arc 310 bis zur RTX 4090 alles durch den Benchmark Parcour durchgejagt wird.
Das ist nicht PCGH, das ist die PCGH vom Springer Verlag die die Leser für dumm verkaufen will
du liest wohl ein anderes PCGH als ich, klapp mal alle CPUs/GPUs aus bei den TestWas für schlagende News Core Ultra vs Ryzen
Und die wenigsten interessierts realpolitisch.
Wie wärs mal wenn man sich auf das alte Format zurück besinnt und wirklich mal Prozessoren und Grafikkarten aus dem Einstiegssegment und der Mittelklasse testen würde anstatt dem nächst höheren Ziel in Arsch blässt.
PCGH ist als Zeitschrift seit 2019/20 uninteressant, ihr vergleicht nur noch Highend.
Wenn ihr meint das ist die PCGH dann wirds wohl so sein,
wieso gibts dann aber Youtube Channels mit zig tausend Abos wo einfach nur die Mitte der Konsumenten angesprochen werden wo von CPU vom Entry alias 10400F bis zum 14900K von der Arc 310 bis zur RTX 4090 alles durch den Benchmark Parcour durchgejagt wird.
Das ist nicht PCGH, das ist die PCGH vom Springer Verlag die die Leser für dumm verkaufen will
Nicht nur hier auf der Seite sondern auch auf ihrem YT Channel wird Low End Hardware vorgestellt.Was für schlagende News Core Ultra vs Ryzen
Und die wenigsten interessierts realpolitisch.
Wie wärs mal wenn man sich auf das alte Format zurück besinnt und wirklich mal Prozessoren und Grafikkarten aus dem Einstiegssegment und der Mittelklasse testen würde anstatt dem nächst höheren Ziel in Arsch blässt.
PCGH ist als Zeitschrift seit 2019/20 uninteressant, ihr vergleicht nur noch Highend.
Wenn ihr meint das ist die PCGH dann wirds wohl so sein,
wieso gibts dann aber Youtube Channels mit zig tausend Abos wo einfach nur die Mitte der Konsumenten angesprochen werden wo von CPU vom Entry alias 10400F bis zum 14900K von der Arc 310 bis zur RTX 4090 alles durch den Benchmark Parcour durchgejagt wird.
Das ist nicht PCGH, das ist die PCGH vom Springer Verlag die die Leser für dumm verkaufen will
schade dass AMD e-cores immernoch nicht hinbekommt. vielleicht mit AM6 aber AM5 hätte auch genug Lanes
Wo bitteschön machen sie AMD das Leben schwer? AMD hat es nicht mal für nötig gehalten, mit Zen 4 die Kernanzahl zu erhöhen, obwohl Intel mit dem 13900K zur gleichen Zeit satte 50% mehr Kerne an den Start gebracht hat. Was automatisch die MT Energieeffizienz erhöht, ohne dass man irgendwas am Design oder der Fertigung ändern muss. Mal abgesehen davon, was soll ein cherry picked CB R23 Vergleich aussagen? Genau, rein gar nichts. Zumal CB seit jeher Intel deutlich besser liegt. Ausnahme war vielleicht R15.Wenn die so Abfall sind, wieso machen sie AMD im Multithreading dann das Leben so schwer?
Edit:
Anhang anzeigen 1447905
Wenn das "Abfall" sein soll, was sind denn dann AMDs Kerne?
Mal wieder nur unqualifizierter Nonsense eines roten Verehrers.
Du vergleichst hier übrigens Äpfel mit Birnen (HEDT vs. Desktop) und den Benchmark mit einem 13900K bei nur 3 GHz (!) kann ja wohl kaum ernst nehmen. TR 7000 ist übrigens der Konkurrent von Emerald Rapids, nicht einer Desktop-Architektur, die vor über zwei Jahren gestartet ist....bei halbe Leistung versteht sich
Größter Schwachsinn, den ich jemals gelesen habe. AMD bietet nur 16 Kerne im Mainstream, weil man ansonsten sich selbst (Threadripper) kanibalisieren würde und kein Spiel von diesem Corecount auch nur ansatzweise profitiert. Wer viel MT Leistung braucht, für den ist Threadripper bzw. Epyc und die CPUs lässt AMD sich fürstlich bezahlen.Intels E-Kerne machen AMD das Leben also keineswegs schwer. Eher so wird ein Schuh daraus, auch Intels E-Kerne sind nicht gut genug, um AMD dazu zu nötigen, endlich mehr Kerne im Desktop Markt zu bringen. Seit Zen 2 sieht AMD keine Notwendigkeit, mehr als 16 Kerne zu bringen. Vor Alder Lake stand Intel da völlig auf verlorenem Posten. Und seit Alder Lake können sie mit den E-Kernen maximal Schadensbegrenzung betreiben, mehr aber auch nicht.
wie flexibel ist das Ganze eigentlich: ist es möglich einfach nach Verfügbarkeit (bei Arrow Lake dann), dazuzustöpseln was man will? Also etwa die qlte GPU für Einsteigerlaptops, die bessere für hochpreisige? Kann man theoretisch, wenn man feststellt, dass die Lager noch voll mit der für MTL gedachten GPU sind, sein, dass man diese GPU dann später nochmal verwendet oder ist der Aufwand zu groß?
Danke ja, deshalb ja meine Frage, ob man einen Lückenfüller machen kann. Stimmt aber, damit sich das rechnet (man muss den dann ja auch in ausreichender Stückzahl anbieten, auch wenn man mit wenig Verkauf rechnet).Flexibilität dieser Art soll einer der Vorteile des Tile-Konzeptes werden, ja. Um sie tatsächlich zu nutzen, muss man aber natürlich auch Schnittstellen und physische Dimensionen der Chips konstant halten. In der Vergangenheit tendierte Intel eher zu einer Vielfalt unterschiedlicher Chips, die zwar alle auf dem gleichen Baukasten basieren, aber für verschiedene Märkte unterschiedlich gefertigt werden. Bei den Stückzahlen, die die umsetzen, muss man sich schon sehr verplanen, damit einzelne Bauteile eines Prozessors am Ende in so großer Menge auf Lager liegen bleiben, dass sich ein weiteres Produkt damit lohnt.
An sich richtig. Jetzt um die Gleichung zu komplettieren stellst du noch den Balken mit der Leistungsaufnahme dazu und schaust wie das kombinierte Ergebnis aussieht. 2% mehr Leistung bei 50% mehr Verbrauch oder so ?Wenn die so Abfall sind, wieso machen sie AMD im Multithreading dann das Leben so schwer?
Wenn das "Abfall" sein soll, was sind denn dann AMDs Kerne?
Mal wieder nur unqualifizierter Nonsense eines roten Verehrers.
Ja, weil der 7950X hier auch 230W+ aus der Dose zieht. Die nehmen sich in heavy MT workloads beide nichts, aber nice try mal wieder zu relativierenIst das Ergebnis dann immer noch gleichermaßen gut zu bewerten ?
wo ist dein hier?Ja, weil der 7950X hier auch 230W+ aus der Dose zieht.
Gut, dann waren es halt 212W. Die 18W machen den Kohl natürlich fettIn dem tests auf PCGH des 7950x waren es 214w im schnitt und beim test des 14900k waren es für den 7950x im schnitt 212w was beides doch etwas unter 230w+ ist.
Die Sprache war aber nicht vom 14900K, sondern vom 13900K.Und deutlich weniger als die 292w des 14900k ist der damit "Fette" 4% im schnitt in Anwendungen schneller ist.
Wenn man nicht genau sein will kann man ja schon fast von 200-300w sprechen ...Gut, dann waren es halt 212W. Die 18W machen den Kohl natürlich fett
Ok hab dann sind es nur 269w bei 1,2% Mehrleistung.Die Sprache war aber nicht vom 14900K, sondern vom 13900K.