News Ryzen 9000X3D: Neue Gerüchte zum 3D V-Cache enttäuschen

denn die News, dass man Ryzen 9000X3D vollständig OCen kann gab es doch schon, oder hab ich die geträumt?
Es gibt Gerüchte in alle Richtungen. News dass dem tatsächlich so ist (und wie genau - es wäre beispielsweise auch, ich spinne mal, möglich dass der Cache eine andere Takt-/Spannungsdomäne bekommt und man die kerne übertakten kann ohne den Cache mitzuziehen) gibts frühestens Ende Juli...

nicht bös nehmen Dave, aber eine gewisse Grundabneigung gegenüber AMD ist unterschwellig oftmals da.
Son Quark. Genauso wie andere ihm vorwerfen dass er anti-Intel ist wenn er seinen ultraeffizienten optimierten 7800X3D anführt.

Welcher Redakteur (/Mod /User) in welchem "Lager" ist ändert sich dynamisch je nachdem welche Aussage er trifft. Blöderweise ist das in den allerallermeisten Fällen eine subjektive Bewertung von dem, der die Aussage liest und hat nichts mit der Realität zu tun. Nicht alle Leute die irgendwas positives oder negatives über ein Produkt X der Firma Y schreiben sind automatisch für oder gegen die Firma allgemein. Eigentlich ist letzteres sogar eine ziemliche Ausnahmeerscheinung (eine Firma zu personifizieren und Gönner oder Hater derselben zu werden ist kein besonders häufiges psychologisches Problem, aber die Patienten dies haben sind halt sehr laut im Netz :haha: ).
 
amd hatte doch auch schon vorher bei den 3d cpus rumexperimentiert
anscheint reicht der aktuelle standart vom cache um wieder die schnellste gaming cpu zu haben
sparen sich da sicher auf bis sie es wirklich brauchen
 
Schade, also nochmals die 2ccd-frankensteins wenn man mehr als 8cores haben möchte. Da würde ich ja fast schon zu Intel greifen wenn deren neue Gen überzeugt und nicht so viel fressen würde...
 
Wenn ich nur beim überfliegen des Freds lese das mittlerweile nicht nur Intel mit AMD CPUs verglichen werden um ein Argument zu finden den AMD zu nehmen hinsichtlich Verbrauch.

Das sehe ich ja irgendwoooo noch.

Aber das hier mittlerweile innerhalb AMD CPUs X3Ds vs. Non X3Ds hinsichtlich Verbrauch verglichen werden um da noch ein Argument für eine CPU zu finden die ~20W unter Volllast weniger säuft wie die andere.

Das macht echt kein Spaß mehr so langsam.

Und dann werden Gamer am PC als ein großer Markt auch noch gesehen weshalb die X3D CPUs natürlich total aufregend sind.

:kaffee:

Ja die X3Ds sind aufregende CPUs aber für einen nicht besonders großen Markt.
 
Welcher Redakteur (/Mod /User) in welchem "Lager" ist ändert sich dynamisch je nachdem welche Aussage er trifft. Blöderweise ist das in den allerallermeisten Fällen eine subjektive Bewertung von dem, der die Aussage liest und hat nichts mit der Realität zu tun. Nicht alle Leute die irgendwas positives oder negatives über ein Produkt X der Firma Y schreiben sind automatisch für oder gegen die Firma allgemein. Eigentlich ist letzteres sogar eine ziemliche Ausnahmeerscheinung (eine Firma zu personifizieren und Gönner oder Hater derselben zu werden ist kein besonders häufiges psychologisches Problem, aber die Patienten dies haben sind halt sehr laut im Netz :haha: ).
Redakteure sind wie die meisten User hier: Sie stehen auf die besten Produkte. Wenn ich die schnellste Grafikkarte will, führt kein Weg an einer 4090 vorbei. Wenn ich einen schnellen und effizienten Prozessor will, geht nichts am X3D aktuell vorbei. Wenn ich das letzte bisschen Leistung will, brauch ich einen Raptor Lake. Was in der Mittelklasse dann am besten ist, muss man dann schauen, ob einem die Features des jeweiligen Herstellers wichtiger sind als die des anderen. Keine Ahnung warum sich manche Leute persönlich beleidigt fühlen wenn man ein bestimmtes Produkt seines "Lieblings Herstellers" kritsiert.
 
All das Genöle um Stromverbrauch gibts halt nur hier, alle anderen, insbesondere die Amis, wollen ganz einfach den längsten Benchmarkbalken kaufen. Ob 200W mehr oder weniger ist egal.
Ich weiß ja nicht, wie viel die Amis für ihren Strom bezahlen, aber ich denke, wenn die das Gleiche zahlen, wie wir hier, würden die auch anders entscheiden.
 
Ein V-Cache auf beiden CCDs hätte ja immer noch das Problem, dass Daten über den IF geschickt werden müssen. Dann man man sich den Bums auch sparen.
 
Nichts schlimm mit freigeschaltetem OC kann man einiges an FPS gut machen. Es gab doch neulich aber auch die Meldung, dass man Verbesserungen an dem V-Cache vorgenommen hat.
Jetzt frage ich mich als Laie, was die damit gemeint haben, was wurde den verbessert im Vergleich zum Vorgänger.
Wenn AMD damit das OC anspricht, haut mich das jetzt nicht wirklich vom Hocker. Wie sieht ihr das eigentlich und könnt ihr was dazu schon sagen.
Diesmal werde ich mir einen 12 Kerner mit V-Cache kaufen und ich hoffe, das hat sich mehr getan zum Vorgänger. Ansonsten wird es wieder nur der 8 Kerner, mehr wie 12 benötige ich nicht genau die Goldendemitte.

Vielleicht war auch damit die Verbesserung gemeint, die im Netz rumgeht. Die haben endlich das Problem beseitigt, aber wenn alles beim alten ist und die nur mit OC prallen dann gute Nacht.

AMD-6+6-Kerner dürften aus Gaming-Sicht auch weiterhin die schlechteste Wahl sein. Die IF-Verbindung ist einfach nicht schnell genug für die Ansprüche von Spielen und je CCD hast du weniger Kerne als bei einem 9800X3D.

Eine extreme Verbesserung wäre, wenn der 3D-Cache nennenswerte Spannungen mitmachen würde ohne davon spontan zu sterben. Das ist der Grund, warum die X3D-CPUs (mit dem stacked Chiplet) so niedrig takten.

Wenn der neue 3D-Cache auch 1,5v abkann ohne sofort draufzugehen können X3D-CPUs auch rund 1 GHz höher takten als bisher. Dadurch würde zwar die irre gute Effizienz unter Last verschwinden (die praktisch ein "Abfallprodukt" davon ist dass man eben nicht mehr Spannung benutzen kann... AMD ist praktisch technisch gezwungen näher am Sweetspot zu laufen) aber die Performance stark steigen.

Eine getrennte Stromversorgung für den Cache wäre die elegantere Lösung. Ob AMD am Chip selbst überhaupt was geändert hat, bleibt abzuwarten – für ohnehin sparsamen Cache ist N7 effizient genug und man muss zwecks Höhenausgleich ohnehin den ganzen Basis-CCD irgendwie abdecken, da lohnen Investitionen in kompaktere Prozesse nicht.

Ich bleibe dabei, dass ich diese Energieeffizienzdiskussion bei vielen nicht kapiere.
Da gibts User, für die sind beispielsweise 50W mehr im Idle ein Ausschlusskriterium. Das sagen/schreiben sie und sitzen dabei, völlig unnötiger Weise, an ihrem PC mit blinkblink Tastatur, der im idle eben dann 40W zieht, vor einem Monitor der auch gern mal 100W zieht... obwohl sie das Meiste das sie an dem Gerät tun, auch mit 2-8W am Smartphone machen könnten. Geht mir absolut nicht in den Kopf. Microsoft Office beispielsweise läuft super auf dem Smartphone/Tablet, drucken ist seit zehn Jahren on the fly möglich...
Klar, spezialisierte Software braucht den PC, aber dann ist man auch nicht im idle und vor allem... warum sollte man dafür extra eine gaming-GPU verwenden? Ergibt in meinen Augen gar keinen Sinn.

Sprich: "Ich verbrauche aus Bequemlichkeit gern knapp 100W im Leerlauf (inkl. TFT), sage aber dass bei 150W die Umwelt leidet, obwohl ich das mit einem zwanzigstel hinbekommen könnte..." wirkt auf mich doch etwas fragwürdig.

Bei Neukäufen sollten man außerdem deren Preis berücksichtigen – sowohl in Euro als auch Tonnen CO2. Die relativen Unterschiede bei Leerlaufverbräuchen sind zwar groß und ich haue jedem Board eine rein, dass ohne Grund 20-30 W mehr verbraucht. Aber auf die gesamte Nutzungsdauer im Primär-PC reden wir hier trotzdem nur von wenigen 100 kWh. Wenn dafür ein kompletter Chip zusätzlich belichtet und bezahlt werden muss, kann das sowohl ökonomisch als auch ökologisch zweischneidig sein. Noch übler wird die Bilanz, wenn geeignete Hardware bereits vorhanden ist – da müsste man schon 100 W oder mehr einsparen, ehe sich ein Austausch oder gar eine Ergänzung lohnt.
 
und Gönner oder Hater derselben zu werden ist
Hierzu will ich mal kurz Stellung beziehen, denn an keiner Stelle würde ich hier Dave oder sonstwem unterstellen Hater einer Firma zu sein. Aber es ist nunmal relativ klar, dass jeder (auch ich) eine Marke, eine Firma, einen Verein, eine Partei oder was auch immer bevorzugen und eher mal etwas verzeihen, als der Konkurenz. Ich habe meine Probleme mit Intel und werde das auch ganz sicher nicht so schnell ablegen, dafür hat Intel in den letzten 30 Jahren einfach zu viel Mist gebaut! Dennoch habe ich natürlich auch in den Zeiten wo AMD hoffnungslos unterlegen war, der deutlich besseren CPU zugewandt. Aber in Zeiten wo die Unterschiede marginal sind, selbst wenn Intel effizienztechnisch auf Augenhöhe wäre, würde ich bei vergleichbaren Preisen zu AMD greifen, Dave würde (meine Betrachtung) hier sehr vermutlich zu Intel greifen. Finde ich nicht schlimm, nicht dramatisch, ist menschlich.

ine Firma zu personifizieren und Gönner oder Hater derselben zu werden ist kein besonders häufiges psychologisches Problem, aber die Patienten dies haben sind halt sehr laut im Netz :haha:
gut, dass der zweite Halbsatz noch folgte, denn ich wollte gerade in den Raum werfen, dass diese sich alle hier sammeln!!!
 
Mich interessiert ein geringerer Stromverbrauch eigentlich nur wegen hoffentlich geringerer Abwärme und damit leiseren Lüftern. Ich pfeife darauf, ob ich was mit 200 Watt für eine Feierabendstunde einen My gegen steigende Meeresspiegel tue oder nicht. Strom verbrauchen wir im Gegensatz zum Bundesdurchschnitt richtig wenig und ich weiß ehrlich nicht, wieso. Ob ich da 50 oder 100 Watt einspare oder peng.

Ich habe außerdem keine Lust, ein 2000 Watt Netzteil zu kaufen, die es nach wie vor kaum gibt. Und anstatt dass die daran arbeiten, will man lieber ZWEI Netzteile für jeweils Grafikkarte und dann für alles andere bemühen. Irgendwann machen das auch die Leitungen nicht mehr mit und wir müssen Starkstromkabel verlegen oder sowas.

Ganz normal ist das jedenfalls nicht und das hat nichts mit dem Klima zu tun.
 
Der Tag des jüngsten Gericht, die Apokalypse nähert sich mit rasenden
Schritten. Der goldene Gral aller Gaming-CPU's in Form des 9950X3D, ausgestattet
mit 3D V-Cache der 3. Generation wird Arrow Lake in zwei Hälften zerteilen und danach wieder unzerkaut ausspucken.

Bandbreite zwischen dem CCD- und dem SRAM-Chip:
1. Gen. 3D V-Cache ----> 2 TB/s
2. Gen. 3D V-Cache ----> 2,5 TB/s
3. Gen. 3D V-Cache ----> 3,5 TB/s?
 
Ich bleibe dabei, dass ich diese Energieeffizienzdiskussion bei vielen nicht kapiere.
naja wir haben immer mal wieder darüber geplaudert, wir gehen halt auch unterschiedlich an das Thema ran.
Du sagst ja, dass bei dir der PC nur selten läuft. Dann ist Verbrauch irrelevant in der Umweltbilanz, weil du ein zehntausenfaches bei Kauf (also für die Erzeugung eines Produktes) verbrauchst
Bei mir läuft er ständig, weil ständig drauf gearbeitet wird, nebenbei laufen mehrere Sachen, so hier etwa grad der Fußballstream, die Arbeit... aber eben auch die PCGH Seite.
Da gibts User, für die sind beispielsweise 50W mehr im Idle ein Ausschlusskriterium. Das sagen/schreiben sie und sitzen dabei, völlig unnötiger Weise, an ihrem PC mit blinkblink Tastatur, der im idle eben dann 40W zieht, vor einem Monitor der auch gern mal 100W zieht... obwohl sie das Meiste das sie an dem Gerät tun, auch mit 2-8W am Smartphone machen könnten.
da seh' ich mich aber im GLück, denn keinen meiner Prozesse möchte ich am Smartphone machen, außer das reine Surfen auf PCGH, das erledige ich tatsächlich manchmal auf dem Klo am Handy, aber allein schon das Schreiben nervt mich schon wieder, auch weil ich mich regelmäßig vertippe
Geht mir absolut nicht in den Kopf. Microsoft Office beispielsweise läuft super auf dem Smartphone/Tablet, drucken ist seit zehn Jahren on the fly möglich...
will ich "drucken" oder will ich "drucken".
Wenn ich im Office was arbeite, arbeite ich meistens in wissenschaftlichen Paper. Das kannst du auf einem Handy/Tablet komplett vergessen. Genauso Excel, das dauert einfach dann 5x so lange und oft verdrückt man sich, ich hätts probiert, aber dann steh ich doch lieber auf und machs ordentlich. Das Spart Zeit. Zeit die ich mit der Familie verbringen kann.
Und abgesehen davon: ich hatte schon immer rückenprobleme, am Smartphone oder Tablet sitze ich alles andere als ergonomisch, ich lungere also nicht auf einer Couch rum, nicht zum Spielen (also keine Konsole) und nicht zum arbeiten.
Wenn ich also einen PC kaufe, der 12h am Tag läuft achte ich auf geringen Verbrauch. Übrigens nicht nur am PC sondern bei sämtlichen Komponenten. PC, Kühlschrank, Isolierung etc...

Klar, spezialisierte Software braucht den PC, aber dann ist man auch nicht im idle und vor allem... warum sollte man dafür extra eine gaming-GPU verwenden? Ergibt in meinen Augen gar keinen Sinn.
Gibt Leute die spielen am PC. Gibt Leute die arbeiten drauf, gibt Leute die machen beides.
Aber Ich kann Spiele spielen bei 200 W Gesamtverbrauch oder knapp 1000. Hmm.
Sprich: "Ich verbrauche aus Bequemlichkeit gern knapp 100W im Leerlauf (inkl. TFT), sage aber dass bei 150W die Umwelt leidet, obwohl ich das mit einem zwanzigstel hinbekommen könnte..." wirkt auf mich doch etwas fragwürdig.
Umwelt, Geldbeutel, Geräuschkulisse (mein PC ist quasi lautlos), aber viel mehr: mein Büro daheim ist 4x5m² und der Raum heizt sich bei 800W schnell auf, bei 200 W logischerweise nicht ganz so schnell... da schwingt halt also auch mit: will ich mir zuerst den Raum auheizen, um ihn dann mit Klima runterzukühlen?
Die Niesche Gamer ist am x86 PC nicht sonderlich Umsatzstark!
Im Vergleich zu Konsolen und Handys eventuell nicht, aber einige Milliarden sind schon drin
Der beste Weg den Stromverbrauch zu reduzieren ist das richtige Gerät zu verwenden.
das ist oft ein Irrglaube, denn da kann ich meine CPU noch Jahrelang weiterverwenden was du bei der Produktion eines Handys verbrauchst.
. Jeder Mieter kann ein BKW aufstellen ohne den Vermieter zu fragen. Aldi verkauft aktuell ein Komplettset mit 800 Watt für 299€. Da wird eine CPU auch im Herbst noch gedeckt. Und aktuell ist es bis 21:30 Uhr hell. So what?
nein, kann er überhaupt nicht.
Wenn einer meiner MIeter das macht, hab ich die Klage ins Haus hängen, weil es einen Beschluss gibt, dass das Gebäude einheitlich aussehen muss. Ich will an meinen Wohnungen längst Solar auf Dach und Balkon geben, aber da scheiterts an der Zustimmung der anderen, es muss nämlich einstimmig beschlossen werden, sofern das so vereinbart ist (meistens).
Ich behaupte einmal, wer sich eine Grafikkarte leistet für 1000€ aufwärts, der wird auch irgendwie in einer annehmbaren Immobilie hausen.
ich verstehe überhaupt nicht wie man so aus dem Bauch heraus und ohne irgendwelche Fakten zu haben Vermutungen aufstellt.
Ich behaupte jetzt einmal, dass es sehr viele gibt die sich überteuerte Hardware leisten und eben vielleicht nur in einer nicht "annehmbaren" (solartauglichen) Immobilie wohnen. Einfach weil sie vielleicht nur in dieses Hobby Geld investieren oder sonstwas. Gibt auch genug die sich teure Autos leisten (oder Telefone) aber sonst kaum was nennenswertes haben, das sind in vielen Städten sogar sehr viele, die sich lieber ein iPhone kaufen alle 2 Jahre statt mal sinnvolle Finanzplanung zu betreiben
Ich lade die Bilder runter/Bearbeite diese im Browser, wir reden hier von einigen Hundert Bildern die aufgerufen werden und da ist die CPU am Limit.
sehr interessant. Und das geht mit lokal laufenden Programmen nicht viel effizienter?
Du kaufst dir eine schnellere CPU weil du ein langsames Programm verwendest? Was genau bearbeitest du?
Ich arbeite ab und zu mit Photoshop/Lightroom und da ist die CPU eben noch nicht am Ende
 
Zuletzt bearbeitet:
"Neue Gerüchte zum 3D V-Cache enttäuschen"

Besser als andersrum und das fertige Produkt enttäuscht die durch Gerüchte geschürten Erwartungen.
solang die X3D Cpu‘s näher mit dem Takt an die Non X3D Cpu‘s kommen, wird das ja auch irrelevanter ob ein 9950x3d 1 oder 2 Cache Chips drauf geschnallt bekommt?

Nicht, wenn man homogen parallelisierbare Aufgaben fährt.
 
Zuletzt bearbeitet:
Na ja, die zusätzliche AVX-Fähigkeiten werden die Teile schon beschleunigen, aber bei allen anderem hast du nicht unrecht. Wer dran glaubt, dass Zen 5 mit einer 40 % Mehrleistung kommt, der hat sie nicht alle.

Und wieso sollte man da nicht mehr alle haben? Weil es dir nicht in den Kram passt?
In gewissen Anwendungen wird man schon die 40% Mehrleistung sehen, dafür wurde der Kern ja auch gut aufgebohrt, nur halt nicht im Gaming... Aber das war eigentlich schon immer klar, wenn man es nüchtern betrachtet hat.
 
Hm also scheint es generell zu hohe Erwartung gegeben zu haben.Darum hat mir auch einer geschrieben die Leistung wird nicht gut sein.Darum wollte er mir lieber einen Threadripper Empfehlen.Jedoch schrieb ich,ich will erst mal abwarten wie gut Zen 5 wirklich wird.Zudem kann man diese Plattform noch auf Zen 6 abgraden,ein Threadripper kann man nicht mehr Abgraden,da ist dann Entstation. Selbst wenn die Leistung nicht ganz so gut war,kann ich nach 2 Jahren auf Zen 6 wechseln und so mehr am Ende haben als jetzt kommen wird.
 
@Rollora
Sei dir gewiss, dich hab ich nicht ansprechen wollen. Eben weil wir uns dazu ja schon gut ausgetauscht haben. Desto spannender, in deiner Selbstreflexion zu lesen, dass sogar bei dir ein Teil Gewohnheit und Bequemlichkeit mitspielen. Stichworte: vertippen (am Handy gibt's durchaus Bluetooth Tastaturen) und du [Anm. meinerseits, bitte genau lesen] könntest ja auch einfach fünfmal so schnell darin werden... :fresse:

Ich muss dir aber zustimmen. Die letzte Masterarbeit die ich Korrekturlesen wollte am Smartphone, hab ich angefangen in der Hängematte im Halbschatten, dann noch etwas beim Grillen und dachte ich käme bequem durch. Abends bin ich dennoch an den PC gegangen um alles etwas einfacher und beim ersten Mal gescheit zu machen und tatsächlich nicht wieder aufs Smartphone gewechselt bis ich fertig war.
Danach ging's im Oberstübchen aber wieder los. Ist das der Bequemlichkeit geschuldet? Würde ich es mit viel mehr Übung besser hinbekommen? Vor allem aber... ist meine Zeit wichtiger als die Zeit die nachfolgenden Generationen vielleicht mit ihren Familien fehlt?

Nochmal: speziell du hättest keiner Rechtfertigung bedurft, aber dennoch Danke für die ausführliche Darstellung.

Btw: Ich steige gerade von meinem 3l V6 biturbo auf ein E-Auto um... also es wird zumindest geliefert. Ich bin nicht im Land. Wenn ich den irgendwann mal fahren und ausprobieren konnte ob das eine Alternative ist, lass ich's dich wissen, wenn du magst.
 
AMD-6+6-Kerner dürften aus Gaming-Sicht auch weiterhin die schlechteste Wahl sein. Die IF-Verbindung ist einfach nicht schnell genug für die Ansprüche von Spielen und je CCD hast du weniger Kerne als bei einem 9800X3D.
Und genau das macht mir Kopfschmerzen. Ich werde sehr wahrscheinlich diesmal zum 16 Kerner greifen, da hat man wenigstens 8 anstatt nur 6 in Spielen.
sehr interessant. Und das geht mit lokal laufenden Programmen nicht viel effizienter?
Du kaufst dir eine schnellere CPU weil du ein langsames Programm verwendest? Was genau bearbeitest du?
Ich arbeite ab und zu mit Photoshop/Lightroom und da ist die CPU eben noch nicht am Ende
Nicht das Bearbeiten ist das Problem, sondern die Bilder, die aufgerufen werden auf einen Schlag und das sind sehr viele in meiner Cloud.

lg
Und wieso sollte man da nicht mehr alle haben? Weil es dir nicht in den Kram passt?
In gewissen Anwendungen wird man schon die 40% Mehrleistung sehen, dafür wurde der Kern ja auch gut aufgebohrt, nur halt nicht im Gaming... Aber das war eigentlich schon immer klar, wenn man es nüchtern betrachtet hat.
Gang einfach eine IPC, die 40 % mehr Leistung bringt, ist aktuell einfach unrealistisch. Ich gehe von maximal 15 % Plus aus im Vergleich zu Zen 4.

lg
 
Ich hätte ehr bei dem 9950x3D gehofft wenigstens auf beiden ccds den speicher zu haben und nicht nur wieder auf einem. Die Menge dabei wäre mir dabei egal gewesen. Aber so, bleib ich doch loeber erstmal neim 13900k.
Und was würde das bringen ? Wäre schön wenn mir endlich mal jemand sagen könnte was doppelter Cache nutzen würde für Gamer ? Jeglicher Vorteil ist sofort zunichte sobald man aufs zweite CCD zugreifen muss dank Latenzen.

Es macht NULL Sinn Dual-X3D zu gehen ausser man möchte daheim einen SQL-Cluster betreiben. Und für diese Leute gibts die passenden Epyc CPUs mit Cache auf allen Dies.

Also: bitte endlich mal aufklären was damit gemacht werden soll. :daumen:
 
Eine extreme Verbesserung wäre, wenn der 3D-Cache nennenswerte Spannungen mitmachen würde ohne davon spontan zu sterben. Das ist der Grund, warum die X3D-CPUs (mit dem stacked Chiplet) so niedrig takten.

Wenn der neue 3D-Cache auch 1,5v abkann ohne sofort draufzugehen können X3D-CPUs auch rund 1 GHz höher takten als bisher. Dadurch würde zwar die irre gute Effizienz unter Last verschwinden (die praktisch ein "Abfallprodukt" davon ist dass man eben nicht mehr Spannung benutzen kann... AMD ist praktisch technisch gezwungen näher am Sweetspot zu laufen) aber die Performance stark steigen.
Muß man denn so hoch takten wenn die Leistung auch so ausreicht?
Besser ist doch wenn die CPUs effizienter sind bei relativ guter Gamingleistung.
Und das haben die 3D CPUs bis jetzt auch gezeigt.
Sonst wäre das auch wieder das "Brechstangen Prinzip" welches Konkurrent Intel anwendet.
 
Zurück