News 7800X3D vs. 13900K: AMDs kleinster Hochstapler ist bis zu 24 Prozent schneller

Was für ein Kommentar :wall:
Ich hatte alle mögichen CPUs seit 1990 (Intel, AMD, Cyrix), aber keiner ist mir jemals "immer" überhitzt.
Selbst Erfahrungen sammeln und nicht scheinbar Gehörtes oder Gelesenes wiedergeben.
Nur Leute die unzufrieden sind, posten ihre Probleme im Netz. Dort wo alles gut läuft , gibt es dafür keinen Bedarf.
ich habe jetz den 5ten 5800X3D verbaut und besitze selbst einen und eines weiß ich: noch nie habe ich so eine problemlose CPU gehabt. Mein Kühler aus 2015 hat schon einen stark übertakteten 6600K und 6700K, einen 1800X (unter Volllast e bisserl wärmer), den 3700X (seeehr kühl) und jetzt den X3D im Zaum gehalten.
Meine Erfahrung nach über 30 Jahren HW: bei solchen Problemen sitzt die Ursache zu 98% vor dem Rechner. Auch ich war schon Betriebsblind oder zu hektisch und habe Fehler verbaut.
Manchmal kommt man nicht auf die naheliegendsten Lösungen.
Gruß T.
Dem kann ich nur zustimmen.

Probleme werden immer breit getreten und als Beispiel aus der Gastro geht man da bei einem Negativen Erlebnis von etwas um die 350 Personen aus. der dem Es passiert erzählt es 7 bekannten die wiederum 7 und die dann 3 anderen was je nach Gericht im Jahr mehre 10.000€ sein können und je nach Preis.

Positives wird gar nicht bis kaum verbreitet.

Topic: Abwarten was am Ende bei Raus kommt der Simulierte Test von @PCGH_Dave hat ja schon einen ungefähren weg gezeigt. Bei Techpowerup war der Simulierte 7800X3D etwas besser aber da wurden auch mehr Spiele getestet die auf 8 oder weniger Kernen gut Laufen und Multithreading Titel waren kaum dabei.

@Chronik das kommt auf die Spiele an wenn Spiele nur 8 Kerne nutzen könnte der 7800X3D besser sein als der 7900X3D da die Physischen Kerne besser Performen dazu hat man 2 Threads mehr. Im Anwendungsfall oder bei Spielen die mehr Kerne fressen dann ist der 7900X3D im Vorteil. Wobei ich eher einen 7950X3D nehmen würde wenn ich auch mit der CPU arbeite oder gleichzeitig Streamen will.
 
Ja davor hab ich auch Angst. Dann wird es auf jeden fall keine neuen Grafikkarten mehr geben^^ eigentlich sollte man gleich mal scalpen gehen (wenn dass das richtige wort dafür ist) aber nachher passiert garnichts und man bleibt auf dem zeugs hocken
Man kann nur hoffen das nichts passiert, in Gedanken an die ganzen Menschen, die dabei in Gefahr geraten könnten.
Da spielt eine beschissenen Fabrik keine Rolle mehr.
Ich hätte mal eine andere/(aber) ähnliche Frage würdet ihr lieber zum 7800X3D oder zum 7900X3D greifen?
Reichen euch die 8 Kerne, gegenüber dem 7900 X3D, aus? Weil nämlich der 7900X3D 12 Kerne hat!
Musst immer bedenken das der 7900X3D und der große Bruder 2 CCDs verbaut haben und zwischen den beiden muss ja kommuniziert werden. Das dauert und kostet natürlich Zeit. Dieses Problem hat der 7800X3D nicht, weil nur 1 CCD. Daher kann der schneller performen in manchen Situationen.
Lassen wir uns überraschen.
 
Zuletzt bearbeitet:
Ich hätte mal eine andere/(aber) ähnliche Frage würdet ihr lieber zum 7800X3D oder zum 7900X3D greifen?
Reichen euch die 8 Kerne, gegenüber dem 7900 X3D, aus? Weil nämlich der 7900X3D 12 Kerne hat!
Ich denke das wwird wie mitt einem kleinen und großen Motor sein.
Ampelrennen gewinnen die kleine Turboaufgeladenen und Langstrecke die großen Hubraum haben...
Kurze aufgaben mit einem ccd besser große und lange aufgaben mit 2 Stück ccd besser.
 
Ich sprech aus über 20-jähriger positiver Erfahrung, angefangen mit einem Athlon 800 MHz (liess sich bis 1 GHz hochprügeln :daumen:)ca. 2000. Erste Graka war glaub ich eine Radeon 9700 ca. 2003.

Zwei sehr schlechte Beispiele. Der Athlon ist damals noch durchgebrannt, wenn die Kühlung ausgefallen ist, während sich der P3 einfach abgeschaltet hat und der P4 sogar, mit verringertem Takt, weiterlief. Erst beim Athlon 64 ist AMD da auf das Niveau des P3 gekommen. Dann hatten die T-Bird und Athlon XPs keinen Heatspreader, was bei einer Verkantung die CPU zerstört, auch da sind sie erst beim Athlon 64, mit dem P4, gleichgezogen.

Ich war mit meinem Athlon XP 1600+ mehr als zufrieden, allerdings würde ich ihn nicht als positives Beispiel bei Überhitzung aufführen.

Die Treiber der Radeon 9000 waren absolut grottig, da waren die Nvidiatreiber wesentlich besser.-. Ein Kumpel von mir hatte die Radeon 9700, ich die GeForce 4 Ti 4200. Einer unserer häufigeren Gesprächsthemen: Spiele, die bei ihm nicht liefen, Grafikfehler, die er hatte und der nächst ATI Treiber. Seine Karte war doppelt so schnell, ich hatte aber die bessere.

Eventuell nicht 21-22 Jahre zurück, sondern 13 Jahre, da sah es viel, viel besser aus.

Ja davor hab ich auch Angst. Dann wird es auf jeden fall keine neuen Grafikkarten mehr geben^^ eigentlich sollte man gleich mal scalpen gehen (wenn dass das richtige wort dafür ist) aber nachher passiert garnichts und man bleibt auf dem zeugs hocken

Grakas werden dann unser geringstes Problem sein, da es dann wohl den 3. Weltkrieg gibt.

Von daher Konservendosen und Klopapier scalpen. Wobei ich glaube, dass du hamstern meinst (das ist dann für einen selbst).

Ich hätte mal eine andere/(aber) ähnliche Frage würdet ihr lieber zum 7800X3D oder zum 7900X3D greifen?
Reichen euch die 8 Kerne, gegenüber dem 7900 X3D, aus? Weil nämlich der 7900X3D 12 Kerne hat!

Der R9 7900X3D hat nur 6 Kerne, die von dem zusätzlichem Cache profitieren, der 7800X3D die ganzen 8 Kerne. Von daher könnte der 7800X3D sogar schneller sein. Der 7900 X3D wird seine Vorteile wohl erst über eine lange Zeit ausspielen können, wenn man nicht gerade jetzt schon etwas hat, dass die 12 Kerne braucht.

Zu bedenken ist auch, dass der AM5 erst am Anfang seiner Lebenszeit steht. Mit Glück kann man sich später, mit dem gesparten Geld, eine deutlich schnellere CPU reinrichten (OVP des 7800X3D aufheben). Der 3900X stinkt z.B. gegen den 5800X3D gewaltig ab, ähnliches könnte bei einem 7900X3D gegen den 10800X3D passieren.
 
Zuletzt bearbeitet:
Ja kenne ich auch aus dem Verkauf .

Bis zu 75% reduziert.

Besagt aber leider nur das es nicht zutreffen muss !

95° Celsius bei dem AMD AM5 7000ern ist mir suspekt , 5° Celsius mehr und man kann Wasser kochen !!!!!
 
Zwei sehr schlechte Beispiele. Der Athlon ist damals noch durchgebrannt, wenn die Kühlung ausgefallen ist, während sich der P3 einfach abgeschaltet hat und der P4 sogar, mit verringertem Takt, weiterlief. Erst beim Athlon 64 ist AMD da auf das Niveau des P3 gekommen. Dann hatten die T-Bird und Athlon XPs keinen Heatspreader, was bei einer Verkantung die CPU zerstört, auch da sind sie erst beim Athlon 64, mit dem P4, gleichgezogen.

Ich war mit meinem Athlon XP 1600+ mehr als zufrieden, allerdings würde ich ihn nicht als positives Beispiel bei Überhitzung aufführen.

Die Treiber der Radeon 9000 waren absolut grottig, da waren die Nvidiatreiber wesentlich besser.-. Ein Kumpel von mir hatte die Radeon 9700, ich die GeForce 4 Ti 4200. Einer unserer häufigeren Gesprächsthemen: Spiele, die bei ihm nicht liefen, Grafikfehler, die er hatte und der nächst ATI Treiber. Seine Karte war doppelt so schnell, ich hatte aber die bessere.

Eventuell nicht 21-22 Jahre zurück, sondern 13 Jahre, da sah es viel, viel besser aus.
Deine Einwände sind richtig. Schlecht waren die Teile von AMD schon damals trotzdem nicht. Ich kann mich nicht erinnern, dass ich irgendwelche ernsthaften Probleme damit hatte. Zum Thunderbird: Damit ist AMD ja richtig durchgestartet, so stark waren die. Montage war heikel, aber bei der Hardware-Installation muss man immer, noch heutzutage, vorsichtig sein, vgl. das Adapter-Theater bei der 4090.
 
Zuletzt bearbeitet:
Am Ende trotzdem wieder die Frage, wie es mit den Treibern und Qualität aussieht. Wie oft ich Dinge gelesen habe, wie "ruckelt beim scrollen", Bugs oder "muss man erstCPU alt einbauen, updaten und dann den neuen". Außerdem sind mir die AMDs früher immer überhitzt. Super, wenn die 3D Caches richtig reinhauen, aber am Ende vertraue ich Intel mehr.
What the hell?

Sowas in einem Hardwareforum zu lesen tut schon echt weh!
1.) was hat die CPU denn beim scrollen für eine Last? 0%!
2.) welche Bugs meinst du? Hier tun sich beide Hersteller gar nicht soviel, böse Zungen behaupten ja, dass bei Intel bspw. die Netzwerk ICHs nicht so ganz richtig sind, 2,5 steht drauf, aber mehr als 1 darfste net nehmen, sonste bricht die Verbindung gleich ganz ab! Nur mal so als Beispiel.
3.) Wenn du ein aktuelles MB nimmst, brauchst du nichts updaten! Intel bietet diese Möglichkeiten meist nicht und es werden maximal 2 Gens an CPUs unterstützt, bei AMD bekommt man teilweise 5 Generationen und mehr (je nachdem wie man zählt) auf die AM4 Boards und da muss man dann tatsächlich ein BIOS Update machen um eben die CPUs, die 7 Jahre nach erscheinen des Boards kommen zum Laufen zu bekommen. Bei Intel hast du in der Zeit mitunter dreimal neugekauft.

Sorry, aber so einen blöden Kommentar kann ich nciht stehen lassen, gerne darfst du Intel bevorzugen, aber wenn du Gründe nennst, dann doch bitte vernünftige oder so subjektiv geschrieben, dass nicht einfach behauptet wird, AMD scheiße und Intel toll, denn das entspricht nunmal nicht der Wahrheit.

Meine Erfahrung nach über 30 Jahren HW: bei solchen Problemen sitzt die Ursache zu 98% vor dem Rechner.
wenn du mit den 98% mal hinkommst!

Ist der 7800X3D in games also auch viel schneller als der 7950X3D ?
Nö!
AMD hat beim 7950X3D einen Durchschnittswert präsnetiert, so war der 16 Kerner im Schnitt 6% schneller als der 13900K, was PCGH ja auch nachgewiesen hat. Beim 7800X3D sagen sie jetzt; bis zu 24% schneller, geben damit keinen Overallwert, sondern einen Max Wert raus. Die 24% erreicht aber bereits der 7950X3D im FlightSimularor gegen einen 13900k. Da AMD aber wahrscheinlich dann eher andere Tests haben wird, gehe ich davon aus, dass der 7800X3D eher nicht schneller sein wird, aber eben in den meisten Games den beiden bisherigen Modellen auf den Fersen ist. Overall glaube ich sogar, dass der 7800X3D etwas hinter den 13900K zurückfällt.

Denn der 7950X3D soll ja 6 Prozent schneller als der 13900K sein.
79500X3D = Overall 6 % schneller
7800X3D = bis zu 24% schneller (Nichts von Overall)
AMD kackt eigentlich nur noch bei den Grafikarten ab. Auch mit Epyc sind sie gut dabei.
Wieso? Weil Sie in RT nicht mithalten? Dafür aber mehr Rasterleistung bieten als die Konkurenz und es geschafft haben, die 4080 um 300 EUR im Preis zu drücken (bis diese dann mal attraktiv wurde?). Sorry, aber auch bei den GPUs ist man voll mit dabei, man hat sich halt nicht an die große Lösung gewagt, aber das man nicht dabei ist, halte ich für quatsch. Die Vorgängergen war in meinen Augen der NV Lösung sogar recht deutlich überlegen (in den Augen vieler war das anders, liegt aber in meinen Augen daran, dass RT und DLSS komplett overhyped waren), die aktuelle Gen verliert etwas auf Nvidia, keine Frage, aber so schlecht wie sie oft gemacht werden sind sie nicht. Problem bei AMD ist, dass sie gefühlt 20-30% Vorsprung bräuchten um für viele interessant zu werden, was ich bis heute nicht verstehe. Selbst dann würden viele noch zu NV greifen (schaut euch mal Thermi an, da war AMD/ATI sowas von weit weg, dennoch gab es kaum Einbrüche bei den Nutzern).
Musst immer bedenken das der 7900X3D und der große Bruder 2 CCDs verbaut haben und zwischen den beiden muss ja kommuniziert werden. Das dauert und kostet natürlich Zeit. Dieses Problem hat der 7800X3D nicht, weil nur 1 CCD. Daher kann der schneller performen in manchen Situationen.
Eher kein Problem aktuell, der CacheOptimizer verhindert ja genau das!

Ich hätte mal eine andere/(aber) ähnliche Frage würdet ihr lieber zum 7800X3D oder zum 7900X3D greifen?
Ich würde zum 7900X3D greifen!

Der 7800X3D ist eine reine Gaming CPU und der 7900X3D geht eher in den Bereich AIO CPU. Der 8 Kerner wird in den wenigen Gaminszenarien, wo mehr als 6 Kerne genutzt werden, vermutlich besser performen. Sobald aber mehr als 8 Kerne genutzt werden, schrumpft der Vorteil massiv, dem 8 Kerner gehen dann schlicht die Kerne aus, während der 12 Kerner noch welche hat. Dafür muss der 12 Kerner dann zwar die CCD Latenzen in Kauf nehmen, ist aber nunmal auch nicht so, dass dies ein ganz großes Dilemma ist, wie man an den normalen non 3D Varianten ja sieht. Aber mit 12 Kernen ist man definitiv (vor allem abseits des Gamings) zukunftssicherer unterwegs.
95° Celsius bei dem AMD AM5 7000ern ist mir suspekt , 5° Celsius mehr und man kann Wasser kochen !!!!!
Wir wissen das du AMD nicht magst. Bei knapp über 60W kannst du aber lange warten, bis das Wasser auch wirklich kocht, der Intel wird da schneller sein mit über 200W!
 
Eher kein Problem aktuell, der CacheOptimizer verhindert ja genau das!
Nein falsch. Egal was man softwareseitig tut - es ist nun mal hardware-seitig gegeben das zwischen den 2 CCDs kommuniziert werden muss und das kostet halt Zeit usw. Deshalb wird der mit einem CCD auch da gewisse Vorteile haben.
Einfach mal 1 CCD vs 2 CCDs googlen und da findet man auch sehr viel.
 
Für mich gegenüber dem 5800x3d ein fragwürdiger Vergleich. Das sind alles Spiele die auch mit weniger leistungsstarker Hardware wunderbar laufen und für mich der stabile 120fps zum zocken brauch ist ~25% Mehrleistung kein Kaufgrund über 1000€ auszugeben. Ich selbst hab den 5800x3d, eine 4080 und 32gb RAM die auf einem x570 laufen und die Grafikkarte ist per Undervolting allen meinen Spielen effizient angepasst. Also so lange nicht 40+ Mehrleistung rauskommt, reine Geldverschwendung.
 
Nein falsch. Egal was man softwareseitig tut - es ist nun mal hardware-seitig gegeben das zwischen den 2 CCDs kommuniziert werden muss und das kostet halt Zeit usw. Deshalb wird der mit einem CCD auch da gewisse Vorteile haben.
Muss ich nicht googlen, mir reicht der Test des 7950X3D hier auf der Plattform um zu sehen, dass der CacheOptimizer den zweiten CCD quasi schlafen legt und es somit in den relevanten Anwendungsfällen (Ausnahmen wird es sicher geben, aber diese werden ziemlich sicher mittels WhiteList nach und nach ergänzt) keine Probleme geben sollte, weil eben der zweite CCD nicht aktiv ist (wenn er nicht gebraucht wird). Erst wenn mehr als 8 Kerne einen Vorteil haben, kommt der zweite CCD hinzu.

Der Cache Optimizer sollte als (sofern er funktioniert) dafür sorgen, dass der 7950X3D sich wie ein 7800X3D verhält, also keine Kommunikation zwischen den beiden CCDs stattfindet, bzw. stattfinden muss.
Die Treiber der Radeon 9000 waren absolut grottig, da waren die Nvidiatreiber wesentlich besser.-. Ein Kumpel von mir hatte die Radeon 9700, ich die GeForce 4 Ti 4200. Einer unserer häufigeren Gesprächsthemen: Spiele, die bei ihm nicht liefen, Grafikfehler, die er hatte und der nächst ATI Treiber. Seine Karte war doppelt so schnell, ich hatte aber die bessere.
Ist manchmal lustig, aber ich kann mich an das genaue Gegenteil erinnern, die Nvidia Treiber hatten in meiner Erinnerung damal ständige Windows Freezes zur Folge und noch dazu war das doch damals die Zeit wo Nvidia mit die Treiber manipulierte um schneller als der Konkurent zu sein (was beeindruckend nicht gelang)?

Bist du dir im übrigen sicher, dass die Karte "nur" doppelt so schnell war? Ich meine die 9700pro war doppelt so schnell wie die Ti4600! Ich hatte selbst eine 9600pro und ja, Treiberprobleme gab es immer mal, war aber auch generell die Zeit dafür und ich kenne niemanden, der nicht regelmäßig Treiberprobleme (egal mit was, Soundkarte, Grafikkarte, Netzwerk, etc.) hatte. Dazu gab es damals noch nicht das weit verbreitete Wissen, dass man einen alten Treiber auch mal sauber deinstallieren sollte usw. AMD war da sicherlich nicht besser unterwegs, aber auch nicht so wahnsinnig schlimmer wie es oftmals behauptet wird. Eher im Gegenteil, bei AMD war es gerade zu der Zeit so, dass GPUs oftmals noch im Verhältnis viel Leistung über die Zeit gewannen, die 9700Pro bspw. konnte gar die FX5900 Ultra in Schach halten, eine GPU die 14 Monate später erschien und einen FullNode Vorsprung hatte. (die 9800Pro hatte glaube ich dann auch 130nm und lag 30% vor der FX).
 
Der Sven schreibt jetzt auch für PCGH... ^^
Ich darf da gerne an unsere Simulation erinnern:
Ich meine, das wurde doch alles schon getestet (simuliert). Zig Reviewer haben tonnenweise Daten rausgehauen und dann kommt AMD mit irgendwelchen Zahlen um die Ecke. Ich habe noch nicht mal auf die Folien draufgeschaut so richtig, sondern nur müde gelächelt. Aber hey, die Klicks seien euch gegönnt. :D
 
Zuletzt bearbeitet von einem Moderator:
Ja kenne ich auch aus dem Verkauf .

Bis zu 75% reduziert.

Besagt aber leider nur das es nicht zutreffen muss !

95° Celsius bei dem AMD AM5 7000ern ist mir suspekt , 5° Celsius mehr und man kann Wasser kochen !!!!!
Hier endlich mal ein vernünftiges Video zu dem Thema, warum es sogar sinnvoll ist bzw sinnvoll sein kann die CPU am
Temperaturlimit laufen zu lassen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Wenn man dem einen oder anderen ( Ingenieur/Naturwissenschaftler ) hier im Forum nicht glaubt, dann vllt doch einem Intel-Ingenieur der sich genau mit diesem Thema befasst.
 
Ich hätte mal eine andere/(aber) ähnliche Frage würdet ihr lieber zum 7800X3D oder zum 7900X3D greifen?
Reichen euch die 8 Kerne, gegenüber dem 7900 X3D, aus? Weil nämlich der 7900X3D 12 Kerne hat!
Stimmt, aber es werden beim 7900X3D nur 6 Kerne angesprochen und das ist ziemlich unglücklich, weil der Cache für 8 Kerne ausgelegt ist, womit der 7900X3D in Spielen ausgebremst wird.
 
Hier endlich mal ein vernünftiges Video zu dem Thema, warum es sogar sinnvoll ist bzw sinnvoll sein kann die CPU am
Temperaturlimit laufen zu lassen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Wenn man dem einen oder anderen ( Ingenieur/Naturwissenschaftler ) hier im Forum nicht glaubt, dann vllt doch einem Intel-Ingenieur der sich genau mit diesem Thema befasst.


Er sagt nicht das es Sinnvoll ist das eine AMD Ryzen 7000 CPU 95° !!?? Celsius ( 5°Celsius unter kochendem Wasser !!) heiß werden soll !

Er sagt auch nicht das es Sinnvoll ist soviel Abwärme wegkühlen zu müssen damit die CPU nicht dauernd drosselt und schaden nehmen könnte !

:schief:
 
Er sagt nicht das es Sinnvoll ist das eine AMD Ryzen 7000 CPU 95° !!?? Celsius ( 5°Celsius unter kochendem Wasser !!) heiß werden soll !

Er sagt auch nicht das es Sinnvoll ist soviel Abwärme wegkühlen zu müssen damit die CPU nicht dauernd drosselt und schaden nehmen könnte !

:schief:
1. Hat der TSMC 5NM FinFET absolut nichts mit Wasser zu tun. Die Analogie ergibt überhaupt keinen Sinn.
2. Verwechselst du abgegebene Wärme-Energie in Watt mit einer angezeigten Temperatur ( °C )!
3. Wünsche Dir sehr viel Spaß Wasser mit 60Watt Wärmeenergie auf 100 °C zu erhitzen. Um ein Gramm Wasser um 1 Kelvin zu erhitzen benötigt man 4,19kJ. Du kannst dir nun selbst ausrechnen wie lange dies dauert. Und wie lange dies mit einem 13900KS dauern würde, welcher im Schnitt 200 Watt an Wärme-Energie abgibt.
4. Sagt der im Video verlinkte Intel-Ingenieur, dass es sinnvoll ist das Maximum in verschiedenen Anwändungsfällen aus der CPU herauszuholen. Dazu gehört auch eine Temperatur nahe des Limits. Bei 95°C drosselt keine Intel oder AMD CPU, so wie du es hier darstellst. Sie nimmt auch keinerlei Schaden. Bei Minute 9:47 (
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
) beschreibt er genau warum eine CPU unter einem Heavy-Workload sogar eher am Temp-Limit laufen sollte. "You are wasting Potential if you are not running at the limit"!.... "Under load, sure go up to the limit".

Aber was weiss ich schon. Bin ja nur Physiker.....:ugly:
 
Ja davor hab ich auch Angst. Dann wird es auf jeden fall keine neuen Grafikkarten mehr geben^^ eigentlich sollte man gleich mal scalpen gehen (wenn dass das richtige wort dafür ist) aber nachher passiert garnichts und man bleibt auf dem zeugs hocken
Wenn das passiert den Börsencrash abwarten und danach Intel/Samsung Aktien kaufen da dann alle ehemaligen TSMC Kunden dort fertigen lassen müssen.
 
Zurück