AMD Ryzen Threadripper 3000 von offizieller Roadmap verschwunden

Uhhhhhhhh ... damit sind 12- und 16-Kerner sicher für Ryzen 3000.

Muss mal eben die Hose wechseln ... hatte grad einen Orgasmus :D
 
Zuletzt bearbeitet:
Der sinnfreiste Artikel seit Jahren...... Seit wann war den TR für Spiele gedacht? Dafür gibt es ja Ryzen mit 8/16 Core/Threads....
Kein SPiel kann was mit 32 threads anfangen....

Naja, kannst halt nebenbei noch in 4K streamen, HDR Videos rendern, 3D Mark laufen lassen und 2009393 Tabs bei Chrome aufhaben. Ich seh das schon als relevant an :D
 
Entweder sind die Yields so schlecht, was ich mir nicht so richtig vorstellen kann, oder die Nachfrage der Zen 2 Server so groß.

Threadripper ist ein absolutes Nischenprodukt. Einer der größten Mainboard-Hersteller weltweit hat mir gegenüber von niedrigen fünfstelligen Absatzzahlen weltweit gesprochen. Zählt man deren Konkurrenz und die zweite Generation/seitdem vergangene Zeit hinzu, könnte es heute, bald zwei Jahre nach Launch, weniger als 100.000 verkaufte CPUs weltweit geben. Das ist verglichen mit den Stückzahlen für AM4 gar nichts und sollte trotz vierfacher Bestückung bei der Chiplet-Produktion kaum auffallen. Den I/O-Die fertigt AMD weiterhin in 12/14 nm und sollte somit gute Yield-Raten erzielen. Nur wenn es hier massive Probleme gibt (unwahrscheinlich ... aber wo bleibt eigentlich Rome?), wäre eine Produktionsbedingte Verschiebung naheliegend.

Ich tippe eher auf die Nachfrage: Bislang brauchte AMD TR4, um mehr als 8 Kerne im Desktop anbieten zu können, aber kaum jemand wollte das kaufen. Künftig kann AMD 16 Kerne im Sockel AM4 realisieren, sollte die Nachfrage das erforderlich machen.
 
Ich verstehe die TR4 Schreier hier auch nicht ganz. 16/32 Kerne mit vielen Lanes gibt es ja jetzt schon mit den 2000er Threadrippern, wenn es unbedingt sein muss. Aber schön zu sehen, dass auch AMD einsieht, dass der HEDT Markt kaum Absatz bringt. Würde mich nicht wundern, wenn HEDT auf absehbare Zeit komplett vom Markt verschwinden wird.
 
Aber beachtet, dass man zwischen Lanes von der CPU und Lanes vom I/O Hub unterscheiden muss ;)
Du bist doof, das wollte ich gerade schreiben. :heul::heul::motz::motz::D


AMD hat Threadripper echt verkackt. Das hätten so gute gaming CPUs werden können. Außer in Cinebench haben die CPUs ja keine wirklichen Stärken. Schade.
Naja, man hat sich beim 2970WX und 2990WX ja für eine äußerst dämliche Anbindung von 12 bzw. 16 der 24 bzw. 32 Kerne entschieden.
Ich meine, die Geschichte mit den zwei per Inifity Fabric verbundenen CCX-Modulen auf einem Die ist ja schon beim normalen Ryzen ein schwerwiegender Nachteil. Dass man allerdings ganze Dies nur über den IF an den Arbeitsspeicher bzw. die Speichercontroller der anderen beiden Dies anbindet ist ziemlicher Bullshit... Andererseits hatte man wohl keine andere Wahl, um die Kompatibilität zu den bestehenden TR4-Mainboards zu behalten.

Erschwerend kam der neuartige Aufbau der CPU hinzu, der im Wesentlichen ein Zwei- bzw. Vier-Sockel-System auf einem Sockel darstellt - inklusive aller Nachteile die durch NUMA (schlechterer Multithread-Support einzelner Anwendungen wegen getrennten Addressräumen, dafür im Schnitt bessere Latenzen) oder UMA (besserer Multithread-Support durch einheitlichen Addressraum, aber deutlich schlechetere Latenzen) entstehen. Das ist gerade für den Windows-Threadverwalter eine Herausforderung, besonders angesichts des eh schon wegen des CCX-IF-Design anspruchsvolleren Ryzen-Dies.

Da hat Intels monolithisches Design doch halt so seine Vorteile - im Gegensatz zum 1950X hatten Intels 16- und 18-Kerner nie so große Probleme mit nicht startenden Spielen. Wenn dann noch die Kerne nicht richtig hochtakten, weil die Threads von den Programmen durch den Threadverwalter permanent zwischen den vielen Threads der CPU hin und hergeschoben werden ist der Salat gegessen.

Und ganz zum Schluss ist halt auch die Tatsache, dass Spiele selbst 6 oder 8 Kerne seltenst wirklich gut ausnutzen, eine Ursache dafür, dass Threadripper nie eine gute Spiele-CPU war und es auch nie sein wird - außer im Spezialfall, dass man neben dem Spiel parallel noch andere CPU-intensive Tasks laufen lassen will/muss.
 
Zuletzt bearbeitet:
Bin da ganz eurer Meinung: Threadripper sind doch eigentlich Desktop CPU's? Epyc sind für die Server gedacht. Wer braucht aber auf dem Desktop 32 Kerne? Virtuelles OS+Videoschnitt...ok, die 0,1% User. Aber die restlichen 99,9% haben von 6-8 Kerne mit hohen GHZ mehr davon und endlos reserven, da es praktisch kein Spiel gibt das die ausnutzen kann. Man ist immer im GPU Limit bei den normalen CPU's. Und CPU Killer aufgrund grotten schlechter Engine wie Arma die nur 1 Kern nutzen haben auch nix von 32 Kerne.
Wenn dann jetzt mit Ryzen 3700x sogar 12 schnelle Kerne kommen haben selbst Videobearbeiter ein dickes Grinsen im Gesicht. AMD sollte die bei Threadripper gesparten Ressourcen nun in die GPU Entwicklung stecken, da laufen die NV noch hinterher.
 
und endlos reserven, da es praktisch kein Spiel gibt das die ausnutzen kann.

Hast du dir schon mal die topaktuellsten Spiele angesehen? Also Shadow of Tomb Raider oder Assassins Creed Oddysey?

YouTube

Hier holt man mit einem 7900X 10 Core schon leichte Vorteile gegenüber einem 9900K, bei gleichem Takt.
Also, dass kein Spiel das ausnutzen kann, ist eine Lüge.
Man sollte aus der "Spiele nutzen nicht mehr als X Kerne" Lethargie endlich mal aufwachen. Die Ressourcen werden heute schon gut benutzt.
 
Eben.
Die Chipsatz Lanes bringen einem leider recht wenig, wenn man 4 PCIe 3/4.0 x16 Slots haben will.

Nix für ungut, aber bei 4 voll angebundenen x16 Slots sind wir auch schon aus dem HEDT Bereich draußen. Da muss man eben auf die professionelle Schiene mit Epyc/Xeon zurückgreifen. Kommt wenigstens gleich mit (offiziellem) ECC-Support.
 
Nix für ungut, aber bei 4 voll angebundenen x16 Slots sind wir auch schon aus dem HEDT Bereich draußen. Da muss man eben auf die professionelle Schiene mit Epyc/Xeon zurückgreifen. Kommt wenigstens gleich mit (offiziellem) ECC-Support.

gut, hab mich zu ungenau ausgedrückt :D.
Mir reichen auch 1. x16 2. x8 3. x16 4. x8, solange die Slots auch physisch mit x16 vorhanden sind
und mit x16 oder x8 elektrisch an der CPU hängen.
 
Gut ausgestattete Ryzen Mainboards, oder aber günstige Einsteiger Boards für EPIC sollten doch alles abfangen können?
 
Also, dass kein Spiel das ausnutzen kann, ist eine Lüge.
Man sollte aus der "Spiele nutzen nicht mehr als X Kerne" Lethargie endlich mal aufwachen. Die Ressourcen werden heute schon gut benutzt.

Nur gut das er das nie behauptet hat sondern nur die wahre Aussage das so gut wie keine Spiele das können gemacht hat.
(Und an diesem Fakt wird sich auch in den nächsten 10 Jahren sehr wenig ändern - zumindest was die kern Spieleleistung angeht. PhysX und co außen vor gelassen)
 
Gut das diese Serie nie zum Gaming gedacht gewesen ist und es Ryzen gibt ;-)

Diese schneiden auch nicht viel besser ab. Die Lithografie wird immer kleiner und nähert sich der kurzen Signallaufzeiten der Intel-CPUs nur geringfügig an. Intels 10FF wird die Effizienz von 14FF++ nochmals deutlich toppen und dann muss Samsung liefern. TSMC, ihr sprecht immer von AMD, ist zu weit abgeschlagen.
 
Zuletzt bearbeitet:
Eine neue Software/Spiele Entwicklung dauert ja immer viele Jahre, und meistens ohne das was darüber öffentlich wird wie lange daran gearbeitet wurde.

Um die vielen Kerne wirklich sinnvoll auslasten zu können wird es für die breiten Masse noch einige Zeit dauern.
Bis dahin zählt mehr die Single Thread Leistung bzw. eine hohe Taktrate.

Deshalb hat AMD und Intel noch reichlich Zeit.
Die CPU's mit vielen Kernen die jetzt auf dem Markt sind reichen noch lange aus.

Die CPU's für den normal User / Spieler... die können gut noch mehr Takt gebrauchen... Speziell AMD.... aber da arbeiten sie ja auch gerade dran.
 
Zuletzt bearbeitet:
Zurück