Ryzen Threadripper 5000: Lebenszeichen der High-End-CPUs im HWInfo-Changelog

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Ryzen Threadripper 5000: Lebenszeichen der High-End-CPUs im HWInfo-Changelog

Während AMD zum Ryzen Threadripper 5000 weiterhin schweigt, sind die neuen Prozessoren nun zumindest in HWInfo aufgetaucht. Wann die nächste Threadripper-Generation erscheinen soll, wird dadurch aber noch nicht klar.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Ryzen Threadripper 5000: Lebenszeichen der High-End-CPUs im HWInfo-Changelog
 
Artikel schrieb:
AMD scheint also wohl wirklich an einem Ryzen Threadripper 5000 zu arbeiten, obwohl die Konkurrenzsituation mit Hinblick auf Intel das wohl kaum erfordern dürfte.

Nicht weiterzumachen obwohl es die Konkurrenzsituation gerade nicht erfordert ist die Strategie, die Intel genau da hin gebracht hat wo sie aktuell stehen. Mit dem Rücken nicht zur sondern schon in der Wand.

Ich finde es eher erfreulich, dass AMD genau das eben nicht so lässig handhabt und trotzdem auch in Bereichen weiter pusht wo die Konkurrenz bereits absolut chancenlos ist.
 
Nicht weiterzumachen obwohl es die Konkurrenzsituation gerade nicht erfordert ist die Strategie, die Intel genau da hin gebracht hat wo sie aktuell stehen. Mit dem Rücken nicht zur sondern schon in der Wand.

Ich finde es eher erfreulich, dass AMD genau das eben nicht so lässig handhabt und trotzdem auch in Bereichen weiter pusht wo die Konkurrenz bereits absolut chancenlos ist.

Nicht wirklich, AMD könnte ganz normal die neue Epyc Generation bringen und die absolut konkurrenzlosen TR (die sowieso keinen sonderlich hohen Absatz haben) seltener aktualisieren.
Falls Intel in den nächsten Jahren in diesem Segment wieder konkurrenzfähig sein sollte dürfte es das geringste Problem sein einen TR herzuzaubern, sind sie doch am Ende nur beschnittene Epyc.
 
Nicht weiterzumachen obwohl es die Konkurrenzsituation gerade nicht erfordert ist die Strategie, die Intel genau da hin gebracht hat wo sie aktuell stehen. Mit dem Rücken nicht zur sondern schon in der Wand.

Fairerweise muß man sagen, dass das nicht stimmt, sie haben immer neue Architekturen rausgebracht und mit Alderlake (BigLittle) auch die Zeichen der Zeit erkannt. Dummerweise hat ihnen dann die Fertigung einen Strich durch die Rechnung gemacht.

Wobei AMD immer angreifen muß, bis ihr Marktanteil da ist, wo Intel vor Ryzen stand.
 
sie haben immer neue Architekturen rausgebracht
Ja. Nur 2015 damit aufgehört und erst als es anfing eng zu werden wieder damit angefangen was dann wegen der 10nm-Problematik zig mal verschoben wurde - und zur Überbrückung Kerne erhöht, Stromverbrauch erhöht und hier und da sogar massiv Preise gesenkt (vor allem im HEDT).
Normalerweise lagen nur wenige Jahre zwischen Releases neuer Architekturen (Nehalem, Sandybridge, Haswell, Skylake) und dann auf einmal dauerte es 6 Jahre von Skylake zu Rocketlake. Das liegt garantiert nicht nur daran, dass 10nm nicht lief wie geplant - es gab damals einfach keinen Druck groß was anderes zu machen außer "warten bis 10nm läuft". Seit einiger Zeit dagegen schon.
Falls Intel in den nächsten Jahren in diesem Segment wieder konkurrenzfähig sein sollte dürfte es das geringste Problem sein einen TR herzuzaubern,
Ohne Weiterentwicklung auf Basis des aktuellen? Du glaubst ernsthaft, dass falls Intel einen HEDT-Prozessor auf Alderlake-Basis rausbringt AMD so einfach nen TR "herzaubern" kann der auf ZEN2-Basis und einer IPC auf Skylake-Höhe da wieder locker gewinnt?
So muss Intel auch gedacht haben.
 
Ohne Weiterentwicklung auf Basis des aktuellen? Du glaubst ernsthaft, dass falls Intel einen HEDT-Prozessor auf Alderlake-Basis rausbringt AMD so einfach nen TR "herzaubern" kann der auf ZEN2-Basis und einer IPC auf Skylake-Höhe da wieder locker gewinnt?
So muss Intel auch gedacht haben.

Nö, einfach den dann aktuellen Epyc beschneiden. Mit Alder Lake wird sowieso keine HEDT Plattform kommen.
 
Ja. Nur 2015 damit aufgehört und erst als es anfing eng zu werden wieder damit angefangen was dann wegen der 10nm-Problematik zig mal verschoben wurde - und zur Überbrückung Kerne erhöht, Stromverbrauch erhöht und hier und da sogar massiv Preise gesenkt (vor allem im HEDT).

2016 Cannonlake, 2017 Ice Lake, 2018 Tiger Lake, das Tempo hat gestimmt. Heute sollten wir eigentlich den Nachnachnachfolger von Tigerlake haben.

Wie gesagt: die Fertigung hat ihnen einen Strich durch die Rechnung gemacht, an Untätigkeit lag es jedenfalls nicht.
 
Nö, einfach den dann aktuellen Epyc beschneiden. Mit Alder Lake wird sowieso keine HEDT Plattform kommen.
Aber das machen sie doch bei den Threadrippern sowieso? Auch die vergangenen und kommenden TRs sind doch nur beschnittene Epycs?

Ich glaube auch nicht dass Alderlake in den HEDT kommt. Monolithisch geht das kaum konkurrenzfähig und bis Intels Foveros soweit ist wirds eher 2024/25.
2016 Cannonlake, 2017 Ice Lake, 2018 Tiger Lake
Ich dachte eigentlich an neue Architekturen, nicht den siebten Skylake-Abklatsch (selbst Rocketlake ist nicht sooo viel anders, nur "dicker" gebaut). Deswegen hab ich in meiner Aufzählung auch beispielsweise Ivybridge rausgelassen weil das halt auch nurn optimierter Sandybridge war. Wie die ganzen Lakes seit Skylake bis heute. Im Wesentlichen hat INtel denen "einfach" nur bei jeder Generation ein bisschen mehr in den A... getreten um ein bisschen schneller zu werden.
 
Ich dachte eigentlich an neue Architekturen, nicht den siebten Skylake-Abklatsch (selbst Rocketlake ist nicht sooo viel anders, nur "dicker" gebaut).

Das Problem ist, dass ein Problem fehlt, das eine neue Architektur notwendig machen würde. Ich frage immer bei den Leuten nach, die diesen Vorwurf bringen: was soll denn besser gemacht werden? Das Ergebnis ist, dass man nicht ändern möchte, gewissermaßen ein Skylake, nur in schnell und das liefert Intel seit über 12 Jahren (damals wurde der alte Core2Quad Ansatz ersetzt).

Was soll Intel denn anders machen? Du bist ja nichtmal ein großer Freund von AVX 512.

Radikale Ansätze, wie den Cell Chip der PS3, möchte kaum einer, denn dazu müßte man die Software speziell anpassen (hat meines Wissens zuletzt id Software mit Quake 1 gemacht). Sowas wird wohl interessant werden, wenn die Fertigung ausgereizt ist.
 
Das Problem ist, dass ein Problem fehlt, das eine neue Architektur notwendig machen würde. Ich frage immer bei den Leuten nach, die diesen Vorwurf bringen: was soll denn besser gemacht werden?
Na dasselbe was CPU-Hersteller seit Jahrzehnten machen: Architekturen entwickeln die (in nahezu allem) schneller sind als ihr Vorgänger. Es ist nicht die Aufgabe der Leute ihnen zu sagen wie sie das hinkriegen, das ist die Aufgabe der Ingenieure von Intel und AMD.
Was erwartest du denn von den Leuten? Sollen die erklären wie Caches vergrößert, Sprungvorhersagen verbessert, Decodereinheiten vermehrt und beschleunigt, innerchipliche Datenverbindungen verbreitert/beschleunigt, ExecutionUnits vermehrt und verbessert, Speichercontroller effektiver angesprochen werden können?

All das tun die Spezialisten in den Firmen doch ständig. Nur sieht man an der Geschwindigkeit mit der Erfolge erzielt werden auch den Druck und die Investitionen des Konzerns dahinter. AMD haut nunmehr seit einigen Jahren alle 1-2 Jahre IPC Steigerungen im zweistelligen Prozentbereich raus (von Bulldozer zu ZEN ganz zu schweigen) weil sie es zumindest bis aktuell einfach mussten um nicht unterzugehen. Intel hätte wenn sie es gewollt hätten und dahin investiert hätten dasselbe tun können - die sind ja nicht blöder als AMD. Nur war der Druck halt sehr viel kleiner da man so weit vorne lag - weniger Investitionen in R&D an der Stelle, kleinere billigere Dies (die "Vielkerner" kamen ja auch erst auf Druck) usw. erhöhen halt Marge und Gewinn und verlangsamen Neuentwicklungen. Für eine Aktiengesellschaft ohne ernsthafte technische Konkurrenz ist das ja auch der naheliegende Weg.

Warte mal die nächsten Jahre ab jetzt wo sie wieder "müssen" und die Prioritäten sich wieder verschieben. Es wäre nicht verwunderlich, wenn Intel jetzt auf einmal 2022 mit Alderlake in 10nm wirklich gut da steht und 2 Jahre später mit ner wieder neuen oder mindestens dick aufgeblasenen Architektur in 7nm um die Ecke kommt. Dann geht auf einmal wieder alle 1,5 Jahre +20% Performance. Diese Umbrüche dauern halt nur ewig weil man weder die Technologie noch die Fahrtrichtung so eines Monsterkonzerns mal eben in 3 Jahren ändert^^
 
Zuletzt bearbeitet:
Na dasselbe was CPU-Hersteller seit Jahrzehnten machen: Architekturen entwickeln die (in nahezu allem) schneller sind als ihr Vorgänger. Es ist nicht die Aufgabe der Leute ihnen zu sagen wie sie das hinkriegen, das ist die Aufgabe der Ingenieure von Intel und AMD.
Was erwartest du denn von den Leuten? Sollen die erklären wie Caches vergrößert, Sprungvorhersagen verbessert, Decodereinheiten vermehrt und beschleunigt, innerchipliche Datenverbindungen verbreitert/beschleunigt, ExecutionUnits vermehrt und verbessert, Speichercontroller effektiver angesprochen werden können?

Also willst du im Prinzip auch nur den 15ten Aufguß der Core i Architektur, wie alle anderen auch. Die Architektur ist für Intel nunmal fast perfekt, das ist eben das Problem. Andere Ansätze, die ein Problem lösen, sind irgendwie nicht in Sicht. Es ist so, als würde man zu den Ingenieuren sagen: die 30% Wirkungsgrad des Ottomotor sind zu wenig, ich will 90%, macht mal (und einen Autovergleich zu ziehen).

All das tun die Spezialisten in den Firmen doch ständig. Nur sieht man an der Geschwindigkeit mit der Erfolge erzielt werden auch den Druck und die Investitionen des Konzerns dahinter. AMD haut nunmehr seit einigen Jahren alle 1-2 Jahre IPC Steigerungen im zweistelligen Prozentbereich raus (von Bulldozer zu ZEN ganz zu schweigen) weil sie es zumindest bis aktuell einfach mussten um nicht unterzugehen. Intel hätte wenn sie es gewollt hätten und dahin investiert hätten dasselbe tun können - die sind ja nicht blöder als AMD. Nur war der Druck halt sehr viel kleiner da man so weit vorne lag - weniger Investitionen in R&D an der Stelle, kleinere billigere Dies (die "Vielkerner" kamen ja auch erst auf Druck) usw. erhöhen halt Marge und Gewinn und verlangsamen Neuentwicklungen. Für eine Aktiengesellschaft ohne ernsthafte technische Konkurrenz ist das ja auch der naheliegende Weg.

AMD hat jetzt auch keine neue Architektur mehr gebracht, denn für sie ist Zen perfekt (sie haben es tatsächlich geschafft, die Nachteile großteils zu eliminieren, jedenfalls, was die Geschwindigkeit betrifft). Die Alternative wäre soetwas, wie die Core i Architektur, dafür produziert AMD jedoch nicht genug Chips.

Warte mal die nächsten Jahre ab jetzt wo sie wieder "müssen" und die Prioritäten sich wieder verschieben. Es wäre nicht verwunderlich, wenn Intel jetzt auf einmal 2022 mit Alderlake in 10nm wirklich gut da steht und 2 Jahre später mit ner wieder neuen oder mindestens dick aufgeblasenen Architektur in 7nm um die Ecke kommt. Dann geht auf einmal wieder alle 1,5 Jahre +20% Performance. Diese Umbrüche dauern halt nur ewig weil man weder die Technologie noch die Fahrtrichtung so eines Monsterkonzerns mal eben in 3 Jahren ändert^^

Die Frage ist eben, wie so eine tolle Architektur aussehen soll, bzw. was für ein Problem damit überhaupt gelöst werden soll. Alle Ansätze scheiden aus diversen Gründen aus. Hohe Frequenzen, wie bei Netburst, braucht heute keiner, wenn es auf die Leistung geht. Eine stark vereinfachte CPU (z.B. In Order, statt Out of Order), an die dann die Software angepasst wird, wie beim Cell der PS3, möchte heute auch kaum einer, die CPU soll sich den faulen Programmierern anpassen, nicht umgekehrt. Viele kleine und sehr einfache Kerne sind für den Normalo auch keine Lösung. Eine CPU mit 1024 und mehr Kernen wäre schnarchlangsam, weil sie tolle Leistung nicht im Ansatz nutzen kann. Die CPU durch schnellen RAM zu entlasten und so am Cache zu sparen, ist auch keine gute Lösung, keiner will einen gigantischen Haufen Geld für wenig RAM hinblättern, der dann noch aktiv gekühlt werden muß. Ein Ansatz mit mehreren Universaldies, aus denen sich dann, wie bei Zen, jede CPU zusammenstückeln läßt, ist für Intel auch nicht das richtige, da es zuviel Leistung kostet und sie es nicht nötig haben. Im Bereich der IGPs wollen sie damit aber experimentieren. Eine völlig neue Architektur kommt nicht in Frage, es soll ja alles zu den x86ern kompatibel bleiben.

Mir sind die sinnvollen Ideen ausgegangen, du hast irgendwie auch keine und bei Intel sieht es offenbar ähnlich aus.

Neuronale Netze wären noch ein völlig neuer Ansatz, da soll auch etwas kommen. Allerdings ist das auch nur eine Ergänzung zu den Core i Kernen und kein Ersatz.
 
@Pu244

Weil es also kein „Problem“ gibt soll also aufgehört werden zu forschen und zu entwickeln im CPU Bereich, oder was willst du uns hier sagen?

Du solltest in deinem Leben kein CEO werden, holy shit...

Es gibt extrem viele Bereiche in unserem Leben wo wir längst keine Probleme mehr haben und trotzdem wird weiter entwickelt, optimiert und nach neuen Ansätzen geforscht. Und das ist auch gut so, Stillstand ist nämlich der Tod jeder wirtschaftlichen Gesellschaft.
 
@Pu244

Weil es also kein „Problem“ gibt soll also aufgehört werden zu forschen und zu entwickeln im CPU Bereich, oder was willst du uns hier sagen?

Du solltest in deinem Leben kein CEO werden, holy shit...

Es gibt extrem viele Bereiche in unserem Leben wo wir längst keine Probleme mehr haben und trotzdem wird weiter entwickelt, optimiert und nach neuen Ansätzen geforscht. Und das ist auch gut so, Stillstand ist nämlich der Tod jeder wirtschaftlichen Gesellschaft.
Optimierung ist eine Sache, ich glaube eher er sprach davon einen völlig neuen Architekturansatz zu entwerfen bzw die Notwendigkeit dafür

Warum man da gleich persönlich werden muss ist mir ein Rätsel, noch dazu weil das Problem ja eher von dir aus geht (du verstehst noch nicht ganz was er meint, aber urteilst schon über ihn)
 
Mir sind die sinnvollen Ideen ausgegangen
Bei der Einstellung die du da zeigst ist das auch kein großes Wunder. :ka:
Erinnert mich an die Leute die vor 20 Jahren schon gesagt haben x86 ist ausoptimiert und geht nicht mehr viel schneller - da kam sogar auch schon regelmäßig der Verbrennungsmotorwirkungsgradvergleich auch wenn der damals wie heute nix mit dem Thema zu tun hat (und selbst der könnte theoretisch noch fast verdoppelt werden).

Optimierung ist eine Sache, ich glaube eher er sprach davon einen völlig neuen Architekturansatz zu entwerfen bzw die Notwendigkeit dafür
So ist es. Wir haben auch nicht die Glühbirne erfunden indem wir beständig die Kerze weiterentwickelt haben.
 
Weil es also kein „Problem“ gibt soll also aufgehört werden zu forschen und zu entwickeln im CPU Bereich, oder was willst du uns hier sagen?

Nein, geforscht werden muß immer, aber man sollte eine Idee davon haben, was man denn eigentlich machen will. Niemand stellt sich hin und sagt sich "jetzt forsche ich mal lustig darauf los, wird schon etwas dabei rauskommen". Man braucht eine Idee, einen Ansatz, den man verwirklichen möchte.

So wie z.B. den Bulldozer von AMD (ich habe glatt vergessen, den Ansatz aufzuzählen). Die Idee ist genial: mehrere Kerne teilen sich Ausführungseinheiten und Cache, nur das, was nötig ist, wird jeweils extra ausgeführt. Eine tolle Idee, nur leider funktioniert sie nicht, solange die Software nicht speziell darauf optimiert wird.

Wenn man keine Ahnung hat, was man da eigentlich machen will, dann wird das nichts.

Du solltest in deinem Leben kein CEO werden, holy shit...

Ein CEO sollte das machbare im Blick behalten. Einfach mal so seine Firma zu verwetten, in der Hoffnung, es wird schon irgendwie irgendwas rauskommen, ist nicht sonderlich intelligent.

Quasi allen Entscheidungen, die getroffen werden, liegt irgendein Problem zu Grunde, das gelöst werden muß. Kennst du das Problem nicht, dann weißt du auch nicht was du machen sollst.

Bei der Einstellung die du da zeigst ist das auch kein großes Wunder. :ka:
Erinnert mich an die Leute die vor 20 Jahren schon gesagt haben x86 ist ausoptimiert und geht nicht mehr viel schneller - da kam sogar auch schon regelmäßig der Verbrennungsmotorwirkungsgradvergleich auch wenn der damals wie heute nix mit dem Thema zu tun hat (und selbst der könnte theoretisch noch fast verdoppelt werden).

Das haben damals nur die wenigsten gesagt, es gab massenhaft Alternativen, die auch angegangen wurden. Neue Architektur, mit dem Itanium (Flop), mehr Kerne (die Zukunft), eigenständige Kerne zusammenfassen und den L2 Cache teilen, Core2Duo, 64Bit Befehlssatzerweiterung (haben wir heute noch), Mehrere Kerne Teilen sich Einheiten, wie beim Bulldozer (Flop), mehrere Kerne in ein gemeinsames Konzept integrieren, wie beim Phenom I und Core i, Chiplets, wie beim Core2Quad, Atom N330 und Ryzen.

All diese Dinge waren schon damals bekannt.

Der Punkt ist, dass keiner der neuen Ansätze heute gewollt ist, auch von dir nicht. Deshalb gibt es wohl keine neue Architektur. Eventuell wird man irgendwann keine andere Wahl haben, aber bis dahin fährt Intel ganz gut, indem sie die Core Architektur verbessern.

So ist es. Wir haben auch nicht die Glühbirne erfunden indem wir beständig die Kerze weiterentwickelt haben.

Ja, aber es hat niemand einfach gesagt, wir brauchen etwas besseres und dann völlig ohne irgend eine Idee, Plan und Ahnung, munter darauf losgeforscht. Es begann damit, dass jemand (nicht Edison) sich die Frage gestellt hat, ob man das Glühen nicht heller machen könnte, wenn man einen Draht nimmt, der nicht verbrennt. Irgendwann ist man dann auf die Idee gekommen, die Luft rauszuziehen, dann Kohlefäden zu nehmen (das war Edison), dann Wolfram (das zu bearbeiten war die Hölle), dann hat man irgendwann das Vakuum durch die neu gefundenen Edelgase ersetzt.

Zu allen Zeitpunkten hatten die Leute eine Ahnung, was sie da gemacht haben und was sie erreichen wollten. Richtig gute Zufallsentdeckungen, wie beim Penicillin, sind selten und bei einer neuen Mikrochiparchitektur ein Ding der Unmöglichkeit.
 
Neue Architektur, mit dem Itanium (Flop), mehr Kerne (die Zukunft), eigenständige Kerne zusammenfassen und den L2 Cache teilen, Core2Duo, 64Bit Befehlssatzerweiterung (haben wir heute noch), Mehrere Kerne Teilen sich Einheiten, wie beim Bulldozer (Flop), mehrere Kerne in ein gemeinsames Konzept integrieren, wie beim Phenom I und Core i, Chiplets, wie beim Core2Quad, Atom N330 und Ryzen.

All diese Dinge waren schon damals bekannt.

Der Punkt ist, dass keiner der neuen Ansätze heute gewollt ist, auch von dir nicht.
Warum will ich das alles nicht? Chiplets find ich super (hatte schon nen Q6600 und jetzt eben Ryzen3000/5000), Biglittle finde ich sehr interessant wenns mit Alderlake kommt, 64bit und viele Kerne sowieso und Befehlssatzerweiterungen nutze ich wann immer nennenswert vorteilhaft (AVX2 ist ein großer Zeitsparer für mich, 512 halt nicht mangels guter Umsetzung - und meine aktuelle CPU kanns eh nicht :ugly:).
Die Itanium-Architektur war auch nur deswegen ein Flop weil sie keine Chance hatte gegen x86 zu bestehen weil letztere derart verbreitet ist. Technisch gesehen ist x86 eigentlich ziemlich furchtbar heutzutage was aber zu erwarten ist wenn man eine Architektur aus den 70er Jahren bis 2020+ durchschleift. Da wird halt vieles unausweichlich mitgezogen der Kompatibilität willen was vom heutigen Standpunkt gesehen unterirdisch mies ist.
Es ist halt sehr schwierig da was neues zu bringen - eine völlig neue Architektur abseits von x86 müsste halt extrem viel schneller/effizienter sein damit ausreichendes Interesse für einen Umbruch da wäre und das traut sich wohl keiner mehr wirklich, auch weils im Privatbereich den Durst nach massiv höherer Rechenleistung in der Form wie vor 20 Jahren nicht mehr gibt - selbst der popligste Einsteigerprozessor kann heute ja alles was der Normalmichel mit PCs macht mit links.
 
Zurück