AMD Pinnacle Ridge: Ryzen 5 2600 mit Taktplus entdeckt

In Beitrag 246 zitierst du Tim1974 der sich auf Geekbench bezieht und davon spricht, dass es neben mehr Takt auch mehr IPC geben müsste, worauf du antwortest: "Ein absolut erwartbares Ergebnis, aber die Deutung halte ich für fehlerhaft. Wo soll aus dem Ergebnis mehr Leistung pro Takt ablesbar sein?"

Nur das es dabei nicht um einen angeblichen Leistungszuwachs um 30% geht, sondern - wie geschrieben - um ein überprüfbares und erwartbares Ergebnis: Wenn der 1600 übertaktet auf 3,8 Ghz läuft und der 2600 @ Stock alle Kerne auf den maximalen Turbotakt von 3,8 Ghz bringt, laufen nun einmal beide CPUs mit 3,8 Ghz auf allen Kernen, erreichen also auch annähernd dasselbe Ergebnis.

Aber ich nehme das mal als weiteres Beispiel dafür, dass du Probleme damit hast, Textinhalte zu erfassen und verschiedene Informationen in einen inhaltlichen oder auch nur chronologischen Zusammenhang zu bringen. Auf dein restliches Geschwurbel nach dem gleichen Schema einzugehen erspare ich mir daher. Wäre es nicht so penetrant, könnte ich es amüsant finden, wie du deine Verständnisprobleme damit erklärst, dass alle anderen sich verstrickt haben müssen.

Eingeräumt, dass ich mich manchmal etwas sehr umständlich und womöglich missverständlich ausdrücke. Es ist nur seltsam, dass du scheinbar der Einzige bist, der ein ernstliches und permanentes Problem damit hat. Also, *mir* würde das zu denken geben ...

Deine Behauptung du beziehst dich dabei nicht auf Geekbench... ähja, natürlich. Wieso kommst du sonst mit 30% mehr Leistung um die Ecke?

Weil man man bei einem plausiblen Leistungszuwachs von 10% Singlecore von (hypothetischen!) 30% Multicore ausgehen muss, um (ebenfalls hypothetische!) 20% mittlere Leistung zu erreichen? Oder wie errechnest du den Durchschnitt aus zwei Werten?
Ich behaupte an keiner Stelle, dass diese Werte den Tatsachen entsprechen, sondern stelle im Gegenteil mehrfach klar, dass ich nicht dieser Ansicht bin. Was ist an "Wenn A wahr sein soll und B so ist, dann müsste C so aussehen" so schwer zu begreifen? Das heißt doch nicht, dass man sich C zu eigen macht!

Offensichtlich ist das nötig um zu verstehen, dass es eben keine 600MHz Unterschied sind, sondern maximal 400MHz, weil die Kerne des Ryzen 1600 nunmal nicht belastet werden, während der Ryzen 1 auf seinen maximalen Boost wechselt, aber da ist auch Hopfen und Malz verloren.

So ein Unfug. Ich habe doch die Erläuterung des Precison Boost 2 im Vergleich zum bisherigen Boost-Verhalten verlinkt. Tatsache ist: In gemischten Lastszenarien kann der 1600 nur entscheiden, ob er einen Kern auf 3,7 Ghz (inkl. XFR), zwei Kerne auf 3,6 Ghz oder sechs Kerne auf 3,2 Ghz bringt. Diese Zustände schließen sich gegenseitig aus.

Du versuchst krampfhaft eine möglichst große Differenz zwischen Ryzen 1 und Ryzen 2 herbeizureden,

Genau, deshalb gehe ich ja auch von rund 10% Leistungszuwachs aus. :rollen:

ja behauptest sogar es lohne sich für Spieler aufzurüsten

Ich weiß, du hast auch Probleme mit dem Kontext, aber wenn ich dir auf die Sprünge helfen darf: Ich schrieb, dass sich ein Aufrüsten (auch bei niedrigem Leistungszuwachs) lohnt lohnen *kann*, wenn der Aufwand keine Hürde ist und der Anschaffungspreis der alten CPU im Verhältnis zum Verkaufserlös der alten CPU steht.

Dass du daraus eine unbedingte Aufrüstungsempfehlung konstruierst um mich zu diskreditieren, legt mal wieder beredt Zeugnis darüber ab, was bei dir von deiner Auffassungsgabe und/oder von deiner Diskussionskultur her nicht in Ordnung ist. Das ist in etwas so, als würde ich behaupten, du würdest Allen empfehlen, vom Ryzen 1600 auf den i5-8400 umzurüsten. Das machst du nicht, man könnte es dir jedoch (oberflächlich betrachtet plausibel) unterstellen.

Und ganz absurd wird es dadurch, dass ich nun schon in mehreren Threads laut darüber nachgedacht habe, wie der Upgrade-Pfad meines nun doch schon recht betagten Hauptrechners (mit Intel-Plattform!) aussehen könnte und dabei absolut ergebnisoffen bin.

betonst aber in deinen Beiträgen sehr oft, dass sich die zusätzliche Spieleleistung von Intel nicht lohne

... wobei ich ebenfalls sehr präzise angebe, unter welchen Umständen diese Aussagen gelten. Du weißt schon, der Kontext, mit dem du in deiner tendenziell schwarz-weißen Wahrnehmung so auf Kriegsfuß stehst.

Äh, doch genau das machst du doch in deinen Beiträgen, du addierst hier irgendwelche Prozentwerte um auf deine 30% zu kommen.:D

Du bist offenkundig außerstande, den Unterschied zwischen einer Rechnung und einer hypothetischen Annahme zu begreifen. Dass man das aus meiner ersten. leicht verschwurbelten Erklärung herauslösen könnte, habe ich bereits eingeräumt, aber du ignorierst ja auch beharrlich, dass ich in den anschließenden Beiträgen präzisiert habe, was ich meine.

Und nach den Vorhersagen von 30% und dem Fan-Gedudel kommt dann beim Test nachher wieder die Ernüchterung und wer ist schuld? Natürlich die Tester, die AMD benachteiligen, weil sie von Intel geschmiert sind...

Bist du jetzt noch dabei, mich herunterputzen zu wollen oder ist das schon wieder allgemeiner Weltschmerz? Ich kann mich jedenfalls nicht erinnern, jemals irgendwo etwas von einer Benachteilung von AMD in Tests oder gar von geschmierten Testern geschrieben (oder auch nur gedacht) zu haben.
Aber gut, von jemanden, der systematisch Leute, Daten und Meinungen durcheinander wirbelt, darf man vermutlich auch in diesem Punkt keine Kohärenz erwarten. Vermutlich war's wieder deine Nemesis namens Danuj, die dich konfus gemacht hat.

Achso, du gehst nicht aus, dass die Werte von Geekbench stimmen und kommst also durch Zufall auf die 30% multithreaded?

Nicht durch Zufall.
Bitte, erleuchte mich: Mit welchem exemplarisch angenommenen Prozentwert würdest du 10% addieren und dann durch zwei dividieren, um einen (nicht von dir) behaupteten Wert von 20% zu erreichen?

Nein, warte! Erleuchte mich nicht. Bleib' einfach bei deiner Meinung, aber erweise mir und dir und vermutlich auch dem Rest des Forums einen Gefallen und behalte deine Phantastereien, Wahrnehmungsstörungen und Neurosen für dich. Informationen akkumulieren und wiedergeben kannst du, das kann niemand in Abrede stellen, aber wenn es um deren Auswertung, Textverständnis und Argumentation geht, bist du dir nur selbst im Weg.
Ich weiß, es juckt dich jetzt in den Fingern, jetzt wieder ausufernd fabulierend zu antworten, aber erspare dir die Mühe. Ich werde es nicht mehr lesen und ansonsten interessiert es niemanden (Außer zur Volksbelustigung, wobei ich nicht weiß, ob das in deinem Interesse ist ...).
 
Lerne lesen/ verstehen Schaffe, ist ja furchtbar wie du Aussagen anderer verdrehst, nur um sie deiner Rhetorik gefügig zu machen. ^^
Da mir klar ist, dass du selbst wenn ich recht habe, Argumente ad Hominem benutzt und nur der Streitsucht wegen etwas behauptest was nicht stimmt, weise ich deine Kritik hier freundlich mit dem Hinweis zurück, die betreffenden Beiträge zu lesen, die ich verlinkt habe.:ka:
Dort steht doch alles relevante.
Nur das es dabei nicht um einen angeblichen Leistungszuwachs um 30% geht, sondern - wie geschrieben - um ein überprüfbares und erwartbares Ergebnis: Wenn der 1600 übertaktet auf 3,8 Ghz läuft und der 2600 @ Stock alle Kerne auf den maximalen Turbotakt von 3,8 Ghz bringt, laufen nun einmal beide CPUs mit 3,8 Ghz auf allen Kernen, erreichen also auch annähernd dasselbe Ergebnis.

Es ging mir nur darum aufzuzeigen dass du das Geekbench Ergebnis für voll genommen hast und somit in diesem Zusammenhang argumentiert hast.
Und das habe ich dir an mehreren Beispielen aufgezeigt auf die du nicht näher eingehst, sondern auch hier mit Polemik versuchst das abzuschmettern.:)

Aber ich nehme das mal als weiteres Beispiel dafür, dass du Probleme damit hast, Textinhalte zu erfassen und verschiedene Informationen in einen inhaltlichen oder auch nur chronologischen Zusammenhang zu bringen.

Habe deine Beiträge chronologisch verlinkt und aus dem was du behauptet und geschrieben hast, ohne etwas zu verdrehen oder zu verändern, gezeigt, dass es nicht wahr ist was du hier behauptest,ansonsten hättest du mir schon lange deine Aussage verlinken können wo du davon sprichst, dass du dich nicht auf Geekbench beziehst
Da du das aber mehrfach -wie eben aufgezeigt - getan hast, ist deine jetzige Aussage mir unverständlich.
Es ist nur seltsam, dass du scheinbar der Einzige bist, der ein ernstliches und permanentes Problem damit hat.

Du wurdest auch von anderen Usern darauf hingewiesen, dass deine Prozentrechnung um auf deinen Phantasiewert zu kommen, falsch ist.
Das hast du aber ebenso gekonnt überlesen.
Ein Denkfehler, den man hier aber leicht machen kann ist die Summierung des Monoleistungszuwachses, denn wenn pro Kern z.B. 10% mehr Leistung da sind, kann man nicht sagen, daß der R5-2600 insgesamt 60% mehr Leistung hat als der R5-1600.

Weil man man bei einem plausiblen Leistungszuwachs von 10% Singlecore von (hypothetischen!) 30% Multicore ausgehen muss, um (ebenfalls hypothetische!) 20% mittlere Leistung zu erreichen? Oder wie errechnest du den Durchschnitt aus zwei Werten?

Bleibt immernoch die Frage wie du auf 30% Multithreaded kommst. Wenn es wie du beteuerst nicht von diesem absuren Geekbench Vergleich kommt, von was kommt es denn dann?
Na von deiner falschen Prozentrechnung die du gemacht hast, aber ausblendest und verschweigst und das alles nur um Recht zu behalten.
Das Problem ist nur dass dir jetzt schon mehrere Widersprüchlichkeiten in deiner Überlegung aufgezeigt habe - auf die du nicht eingehen möchtest.

So ein Unfug. Ich habe doch die Erläuterung des Precison Boost 2 im Vergleich zum bisherigen Boost-Verhalten verlinkt. Tatsache ist: In gemischten Lastszenarien kann der 1600 nur entscheiden, ob er einen Kern auf 3,7 Ghz (inkl. XFR), zwei Kerne auf 3,6 Ghz oder sechs Kerne auf 3,2 Ghz bringt. Diese Zustände schließen sich gegenseitig aus.

Das ist kein Unfug, sondern du hast das Taktverhalten des Ryzen Prozessors lediglich nicht verstanden.
Du behauptest es gibt Situationen wo der Unterschied bei 600MHz liegt, nur ist das eben nicht möglich, da der Ryzen 1600 immer mindestens mit 3,4Ghz taktet und der Takt des 2600 somit bei 4GHz liegen müsste, wovon nichts bekannt ist.

Genau, deshalb gehe ich ja auch von rund 10% Leistungszuwachs aus.
rolleyes4.gif

Singlethreaded vielleicht, Multithreaded war deine Rechnung folgende:
Zitat:

Eva Zwerg einen summierten Taktanstieg von 1200 Mhz, der bei Ausnutzung aller Kerne ein gutes Drittel mehr Leistung bringt.
Für diejenigen, die wegen schlechten Betragens von der Baumschule geflogen sind:
Ein Drittel ist etwas mehr als 30 Prozent.

Und das ist halt eben leider falsch, somit musst zu zwingend einsehen, dass es eben multithreaded keine 30% sein können, wenn der Singlethreaded Taktanstieg bei 3600 vs. 3800MHz liegt, denn es sind maximal 11,7% mehr Takt wenn alle Kerne belastet sind.
Du kannst ja gerne deine Ansicht, nachdem ich es dir erklärt habe nun ändern, nur ich würde es gerecht finden, wenn man zu seinem Wort steht.

Ich schrieb, dass sich ein Aufrüsten (auch bei niedrigem Leistungszuwachs) lohnt lohnen *kann*, wenn der Aufwand keine Hürde ist und der Anschaffungspreis der alten CPU im Verhältnis zum Verkaufserlös der alten CPU steht.

Gebrauchte Prozessoren kannst du nicht so verkaufen, damit dich das keinen gesalzenen Aufpreis kosten wird, zumal du Ryzen 1 auch übertakten kannst.
Gebrauchte Ware =! Neuware.
Es lohnt nicht - da gibts nichts herumzudiskutieren. Mir ist zwar klar - dass das das Notnagel-Argument ist, dass man in AM4 auch einen Ryzen + einbauen kann, aber das gleiche galt auch für Intel 6700K--> 7700K, dort lohnte ein Update genausowenig, auch wenn du zwanghaft ein Argument finden möchtest dass sich das irgendwie lohnen soll - was es schlichtweg nicht tut.
Deswegen meine Aussage dass du den Vorsprung von Ryzen + permanent größer darstellst als er sein wird und das wird nur zu Enttäuschungen führen die AMD nicht gebrauchen kann. um wieder Fuß zu fassen.

Dass du daraus eine unbedingte Aufrüstungsempfehlung konstruierst um mich zu diskreditieren

Von unbedingter Aufrüstempfehlung habe ich nichts gesagt, sondern nur dass du behauptet hast es würde sich lohnen.
Und das tut es nicht, außer du bekommst bei Ryzen + noch eine Kiste Bananen dazugeschenkt.

... wobei ich ebenfalls sehr präzise angebe, unter welchen Umständen diese Aussagen gelten. Du weißt schon, der Kontext, mit dem du in deiner tendenziell schwarz-weißen Wahrnehmung so auf Kriegsfuß stehst.

Da du die Umstände je nach Gusto wechselst und mit zweierlei Maß misst, habe ich das kritisiert.

Du bist offenkundig außerstande, den Unterschied zwischen einer Rechnung und einer hypothetischen Annahme zu begreifen. Dass man das aus meiner ersten. leicht verschwurbelten Erklärung herauslösen könnte, habe ich bereits eingeräumt, aber du ignorierst ja auch beharrlich, dass ich in den anschließenden Beiträgen präzisiert habe, was ich meine.

Ich habe dich lediglich darauf hingewiesen, dass deine komplette Rechnung falsch ist und du die Rechenregeln zu Prozentrechnung nicht eingehalten hast und daher auf gut 30% gekommen bist. Dass du das nicht zugibst, ist deine Sache. Zeigt mir nur, dass sich eine Diskussion mit dir nicht lohnt, weil du lieber lügst, anstatt dich korrigieren zu lassen.

Bist du jetzt noch dabei, mich herunterputzen zu wollen oder ist das schon wieder allgemeiner Weltschmerz?

Das hat nichts mit Herunterputzen zu tun, sondern das ist das übliche Verhalten vor einem Launch mit erhöhten Erwartungen die danach nicht befriedigt werden.
Und solche Vorraussagen von wahrscheinlich 30% die du triffst, führen dann zum üblichen Verhalten nach einem Launch. Enttäuschung.

Bitte, erleuchte mich: Mit welchem exemplarisch angenommenen Prozentwert würdest du 10% addieren und dann durch zwei dividieren, um einen (nicht von dir) behaupteten Wert von 20% zu erreichen?

Jetzt ist der Wert also nur noch exemplarisch.:D Verstehe.
Die Frage die ich mir stelle ist, wieso du überhaupt 30% multithreaded nimmst und 10% Singlethreaded.
Hast du immernoch nicht verstanden, dass 30% multithreaded nicht zutreffen können?
Aber um deinen Gedanken mal weiterzuführen: Mit etwa 10%, da multithreaded eben auch nicht weit mehr rumkommen kann als Singlethreaded, weil der Takt ja mehr oder weniger feststeht, denn Bäume sind zwar hoch, wachsen für den der im Flugzeug fliegt, aber nicht in den Himmel, nur sieht man das von unten nicht besonders gut.

Informationen akkumulieren und wiedergeben kannst du, das kann niemand in Abrede stellen, aber wenn es um deren Auswertung, Textverständnis und Argumentation geht, bist du dir nur selbst im Weg.

Dann bitte ich dich, das anhand deiner Beiträge, die ich alle verlinkt und zitiert habe, aufzuzeigen, an welcher Stelle ich mich geirrt habe.
Du kannst gleich mit deiner Behauptung, dich nie auf Geekbench bezogen zu haben, anfangen und mir aufzeigen in welchem Beitrag das zu sehen ist.:)

Damit man sich damit aber nicht aufhalten muss, kann man auch einfach den Test abwarten.
 
Zuletzt bearbeitet:
Noch etwas. Es ist etwas schwer Geekbench Ergebnisse zu vergleichen. Der Ryzen 2600 wurde mit Geekbench 4.0.3 getestet. Die Ergebnisse für den 1600 reichen von 3200 bis zu 3800, alles mit unübertakteten Ram und Basistakt der CPU von 3.2GHz.

Da muss ich dir widersprechen. Bei Ryzen hängt fast alles am CPU-Takt oder RAM-Takt. Bei 2800 MHz bist du auf jeden Fall außerhalb der Spezifikationen von AMD und somit OC. Auch der RAM muss bei 2800 MHz übertaktet sein, weil mir kein JEDEC-Standard mit der Taktrate bekannt ist.

Geekbench reagiert sehr stark auf Latenzen, Cache und RAM und somit sind die Werte ohne genaue Daten über die eingesetzte Hardware nutzlos.
AMD könnte von DDR4-2133 bis DDR4-4000 fast alles verwendet haben.
 
Da muss ich dir widersprechen. Bei Ryzen hängt fast alles am CPU-Takt oder RAM-Takt. Bei 2800 MHz bist du auf jeden Fall außerhalb der Spezifikationen von AMD und somit OC. Auch der RAM muss bei 2800 MHz übertaktet sein, weil mir kein JEDEC-Standard mit der Taktrate bekannt ist.

Du hast mich falsch verstanden. Geekbench ist zwischen unterschiedlichen Versionen nicht vergleichbar, also brauch man auch Ergebnisse für 4.0.3 um sie mit dem Ryzen vergleichen zu können. Das Resultat mit dem 2800er RAM hab ich nur gewählt, damit man ne obere Grenze hat. Dazwischen allerdijngs liegen viele, die die gleiche CPU-Basisfrequenz haben und nur wenig Unterschied in der Ramgeschwindigket (<2800). Die Streuung ist einfach verdammt groß. Somit läßt sich kein direkter Prozentwert für den Vorsprung des neuen Ryzen ermitteln, sondern lediglich ne Schätzung. Abgesehen davon, halte ich Geekbench allgemein für wenig aussagekräftig.
 
Auch der RAM muss bei 2800 MHz übertaktet sein, weil mir kein JEDEC-Standard mit der Taktrate bekannt ist.
Das ist vollkommen egal, wenn ein Hersteller seinen RAM mit DDR4-2800 bewirbt, dann ist er mit diesem Takt NICHT übertakten, weil innerhalb der Spezifikationen!
Ob die JEDEC das so spezifiziert hat, ist eine andere Geschichte...
 
Zusätzlich zur Tatsache, dass man die Taktraten pro Kern nicht additiv betrachten kann, kommt noch hinzu, dass die angegebene Steigerung der Multithreadedleistung nicht relativ zur Singlecoreleistung berechnet wurde, sondern relativ zur Multithreadedleistung des Vorgängermodells, so dass die Taktrate nicht der einzige Einflussfaktor sein kann.
 
Zuletzt bearbeitet von einem Moderator:
Zusätzlich zur Tatsache, dass man die Taktraten pro Kern nicht additiv betrachten kann, kommt noch hinzu, dass die angegebene Steigerung der Multithreadedleistung nicht relativ zur Singlecoreleistung berechnet wurde, sondern relativ zur Multithreadedleistung des Vorgängermodells, so dass die Taktrate nicht der einzige Einflussfaktor sein kann.

Ich habe ähnliche Effekte schon bei den Tests zum 2400G gesehen. Mir fällt dazu nur ein, dass SMT stärker geworden ist. Das wäre aber wieder unlogisch bei einem Refresh.
 
Ich habe ähnliche Effekte schon bei den Tests zum 2400G gesehen. Mir fällt dazu nur ein, dass SMT stärker geworden ist. Das wäre aber wieder unlogisch bei einem Refresh.

Letztlich müssen wir den offiziellen Launch von Zen+ abwarten, damit wir das sorgfältig analysieren können. Ich werden den neuesten Threadripper kaufen, das ist schon fest eingeplant.

Die Frage ist ja, warum SMT so viele Probleme macht. Bei Spielen habe ich persönlich noch keinen Vorteil beobachtet, eher Performanceprobleme. Viele Spiele nutzen SMT auch gar nicht, selbst wenn es aktiviert ist. Das sehe ich in meinem OSD anhand der Kernauslastung. Ob die Spiele das selbst verwalten (Threadpool der Anwendung + custom affinity) oder der Windows Scheduler das macht, weiß ich nicht.

Das SMT Problem könnte am Cache liegen und wenn der verbessert wurde... Jedenfalls muss eine Optimierung von SMT nicht zwingend Ursachen seitens der Hardware haben. Ich sehe auch möglich Ursachen in den Compilern, dem Microcode und dem Windows Scheduler.

So wie aussieht, macht der neuste .NET Compiler, mit dem ich zur Zeit intensiv arbeite, Code, der keine Probleme mit SMT hat. Ganz im Gegenteil ist dieser Compiler sehr gut auf Ryzen optimiert. Das wissen viele gar nicht, ist aber wirklich beeindruckend und zeigt auch, bzw. ist ein gutes Beispiel dafür, dass die Hardware "es alleine nicht macht"...
 
Die Frage ist ja, warum SMT so viele Probleme macht. Bei Spielen habe ich persönlich noch keinen Vorteil beobachtet, eher Performanceprobleme.

Das kann ich so nicht bestätigen. Sicher gibt es einige ältere Titel, die ihre Wehwehchen mit SMT hatten (und eventuell immer noch haben), was wiederum auch mit dem Scheduler der seinerzeit genutzten Betriebssysteme zu tun haben kann, der nicht vollumfänglich zwischen physischen und logischen Kernen unterscheiden konnte und auch ganz gerne mal den Mainthread auf einen virtuellen Kern geschoben hat.

Aktuelle Titel/Engines zeigen keine mir bekannten Probleme (Eventuell kannst du ein aktuelles Beispiel benennen, das ich nicht auf dem Radar habe?) mit SMT und machen regen Gebrauch davon. Das äußert sich allerdings selten in mehr fps, sondern häufiger in stabileren Framerates gegenüber der gleichen oder einer vergleichbaren CPU mit deaktivierten oder nicht vorhandenem SMT.

Ein konkreter Fall, bei dem SMT die Performance auch heutzutage beeinträchtigt wäre der, dass grundsätzlich weniger physische Kerne zur Verfügung stehen, als ein Spiel minimal nutzen möchte. Zweikerner mit SMT können in solchen Fällen nun einmal nicht mit einem Vierkerner mithalten. Allerdings würde es dann auch nichts bringen, SMT zu deaktivieren, da es mit zwei Kernen trotzdem nicht besser läuft bzw. manche Spiele gar nicht erst starten.
 
Titel wie "The Division" und "Wolfenstein II" kommen überhaupt nicht gut mit SMT klar...

Zu The Division habe ich, da ich es selbst nicht spiele, auf die Schnelle nur das hier (YouTube) gefunden, was zu bestätigen scheint, was ich eingangs vermutet habe: Die Scheduler aktueller Betriebssysteme, die mehr als generell eine höhere Zahl an Threads unterstützen und SMT berücksichtigen, haben nicht nur keine Probleme, sondern schlagen damit sogar etwas höhere Performance heraus. Wobei man in diesem Fall auch ein Gefälle zwischen den Grafiktreibern nicht ausschließen kann, aber selbst dann scheint SMT keine Bremse zu sein.

Wolfenstein II spiele ich und habe den Eindruck, dass alle Threads meines 4C/8T-Prozessors danken angenommen und auch genutzt werden. Ich habe eben auch einmal SMT deaktiviert und dadurch 6/9/13 (min/avg/max) fps verloren. Jeweils getestet auf Low@720p, um das GPU-Limit zu minimieren.

Man müsste da sicherlich mehrere Durchläufe testen, um das wirklich repräsentativ zu machen, aber mein erster Eindruck ist: SMT stört nicht und ohne verschenkt man Leistung.
 
Gut, mir ging's auch eher um 16 oder sogar 32 Threads. Wenn ich The Divsion mit 32 Threads spiele, kostet das ordentlich Leistung. Es gibt noch weitere Beispiele, wobei Ghost Recon Wildlands sogar mit SMT gut läuft mittlerweile, aber einfach deswegen, weil es nicht genutzt wird...
 
Gut, mir ging's auch eher um 16 oder sogar 32 Threads.

Da könnte ich mir vorstellen, dass deshalb, weil nicht alle Kerne/Threads genutzt werden, einige logischerweise vor sich hin idlen, was dann den Scheduler dazu motiviert, die Last öfter mal zwischen diesen Kernen/Threads zu verlagern. Das würde dann, je nach Architektur, mehr oder weniger viel Performance kosten.
 
Einmal davon abgesehen, dass sich bei 144 fps (Ich vermute, die Framerate ist fixiert?) und Frametimes von 7,8 ms jetzt nicht unbedingt erkennen lässt, wo das Problem mit SMT liegen soll ... :)

... stellt sich mir die Frage, wie sehr sich die Situation - behauptetermaßen positiv - verändert, wenn SMT deaktiviert wird, nur noch die 16 Threads zur Verfügung stehen, hinter denen physikalische Kerne stehen und die dann (mit bereits jetzt mit rund zwei Dritteln Auslastung) das allein stemmen müssen, was vorher zusätzlich virtuelle Kerne (mit ebenfalls rund zwei Dritteln Auslastung) mitgetragen haben.
 
Wenn SMT deaktiviert ist, habe ich über 200 FPS. Die Frames sind nicht fixiert, die 144 FPS sind Zufall.
 
Dann ist doch eigentlich ganz einfach: Wenn auch rein logische Kerne an sich gut genutzt werden, aber ihr Ausschluss bessere Performance bringt, obwohl die von ihnen erbrachte Leistung auf weniger Threads verteilt werden muss, dann ist das Problem nicht SMT, sondern die spezifische CPU bzw. deren Architektur.

Dass die innere Kommunikation von Ryzen noch so ihre Bremsen hat, ist ja bekannt. Es wäre daher interessant zu sehen, ob die gleichen Einbußen auch auftreten, wenn man bei einer Intel-CPU den direkten Vergleich mit aktiviertem und deaktiviertem SMT vornimmt. Dann kann man eine generalisierte Aussage zu SMT treffen, während es bisher nur ein spezifisches Verhalten vom Threadripper ist. Und natürlich ohnehin nur in bestimmten Programmen.
 
Zurück