Ryzen 9 3900: Sparsamerer 12-Kerner soll mit 3,1 GHz im Basis-Takt arbeiten

Oder die Dinger wären HART selektiert. 16x3GHz bei 88W maxPower ist möglich, dafür brauchts aber auf Kante genähte Spannungstabellen und SEHR gute Chiplets.
Glaube ich so aber weniger, die Chiplets die das können werden eher in ROME verwendet.
 
Oder die Dinger wären HART selektiert. 16x3GHz bei 88W maxPower ist möglich, dafür brauchts aber auf Kante genähte Spannungstabellen und SEHR gute Chiplets.
Glaube ich so aber weniger, die Chiplets die das können werden eher in ROME verwendet.

Die holt sich Caseking und vertickt sie für richtig teuer Geld. :ugly:
 
Sauber. Das mit dem non X 3900 ist sehr interessant, insbesondere aus einer Preisperspektive. Der 3900X (und auch der 3950X) werden als X "TopModelle" preisstabil bleiben (war beim 2700X das gleiche), während dann die normalen Versionen eher im Preis fallen.

Hoffentlich gibt es auch einen 3950 non X.
 
Also 20% weniger Game Leistung als ein 9900ks und dafür 20% mehr bei Anwendungen sehen nicht schlecht aus. Aber wird diese auch lieferbar sein?
 
@PCGH :
In der Einleitung:
"Dieses Mal mit Zusatzinformationen in Form der Taktraten. Sollten die sich bewahrheiten, würde die langsamere Variante des 12-Kerners mit 3,1 Watt im Basis-Takt arbeiten."

3,1 Watt ? Kleiner Fehler in der Eile? ^^ Ich glaube 3,1 Ghz ist gemeint ;)

AMD will doch Efiizienter und sparsamer werden. 3GHz bei 3 Watt wär doch super :daumen::D
 
Musste nichtmal je nach Anwendung.
Wenn du dem 3900 einfach 140W erlaubst genau wie dem 3900X werden die Taktraten sehr ähnlich sein (allcore 4,0-4,2 GHz halt). Nur hast die hohen Singlecoreboosts nicht aber die sind ohnehin nicht wirklich relevant und auch beim 3900X seltener.
Mal abwarten, wie sich das in Anwendungen auswirkt. Ich habe noch genügend Applikationen, die auf Single-Thread ausgelegt sind und dies mangels nicht sinnvoll durchzuführender Parallelisierung auch bleiben werden.

Wenn die Single-Thread Leistung des 3900 dann weit unter die des 3900X absinkt wäre das keine allzu schöne Aussicht. Und das alles, um vieleicht 50€ zu sparen?

Ich habe lieber ein Leistungsstarkes, Kühles und Energiesparsammes system.
So unterscheiden sich halt die Anforderungen der Käufer. Für mich zählte Anwenderleistung bei vertretbarer Lautstärke. Und zwar Single- wie Multicore, ich fange nicht an, all meine Software krampfhaft auf Multicore zu optimieren, wenn es keinen Sinn macht.

Ein Halbes jahr AMD FX-8350 (dieses undervoltet etc.) und dann später abgrade auf Ryzen 2700 None-X (das andere halbe Jahr), hat auf meiner Stromrechnung sehr gut eingesehen. So gab es eine ersparnis von ca, 934 kWh.
934 kWh sind 5,18 kWh am Tag (180 Tage) ode 216 Wh bei 24 h Betrieb. Sprich, der FX-8350 hat 215 W mehr verbraucht wie der R 2700? PCGH kam auf "nur" 200W Gesamtverbrauch für den FX-8350? Da hast Du wohl Deine Nachtstromheizung oder die Klimaanlage mit eingerechnet.
 
@sunburst1988

Also eine Seuche würde ich mich ja nun nicht nennen o:
Und AMD X Modelle kamen mir als solches wirklich als kleine Seuche vor. Aber nur weil wirklich alle Modelle mit ausnahme der Ryzen 5 3600 alles nur mit X versehen war, und ich schon damals vor dem kauf des Ryzen 7 2700 mich mit den X Modellen beshcäftigt habe.

Ich kam einfach zu dem schluss, das es absolut unnötig ist, so viel mehr energie in wärme, Leistung udn Geld zu stecken, als das ich einen nutzen davon hatte. Dann habe ich noch irgendwo gelesen, das das deaktivieren der Automatischen übertaktung bei x modellen für erhebliche Perfomance verluste sorgt.

Wenn ich also nach Effizienz suche, eine gute Kühlmöglichkeit, von mehr CPU Leistung auch nur minimal was in Spielen habe, da das meiste eh die grafikkarte macht, und selbst die 5er ryzens voll ausreichen für aktuelle grafikkarten, macht es gar keinen sinn, auch als gamer nciht, in eine teuere X version zu investieren.

So etwas führ dann natürlich dazu, wenn auf einmal Ryzen 3000er serie nur mit X betrieben wird dazu, dies als Seuche zu sehen. Für den einen oder anderen haben die X modelle einen sinn. Aber aus meiner sicht, zählenGamer definitiv nicht dazu! Dennoch kann das jeder für sich entscheiden. Nur sah es mit Zen2 und dessen serie ur so aus als gäbe es nur noch X modelle. Das war das Katastrophale, und somit wäre einem die Freiheit genommen, selber zu entscheiden was man wirklich will udn braucht.

Es reicht vollkommen aus wenn man relativ hohe leistung udn geringe TDP hat, der Aspeckt mit den Versetzen Die's bekräftigt ebenfalls das gefühl lieber ein none X model zu kaufen, was ebenfalls auch für die kühlung noch besser ist.
 
So etwas führ dann natürlich dazu, wenn auf einmal Ryzen 3000er serie nur mit X betrieben wird dazu, dies als Seuche zu sehen.
Es zwingt Dich niemand, dem 3900X mehr wie 65 oder 95W im BIOS zuzugestehen. Schon dreht sie Däumchen und Du hast wieder Geld für die Klimaanlage gespart. Wer mit einem Ryzen 3000 sparen will, kann von Anfang an den R5 3600 (ohne X) kaufen.

Es reicht vollkommen aus wenn man relativ hohe leistung udn geringe TDP hat,
Dir reicht es aus, mir nicht. Ich spare nicht 50€ an der CPU um dann über viele Jahre länger wie nötig auf diese zu warten. Wenn mich das Geld so stören würde, dann spare ich es an anderer Stelle mehrmals wieder ein.

Wobei ich keine Aufgaben für die CPU habe, für die sie schon nur 5 Stunde täglich unter Vollast 200W (gesamt) verheizen kann.
 
Wenn die Single-Thread Leistung des 3900 dann weit unter die des 3900X absinkt wäre das keine allzu schöne Aussicht. Und das alles, um vieleicht 50€ zu sparen?

Also wer sich nen 3900er kauft weil er singlecore Leistung in einem Ausmaß benötigt, dass die 300 MHz Unterschied zwischen nem 3900 (4,2) und nem 3900X (~4,5), also etwa 7%, entscheidend sind, macht grundsätzlich was falsch. :schief:
 
Es zwingt Dich niemand, dem 3900X mehr wie 65 oder 95W im BIOS zuzugestehen. Schon dreht sie Däumchen und Du hast wieder Geld für die Klimaanlage gespart. Wer mit einem Ryzen 3000 sparen will, kann von Anfang an den R5 3600 (ohne X) kaufen.

Dir reicht es aus, mir nicht. Ich spare nicht 50€ an der CPU um dann über viele Jahre länger wie nötig auf diese zu warten. Wenn mich das Geld so stören würde, dann spare ich es an anderer Stelle mehrmals wieder ein.

Wobei ich keine Aufgaben für die CPU habe, für die sie schon nur 5 Stunde täglich unter Vollast 200W (gesamt) verheizen kann.

Man kann sich also ein 3600 nehmen, und dann sit alles gut? xD
Gamer können dies gerne tun. Aber ich bin kein gamer. Das bissel kleinzeug das ich hier auf 1920x1080 spiele, ganz im ernst. das entscheidet meine GRaka und nciht meine CPU.

Und von meinem 2700, werde ich sicher kein Downgrade zu einem 3600 machen, der mir unterm strich weniger bringt, schon allein von den kernen her.

Die von die benannten TDP absenkungen, haben bei mir bisher nur Abstürze und oder nichts bewirkt. Sprich reine Instabilität. Ergo schwachsinn.

Da ich eher auf Kerne heiß bin, ist so eine x version für mcih natürlichs chwachsinn. denn es war schon immer so. je mehr kerne, desto mehr energie wird benötigt. Wir sind bei einem verfahren angelangt, wo die energie gering ist. Dennoch braucht man nicht sinnloserweise eine KI übertaktung. wenn man wirklichmehr haben will, dann schaft man das auch so, ich jedoch will nciht mehr Takt, sondern standard takt + undervolting + stabieles system.

Für Games setzt euch gerne 4 Kerner in die CPU, alle Hardcore gamer die ncihts anderes machen als das, brauchen keine CPU mit mehr als 4 Kernen. (Und ausnahmen bestätigen die regel)... wenn ich da mal kurz an Minecraft denke. Da gabs aber noch irgend ein spiel außerhalb von minecraft keine ahnung wier das heißt oder was es ist, das ebenfalls mit mehr Kernen Skaliert. Dann haben wir ja schon mal 2 Spiele für Hardcore gamer.. wooow.

ne mal im ernst. Ich kann standard Takt, geringe TDP und Leistung abstauben, und der x mode wiederspricht dem einfach, weil esy zusätzlicher schwachsinn ist. In der Regel Kompensieren viele Kerne mit solchen Takt frequenzen wie wir sie haben schon mehr als genug. Die Taktraten weiter hoch schrauben... wozu?

Wollen mir die Gamer ernsthaft verklickern, das sie eine Monster keern CPU benötigen, welche dei Grafikkarten wirklich spielend abarbeitet und sie somit in keine limits haut, das man dann noch takt anheben muss, um ressurcen für die eigentlichen Spiele freizuschalten?

Das ist blödsinn. Die CPU mit vielen Kernen, bringen daher kein FPS zuwachs. Und der Limitierenste Faktor an FPS ist noch imemr die GPU und nciht die CPU. Und das gilt auch für APU's. Also für euch Gamer ist die 3600er CPu super, vom mir aus auch mit x wofür auch immer.... Und slebnst dafür hat sie noch zu viele kerne... naja 6 Kerne und Threads, dann könnt ihr ja nebenbei discord, ts, musik player youtube what ever nutzen.. wobei.. nein halt.. das geht auch mit 4kerne.. hmm.. tja dann keine ahnung xD

Wie gesagt, andere können sich gerne ien bein außreißen für 300 bis 400 Mhz mehr in Optimalen bedingungen, wovon sie ncihts haben und damit gerne energie verheizen. xD immerhin 300 - 400 Mhz mal 12 Kerne = 3960 - 4800 Mhz mehr... ach ich ahbe die threads vergessen also nehmt es nochmal mal 2.... (bei ner 3900 X)

Was sagt ihr? die Mhz werden nciht pro Kern und Threads addiert ? Ja dann kenne ich euer problem nicht, das ihr so auf X Modelle schwört. xD Also gerade auch für das gaming. xD

Und dann bleibt ja noch die ansprache der hardware vom Code selbst. Wenn das im Code schon nciht vorgesehen ist, dann wird die eine oder andere hardware auch nicht mit allen möglichkeiten bedient. Und das wiederum bedeutet auch, das ihr nopch soviel takt durch zusatzliche X auf irgend einen CPU hgaben könnt. Nur wiel die CPU hoch taktet, oder eben höher, hei´ßt es noch lange nciht das ihr damit auch wirklich performance sprünge habt. Was bei der einen oder anderen software klappt, klappt bei der nächsten schon wieder gar nicht.

Auch daher sehe ichz die X Modele eher als relativ unnötig gerade füßr gamer. Bei Rendering arbeiten sehe ich das aber wiederum etwas anders. Da habt ihr was von mehr kerne und höheren takt. aber nciht bei games. durch einen höheren CPU takt, steigt nciht die Rechenleistung der Grafikkarte.

Das geschieht nur bis zu einem gewissen punkt, und der nennt sich übermitteln der Daten "informationen" anfrage nach frage festplatte zu ram zu cpu zu gpu, gpu zu cpu zu ram.

Wenn also die daten mit einer geschwindigkeit schon am maximum angekommen sind, könnt ihr noch so viel CPU takt haben, es geht dann dennoch nciht schneller. Das also manche durch CPU wechsel mehr FPS haben, liegt eindeutig daran, das die alte CPU eine lkimitierung erreicht hatte. Da wo es vorher nciht der fall war, wird auch ein CPU upgrade null bringen. Dann müsste man sich also vielelciht ncoh einmal festplatte, ram und oder gpu selbst anschauen.
 
Und von meinem 2700, werde ich sicher kein Downgrade zu einem 3600 machen, der mir unterm strich weniger bringt, schon allein von den kernen her.

Das wäre in Sachen Produktivität eher ein Sidegrade, denn selbst in stark parallelisierten Anwendungen liegt der 3600 trotz geringerer Threadanzahl i.d.R. gleichauf mit dem 2700. Von einem 2700 auf einen 3600 zu wechseln, lohnt sich dennoch allenfalls für Leute mit mehr Gewichtung auf Gaming.

Für Games setzt euch gerne 4 Kerner in die CPU, alle Hardcore gamer die ncihts anderes machen als das, brauchen keine CPU mit mehr als 4 Kernen. (Und ausnahmen bestätigen die regel)... wenn ich da mal kurz an Minecraft denke. Da gabs aber noch irgend ein spiel außerhalb von minecraft keine ahnung wier das heißt oder was es ist, das ebenfalls mit mehr Kernen Skaliert. Dann haben wir ja schon mal 2 Spiele für Hardcore gamer.. wooow.

Ich fürchte, du bist nicht mehr ganz auf dem Stand der Dinge. So ziemlich jeder aktuelle Triple-A-Titel (außer der Far-Cry-Serie) profitiert deutlich von mehr als vier Kernen, welche ihrerseits mal mehr, mal weniger starke Einschnitte mit sich bringen.

Das ist blödsinn. Die CPU mit vielen Kernen, bringen daher kein FPS zuwachs.

Ganz im Gegenteil: Der Zuwachs ist unter Umständen enorm. Nur ist er nicht bei der maximalen Framerate, sondern bei der viel wichtigeren minimalen Framerate zu suchen.

Es spielt auch nicht jeder im GPU-Limit: Manche legen Wert auf stabil (!) hohe fps und/oder gönnen sich starke GPUs und/oder spielen eher CPU-lastige Titel.

Auch daher sehe ichz die X Modele eher als relativ unnötig gerade füßr gamer. Bei Rendering arbeiten sehe ich das aber wiederum etwas anders. Da habt ihr was von mehr kerne und höheren takt. aber nciht bei games. durch einen höheren CPU takt, steigt nciht die Rechenleistung der Grafikkarte.

Nein, aber sie wird gleichmäßiger bedient. Und spätestens ab RX 5700 / RTX 2060 lohnt sich ein 3600. Der 3600X ist insofern überflüssig, wie er in aller Regel auch keine relevant höheren Taktraten erreicht als die Non-X-Variante.
 
Also alle welt redet davon das Multi-Kerne für gaming ncihts bringen. Auch wenn ich es aus anderer sichweise anders sehe. Es brachte schon imemr was, selsbt dann wenn die kerne wirklich nciht aktiv genutzt werden. Jedoch, bei 12 und doer 16 kernen sind wir uns hoffentlich schon einig das dies, für normale games, auch keinen großen vorteil mehr bringt.

Und ja du hast es selsbt bestätigt, der 3600 reicht für gaming voll aus.

Wer sich gezielt nur auf einzelne anwendung Fixiert, der braucht halt auch weiterhin nciht viele kerne. ergo für games etc. 3600 ausreichend.
Nach wie vor, wer Parallel massenweise amchen will, etwa streamen, videos rendern etc. sollte imemr auf mehr kerne setzen. das ist ein grund satz, welchen man gut ´behalten kann, und dessen abweichung wahrscheinlich wenn überhaupt erst in vielen jahren zutrifft.

Ich denke da sind wir uns soweit einig xD
 
Für Games setzt euch gerne 4 Kerner in die CPU, alle Hardcore gamer die ncihts anderes machen als das, brauchen keine CPU mit mehr als 4 Kernen. (Und ausnahmen bestätigen die regel)... wenn ich da mal kurz an Minecraft denke. Da gabs aber noch irgend ein spiel außerhalb von minecraft keine ahnung wier das heißt oder was es ist, das ebenfalls mit mehr Kernen Skaliert. Dann haben wir ja schon mal 2 Spiele für Hardcore gamer.. wooow.

bml8hgseeg931.png
Star Citizen auf nem 3900X, die Entwirrung des Mainthreads (Auskopplung von Physik, AI, background services, ...) ist seit längerer Zeit im Gange, aber noch nicht abgeschlossen. Finde das sieht schon nach einer recht vernünftigen Kern-Ausnutzung aus, oder? Genau das ist die Reise wohin es die nächsten Jahre auch bei anderen Spielen gehen wird.
Wer was wofür braucht liegt übrigens immer im Auge des Betrachters. Verallgemeinerungen sind nie angebracht... ;)
 
Anhang anzeigen 1055822
Star Citizen auf nem 3900X, die Entwirrung des Mainthreads (Auskopplung von Physik, AI, background services, ...) ist seit längerer Zeit im Gange, aber noch nicht abgeschlossen. Finde das sieht schon nach einer recht vernünftigen Kern-Ausnutzung aus, oder? Genau das ist die Reise wohin es die nächsten Jahre auch bei anderen Spielen gehen wird.
Wer was wofür braucht liegt übrigens immer im Auge des Betrachters. Verallgemeinerungen sind nie angebracht... ;)

War das nicht das Spiel, dass niemals fertig wird und Unmengen an Entwicklungszeit und Gelder bereits verschlungen hat? Von Performance ganz zu schweigen.
 
Also alle welt redet davon das Multi-Kerne für gaming ncihts bringen.

Kommt darauf an, welchen Teil der Welt man fragt. ;)
Sicherlich braucht man für Gaming nicht ganz so viele Kerne/Threads wie für Produktivanwendungen, aber unter sechs Kernen ist man nachweislich gehandikapt.
Das bedeutet nicht, dass man mit einem (ausreichend flotten) Vierkerner gar nicht mehr spielen kann, aber man muss Einschränkungen hinnehmen, die angesichts der moderaten Preise für flotte Sechskerner nur noch bei sehr knappen Budget akzeptabel sind.

Jedoch, bei 12 und doer 16 kernen sind wir uns hoffentlich schon einig das dies, für normale games, auch keinen großen vorteil mehr bringt.

Ich würde sagen, die neue Untergrenze für No-fuzz-Gaming liegt bei 4C/8T, der Sweetspot bei 6C/12T. Alles darüber ist entweder für andere Zwecke erforderlich, oder Luxus, oder eine Investition in die Zukunft, weil man die CPU lange zu behalten beabsichtigt.
 
Dieses Star Cities, war glaube auch das was ich nebne Minecraft meinte.
Und so besonders sieht die auslastung nicht aus, das sah bei meinem FX bei etlichen spielen so aus, genauso wie mehr oder weniger bei nem Ryzen 2700... wieso? Weil durhc die parallesierung der multikerne, die bearbeitung von kern zu kern wandert. das ist einfach die arbeitsweise von Multi-Core CPU's..

Man sieht nähmlich auf deinem Bild sehr gut, das nur ein Kern relativ ausgelastet ist (CPU 21 mit 69%) der 2 - 6 prozesse sind bei 30 - 39 % und einer auf 41% der rest unter 30%. Das ist das typische bild, einer CPU, die einfach nur das macht, was sie so als multi eben kann.

Vielleicht solltest du mal ein Video rendern, und damit mal schauen wie die Kerne ausgelastet werden, wenn sie wirklich was zu tun haben.

Wie gesagt. Multi-Core nimmt tatsächlich wenn auch nciht Aktiv, dann zumindest Passiv viele Arbeiten ab, welche einen kern alleine nur lahmlegen würden. Das grundprinzip ist und bleibt bei multi-core aber das anwendungen immer von kern zu kern geshcoben werden. beziehungsweise deren dateien/arbeitsweise. Und es ist auch logisch, das ein multi-Core somit hier und da auch auslastungen auf anderen Kernen hat, wenn ein Kern besonders gefordert ist.

Es zeigt sich also auhc hier, es reicht eine CPU mit 4 Kernen, aus buffer gründen vielleicht 6.
Lediglich wer viel mehr machen will oder anspruchsvollere sachen als gaming, bedarf mehr.
 
Man sieht nähmlich auf deinem Bild sehr gut, das nur ein Kern relativ ausgelastet ist (CPU 21 mit 69%) der 2 - 6 prozesse sind bei 30 - 39 % und einer auf 41% der rest unter 30%. Das ist das typische bild, einer CPU, die einfach nur das macht, was sie so als multi eben kann.

Vielleicht solltest du mal ein Video rendern, und damit mal schauen wie die Kerne ausgelastet werden, wenn sie wirklich was zu tun haben.

Nonlineare Gaming-Last und lineare Encoding-Last kann man grundsätzlich nicht vergleichen. In Spielen weiß man nicht, was der nächste Augenblick an Berechnungsaufwand bringt.

30% Auslastung pro Kern/Thread sind übrigens nicht wenig. Die dort verrichtete Arbeit mag nicht so aufwändig sein, dass sei einen Thread zu hundert Prozent auslastet, aber sie muss erledigt werden. Und wenn sie nicht auf 12 Threads verteilt werden kann, muss sie von weniger Threads gestemmt werden, die dann stärker ausgelastet sind und keine Reserven für erratisch auftretende Berechnungen/Lasten mehr haben, was in Denkpausen resultiert, die man dann als Mikroruckler wahrnimmt.

Zuerst ein wenig Milchmädchenrechnung: Die summarische Gesamtlast über alle Threads bei 627 Prozent; schon bei einem Sechskerner ohne SMT wären das mehr als 100 Prozent Auslastung pro Thread. Was ungünstig wäre.

Da wir aber keine Milchmädchen sind, wissen wir, dass dies eine Momentaufnahme ist, die keine wechselnden Lastspitzen abbildet. Wir wissen auch, dass nicht jede CPU mit weniger Threads den gleichen Cache hat, um das Ganze einigermaßen geschmeidig zu verteilen. Wir wissen, dass höhere Latenzen durch das Queueing von Berechnungen zu berücksichtigen sind.

Vor allem aber fällt unser trüber Blick auf die 82 Prozent Auslastung der GPU, die uns verraten, dass wir uns trotz der scheinbar gelangweilter CPU dennoch im CPU-Limit bewegen.
 
Zurück