AMD Ryzen 3000: Weiteres User-Benchmark-Ergebnis zum 12-Kerner

Rendering auf der CPU lässt sich ziemlich gut parallelisieren. Auf der GPU eher nicht so. Hier ein Beispiel, 8 Kerne fast auf Anschlag: YouTube

Das Spiel skaliert sogar mit 12 Kernen. Ein Skylake-X mit 12 Kernen lässt jeden Coffee Lake im Regen stehen.

Rendering auf der CPU ist nur gut parallelisierbar weil die einzelnen Rendersegmente unabhängig voneinander abgearbeitet werden können.
Bei Spielen kann kaum was parallelisiert werden was nicht mit Rendering zusammenhängt, also Gameplay. In den meisten Spielen weißt das Geschehen immer eine Abfolge auf, welche vom Verhalten des Spielers abhängig ist. D.h. der Spieler führt eine Handlung aus, der dann haufenweise Berechnungen folgen usw. usw... Diese Abläufe sind miteinander verkettet. Selbst wenn du einen Teil davon auf einen anderen Thread auslagerst, gewinnst du dadurch nichts, weil der aufrufende Thread solange warten muss bis der nebenläufige fertig ist und sein Ergebnis zurück liefert.
In einem anderen Thread hatte ich das schon mal erklärt. Je nach Game ist es einfach bis unmöglich was zu parallelisieren.
Was fast immer geht ist das Wetter, weil selten Abhängigkeiten aufweist.

Es liegt in der Natur der Sache das nicht alles parallelisierbar ist. Und das wissen wir alle auch aus der Realität, denn Computerspiele sind ja schlussendlich nur eine abgewandelte virtuelle Abstraktion davon.
Auf der technischen Seite gibt es natürlich immer wieder neue und verbesserte Ansätze, wie man Aufgaben aufteilt etc. Aber das ist eben nur ein Teil der Miete.

Wenn ich deinen Namen richtig interpretiere, kennst du das ja alles sowieso. :)
Lässt sich Mathematik parallelisieren?
 
Mir ist der Zusammenhang zu meinem Beitrag einfach nicht klar.
Einen 6700K hast du Anno 2015 nicht optimieren und mit schnellerem RAM betreiben können, sprich übertakten?
Ist es so schwer einzusehen, dass du mit einem 2600 bei den aktuell vorhandenen Spielen nicht schneller bist als mit einem ollen 6700K vor fast 4 Jahren?
Toll ist, dass die Preise gefallen sind und die Anwendungsleistung oder Gaming+ Streaming angestiegen ist, wegen dem mehr an Kernen.
Aber rein was Gaming angeht, bietet AMD gutes P/L aber eben nicht mehr Leistung als Intel vor Jahren schon.

Genau deswegen kann ich keinem 12 oder 16 Kerner entgegenfiebern, wenn ich doch heute schon oder vor einem Jahr die Leistung in Spielen hatte.
Schafft AMD jetzt 9900K + 20% in Spielen, dann rüste ich eben auf AMD um, selbst bei 10% könnte es mich jucken.

Du tust so als ob die Intel CPUs jetzt extremst zugelegt haben. Ist denn ein neuerer übertakteter 7700K merklich schneller als ein optimierter 6700k, oder ein 8700k/9900k falls das Game nur 4 Kerne nutzt?
Ein übertakteter 6700k mit schnellem getunetem RAM ist auch heute sehr sehr schnell, genauso wie ein 2600.
Siehst doch selbst, dass der optimierte 2600 teilweise auf dem Lvl eines 8600k/8700k mit 3200C14 RAM agiert.
Die CPU ist für 99% der Gamer mehr als ausreichend, nur für jene nicht, die das letzte Quäntchen Leistung haben wollen, die hauen dann ihre 8700k etc auf 5.2GHz und knallen 4000MHz RAM drauf mit ordentlichen Timings.
AMD ist sehr gut dabei, wenn auch nicht ganz bei Intel, aber allemal empfehlenswert für so gut wie jeden.
 
Wie man hier sieht, werdenja sekündlich alle möglichen PC Variationen hochgeladen und seltens ist mal ein Top PC dabei
What is the UBM PC status? - Answers - UserBenchmark

und trotzdem frage ich mich ob die Leute nicht dennoch zufriedener mit ihrem PC sind. Die haben sicher genauso Spaß mit ihren Games. Ohne zu diskutieren ob eine RTX 2080 Ti in 1080p ausgelastet werden kann.
Game läuft .....top man ist zufrieden.

Edit:
Ich werde meinem i7 3930K mal erklären müsse, daß er zum Spielen nicht mehr reicht. :ugly:
Anscheinend muß es ja das schnellste sein.
 
Zuletzt bearbeitet:
Wie man hier sieht, werdenja sekündlich alle möglichen PC Variationen hochgeladen und seltens ist mal ein Top PC dabei
What is the UBM PC status? - Answers - UserBenchmark

und trotzdem frage ich mich ob die Leute nicht dennoch zufriedener mit ihrem PC sind. Die haben sicher genauso Spaß mit ihren Games. Ohne zu diskutieren ob eine RTX 2080 Ti in 1080p ausgelastet werden kann.
Game läuft .....top man ist zufrieden.

Edit:
Ich werde meinem i7 3930K mal erklären müsse, daß er zum Spielen nicht mehr reicht. :ugly:
Anscheinend muß es ja das schnellste sein.

Wenn man vor dem Spielestart den Afterburner vergessen hat, kann man das Game genießen :D

Im Endeffekt ist es häufiger egal was man verbaut hat. Wenn die Hardware nicht zu alt ist oder Niederklassik, wird man locker Spaß haben. Man sieht hin und wieder vergleiche zwischen low und max Settings und manchmal nehmen die sich nur sehr wenig.
Wenn das Spiel selbst nichts taugt, kann es Grafik auch nicht mehr retten.
 
Geht der von dir verlinkte 12kerner wirklich in einen Desktop, oder darf es auch ein Mini, Midi, oder gar Big sein.

Sparsam = Geiz , hmm

12Kerner von AMD kostet bei Vorstellung 200€, die News habe total übersehen.
Wo steht denn die?



Such dir ein TR4 Board raus :)


Amd Käuferschicht der Erfahrung nach meist Sparsam =Geizig =wenig Geld :schief:


Die Amd Käufer träumen offensichtlich von einem günstigem AM4 12 Kerner samt Board , der wesenlich (viel) günstiger sein soll als der jetzt schon aktuell verfügbare TR 4 12 Kerner ;)

Nennt man auch Hype :cool:

Deshalb meine Ironische Aussage das der AM4 12 Kerner sicher mehr als 200,- Euro kosten wird :D


Was die Leistung angeht sind IPC und Takt nach wie vor das wichtigste beim Zocken , da helfen die ganzen Kerne nichts .

Sieht man daran das der Brandneue Amd Zen sehr grosse Mühe hat mit den echt Steinalten Intel Cores .:P
 
@Buggi85: Ich verstehe, was du meinst. Bei der Diskussion der Parallelisierbarkeit wird sich meiner Meinung nach zu oft auf die Restriktionen konzentriert. Vielleicht reicht Rendering ja teilweise schon als Parallelisierungsansatz, um signifikant mehr Performance zu generieren. Schau' dir doch das Beispiel mit SotTR an in meinem Video. Das geht tatsächlich bis 12 Kerne hoch. Ich denke nicht, dass es nur an der asynchronen Wettersimulation lag. :D

Mathematik ist die Wissenschaft der Logik und Strukturen. Wie soll man eine Wissenschaft parallelisieren? Aber mal als Beispiel: die Rekursion f(x_i) = x_i+1 ist nicht parallelisierbar. Jetzt gehe ich aber einfach hin, sofern existent, und transformiere die Rekursion in eine rekurrente Folge. Zack, kann ich alle Folgenglieder parallel berechnen. Auch bei geometrischen Problemen geht das teilweise, wenn man in einen anderen (oftmals) nichtlinearen Raum transformiert. Oder allgemein: ich werfe einen Blick auf andere Kategorien und schaue, ob ich immer noch die gleichen Restriktionen habe.

Mit solchen Aussagen wie "das kann man grundsätzlich nicht parallelisieren" wäre ich vorsichtig.
 
@ plusminus

Den TR 1920X gibt's gerade für 279€.

Irgendetwas ist aber in deiner Weltanschauung nicht ganz so iO., denn sparsam zu sein, oder wenig Geld zu haben, hat im Allgemeinen nichts mit Geiz zu tun.
Geiz ist eine ganz andere Eigenschaft, sparsam zu sein hat er was mit überlegen zu tun, wo die Prio dann evtl. ganz wo anders liegt und nicht die finanziellen Mittel zu
besitzen um eine vermeidliche Sache zu erwerben ist mal noch was ganz ganz anderes.
 
Naja, die Leistungsfähigkeit und Organisation sind zwar sehr interessante Themen, mir macht allerdings zusätzlich noch Sorgen,
ob die ungleichmäßige Verteilung der Hitzequellen unter dem Heatspreader nicht u.U. mit derzeitigen Kühlerdesigns problematisch werden könnte.
Bisher waren diese Stets gleichmäßig zentriert und so konnte die Hitze gleichmäßig vom Zentrum nach außen verteilt werden, was mit Zen2 dann der Vergangenheit angehören wird.
:huh:
 
Du tust so als ob die Intel CPUs jetzt extremst zugelegt haben. Ist denn ein neuerer übertakteter 7700K merklich schneller als ein optimierter 6700k, oder ein 8700k/9900k falls das Game nur 4 Kerne nutzt?
Ein übertakteter 6700k mit schnellem getunetem RAM ist auch heute sehr sehr schnell, genauso wie ein 2600.
Bei gleichem Takt sind 6700K und 7700K gleich schnell.

Siehst doch selbst, dass der optimierte 2600 teilweise auf dem Lvl eines 8600k/8700k mit 3200C14 RAM agiert.
Bei Spielen nicht. Habe mir mehr oder weniger aus Eigennutz in den letzten Tagen gezielt Benchmarks zum 2600 und 2600X angesehen. Egal ob PCGH oder CB, ein i5 8400 ist aktuell der schnellere Prozessor in Spielen.

Die CPU ist für 99% der Gamer mehr als ausreichend, nur für jene nicht, die das letzte Quäntchen Leistung haben wollen, die hauen dann ihre 8700k etc auf 5.2GHz und knallen 4000MHz RAM drauf mit ordentlichen Timings.
AMD ist sehr gut dabei, wenn auch nicht ganz bei Intel, aber allemal empfehlenswert für so gut wie jeden.
Sehe ich auch so.
 
Ah ich freu mich wie Bolle auf den Release.
Das könnte mir ein Upgrade wert werden, je nachdem was für CPU und X570 Board an Preisen aufgerufen werden.

Da könnte der i7 wirklich dieses Jahr in Rente gehen, klingt dekadent, aber machbar. Bleibt nur Daumen drücken bis wir endlich den PCGH Benchmark auswerten dürfen.
 
Ah ich freu mich wie Bolle auf den Release.
Das könnte mir ein Upgrade wert werden, je nachdem was für CPU und X570 Board an Preisen aufgerufen werden.

Da könnte der i7 wirklich dieses Jahr in Rente gehen, klingt dekadent, aber machbar. Bleibt nur Daumen drücken bis wir endlich den PCGH Benchmark auswerten dürfen.

Macht nur sinn wenn du eine potente gpu hast und jenseits der 100fps auf entsprechendem Monitor zockst. Ansonsten reicht fürs Gaming doch jeder core I5 aus dass die GPU die Bremse wird.
 
.

Mir persönlich ist es ja egal, ich sehe hier sowieso im Preis nur den Bezug auf die GPU Branche von AMD. Dort bekommen wir jetzt eine GPU die das gleiche kostet wie eine RTX 2080 und eventuell die gleiche Leistung bringen soll. Wieso sollte AMD das nicht auch bei der CPU machen? Immerhin ist es ja nicht so das keiner mehr Intel kauft, die CPUs laufen ja trotzdem noch sehr gut. Aber halt im Vergleich zu AMD weniger.

Wobei es bei der Radeon VII ja der 16 GB HBM Speicher sein dürfte, der diese so teuer macht. Ändert aber auch nichts an der Tatsache, das die Radeon VII, genauso wie auch die RTX 2080, viel zu teuer sind. Bei der R7 kommt dann noch dazu, das diese für die ungefähr gleiche Leistung deutlichst (!) mehr Energie konsumiert. Macht die Karte trotz der 16 GB HBM VRAM nicht gerade interessant.

Wie AMD bei den Preisen für ZEN 2 agieren wird, ist halt die Frage. Will man Intel weiter Anteile abnehmen, kann man eigentlich nicht gleiche Preise aufrufen. Selbst dann nicht, wenn die Leistung im Schnitt ebenbürtig sein sollte. Das liegt in erster Linie daran, das AMD immer noch das Image von minderwertigen Produkten anhängt. Das wird sich sicherlich auch in nächster Zeit nicht gravierend ändern. Selbst damals, als man mit den Athlon CPUs deutlich überlegen war und die Intel P4 quasi gegen die Athlons kein Land gesehen haben, haben sich die unterlegenen P4 trotzdem weit besser verkauft. Selbst wenn ZEN 2 auf Augenhöhe mit der Core i9 Generation sein sollte, kann AMD kaum die gleichen Preise verlangen. Und das weiß AMD auch. Ebenso hat ja niemand daran geglaubt, dass AMD ZEN 1 wirklich für die durchgesickerten Preise in die Läden bringen würde. Und sie haben es doch getan, weil man eben nur so Intel wirklich weh tun konnte. Auch mit ZEN+ hat sich an den Preisen nichts geändert, obwohl ZEN+ schon deutlich besser gewesen ist.
 
@Buggi85: Ich verstehe, was du meinst. Bei der Diskussion der Parallelisierbarkeit wird sich meiner Meinung nach zu oft auf die Restriktionen konzentriert. Vielleicht reicht Rendering ja teilweise schon als Parallelisierungsansatz, um signifikant mehr Performance zu generieren. Schau' dir doch das Beispiel mit SotTR an in meinem Video. Das geht tatsächlich bis 12 Kerne hoch. Ich denke nicht, dass es nur an der asynchronen Wettersimulation lag. :D

Mathematik ist die Wissenschaft der Logik und Strukturen. Wie soll man eine Wissenschaft parallelisieren? Aber mal als Beispiel: die Rekursion f(x_i) = x_i+1 ist nicht parallelisierbar. Jetzt gehe ich aber einfach hin, sofern existent, und transformiere die Rekursion in eine rekurrente Folge. Zack, kann ich alle Folgenglieder parallel berechnen. Auch bei geometrischen Problemen geht das teilweise, wenn man in einen anderen (oftmals) nichtlinearen Raum transformiert. Oder allgemein: ich werfe einen Blick auf andere Kategorien und schaue, ob ich immer noch die gleichen Restriktionen habe.

Mit solchen Aussagen wie "das kann man grundsätzlich nicht parallelisieren" wäre ich vorsichtig.

Das ist der Ansatz den DirectX 12 verfolgt, dass Rendering zu parallelisieren und auch insgesamt die CPU zu entlasten. SotTR nutzt auf meinem i9 zwar auch alle Threads, aber die Gesamtauslastung liegt nur bei 9 - 11%. Das ist natürlich schon top. Wäre schön wenn andere Studios da nachziehen würden.

Dein rekursives Beispiel beschreibt doch aber im Grunde das CPU Rendering. Denn der Job ist pro Folge immer der gleiche. Die Frage ist doch wie du was parallel berechnen kannst. Wenn du in einem Thread x=a+b und danach y=x+c hast, kannst du y=x+c doch nicht auf einen anderen Thread schieben und parallel berechnen, da x dort zum Zeitpunkt der Ausführung noch nicht bekannt. Die Abhängigkeiten machen es eben zum Problem, auch wenn verschiedene Threads mit ihren Berechnungen unterschiedlich lange Zeiten benötigen. Oder habe ich da einen Denkfehler in der Praxis?

Nein nein, dass grundsätzlich nicht parallelisierbar ist wollte ich nicht sagen. Im Bruch kann man Zähler und Nenner auch parallelisieren, aber bei Abhängigkeiten sehe ich die Probleme und darauf basierend entstehen ja Spiele.
 
Verblüffend , denn Amd bietet schon 12 Kerner für den Desktop an .
Das einzige was sich ändert ist die Fertigung , und das 12 Kerner auf AM 4 laufen .
Und mehr braucht es nicht , damit Amd,ler aus dem Häuschen sind ? :D
Bin schon mal auf die Gesichter gespannt wenn der sparsame ( geizige ) Amd User sieht das der AM 4 12 Kerner mehr als 200,- Euro kosten wird :schief:
Ich persönlich sehe mich eher als sparsam an, da Geiz und Sparsamkeit nicht gleich sind. Es macht mir Freude maximale Leistung pro Euro zu erzielen, wenn meine Hardware nicht mehr ausreicht. Tendenziell spare ich eher an der CPU als am Board. Wenn alle wichtigen Features vorhanden sind, lege ich nicht für weitere 20% Performance 60% mehr Geld hin (Beispiel).
2011 waren mir AVX, hohe IPC und ein freier Multi wichtig, beim letzten Upgrade wares es 6 halbwegs schnelle Kerne, deren IPC mindestens auf dem Niveau sein sollten und SMT. So ist es ein Ryzen 1600 für 110€ geworden, selbst ein 2600 wäre in der Rechnung "zu teuer" gewesen.

Ich sehe in Zukunft auch die Möglichkeit eines Latenz-Problemes bei CPUs mit mehreren Chiplets, zumindest betreffend des Nutzens von 12 und 16 Kernern in Games. Das wird aber kein Problem sein, da im Vergleich zum Ryzen 7 2700X Taktrate, IPC und Effizienz bei den 8 Kernern weiter steigen werden, wird das vielleicht die optimale CPU für Gamer zu einem konkurrenzfähigen Preis werden.

Nach der üblichen early adopter - Phase würde ich seitens Intel eher einen 6 Kerner mit SMT, freiem Multi, Taktraten jenseits 4 GHz und einer IPC auf Skylake-Niveau für 130€ fürchten. ;)
 
Ebenso hat ja niemand daran geglaubt, dass AMD ZEN 1 wirklich für die durchgesickerten Preise in die Läden bringen würde. Und sie haben es doch getan, weil man eben nur so Intel wirklich weh tun konnte. Auch mit ZEN+ hat sich an den Preisen nichts geändert, obwohl ZEN+ schon deutlich besser gewesen ist.

Ist nicht ganz richtig. Der 1800x kam mit einer UVP von 559€ und der 1700x mit 449€ in den Handel. Es dauerte knapp einen Monat bis die Preise um 50€ fielen.
 
Macht nur sinn wenn du eine potente gpu hast und jenseits der 100fps auf entsprechendem Monitor zockst. Ansonsten reicht fürs Gaming doch jeder core I5 aus dass die GPU die Bremse wird.
Da Eingaben bei den meisten Spielen abhängig von den FPS verarbeitet werden, sind hohe Werte generell von Vorteil, unabhängig davon welche Refreshrate das Ausgabegerät hat.
 
Ich hab jetzt zwar nur 10 Seiten gelesen, aber die reichen eigentlich auch.
Dieses AMD-Gebashe und "wer Gamer oder Quality-User ist kauft nur von Intel"-Gelaber tut ja schon körperlich weh.

Verstehe selbst als Intel-Nutzer nicht wie man so ignorant sein kann und AMD so unnötig in den Dreck zieht.
Beide Firmen leisten eine gute Arbeit und vom Fortschritt profitieren wir alle.
Aber warum zur Hölle verteidigt man die alte Politik der Quadcores? Seid doch froh, dass jetzt mehr Kerne verkauft werden.
Seht euch die Benchmarks der aktuellen Spiele an - es besteht ein signifikanter Leistungsvorteil gegenüber den alten 4C/8T i7ern.
Der Takt/die IPC wird schon noch steigen. Lasst AMD doch erst einmal liefern.

Der Thread eignet sich übrigens hervorragend um seine Ignorierliste mal zu verfeinern.
 
Zurück