AMD Zen 2: Angeblich zwei Dies mit bis zu 16 Kernen

3D Center hat es doch mit den Informationen aus dem Gary Patton Interview schon vorgerechnet. Ein 16 Kerner auf kleineren Fläche als die aktuellen Ryzen 8 Kerner ist möglich. Dabei werden die 5 GHz als Zielsetzung für die Taktrate genannt.

Hardware- und Nachrichten-Links des 1./2. Marz 2018 | 3DCenter.org

The Future of Silicon: An Exclusive Interview with Dr. Gary Patton, CTO of GlobalFoundries

Wenn Globalfoundries und TSMC das wirklich so hinkriegen wird Intel seit Ewigkeiten mal wieder überholt, da bin ich mir sicher.
 
@XXTREME
Wenn man viele von euch vor 2 Rechner setzen würde, 1 mit einem Qx/x4 und einer mit einem I7/R7,
dann erkennt ihr in der "normalen" Alltags Nutzung 0 Unterschied
 
Hängt davon ab, woraus der "normale Alltag" bei jedem einzelnen besteht. Im HTPC reicht auch der kleine Intel mit 1,5 GHz für den DVB-Stick. Im Desktop werden die 4 Kerne des i5 durch FaH voll ausgelastet und ich freue mich schon auf Zen2.

Das Gerücht, der ach so besseren IPC kommt nur noch durch die höheren Taktraten und der (noch) höheren Latenzen, die sich insbesondere in Spielen negativ auswirken für AMD. Aber auch das wird mit Zen2 noch um einiges besser werden.

IPC steigt nicht mit dem Takt, denn die IPC ist die Zahl der Befehle pro Takt.

Kombiniere ich Zen2 mit einer in "multidimensionalen" Verbesserung in Form von bis zu 5Ghz Taktraten (bei IBM laufen im Übrigen 10 Kerner mit 5,2Ghz dank 7nm), einer IPC Steigerung von X Prozent durch Architekturverbesserungen, weiteren Verbesserungen der Caches und Latenzen und eine 50-100 prozentige Steigerung der Kerne und ich erhalte ein Gesamtpacket, bei dem Intel die nächsten Jahre nicht mehr konkurrieren können wird. Und das sind Fakten.

Hängt von der Streuung im Chip ab. Der beste Core macht vielleicht 5 GHz, der schlechteste nur 2,5 GHz. Damit wären auch gleich der Turbo für Last auf einem Kern und der Basistakt festgelegt. Bei Last auf 4 oder 8 Kernen kann man dann dazwischen skalieren.
 
Zuletzt bearbeitet:
Ich möchte auf dieses Zitat mit einem Anderen Zitat eingehen.

„Mehr als 640 Kilobyte Speicher braucht kein Mensch“ – 1981 war Bill Gates
Ja hat er denn genau definiert für welchen Zeitrahmen diese Aussage galt? Ich kann da nichts lesen. Er kann sich also heute hinstellen und sagen, das galt logischerweise für den Moment in der die Aussage getätigt wurde und somit behält er Recht. Von daher ist dieses Zitat völlig sinnfrei in die Diskussion eingebracht und wird fälschlicherweise Leuten unterstellt, die eine klare Gültigkeit ihre Aussage beschreiben: wir brauchen jetzt und die nächsten zwei drei Jahre sicherlich keine 12Kerner im Mainstream Segment. Hier ist man bis auf Weiteres (der heilige Gral der MultiCore Auslastung in der Gameentwicklung wird übermorgen zufälligerweise entdeckt) mit maximal 8Kerner vollkommen ausreichend gut bestückt, dessen verfügbare Leistung derzeit nicht mal von den Top AAA Games effektiv ausgenutzt werden. 12Kerne im Mainstream, ja, wenn die Zeit reif ist, da können aber auch noch gut ein zwei Prozessor Generationen ins Land streichen.

Deswegen wäre es für AMD ein guter Zeitpunkt mit einem günstig zu fertigendem und hochtaktendem 7nm 8Kerner Intels 14nm 8Kerner auf der technologischen Seite anzugreifen und möglicherweise in allen Belangen zu besiegen (Historischer Moment!) und gleichzeitig mit einer guten Marge Geld zu verdienen! Das Geld das benötigt wird für die Entwicklung der nächsten Generationen. Das Geld welches AMD nicht verdient, wenn man unnütze große Chips im niedrig preisigem Mainstream Segment produziert die nur eine winzige Minderheit effektiv gebrauchen kann. Für professionelle Software mit Mehrkernünterstützung gibts schon seit Jahren (ältere mittlerweile günstige) Intel CPUs mit 12 und mehr Kerne, oder neuerdings auch AMD TR und Epic.

Aber wenn AMD lieber technischen Rückstand mit mehr und mehr Kernen versuchen will zu erschlagen, geht's dann wohl aus wie bisher in dem Bereich den der normale Heimnutzer wohl am meisten interessiert: Intel ist mit weniger Kernen und besserem Taktpotenzial / IPC die bessere Gaming CPU. Ein weiteres mal würde dieser Kreislauf zementiert und nicht durchbrochen. Aber die AMD-Jünger wollen es ja so...
 
Wenn allerdings günstige CPUs mit vielen Kernen verfügbar sind, haben auch die Entwickler einen Anreiz ihre Programme auf mehrere Kerne zu optimieren.

Technischen Rückstand kann ich bei Ryzen 2000 nicht erkennen.
 
Wenn allerdings günstige CPUs mit vielen Kernen verfügbar sind, haben auch die Entwickler einen Anreiz ihre Programme auf mehrere Kerne zu optimieren.
Wir haben jetzt einen großen Sprung zu 'günstigen' 8Core/16Threads gemacht, vielleicht sollten die Spieleentwickler erstmal beweisen das sie diese Anzahl effektiv ausnutzen können. Programme deren Aufgabenumfang parallelisierbar ist, haben Mehrkernunterstützung in der Regel schon von Anfang an. Hieß es nicht mal, das sich Games nicht einfach so leicht effektiv auf die immer weiter steigenden Kernzahlen 'optimieren' lassen?
 
Immer wieder diese gleichen Lügen, das Softwareentwickler die höhere Kernzahl nicht ausnutzen können, ich kann es nicht mehr hören, von den Intel Boys. Die Intel Boys sollten mal lernen, wie man MSI Afterburner (ingame CPU Auslastung) verwendet und das dann mal in Spielen 2015+ mal austesten. Aber da kommt wieder die Ideologie in die Quere.

Jedes, wirklich jedes Spiel, das mindestens im Jahr 2015 herauskam (einige Ausnahmen schon vorher) nutzt MINDESTENS bis zu 8 Threads/Kerne! Meistens werden aber mitlerweile sogar bis zu 16 Threads ausgelastet in aktuellen Spielen. Selbst das 2015 Rainbow Six Siege lastet die 16 Threads bereits ohne Probleme aus, einen SMT6 oder 4 Kerner kann man mit entsprechend hohen FPS Raten locker auf 100 Prozent bringen.

Ich kann diese ewigen Lügen der blauen postfaktischen Anhängerschaft nicht mehr lesen.
 
Acht CPU-Kerne in Spielen - Chancen und Probleme in Game Engines - GameStar
Rendering als Flaschenhals

Grundsätzlich, so die Aussage der Entwickler, orientiere man sich bei der Programmierung eines Spiels an der Grafikkarte – das Ziel bestehe darin, deren Limit auszureizen. Dort ließe sich am meisten herausholen, denn Grafikkarten haben die vergangenen Jahre deutlich größere Leistungssteigerungen erfahren als CPUs, wo der Maximaltakt (und auch die Leistung pro Takt) seit langem nur relativ geringfügig steigt. Stattdessen steigt die Anzahl der CPU-Kerne und für mehr Performance müssen Game Engines die Aufgaben für die CPU stärker parallelisieren.

Insbesondere das Rendering eines Spiels gilt als Flaschenhals: Dabei müssen Berechnungen gemäß dem aktuellen Spielgeschehen in einer bestimmten Reihenfolge erfolgen und lassen sich deshalb nur schwer auf mehrere parallele CPU-Threads verteilen, um letztendlich schneller zu erfolgen. Andere CPU-Aufgaben lassen sich dagegen einfacher parallelisieren und bieten daher mehr Optimierungs-Potenzial für Prozessoren mit sechs und mehr Kernen.

Allerdings wird laut dem Vortrag auch klar, dass sich manche Genres wie aufwändige Echtzeit-Schlachten mit vielen Einheiten auf großen Maps besser für die Parallelisierung der CPU-Aufgaben eignen, sodass sich der Aufwand für die Entwickler auch lohne. Andere Genres würden davon aber weitaus weniger profitieren und dürften in absehbarer Zukunft daher auch weniger entsprechende Optimierungen erfahren, sodass CPUs mit acht Kernen in vielen Spielen noch länger keinen Vorteil bringen dürften.

Ja ja diese Spiele Enwickler und deren ewigen Lügen der blauen postfaktischen Anhängerschaft haben doch null Ahnung was sie tun :daumen::lol:
 
Zuletzt bearbeitet:
@XXTREME
Wenn man viele von euch vor 2 Rechner setzen würde, 1 mit einem Qx/x4 und einer mit einem I7/R7,
dann erkennt ihr in der "normalen" Alltags Nutzung 0 Unterschied
Ich hab irgendwie das Gefühl du bist hier im falschen Thread.
Es geht um Ryzen Multicore-CPUs. Die haben als Zielgruppe nicht Video-Streaming, Browsen und Moorhuhn.

Ich weiß auch gar nicht wer hier mit den blöden Browser-Tabs angefangen hat.
Natürlich braucht man dafür keinen Octacore. Dennoch gibt es anderweitig Bedarf für so viele Threads, die hier schon mehrfach besprochen wurden.

EDIT:
Ich lasse gerne Chrome nebenbei laufen, in letzter Zeit geht das nicht mehr so einfach, da der RAM knapp wird und ich eine CPU Last von bis zu 75% habe.
Ach Pu244 war's.
Mit seinem i7 3770...:schief:
 
Zuletzt bearbeitet:
Spielen?, hat doch SFVogt widerlegt mit eurem Hirngespinnst der 12 x 16 Cores



Ich lasse gerne Chrome nebenbei laufen, in letzter Zeit geht das nicht mehr so einfach, da der RAM knapp wird und ich eine CPU Last von bis zu 75% habe.

75% hast du beim Chrome, na dann hurtig hurtig neue Cpu kaufen wie wäre es den mit einem Athlon 620 von 2009?
 

Anhänge

  • extreme auslastung.png
    extreme auslastung.png
    27,5 KB · Aufrufe: 28
Zuletzt bearbeitet:
Die Browser können bei hundert Tabs schon ordentlich Arbeitsspeicher verbrauchen. CPU Last kommt aber meistens von Erweiterungen oder Webseiten mit schlechten Scripten/Werbung.

Ich habe selbst Software geschrieben, die locker 32 Threads nutzen kann. Es gibt einfach Anwendungsfälle, wo die Rechenleistung nicht hoch genug sein kann, wie z.B. das Erstellen eines Index über mehrere Festplatten-Images im TB Bereich hinweg. Das dauert gerne mal Monate und kostet Zeit, in der man mit dem Fall nicht arbeiten kann.
Wobei der Flaschenhals zusätzlich beim Speicher liegen kann, nur sind PCIe-SSDs in der Größenordnung auch noch sehr teuer.
 
Zuletzt bearbeitet:
Nein, der AMD ist noch relativ deutlich langsamer, bei gleichem Takt und gleicher Kernzahl ist der Intel 15% schneller.
Verglichen wurde ein Ryzen 2600x mit dem 8700K.

4GHz CPU Battle: AMD 2nd-Gen Ryzen vs. Intel 8th-Gen Core - TechSpot
Haben wir den gleichen Artikel gelesen?

taktbereiningt2.JPG

Es sind aufgerundet 3,6% im Singlethread bei Cinebench R15.

pcmark.JPG

Bei PCMark10 lohnt sich noch nicht mal das Rechnen...
Da ist der Ryzen sogar vorn bzw die sind im Rahmen der Messungenauigkeit genau gleich auf.
 
Immer wieder diese gleichen Lügen, das Softwareentwickler die höhere Kernzahl nicht ausnutzen können

Keine Lügen, sondern man kann besonders Spiele nur sehr begrenzt effizient auf mehrere Kerne verteilen, das steht in jedem tiefergehenden Artikel und dort steht 1:1 das was SFVogt verlinkt hatte.

ich kann es nicht mehr hören, von den Intel Boys.

Deine Art hier vernünftige Argumente mit Fanboyunterstellungen zuzudecken, funktioniert nicht.
Jedes mal wenn du keine Gegenargumente finden kannst, eröffnest du den Reigen der Unterstellungen.

Die Intel Boys sollten mal lernen, wie man MSI Afterburner (ingame CPU Auslastung) verwendet und das dann mal in Spielen 2015+ mal austesten. Aber da kommt wieder die Ideologie in die Quere.

Also in einer der letzten PCGH´s an denen Carsten noch mitgewirkt hatte, konnte man lesen wie Raff und er überrascht waren, dass sich hinsichtlich Kernskalierung so wenig getan hat.
Hätte man Assassins Creed aus den Messungen herausgelassen und Crysis 3 entnommen, würde man genauso dastehen wie damals. Takt und IPC gewinnen bei ausreichend vielen Kernen.
Und so wird es noch eine ganze Weile lang laufen.

Jedes, wirklich jedes Spiel, das mindestens im Jahr 2015 herauskam (einige Ausnahmen schon vorher) nutzt MINDESTENS bis zu 8 Threads/Kerne!

Ich kann dir auf der Stelle 10 Spiele nennen, die das nicht machen und bei 4 und definitiv bei 7 Threads komplett dicht machen.
Letztes ganz populäres Beispiel Frostpunkt.:schief:

Meistens werden aber mittlerweile sogar bis zu 16 Threads ausgelastet in aktuellen Spielen.

Ja, wenn ich Pippi Langstrumpf heiße und mir die Welt mache wie sie mir gefällt und einfach irgendetwas erfinde, dann trifft das zu.
Diese Spiele kannst du an einer halben Hand abzählen, mir fällt da nur Assassins Creed Origins ein und da liegt es sehr wahrscheinlich am Kopierschutz und nicht am eigentlichen Spiel.
Zudem besteht ein Unterschied zwischen Auslasten und Ausnutzen, ich kann ja heute auch problemlos Software schreiben die alle 16 Threads auslastet, aber ob es einen Nutzen (Gewinn an Geschwindigkeit hat) ist wieder eine ganz andere Frage.

Ich kann diese ewigen Lügen der blauen postfaktischen Anhängerschaft nicht mehr lesen.

Erinnert mich an Donald Trump, der beleidigt auch alle als Lügner und dabei ist er selbst der größte Tatsachenverdreher.:schief:

Haben wir den gleichen Artikel gelesen?

Ja, aber du sprachst von Spielen und nicht von Anwendungen, daher verlinkte ich den Artikel bezogen auf Spiele.
Hier ist das nochmal aufgedröselt.
Hardware- und Nachrichten-Links des 26./27. Mai 2018 | 3DCenter.org

87,4% für den 2600x und 100% für den 8700K, macht einen Vorsprung von 14,5%.
In Anwendungen sind es 3 und ein paar zerquetschte.

Damit AMD in Spielen also gewinnen kann, müssen sie einerseits 14,5% IPC und noch ein wenig an Takt zulegen.
Ich denke das kann Ryzen 2 kombiniert leisten. 20% darf man da vielleicht schon durchaus erwarten. IPC+ Takt.

Ich hab irgendwie das Gefühl du bist hier im falschen Thread.
Natürlich braucht man dafür keinen Octacore. Dennoch gibt es anderweitig Bedarf für so viele Threads, die hier schon mehrfach besprochen wurden.

Wenn man das ganze auslasten kann, zum Beispiel wenn man so einen Prozessor als Produktivsystem für gehobenes Musik, Videoediting, Rendering, Effekte, etc. benutzt oder andere spezielle Dinge macht, oder das als Server laufen lässt, dann hat man doch ein passendes Anwendungsgebiet, Streaming würde ich nicht mal mehr voll dazu zählen, weil da ein günstiger separater Rechner wirklich extrem praktisch ist.

Jedenfalls braucht man so ein System nicht für das ein oder andere Urlaubsvideo schneiden, bisschen Photoshop, ein paar mal was verschlüssen oder sonst was.
Da gilt als Anschaffungsgrund einfach nur, weil man es kann.

Und ganz ehrlich, ich würde auch lieber an einem Rechner mit 12 Kernen sitzen, alleine die Psychologie macht das Ding doch schneller.
Dazu noch ordentlich LEDs und Klimbimpf und dann rockt das.
 
Zuletzt bearbeitet:
Ich gehe jetzt mal einfach über die Tatsache hinweg, dass du hier den 2600X und 8700K vergleichst.

Dennoch frage ich mich gerade eines:

In meinem vorhergehenden Post kann man ganz gut sehen, dass die Prozessoren (2700X/2600X/8600K/8700K) bei gleichem Takt praktisch die gleiche SC-Leistung aufweisen.
Also Takt gleich, IPC gleich, etc.

Warum sind die Intel schneller in Spielen?
Gibts da noch andere Gründe? Speicher? Andere Faktoren? Software? Engine??

Und nein, das bedeutet nicht, dass ich dir bedingungslos zustimme, Schaffe.
 
Zurück