Ryzen 7 offiziell: Preis, technische Daten - AMD schickt 8-Kerner gegen Broadwell-E und Kaby Lake-S

ALSO PCGH ist gefragt !!!

WIR BRAUCHEN BENCHMARKS !!!
FAKTEN FAKTEN FAKTEN ;)

Damit wir nun endlich genau wissen in wie weit der Ryzen sich von Intel I7 unterscheidet
Alles andere ist "kann sein, glaub ich, eventuell...."

Also wann gibts die ersten aussagekräftigen Tests ?!? :D

OH @Kyuss89 warst schneller :P
 
Ein schöner Vorab-Test von den Freunden von Computerbase.

CPU-Skalierung in Spielen im Test: 6, 8 oder 10 CPU-Kerne schlagen 4 schnelle - ComputerBase

Scheint also doch in Richtung Mehr Kerne > Takt zu gehen.

Wo siehst du das denn bitte?? Der 6900k mit deutlich mehr Cache und doppelt so vielen Threads liegt gerade mal 7% vor dem 7700k. Eine Skalierung vom 6850k zum 6900k ist nicht mal vorhanden, das heißt es liegt ziemlich viel an den Caches und nicht an den Kernen.
Wenn man jetzt 15% für den Cache veranschlagt, kommst du etwa bei -7% raus. Der höhere Takt des i7 7700k holt da ca 20% raus, also kannst du vll im CPU Limit mit einer Skalierung von ~10% rechnen.

Der Test bestätigt bestens dass die Wahl eines 4Kerners mit HT die mit Abstand beste ist und dass sich Investitionen darüber hinaus für Games überhaupt nicht lohnen.
Würdest du jetzt den Broadwell i7 7575C noch mit aufnehmen, dann würde der vermutlich mit gleichem Takt verglichen mit dem 7700k weit in Führung liegen.

--> Schneller L4 Cache von der IGP


Edit:

OK in 720p sind die Abstände minimal höher, zumindest ein bisschen Skalierung, auch wenn man die Cache-Unterschiede nicht evaluieren kann, hier hätte in simulierter 4 Kerner mit dem 6900k evtl Sinn ergeben um die Cache Abhängigkeit heerauszufinden.
Sehr gespannt bin ich bei dem Testparcours auf Ryzen, denn da sind die Caches dann ausgeglichen.:daumen:
Dann kann man wirklich mal sehen was 6 und 8 Kerne bringen werden.
 
ich frage mich weiterhin folgendes:

warum released man zuerst cpus für ein extrem schwach frequentiertes segment, also cpus ab 350?
um marktanteile zu gewinnen? nein.
warum dann? weil es bestimmt das einzige segment ist, wo man punkten kann und wird.
ich kenne zwar keine fakten, jedoch denke ich das cpus bis 350e 75%+++ des marktes ausmachen.


irgendwie wirkt das ganze nach abklang des hype-rausches schon wieder extrem fragwürdig.
 
Vorweg @Schaffe&Palmdale, dies soll kein Beleg für die zwingende Notwendigkeit eines schnellen 8 Kerners sein, im entsprechenden Artikel wird geschrieben, daß auch ein i3, oder FX6 dicke für 60fps@FHD ohne 'gröbere Stocker' reicht...
Es ist zusammengefaßt, wie Raff es schrieb: Es gibt endlich den "Volks-8-Kerner"

Ja, es gibt jetzt den Volks-Achtkerner, das bestreitet ja auch niemand. Wenn man hier auch nachliest (sorry, war zwischendurch 8h schlafen :)) und man liest, welche Museumsreife CPUs noch am werkeln sind, dann macht wohl jedwedes Update sinn. Ich gehöre auch zu der Fraktion, die "ich will" gern mal ruft, selbst die Vive liegt hier rum. Allerdings kann ich mich beherrschen und abwägen, ob die Investition (und der Aufwand beim MB Tausch) es wirklich bringt.

Ich würde es allerdings im Gegenzug mal begrüßen, nicht ständig das Battlefield 1 Beispiel rauszukramen. Mir ist durchaus bekannt, dass dieses Spiel im Multiplayer von den zusätzlichen Kernen profitiert. Bedeutet das, wir spielen das kommende AC oder GhostRecon Wildlands oder Mass Effect mit 64 Spielern? Nein, das denke ich nicht.

Wer meine Posts verfolgt hat gönne ich jedem das günstige CPU Upgrade, Gott bewahre. Doch man sollte ins Kalkül ziehen, dass nur mit steigender Verbreitung nicht automatisch jedes Siedler auch 8-Kern Spiele werden. Erstens weil viele Spiele die Rechenleistung nicht benötigen und damit die Parallelisierung nicht notwendig ist (siehe super optimiertes Halo Wars 2, diese Woche Release!) oder zweitens diese zwar sinnvoll wäre, sich der Entwickler aber spart. Die dritte Option, braucht Rechenleistung und ist auch gut optimiert UND nutzt die Kerne optimal kann man bisweilen an einer, wenn vielleicht zwei Händen abzählen. Das wars in den gesamten 12 Monaten. Werden es mehr werden? Nicht unbedingt, wenn Option 1 oder 2 zutrifft.

Hilft es den Nutzern von Anwendungen, insbesondere im Hobby-Videobereich? Definitiv.
 
warum released man zuerst cpus für ein extrem schwach frequentiertes segment, also cpus ab 350?
um marktanteile zu gewinnen? nein.
warum dann? weil es bestimmt das einzige segment ist, wo man punkten kann und wird.

Man kann dort sicherlich am meisten Punkten, weil die Intel 6 und 8 Kerner noch keine Skylake Architektur haben.
AMD hatte versprochen dass ab Release für jeden was dabei sein wird, ergo hat man wohl doch noch in den letzten Monaten einige Probleme auszuräumen gehabt, denn Ryzen 5 und Ryzen 3 sollen irgendwann in Q2 kommen, was mich nicht verwundert, ich hab mit Ryzen sowie erst wirklich im Sommer gerechnet.

Ich denke persönlich dass die Lieferbarkeit schlecht ist, da bietet es sich an im teuren Segment was zu releasen.
 
ich frage mich weiterhin folgendes:

warum released man zuerst cpus für ein extrem schwach frequentiertes segment, also cpus ab 350?
um marktanteile zu gewinnen? nein.
warum dann? weil es bestimmt das einzige segment ist, wo man punkten kann und wird.
ich kenne zwar keine fakten, jedoch denke ich das cpus bis 350e 75%+++ des marktes ausmachen.


irgendwie wirkt das ganze nach abklang des hype-rausches schon wieder extrem fragwürdig.
Weil man damit Eindruck schindet, Marketing und so, Mercedes würde bei einer neuen Generation ja auch nicht mit der A-klasse anfangen sondern mit der S-Klasse.
 
Weil man damit Eindruck schindet, Marketing und so, Mercedes würde bei einer neuen Generation ja auch nicht mit der A-klasse anfangen sondern mit der S-Klasse.

eindruck hätte es hinterlassen wenn man sich das mainstream-segment gekrallt hätte.
und evtl in der preiseklasse eines 7600k einen 7700k geschlagen hätte.

man nutzt doch nur intels schlechtes p/l verhältnis ab dem 6800k ohne wirklich etwas neues zu schaffen.
 
Das würde dir keinen Boost verschaffen, die Leistungssteigerung liegt im einstenlligen Bereich und wenn du in 4K spielst ist das erst recht nicht mehr spürbar.

5 - 15% je Spiel. The Witcher dürfte sogar in Richtung 20% gehen....läßt sich auch wunderbar aus dem CPU-Skalierung Test der CB rauslesen.
Klar....um so mehr Pixel, umso geringer wird der Vorteil. Mit der Titan habe ich das GPU Limit ja schon mal ordentlich "geschoben".
Aber auch laut diversen Video´s die einen Vergleich gezogen haben. 5-15% sollte drin sein. Bei der Pixelzahl und max. 100FPS die mein Monitor
macht....sind das genau die FPS mehr, welche mir (wenn nur sehr selten) fehlen. Zusätzlich der Wechsel auf DDR4...nun ich finde schon das es ein
"Boost" wäre.
Wie auch immer schreibe/lese ich da deshalb mit. Die CG CPU Test ist ebenfalls sehr interessant. Ist de Schritt vom 4770 zum 7700 noch Recht ordentlich,
wird der Abstand auf die CPU mit mehr Kernen deutlich kleiner. Sie liegen aber vorne....was schon mal wichtig zu wissen ist.
Nun...spielt die 1800X in der gleichen Liga....heißt es für mich...die 300,- € mehr Kosten bei der CPU anzuwägen. Es bleibt einfach abzuwarten...es müssen
Bench´s her :) Hoffe auch die Boardkombi´s laufen alle sauber....im Prinzip sollte man auch auf deren Ergebnisse warten.
 
Das ist aber ein ujngleiches Duell. Kerne mit viel weniger Takt, gegen hohem Takt mit viel weniger Kernen. Ich bin gespannt auf die Tests dazu. Das wird interessant.:)
Na und? Der Preis ist der gleiche, sollte Ryzen sich so gut schlagen wie in den bisherigen Benchmarks erhällt man mehr Leistung fürs gleiche Geld. Die Anuahl der Kerne ist irrelevant für die Platzierung im Segment.
 
Ein schöner Vorab-Test von den Freunden von Computerbase.

CPU-Skalierung in Spielen im Test: 6, 8 oder 10 CPU-Kerne schlagen 4 schnelle - ComputerBase

Scheint also doch in Richtung Mehr Kerne > Takt zu gehen.
Der neue Test von CB ist Bullshit. Sandy Bridge mit Standardtakt und DDR3-1333 zu testen ist an Lächerlichkeit kaum zu überbieten. Beim 4770K wird erst gar nicht erwähnt welcher Speicher zum Einsatz kommt. Anhand der Tabelle in der die Bandbreiten stehen und dass "offiziell" nur DDR3-1600 unterstützt wird, kann man davon ausgehen, dass auch nur dieser Speicher zum Einsatz kommt. Allein das wird die Ergebnisse massiv verfälschen. Haswell profitiert sehr stark von schnellem Speicher und dann so ein Schnecken-Ram einzusetzen ist eine einzige Farce.

Und die wollen sich Fachmänner schimpfen? Das nicht mehr als ein verfrühter Aprilscherz :daumen2:
 
Zurück