Ryzen7 2000 erste Benchmarks

aber damit er nicht genutzt wird müsste man die CPU wohl im TDP Limit laufen lassen.

So ist es - und die Skylake-X CPUs laufen quasi alle dauerhaft im TDP-Limit unter Last. Wenn du das Limit manuell aufhebst fressen die Dinger schnell 200-300W (deswegen gabs ja die Probleme bei den Spannungswandlerkühlungen...) ;)

Bei Ryzen / Threadripper ist das nicht anders. Alle modernen CPUs boosten so hoch wie TDP und Temperatur es zulassen. Die werden unter normalen Bedingungen IMMER dirch die TDP eingebremst. Und die Bremse ist beim 18-Kerner so groß an manchen stellen dass der 16er vorbeikommt.
 
Und das witzige daran ist, dass die Leute die das wirklich professioneller tun (also nicht Pixelbrei ihrer Spielerei auf YT hochladen) erst recht Intel-CPUs verwenden, da Videokompression sofern man Profiprogramme nutzt die das können massiv von AVX2/512 profitiert (Performancegewinne von 50-70%!) und Ryzen/Threadripper da nicht ansatzweise mitkommt da die nunmal kein AVX512 können.

Für Leute die im Hintergrund ihr OBS laufen lassen ists sicher von Vorteil 8 Ryzen statt 4 oder 6 Intel-Kerne zu nutzen. Aber das Totschlagargument Videobearbeitung/Kompression ist keins mehr sobald man mehr macht als Letsplays. Je nach Optimierungsgrad der Software (also NICHT Freeware oder 30€-Programme...) sieht AMD da (leider) schnell sehr alt aus, da die Softwarewelt nunmal seit nem Jahrzehnt auf Intel/AVX optimiert.

Wer damit Geld verdient hat konnte sich damit auch immer Intels X99 Plattform und die durchaus sehr teuren CPUs dazu kaufen. Aber grade Ryzen hat doch mit seinem neuen Preissegment es JEDEM User ermöglicht mehr Anwendungsleistung zu bekommen, für weit weniger Geld als bis zum Ryzen Release gängig.
Deshalb, ja. Seit Ryzen ist jeder Filmproduzent. Das ist doch die Stärke der Plattform, für wenig Geld viel CPU Leistung UND dazu noch gute Performance in Spielen. Der 6900k als Octacore hat mal eben schlanke 1000€ gekostet, dazu kam noch ein X99 Brett und QuadChannel Ram. Dann kAM Ryzen mit dem 1700 daher, bietet jedem der mehr als 4c/8t haben wollte eine günstige Alternative.

Und du sagst es selbst, wer professioneller damit arbeiten will, und Programme bezahlt die AVX2/512 können, der ist mit einem Intel derzeit besser bedient.
Für alle die kein Geld für derartige Software ausgeben, trotzdem gerne produktiv arbeiten, für die ist Ryzen eine echte Alternative.
 
Nur falls der Zusammenhang im Raum steht: Quad-Channel brigt bei Videokompression gegenüber DualChannel genau gar nichts (rein CPU-Flops-limitiert sozusagen, die Bandbreite ist vernachlässigbar).

Pupsnormaler DDR4-2133 liefert im DualChannel bereits über 30 GB/s - das ist mehr als ausreichend für den Anwendungsfall. Die allermeisten Berechnungen sind komplexe Algorithmen auf vergleichsweise wenig Rohdaten zur gleichen Zeit (wenn der Encoder Pixel miteinander vergleicht welcher Pixel sich von Frame A zu B wie verschoben hat usw.), bei modernen CPUs die zig MB an Cache haben läuft hier nahezu alles im Cache der CPU selbst ab, daher ist der RAM fast vernachlässigbar.
 
Deshalb, ja. Seit Ryzen ist jeder Filmproduzent.

Und ich hielt das immer nur für ein vorgeschobenes Argument, wenn die CPU nicht soweit in Spielen belastet werden kann, damit das fehlende SMT bei Intel zu schlechteren FPS führt.
Aber gottseidank ist nun jeder Filmproduzent und kann endlich richtig profitieren.
 
Naja, hier ist jeder Filmproduzent, genauso wie hier jeder ein Gespann aus 2x GTX 1080Ti sein eigen nennt oder nur in 720p spielt. Ist halt Banane.


Was aber bekannt ist:
Ein Quadcore Intel reicht kaum noch zum vernünftigen Zocken aus...CHECK!
Spiele profitieren von 8 Threads...CHECK!
Spiele skalieren oftmals über 8 Threads hinaus...CHECK!
Spiele nutzen inzwischen meistens mehr als 8 GB RAM...CHECK!
Spiele nutzen hin und wieder auch 16GB RAM und mehr...CHECK!
In 720p und je nach Grafikkarte merkt man einen Fps.Unterschied von Ryzen zu Intel...CHECK!
In höheren Auflösungen landet man auch auch mit einer GTX 1080Ti oder Titan Xp im GPU-Limit...CHECK!
Ein neuer Intel hat AVX 512 und kann dadurch in Anwendungen profitieren...CHECK!
Ein Ryzen 1800X ist in Handbrake etwas schneller als der 6900K (laut Präsentation)...CHECK!

Das könnte ich ewig weiterführen und eigentlich sagt uns das nur eins. Keiner weiß, wo die Zukunft hinführt. Kann sein, dass AMD in Zukunft wieder abkackt, aktuell schaut es aber nicht so aus.
Es ist schön eine Alternative zu haben, auch wenn es die Obsoleszenz der Hardware vorantreibt. Die Leistung eines 1000.-€ Prozessors von 2016 bekommt man jetzt schon für 250.-€ und die Geschwindigkeit wird bestimmt erstmal nicht mehr langsamer.
Die Software wird sich auch entsprechend schnell umstellen, die nächste Welle dürfte in weniger als 6 Monaten kommen.
 
Es ist schön eine Alternative zu haben, auch wenn es die Obsoleszenz der Hardware vorantreibt. Die Leistung eines 1000.-€ Prozessors von 2016 bekommt man jetzt schon für 250.-€ und die Geschwindigkeit wird bestimmt erstmal nicht mehr langsamer.
Die Software wird sich auch entsprechend schnell umstellen, die nächste Welle dürfte in weniger als 6 Monaten kommen.

Eine solche Entwicklung fehlt jetzt nur noch bei Grafikkarten.
Sobald man die Leistung einer Titan V in Verbindung mit mindestens 24 GiB VRAM für 800 € bekommt, rüste ich wieder auf. Vorher nicht.
 
dann wirst du wohl nie aufrüsten....

Wieso?

Mal als Denkanstoß: Die Leistung einer Titan (Kepler) bekommste heute, 5 Jahre später, schon fast mit ner übertakteten GTX1050Ti für 200€. Oder mit der kommenden Intel-Vega-APU.
Ne GTX1070 ist bereits schneller als die Titan (Maxwell), genauso wird wohl die GTX2070 an die die Titan (Pascal) rankommen schätze ich.

Es ist nicht die Frage ob man die Leistung einer Titan V für 800€ (oder 500 oder 200) kaufen kann sondern wann.
 
Ich würde gerne nochmal näher auf das AVX-Argument eingehen, weil das ja konkret etwas mit der Leistungsfähigkeit der CPUs zu tun haben kann.
Nutzen denn aktuell schon viele Programme AVX und dann auch noch die AVX-Variante (war das AVX512?), die AMD Ryzen und TR nicht oder schlechter beherrschen?
Kann mir da jemand genau den Unterschied zwischen dem AVX was Ryzen und TR hat und dem was Intel Coffeelake hat erklären?
 
Nutzen denn aktuell schon viele Programme AVX und dann auch noch die AVX-Variante (war das AVX512?), die AMD Ryzen und TR nicht oder schlechter beherrschen?
Kann mir da jemand genau den Unterschied zwischen dem AVX was Ryzen und TR hat und dem was Intel Coffeelake hat erklären?

Grundsätzliches: http://extreme.pcgameshardware.de/blogs/incredible-alk/1637-alkis-blog-37-avx.html

In Bezug auf Ryzen: Ryzen kann AVX mit 128bit.
Neue Intel-CPUs können AVX mit 256 und 512 bit - und sind entsprechend bei perfekter Ausnutzung doppelt bzw. vier mal so schnell. In der Praxis sind das dann beispielsweise die 50-70% schneller bei HEVC-Kompression.

Programme die das Nutzen und massiv davon profitieren gibts zigtausende, nur sind das bis auf ganz wenige Ausnahmen (wie x.265) sehr spezialisierte Dinge meist im wissenschaftlichen Bereich (AVX ist beispielsweise extrem mächtig in Simulationen die nunmal mit tonnenweise komplexen Vektormatritzen rechnen) die für den Normalsterblichen keine Rolle spielen. Noch ein Beispiel das viele kennen: AVX ist sehr sehr stark beim schnellen lösen von Gleichungssystemen oder Fourier-Transformationen. Woher kennt mans? LinX oder ycruncher und Prime95 - deswegen gehen da auch die Leistungsaufnahmen und Temperaturen durch die Decke, das sind Paradebeispiele für AVX - denn die Geschwindigkeit der Programme steigt dadurch auch massiv an, nur bemerkt das keiner weils ja nur als Stabilitätstest benutzt wird.
 
Was ich aber nach wie vor nicht verstehe, wenn das AVX512 sagen wir mal 4-mal so schnell ist, wie das AVX128, warum hat die CPU mit AVX512 dann "nur" 50-70% Vorsprung und nicht 400%?

Meinst Du mit Simulationen auch Flugsimulationen (so wie X-Plane 11...) oder ähnliches, die durch AVX512 profitieren können?
 
Was ich aber nach wie vor nicht verstehe, wenn das AVX512 sagen wir mal 4-mal so schnell ist, wie das AVX128, warum hat die CPU mit AVX512 dann "nur" 50-70% Vorsprung und nicht 400%?

400% sind theoretische Rechenleistung die mehr da ist, 50-70% ist das was in der Praxis umsetzbar ist.
Nur weil Wagen B 4x so viel PS hat wie Wagen A muss er nicht 4x so schnell fahren können oder in einem Viertel der Zeit um den Rundkurs sein.

400% mehr Speed hättest du nur dann, wenn dein Code zu 100% aus perfekten 512bit breiten Vektorberechnungen der Form ax+b bestehen würde. Das ist nunmal in der Realität nicht der Fall. Man kann das künstlich erzeugen und sich als Hersteller der CPU dann mit "über 1 TFlop/s FullPrecision" rühmen (Intel Core i9 X mit 18 Kernen und 1 TFlops |
heise online
), das hat aber mit praktischer Arbeit nichts zu tun.

Meinst Du mit Simulationen auch Flugsimulationen (so wie X-Plane 11...) oder ähnliches, die durch AVX512 profitieren können?
Theoretisch ja aber in derart geringem Ausmaß dass es wahrscheinlich niemand darauf optimieren würde.
 
400% sind theoretische Rechenleistung die mehr da ist, 50-70% ist das was in der Praxis umsetzbar ist.
Nur weil Wagen B 4x so viel PS hat wie Wagen A muss er nicht 4x so schnell fahren können oder in einem Viertel der Zeit um den Rundkurs sein.

400% mehr Speed hättest du nur dann, wenn dein Code zu 100% aus perfekten 512bit breiten Vektorberechnungen der Form ax+b bestehen würde. Das ist nunmal in der Realität nicht der Fall. Man kann das künstlich erzeugen und sich als Hersteller der CPU dann mit "über 1 TFlop/s FullPrecision" rühmen (Intel Core i9 X mit 18 Kernen und 1 TFlops |
heise online
), das hat aber mit praktischer Arbeit nichts zu tun.


Theoretisch ja aber in derart geringem Ausmaß dass es wahrscheinlich niemand darauf optimieren würde.

Ist ja wie bei SLI und Crossfire.
 
Wird sich bei AMD denn bezüglich AVX künftig etwas tun, also ist da auch AVX512 geplant, etwa ab Zen2 oder Zen3?
 
Zurück