Ryzen 1700 vs. Core i7-7700K: AMD hat beim Live-Streamen viel mehr Puste

Aber andersherum ist dann in Ordnung den 7700k gegen den R7 bei Spielen gleichzusetzen statt mit dem 4 Kerner der die Hälfte kostet und bestimmt nicht nur die Hälfte leistet :P

Der Vergleich ist so schon völlig in Ordnung und interessant wird es wie Coffeelake mit 6c gegen den R7 ankommt bei vermutlich ähnlichem Preis, vielleicht reißen die 2 Kerne schon raus was dem aktuellen i7 nicht liegt.
 
Hm, mitunter deshalb stand/steht zumeist "beste Spiele-CPU" dabei und nicht Spiel&Stream oder Spiel&Encodier CPU. Wirklich nichts neues, wobei professionelle Streamer eh schon bessere CPUs hatten oder gleich den 2. PC bzw. separate Gerätschaften. Und ob der Hobby-Streamer nun gleich seinen 7700k rauswirft, nur um den nahezu gleich teuren Ryzen zu kaufen mag ich nicht zu beurteilen.

Na, wer als Hobby-Streamer seinen 7700K rausschmeißt um ihn durch einen R7 1700 zu ersetzen, der hat sie auch nicht mehr alle beisammen.
Da ist das Preis/(Mehr)leistungsverhältnis ja irgendwo zwischen Apple und Kobe RInd...

Man sollte schon die Neuanschaffung als Basis für einen Preisvergleich sehen.
 
Hmmmm, CPU encoding zieht viel zu viel FPS, selbst mit dicken CPUs. Lieber 2 Grafikkarten und mit ein bischen mehr Bitrate streamen. :D 0 FPS Verlust ingame bei gleicher Streamqualität. :daumen:
 
Außerdem: Ein "Fairer" Vergleich würde eventuell auch QuickSync berücksichtigen. Da dies ohne Übertreibung 5-10x schneller (je nach verwendeter iGPU) arbeitet als ein 8 Kerner Intel, könnte man den Vergleich auch wieder umdrehen und sagen: Ach schau an, all die Kerne helfen nix, wenn man dieses eine dolle Feature hat. Ich hab beim Livestreaming noch keine Erfahrungen sammeln können was QuickSync betrifft, aber ich encode meine Videos regelmäßig und da ist der Unterschied zwischen dem 4 Kerner (+HT) samt iGPU und dem 8 Kerner gewaltig. Das ist leider noch nicht so mit meiner Grafikkarte möglich. Weiß nicht warum.
Es gibt also einige Berichte darüber, die Quick Sync verwenden und dann nur noch 5-10% CPU Last haben.

Das liegt ganz einfach daran, dass Quick Sync auch einen dedizierten Chip auf dem CPU DIE nutzt. Mit CPU encoding hat das nichts mehr zutun.
 
Nein ist es nicht. Die GPU kann das wesentlich besser und den minimalen Qualitätsunterschied siehst du aufgrund der niedrigen Qualität (niedrige Bitrate/ecoding Qualität) einfach nicht.
Daher gilt dein Einwand nur bedingt und ist mehr oder weniger Haarspalterei.
Eine gewagte These, die leider einem Faktencheck nicht standhält:

Ryzen is THE BEST CPU for Game Streaming? - $h!t Manufacturers Say Ep. 2 - YouTube

TLDW: CPU-Encoding ist King, weder Quick-Sync, noch das nVidia/AMD Equivalent kommen auch nur ansatzweise an die Qualität ran. Und das sieht man sogar in den rekomprimierten YT-Vergleichsvideos
Wie sieht denn das mit dem GPU Encoding aus, wenn die GPU eh schon zu 99,9% ausgelastet ist?
Die GPU macht das nicht über die Shader, sondern über einen speziellen Chip. Es kostet zwar trotzdem ein wenig Performance, aber nur so ~10%.
 
i7-7700k in Games mehr Frames . Ryzen 1700 in Anwendungen gut , in Games so lala .
Müssen wir jetzt Gameperfomance mit Anwendungsperformance kombinieren damit der Ryzen besser wird .
 
Das liegt daran, dass die neue Gen wieder etwas ipc eingebüßt hat. Kann man aber auch in den Tests dazu nachlesen, nicht zuletzt hier auf PCGH.

Gesendet von meinem HTC 10 mit Tapatalk
 
Für reine Spieler würd ich rein der Gamingleistung wegen immernoch eher zu Intel gehen, für Spieler und Computeruser mit Videobearbeitungstendenzen klar zum Ryzen.
Würd ich mir ein komplett neues Setup erstellen, könnte es entweder ein 1800er von Ryzen werden, oder ich spare mir wirklich einen neuen Sockel2066 Skylake-X zusammen mit irgendwas bei 10-Kernen und einigermaßen schnellen Taktfrequenz, oder 8 Kernen.

Ich glaub gegen 8- oder 10 Kerner von Intel kommen die Ryzens nicht ran - nur der Preis ist das unfassbar Geisteskranke auf der Intelseite!
 
Ist eben schön blöd wenn man CPU Tests in 1080p Ultra macht.
Theoretisch blöd, aber mehr Praxis relevant als 720p. Kenne niemandem, der unter 1080p spielt. Eher höher und da ist die CPU noch weniger von Bedeutung.
Für die Zukunft würde ich eher auf Kerne setzen, denn auf SingleCore-Leistung.

Hier mal 6 Kerne vs 6 Kerne.
200eur vs 380eur

Kann das überhaupt sein? 4ghz vs 4.7ghz und dann quasi gleichstand?

Wollte eig den 7820x wegen dem hohen Takt aber bei 0 Mehrwert bei dem satten Aufpreis ggü. dem R7 1700...
Der Test ist leicht im GPU-Limit. Aber die GPU scheint hier nicht all zu oft zu limitieren, sonst wäre der 7700K nicht schneller...
 
Zuletzt bearbeitet:
Wollte eig den 7820x wegen dem hohen Takt aber bei 0 Mehrwert bei dem satten Aufpreis ggü. dem R7 1700...



Dann hast du für dich persönlich keinen Mehrwert. Es gibt durchaus Anwendungsfälle wo die neuen Intels besser sind, aber diese Anwendungsfälle hat man als Zocker eher nicht.


Könntest halt noch auf Coffee Lake warten, da eine HEDT Plattform sich eh nicht unbedingt an Spieler richtet.
 
Dann hast du für dich persönlich keinen Mehrwert. Es gibt durchaus Anwendungsfälle wo die neuen Intels besser sind, aber diese Anwendungsfälle hat man als Zocker eher nicht.


Könntest halt noch auf Coffee Lake warten, da eine HEDT Plattform sich eh nicht unbedingt an Spieler richtet.

Ich möchte eig HEDT inkl. Quad Channel und eben mind. 28 Lanes, da ich später nur M.2 PCIe verbauen möchte. Da wäre x299 genau richtig. Die AsRock Boards haben 3x M.2 zB was perfekt wäre.

TR noch besser aber die günstigste CPU mit ca. 800eur zu teuer.

Ich spiele auch alte Games wie WoW und möchte da 120+ FPS (inputlag). Ka ob das Ryzen packt, hier wäre n Intel mit 4.7ghz sicher im Vorteil, da das Game nur 2 Threads nutzt.

Echt schwer :D
 
Ich denke das es noch non-X Versionen von TR geben wird.

Zumal du bei 28 Lanes aber auch nicht 3 M2 Slots mit Vollbestückung ansprechen kannst.
 
Was genau wurde da bei dem +-2% von 16.667 ms Intervall eigentlich gemessen?
Im OBS Log eines Testvideos von mir gibt es den Eintrag

Code:
obs_video_thread(16.6667*ms): min=0.903*ms, median=16.667*ms, max=3647.11*ms, 96.9094% within ±2% of 16.667*ms (1.46674% lower, 1.62389% higher)

Das sieht zwar gut aus, allerdings hatte ich absichtlich ein extrem stockendes Video produziert.
Evtl werden alle Frameausgaben berücksichtigt, also auch Vielfache eines Frames, wenn das Encoding nicht hinhaut. Bin skeptisch in dem Bereich.
 
Zurück