i7 5820K muss weichen, will mehr Spielepower!

Wenn man unbedingt alles über die CPU machen muss und nicht über GPU beim Streamen, dann muss man sich mehr Kerne besorgen, ja. Aber es gibt nur eine Handvoll YouTuber oder Twitch-Streamer die damit Geld verdienen dass sich der kleine Qualitätsunterschied im Stream lohnen würde. Das gilt sicher nicht für die 99% anderen 0815 Streamer die meinen sie werden damit mal berühmt oder sich damit profilieren müssen. :schief:

achso, und jeder der nicht mit youtube/twitch sein geld verdient, macht das also nur um sich zu profilieren und denkt , dass er mal berühmt wird.
selten so einen schwachsinn gelesen.
das wäre genauso, als würdest du sagen: es gibt nur eine handvoll leute, die ihr geld mit tennis verdienen, alle anderen können auch mit ner bratpfanne spielen, das macht doch eh keinen unterschied......

es gibt genug "kleinere" streamer/youtuber, die das einfach als hobby neben dem beruf machen und nicht auf 1 mio abos aus sind, aber trotzdem gute qualität liefern wollen.
wieso sollte man sich auch nicht die entsprechende hardware dafür kaufen, wenn es der geldbeutel hergibt.
nur weil man es nicht beruflich macht, muss man ja keine mist-qualität liefern.

und im übrigen:
dir ist schon klar, dass du dich in einem hardware-forum befindest, in dem die meisten leute übertrieben starke hardware verbaut haben. einfach weil sie es als hobby betreiben?
nach deiner definition würde sich das ja alles nicht "lohnen", weil wir kein geld damit verdienen....
 
Kann bitte jemand mal dem Threadopener helfen seine CPU vernünftig zu übertakten und den RAM richtig einzustellen? ;)

Tümpelt hier offenbar seit 2,5 Jahren mit nem tollen Haswell-E Sechskerner auf 4,0GHz rum obwohl da locker 4,5GHz gehen würden und der RAM läuft offenbar auch nur mit 2133MHz obwohl er 3200er gekauft hat. So viel Potential was hier noch brach liegt und denkt ernsthaft über nen Downgrade zu einem überteuerten Vierkerner Auslaufmodell nach :rolleyes:
 
Ja und ich finde das einfach nur schwachsinnig. Man verfällt momentan nur noch in einen Kernrausch. Die Kerne sind die neuen Gigahertz..

Mehr GHz gibt es schon seit Jahren kaum. Ich glaube mich an Werte kurz über 4 GHz seit X58 zu erinnern. X79, X99, das sind jeweils gute drei Jahre, also neun Jahre in denen sich fast gar nix in der Hinsicht getan hat, und auch nicht mehr tun wird.Den Herstellern bleibt ja gar nix anderes übrig als in die Breite zu gehen, der aktuelle Prozess ist ausgelutscht.
 
Mehr GHz gibt es schon seit Jahren kaum. Ich glaube mich an Werte kurz über 4 GHz seit X58 zu erinnern. X79, X99, das sind jeweils gute drei Jahre, also neun Jahre in denen sich fast gar nix in der Hinsicht getan hat, und auch nicht mehr tun wird.Den Herstellern bleibt ja gar nix anderes übrig als in die Breite zu gehen, der aktuelle Prozess ist ausgelutscht.

Mehrkerner ist auch nix neues siehe AMD Phenom II X6 aus dem Jahr 2010. Wieso schreiben alle im Forum das Mehrkerner die Zukunft in Spielen sind ? Wurd das angekündigt von Spielehersteller, oder wird das nur so mal in denn Raum geworfen ?
Im moment begrenzt doch sowieso nur die GPU und nicht die CPU in Spielen.
 
Nein der allgemeine Tenor ist, dass die Spiele unbedingt in Zukunft auf zig Kerne zugreifen werden weil nur damit die Performance zu steigern ist. Kerne sind eben das neue Gigahertz. Außerdem sagt man, dass die Entwickler nicht auf mehr Kerne optimiert haben, weil ja Intel den Fortschritt absichtlich gebremst hat. Und weil es ja super einfach ist zigfach zu parallelisieren. Uns steht da noch ein neuer Frühling in der Spielewelt bevor und das in spätestens 1 Jahr, weil dann alle 4 Kerner unbrauchbar werden. Deswegen wird auch jedem Hansel ein Ryzen an den Kopf geschmissen weil die ja nun unheimlich Verbreitung finden werden und jeder Hansel 16 Kerne hat und braucht. Alleine weil sie verfügbar sind wird jeder sie brauchen, so die Logik. Und darum werden jetzt alle Spieleentwickler wie verrückt auf mehrere Kerne optimieren.

Das interessante ist, dass Mehrkerner seit zig Jahren existieren und bis heute kaum Vorteile von mehr als 8 Threads bestehen. Muss der Teufel, äh Intel Schuld sein weil die perse erst mal an allem Schuld sind. :schief:
 
Naja da würd ich schon mal von einer großen Spiele Schmiede lesen wollen das CPU mit Mehrkernen bald Anforderung sind. In die Zukunft vom Pc Hardware kann doch niemand schauen. Da macht man sowieso immer alles falsch. Egal wie viel man liest und schaut.
Die Spielerzahlen am PC werden doch sowieso immer weniger durch PS4 und XBox. Siehe Battlefield die haben schon seit Relase das 3-4fache an Spierlzahlen und das auf beiden Systemen.
Wenn das wirklich so schwierig ist Games auf Mehrkern zu optimieren , wieso sollten die das überhaupt machen ?
 
nun Konsolen haben schon immer das games design bestimmt
1996-2000 ps1 1 Kern cpu mit 64bit 32mb emotion gpu (architektur powerpc) 320-240 bis 480-360
Eigene Plattform kaum Einfluss auf PC
Pc zu dieser Zeit penitum mmx-pentium3, amd athlon von 4-64mb vram von 16-128mb ram übliche Auflösung 640-480 bis 1280-1024

2000-2006 ps2 1 Kern cpu mit 128mb emotion gpu vergrößert PowerPC 480-360 zu 720-576
Eigene Plattform Erste große Publisher Lizenzverwurstung bestimmend für design der games
PC von amd athlon-amd athlon64 penitium 2-4 128-512mb ram 128-256mb vram 1280-1024-1600-1200

2006-2013 ps3 xbox360 1 Kern cpu mit 7 fpu und 1 Kern cpu mit 6 fpu 256mb bzw 512mb. powerpc mit nvidia gpu 7900gtx/ati hd1900) 720-576 bis1280-720
Klar Marktbestimmt bei gamedesign Limitierung auf Konsolenleistung bei games
PC amd athlon64x2-FX 8xxx, intel core 2 duo-core i Serie gen 3 512-8Gb ram 512- 4Gb vram 1680-1050-1920-1080/1200
Spiel Anforderungen min 1 thread Optimum 2 thread 512mb -4GB ram 1024-2048mb vram
zu der zeit war 2006-2008 noch normale Anforderungen bei games bis 256mb ram und ein CPu Kern ab 2008 stieg der Anspruch auf 512mb vram und 2 Kern CPU Durch neue Os 2006 dann von 512mb auf 2gb ram wegen Vista ab Win 7 2009 bis 4GB ram vram bis 2048mb und bis 4 cpu Kerne

2013-2016 Ps4 xbox one x86 Architektur 8 Kern amd jaguar mit 1,6 vs 1,8ghz mit jeweils hd7790 vs hd7850 8Gb ram (1280-720 bis 1920-1080)
Größter Anforderungssprung seit es Konsolen gibt bei games
Nichts geht ohne Konsole designte games
Pc amd Fx serie, intel core i serie gen3-gen6 8Gb bis 16GB ram 2-8GB vram 1920-1080 bis 2560-1440
Spiel Anforderungen min 4 threads besser 8 threads, 4-8GB ram, 2-4Gb vram

2016-heute ps4 pro-xbox pro 8 kern jaguar 2,0ghz vs 2,1ghz 8gb vs 12gb Rx460 vs rx470(Auflösung 1920-1080 bis upscale 3840-2160)
PC amd FX serie zu ryzen, Intel core i gen 6 zu 7 gen 16GB ram 4-12Gb vram 1920-1080 bis 3840-2160
Wie die letzten Jahre Nur noch mehr auf die Konsole ausgerichtet Anforderungen
Spiel Anforderungen min 8 threads 8GB ram besser 16GB 4GB-8Gb vram

Diese Anforderungen gelten für die großen publisher ausgenommen sind indi Entwickler auf alte engines basierende games
EA
ubisoft
square enix
activision
bethesda

Von Dx2 1996 bis heute dx12
dx2 1996 Februar erster release für win 95
dx3 1996 ab april
dx5 1997-1998
dx6 1998-1999 open gl v1
dx7 1999-2000 open gl 2
dx8 2000-2002 opengl 3
Dx9 von 2002-2006 genutzt bis 2010 open gl 3 bis hierhin Singlecore CPU ab 2005 gab es dual cores
dx10 2006-2009 kaum genutzt open gl3-4. nur DX10 dual core fähig bis zu 4 Kerne Nutzung (erste GPu mit unified shader)
dx11 2009-2015 derzeit Standard opengl 4 vulkan v1. Nur Dx11 multicore Cpu fähig bis zu 192threads sofern nicht Kompatibilitätmodus bis zu 4 Kerne
dx12 2015-heute genutzt gar nicht vulkan v2 (kaum genutzt) multicore threads unbegrenzt addierbare cpu je Kern IPC Ob die engines das auch Nutzen können ist offen weil bisher keine engine dx12 oder vulkan nativ unterstützt

Opengl ist singlethread limitiert
Vulkan hebt dieses limit auf
Vulkan unterstützte engines
source (valve frei nutzbar),
idtech 6(Bethesda exklusiv),
unity (größtenteils mobilegames)
open gl unterstützte engines
source,
idtech3 frei nutzbar
idtech bis 6 bethesda exklusiv
Alle anderen engines haben DX
soweit zu MS Windows

Auf linux gibt es kein Standard was opengl bei gpu schon schlimm ist bei anderer Peripherie ein chaos
nvidia ist sehr stiefmütterlich bei opengl unter linux
amd ati ist da deutlich besser
aufgrund von fehlenden opengl Unterstützung bei allen anderen engines ist unity sowie idtech3 source das limit
quasi hat kein Großer publisher auf linux eine release Regel wenn wird nur Jahre später oder gar nicht auf linux portiert
wenn aber dann apple metal portiert wurde ist normalerweise auch ein linux port drin.
quasi ist linux tot in Sachen games
Diese Entscheidung kam damals 1998 als verschiedene Kräfte einen Standard verhindert haben MS und richard stallmann (der mit der freie Software was dazu führte das jeder seine eigene distro macht)
Seither ist linux ein Kompromiss zwischen open source und freier Software (die es quasi nicht gibt)
Das führte dazu das jede distro ein eigenes Hardwaretreiber Gerüst hat was hinderlich als Standard nutzbar ist.
Linux ist auf Spezielle Einsätze optimiert und kann nicht als Standard OS genutzt werden. maximal als mediaplayer mit browser das wars
Kaum ein kommerzieller Firma verkauft auf linux software (zu viele rechtliche Hürden wegen freie Software und dessen Auswirkung das für jede distro liberalies seperat lizensiert werden muss)
Darum wird sich linux als OS nicht durchsetzen können.
Man könnte meinen das MS das bewusst provoziert hat um Windows zu pushen
bis 1998 war Windows alles andere als das OS für games
es war eine Option
Wo Wollte ich hin?


achja Zukunft
Nun windows 10 wird spannend ob das die Zukunft ist
Aktuell ist Dx11 klarer Sieger, das liegt nicht nur an nvidia Marktmacht (nvidia kann nur partiell dx12) sondern auch an MS Sturheit in Sachen DX12 (kein Support für win 8,1)
Durch MS dreiste Datenschutz Auflösung zu big data erzwingen, kann sich das Os nur schwer durchsetzen
Vermutlich wird Win 10 per Hardwarezwang sich durchsetzen wenn keine neue hardware mehr außer win 10 unterstützt ab 2020
Bis dahin muss sich was ändern ansonsten sehe ich das ende von PC gaming kommen.
Es wäre nicht nur schade sondern auch beschämend das durch Politik von MS ein OS unbrauchbar wird.
es kann gut sein das mein nächste gaming gerät eine Konsole wird. eventuell PS5 wenn noch Datenträger genutzt werden.

DX11 hat eine Limitierung weil der CPu Core Takt die maximale Auslastung der GPu ermöglicht.
Aktuelle GPu haben die grenze des CPu core Takt erreicht die gtx1080ti (gp102) benötigt min 4,6ghz Takt bei FHD
Es kann nur noch nach höheren Auflösungen gehen aber das ist ein Problem unter Windows Skalierung. Die meiste Software ist auf einen Pixelabstand von 0,3mm und FHD designt
Alles darüber wird zu klein dargestellt oder es wird lediglich interpoliert was einer 4k Auflösung ad absurdum führt.
Zumal 4K auf 27" zu 0,07mm Pixelabstand führt und zu unlesbaren Schriften und größere Probleme bei Programmen führen.
man ist quasi zu neuen Programmen gezwungen.
was kein Mensch tut der nicht muss.
Keiner stellt sich auf dem Schreibtisch einen 32-40 Zöller hin.

Werden den games mehr als 8 threads unterstützen ich sage klar JA nur wird solange dx11 genutzt wird der cpu Takt die GPU Auslastung limitieren
heißt das games auf Mehrkerner ab 6 und 12threads die last verteilen aber der CPu coretakt das FPs maximum bestimmt.
quadcores ohne smt sind am ende seit etwa 3 Jahren entweder sie verursachen framedrops oder lasten die gpu nicht aus.
beides führt zu stottern und Rucklern.
DX = direct x
 
Zuletzt bearbeitet:
Kann bitte jemand mal dem Threadopener helfen seine CPU vernünftig zu übertakten und den RAM richtig einzustellen? ;)

Tümpelt hier offenbar seit 2,5 Jahren mit nem tollen Haswell-E Sechskerner auf 4,0GHz rum obwohl da locker 4,5GHz gehen würden und der RAM läuft offenbar auch nur mit 2133MHz obwohl er 3200er gekauft hat. So viel Potential was hier noch brach liegt und denkt ernsthaft über nen Downgrade zu einem überteuerten Vierkerner Auslaufmodell nach :rolleyes:

Ja das wird es wohl sein
 
Ja und ich finde das einfach nur schwachsinnig. Man verfällt momentan nur noch in einen Kernrausch. Die Kerne sind die neuen Gigahertz..

Könnte daran liegen, dass die Konsolen auf mehr Kerne setzen und neuere Games auch immer mehr von einer höheren Kernanzahl profitieren. Und das deutlich:
WD - Graph.PNG
 
Keiner stellt sich auf dem Schreibtisch einen 32-40 Zöller hin.


****, ich bin Keiner mit dem 40" und dem 30" auf dem Schreibtisch. Ich wusste es schon 2007, als ich den 30" angeschafft habe, dass ich ein Niemand bin :=)
Und die ganzen anderen User die ich kenne, die auch einen 40" auf dem Schreibtisch haben, sind auch alle NIX^^
 
Zuletzt bearbeitet:
Das interessante ist, dass Mehrkerner seit zig Jahren existieren und bis heute kaum Vorteile von mehr als 8 Threads bestehen. Muss der Teufel, äh Intel Schuld sein weil die perse erst mal an allem Schuld sind. :schief:

Na ja, seit 10 Jahren haben wir maximal 4 Kerne in Mainstrem. Die Spiele Entwickler halten sich an das, was die meisten haben.
Hätte also Intel schon vor 8 Jahren den 6 Kerner in den Mainstream geschickt, hätten wir die Diskussion nicht.
 
Das halte ich für Quark. Ich hab vor 10 Jahren meinen Q6600 gekauft und der war damals schon nicht teuer. Demnach müssten wir schon lange bei der Nutzung von 4 Threads sein, aber damals haben Spiele nur 1 oder 2 Kerne genutzt. Und Mehrkerner gab es damals auch schon.
 
Woher hast das Bild ? Das ist doch niemals ein PS4 Diagramm. Hab auch ne PS4 die Krücken schaffen niemals so viel Frames.

Was du hier siehst ist von einem PC ... Meinem PC und zwar mit einem i7-5820K - Einmal mit 4 aktiven Kernen und 8 Threads insgesamt (mehr unterstützt das erste Watch Dogs nicht) und einmal mit 6 aktiven Kernen / 8 Threads. In FullHD um die Grafikkarte (GTX1080) aus der Rechnung zu nehmen.

Wie man klar erkennen kann bringen die zusätzlichen 2 echten Kerne jede Menge mehr FPS.

Dieser Frameverlauf ist entstanden auf einer Fahrt vom Startgebiet bis in die obere Ecke von Pawnee:

Start
WD 6+HT (1).jpg


Ziel:
WD 6+HT (2).jpg


Das halte ich für Quark. Ich hab vor 10 Jahren meinen Q6600 gekauft und der war damals schon nicht teuer. Demnach müssten wir schon lange bei der Nutzung von 4 Threads sein, aber damals haben Spiele nur 1 oder 2 Kerne genutzt. Und Mehrkerner gab es damals auch schon.

Jetzt solltest du vielleicht auch noch in Kalkül nehmen, dass erstens die Mehrkerner (höher 2 Kernen) in Gamingrechnern noch nicht weit verbreitet waren und zweitens eine Spieleentwicklung auch ein paar Jährchen verschlingt.

PS4 und XBOX One sind seit Ende 2013 auf dem Markt ... Zählst du nun 3-4 Jahre hinzu für die Entwicklung entsprechender Games, dann kommst du ungefähr bei heute raus, wo (oh wunder) immer mehr Spiele Mehrkernprozessoren unterstützen: CPU-Skalierung in Spielen im Test: 6, 8 oder 10 CPU-Kerne schlagen 4 schnelle - ComputerBase
 
Zuletzt bearbeitet:
Das halte ich für Quark. Ich hab vor 10 Jahren meinen Q6600 gekauft und der war damals schon nicht teuer. Demnach müssten wir schon lange bei der Nutzung von 4 Threads sein, aber damals haben Spiele nur 1 oder 2 Kerne genutzt. Und Mehrkerner gab es damals auch schon.

Naja, es gibt User die klammern sich an ihre "alte/kleine" (wie Du es bezeichnen möchtest) Hardware, und es gibt User die sind Visionärer.
Das Problem bei der Sache ist doch z.b. an der 64-Bit-Software gut zu sehen.
Seit 2005 gibt es das 64-Bit OS von MS. Und wie lange hat sich der User an sein 32-Bit-XP geklammert und damit die Entwicklung von 64-Bit-Software blockiert? Kein Entwickler produziert 64-Bit-Software wenn der User kein 64-Bit-OS hat. Gute 10 Jahre hat es gedauert bis der User (och, bei mir läuft doch alles, XP ist toll, wozu 64Bit, gibt doch sowieso keine Treiber oder Software) dazu bewegen ließ endlich sein alte XP32 zu verschrotten.
Bei der Mehrkern-Optimierung liegt der Fall zwar gänzlich anders, es spielt aber auf jeden Fall mit rein. Mehrkern-Optimierung kostet Zeit und Geld, aber wenn man seine Marge damit kaputtmacht, wenn man zusätzlich auch noch eine Hürde für die User mit wenigen Kernen einbaut, die den Großteil der Zielgruppe ausmacht ... wo soll man da noch Geld verdienen.
Wenn sich die Zielgruppe mal von ihren 4-Kernen trennen würde, dann würde die Industrie eventuell auch ihre Software ändern.
Wenn die Zielgruppe mal endlich einsehen würde das 8GB oder 16GB nicht der Weißheit letzer Schluss sind, dann würden wir weniger Lade-Screens sehen.

Die Zielgruppe blockiert sich da selbst, und sieht es einfach nicht.
 
Zuletzt bearbeitet:
Naja, es gibt User die klammern sich an ihre "alte/kleine" (wie Du es bezeichnen möchtest) Hardware, und es gibt User die sind Visionärer.
Das Problem bei der Sache ist doch z.b. an der 64-Bit-Software gut zu sehen.
Seit 2005 gibt es das 64-Bit OS von MS. Und wie lange hat sich der User an sein 32-Bit-XP geklammert und damit die Entwicklung von 64-Bit-Software blockiert? Kein Entwickler produziert 64-Bit-Software wenn der User kein 64-Bit-OS hat.

Na ja, man könnte jetzt nachfragen, wie viele 64 bit Games es gibt.
Wenn ich ein Game installiere, fragt es immer nach dem "Programm Files x86" Ordner. :ugly:
Von daher gibt es hier meiner meinung nach einen großen NAchholbedarf.
 
Ich glaub mir müssen uns hier keine Geldsorgen um die Großen machen :)
Intel,EA und Uplay die ersticken schon im Geld.
 
Jetzt solltest du vielleicht auch noch in Kalkül nehmen, dass erstens die Mehrkerner (höher 2 Kernen) in Gamingrechnern noch nicht weit verbreitet waren und zweitens eine Spieleentwicklung auch ein paar Jährchen verschlingt.

PS4 und XBOX One sind seit Ende 2013 auf dem Markt ... Zählst du nun 3-4 Jahre hinzu für die Entwicklung entsprechender Games, dann kommst du ungefähr bei heute raus, wo (oh wunder) immer mehr Spiele Mehrkernprozessoren unterstützen: CPU-Skalierung in Spielen im Test: 6, 8 oder 10 CPU-Kerne schlagen 4 schnelle - ComputerBase

Die waren damals am Preis gemessen auch schon weiter verbreitet, dennoch gab es kaum Spiele die daraus Nutzen zogen. Und in deinem Link von CB ist es auch nicht so, dass viele Kerne massiv was bringen. Ganz so einfach ist es eben nicht. Aber die Diskussion führt zu nichts.
 
Zurück