O
olletsag
Guest
AW: Intel Coffee-Lake-S-Refresh: Core i7-9700K günstiger als i7-8700K, i9-9900K fällt
Deiner Meinung nach dürfte ich mich in keinem Forum anmelden, wenn ich deinen obigen Text richtig interpretiere. Es gibt einen Unterschied ob ich teure Hardware besitze und jeden Tag im Selbstdarstellungsrausch darüber sinniere welchen Status mir das einräumt, oder teure Hardware besitze und lediglich meine Erfahrungen mit anderen teilen will. Da wird jeder gespannt lauschen, der sie sich nicht leisten kann oder beabsichtig, sie sich anzuschaffen und dafür ausreichende Gründe zu finden.
Dir ist nicht mal klar, welche Informationen ein Draw Call enthält und das jeweils die CPU und die GPU warten muss, bis die Daten aufbereitet und Bilder ausgegeben werden. Dann irgendwie bei dem Thema fortführend auf Primitive (Anzahl nach dynamischen/statischen Modellen) oder Texturatlasing einzugehen, kann man sich sparen.
Und verdammt noch mal nein, du bencht keine CPU im CPU Limit, sondern unter 3D Anwendungen bencht du eine CPU IMMER im GPU Limit, egal in welcher Auflösung. Deshalb wählt man eine CPU nicht nach ihrer reinen Rechenpower aus, sondern nach der Zielframerate. Hardware sollte dabei immer zusammenpassen. Wie repräsentativ ist es dann, bei weit verbreiteter Auflösung von 1080p und mittlerweile höher, eine Highend-GPU in 720p zu benchen. Was soll dieser Humbug?
In einer idealen Situation, wo die CPU-Leistung der GPU-Leistung entspricht und perfekt für das Rendern mit bestimmter fps-Höhe ausgelegt ist, wird dir die CPU für jedes gerenderte Frame in ihrem Rendering-Loop immer ausreichend Daten zur Verfügung stellen, so dass sie von der GPU ausreichend schnell abgearbeitet werden können. Dabei ist wichtig zu beachten, dass eine CPU für den ersten Renderingframe und jeden weiteren, ihre Arbeit kurzfristig beenden muss (bei 60fps Frametime 16,33-33,66-49,99ms usw.). Um diese Wartezeit so kurz wie möglich zu halten, optimiert man auf der GPU die Ausgabe. Treiber erkennen dabei heutzutage die Anwendung oder das Spiel (Powerviren sowieso) und steuern so die Leistungsaufnahme auf einer CPU und GPU (Core-/Infinity Fabric und ihre Wächter). Das bedeuet im schlechstes Fall, dass du die Zeiten in der eine CPU für die Darstellung eines Frames warten muss, künstlich steigerst, wenn du nicht die ideale Auflösung anhand der real "günstigen" Leistung wählst oder eine die der Treiber nicht "gut" unterstützt. Genau das sagen auch meine beiden Bilder aus, wenn unter 720p=60fps möglich sind und unter 2160p=68fps!
Draw Calls enthalten dabei grundsätzlich alle geometrielastigen Informationen, die für die GPU wichtig sind. Zum Beispiel über Texturen, Zustände, Shader, Rendering, Objekte, Puffer usw. und werden durch die CPU als Zeichenressource für die GPU vorbereitet. Das Umwandeln von Zustandsvektoren kostet insbesondere beim Kontexwechsel (abhängig von statischen und dynamischen Modus) besonders und sind manchmal trotz Instantierbarkeit für die CPU als reiner GPU-Hardwarebefehl sehr teuer. Dabei wird eher der API-Overhead aufgrund der eigenen Komplexität zum Problem. Es ist damit genau das was gaussmath auch schon ansprach, mehr ein Problem der Software als der Hardware.
Ich fasse mal kurz und aktuell zusammen.
Schaffe89:
banned=forum-3dcenter
banned=Hardwareluxx-Forum
banned=Computerbase-Forum
Woran liegt das?
Dein ständiges MIMIMIMIMI und deine Art und Weise, wie du auf Posts anderer reagierst erinnert mich stark an diesen Member. Oder aber ihr habt gleiche Ausdrucksweisen, Wesenszüge und seit im gleichen Umfeld aufgewachsen. Ist er dein Bruder?
Ich glaube das ist eines deiner Probleme, du diskutierst nicht - du spekulierst und das nicht nur bei diesem Thema, wobei ich den Einwurf mit dem 8700 ganz gut fand. Trotzdem kann er nicht die bessere oder günstige CPU sein, sondern einfach nur eine Alternative, weil die PCGH den 8700k versus 9700k versus 9900k erwähnt, dort ist die bessere und günstigere CPU ganz klar und allein der 9700k.Ihr veranstaltet einen Affentanz nach dem anderen, ich spekuliere ja, es liegt einfach daran, dass ich teure Intel und AMD Hardware besitze und das schlicht das übliche Feindbild provoziert, dabei bin ich selbst einer der größten AMD Fanboys mit unzähligen AMD Systemen...
Deiner Meinung nach dürfte ich mich in keinem Forum anmelden, wenn ich deinen obigen Text richtig interpretiere. Es gibt einen Unterschied ob ich teure Hardware besitze und jeden Tag im Selbstdarstellungsrausch darüber sinniere welchen Status mir das einräumt, oder teure Hardware besitze und lediglich meine Erfahrungen mit anderen teilen will. Da wird jeder gespannt lauschen, der sie sich nicht leisten kann oder beabsichtig, sie sich anzuschaffen und dafür ausreichende Gründe zu finden.
Dir ist nicht mal klar, welche Informationen ein Draw Call enthält und das jeweils die CPU und die GPU warten muss, bis die Daten aufbereitet und Bilder ausgegeben werden. Dann irgendwie bei dem Thema fortführend auf Primitive (Anzahl nach dynamischen/statischen Modellen) oder Texturatlasing einzugehen, kann man sich sparen.
Und verdammt noch mal nein, du bencht keine CPU im CPU Limit, sondern unter 3D Anwendungen bencht du eine CPU IMMER im GPU Limit, egal in welcher Auflösung. Deshalb wählt man eine CPU nicht nach ihrer reinen Rechenpower aus, sondern nach der Zielframerate. Hardware sollte dabei immer zusammenpassen. Wie repräsentativ ist es dann, bei weit verbreiteter Auflösung von 1080p und mittlerweile höher, eine Highend-GPU in 720p zu benchen. Was soll dieser Humbug?
In einer idealen Situation, wo die CPU-Leistung der GPU-Leistung entspricht und perfekt für das Rendern mit bestimmter fps-Höhe ausgelegt ist, wird dir die CPU für jedes gerenderte Frame in ihrem Rendering-Loop immer ausreichend Daten zur Verfügung stellen, so dass sie von der GPU ausreichend schnell abgearbeitet werden können. Dabei ist wichtig zu beachten, dass eine CPU für den ersten Renderingframe und jeden weiteren, ihre Arbeit kurzfristig beenden muss (bei 60fps Frametime 16,33-33,66-49,99ms usw.). Um diese Wartezeit so kurz wie möglich zu halten, optimiert man auf der GPU die Ausgabe. Treiber erkennen dabei heutzutage die Anwendung oder das Spiel (Powerviren sowieso) und steuern so die Leistungsaufnahme auf einer CPU und GPU (Core-/Infinity Fabric und ihre Wächter). Das bedeuet im schlechstes Fall, dass du die Zeiten in der eine CPU für die Darstellung eines Frames warten muss, künstlich steigerst, wenn du nicht die ideale Auflösung anhand der real "günstigen" Leistung wählst oder eine die der Treiber nicht "gut" unterstützt. Genau das sagen auch meine beiden Bilder aus, wenn unter 720p=60fps möglich sind und unter 2160p=68fps!
Draw Calls enthalten dabei grundsätzlich alle geometrielastigen Informationen, die für die GPU wichtig sind. Zum Beispiel über Texturen, Zustände, Shader, Rendering, Objekte, Puffer usw. und werden durch die CPU als Zeichenressource für die GPU vorbereitet. Das Umwandeln von Zustandsvektoren kostet insbesondere beim Kontexwechsel (abhängig von statischen und dynamischen Modus) besonders und sind manchmal trotz Instantierbarkeit für die CPU als reiner GPU-Hardwarebefehl sehr teuer. Dabei wird eher der API-Overhead aufgrund der eigenen Komplexität zum Problem. Es ist damit genau das was gaussmath auch schon ansprach, mehr ein Problem der Software als der Hardware.
Ich fasse mal kurz und aktuell zusammen.
Schaffe89:
banned=forum-3dcenter
banned=Hardwareluxx-Forum
banned=Computerbase-Forum
Woran liegt das?
Dein ständiges MIMIMIMIMI und deine Art und Weise, wie du auf Posts anderer reagierst erinnert mich stark an diesen Member. Oder aber ihr habt gleiche Ausdrucksweisen, Wesenszüge und seit im gleichen Umfeld aufgewachsen. Ist er dein Bruder?
Zuletzt bearbeitet: