News Nutzer enttäuscht von Intel: Gaming-Booster APO nur für aktuelle CPUs und noch sehr limitiert

Ich rede aber nicht von der GPU, ist das wirklich sooo schwer?

Was du nicht sagst, das sind ja Neuigkeiten.
Wenn du es unbedingt so isoliert ansehen willst dann nochmal.
DU KRIEGST NICHT MEHR LEISTUNG.
Es wird nur effizienter damit umgegangen.

Wenn du also die GPU ausm Spiel nimmst, nehme ich die händische Optimierung ausm Spiel, da du im CPU Bench dadurch nicht mehr Leistung kriegst.
 
Man spielt viel häufger im GPU als im CPU Limit. Daher ist das schon ein berechtigter Einwand.
Wenn es rein um die CPU Leistung geht, eben nicht. Und nur das war gemeint.
Ich rede nicht von einem GPU Limit. Dass man so nicht zocken kann ist mir schon klar, deshalb habe ich auch nie davon geredet. Aber jetzt wird mir das langsam zu blöde.
Wenn du es unbedingt so isoliert ansehen willst dann nochmal.
Ich meinte von Beginn an die CPU Leistung und nicht die der GPU!!! Lese doch nach, wenn du es nicht verstehst.
Von irgendwelchem Gaming in 1080p sprach doch @ThirdLife, nicht ich!
DU KRIEGST NICHT MEHR LEISTUNG.
Selbstverständlich bekomme ich mehr CPU Leistung.
Es wird nur effizienter damit umgegangen.
Nö.
Wenn du also die GPU ausm Spiel nimmst, nehme ich die händische Optimierung ausm Spiel, da du im CPU Bench dadurch nicht mehr Leistung kriegst.
Es geht nicht um die GPU liebe(r) saphira33. Es geht rein isoliert um die CPU Leistung.
Und diese liegt in jeder Auflösung vor. Es wird nur in 720p getestet, damit die GPU nicht limitiert, aber die CPU liefert überall dieselben FPS. Wenn du es nicht glaubst, teste es selbst.
 
Zuletzt bearbeitet von einem Moderator:
Wenn es rein um die CPU Leistung geht, eben nicht. Und nur das war gemeint.
Ich rede nicht von einem GPU Limit. Dass man so nicht zocken kann ist mir schon klar, deshalb habe ich auch nie davon geredet. Aber jetzt wird mir das langsam zu blöde.

Ich meinte von Beginn an die CPU Leistung und nicht die der GPU!!! Lese doch nach, wenn du es nicht verstehst.
Von irgendwelchem Gaming in 1080p sprach doch @ThirdLife, nicht ich!

Selbstverständlich bekomme ich mehr CPU Leistung.

Nö.

Es geht nicht um die GPU lieber saphira33. Es geht rein isoliert um die CPU Leistung.
Und diese liegt in jeder Auflösung vor. Es wird nur in 720p getestet, damit die GPU nicht limitiert, aber die CPU liefert überall dieselben FPS. Wenn du es nicht glaubst, teste es selbst.
Du scheinst nicht zu verstehen wie dieses "Feature" funktioniert.
Hier, lass es dir erklären:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.


Ich versuchs dir hier mal in Mechanisch zu erklären.

Motor Leistet 300 PS. Ich pack den in ein Auto und kriege 200 Top speed.
Jetzt reduziere ich den Luftwiderstand mit Panzertape und Karton und habe plötzlich 300 Top speed.

Laut deiner Logik hat mein Motor jetzt 50% mehr Leistung. Das stimmt aber nicht. Ich habe eine andere Variable (schlechtes Scheduling) manuel verändert. Ich gehe EFFIZIENTER mit meiner Leistung um. Wenn ich ohne Luftwiderstand testen würde, hätte ich bei beiden varianten den selben Topspeed.


In jedem Synthetischen Benchmark wird es nicht möglich sein so die CPU schneller dastehen zu lassen, da diese die CPU zu 100% Auslasten. Also hast du auch nicht mehr Leistung.
 
Du scheinst nicht zu verstehen wie dieses "Feature" funktioniert.
Das Feature erhöht die CPU Leistung durch ein AI generiertes besseres Zusammenarbeiten von Performance Core und E-Core. Dass dabei der Strombedarf sinkt ist nicht ungewöhnlich. Hat aber nichts mit der gewonnenen Leistung zu tun.
Das ist ein anderes Thema was du jetzt aufmachst.
Laut deiner Logik hat mein Motor jetzt 50% mehr Leistung. Das stimmt aber nicht.
Klar habe ich mehr Leistung (FPS), welche vorher nicht frei wurde, da sich die Cores im Weg standen...
Ich gehe EFFIZIENTER mit meiner Leistung um.
Die Logik verfängt bei mir nicht. Du verwechselst da Rohleistung und Leistung.
 
Das Feature erhöht die CPU Leistung durch ein AI generiertes besseres Zusammenarbeiten von Performance Core und E-Core. Dass

Falsch. Intel selber hat gesagt es isch eine Händische Optimierung daher haben nicht mal alle 14th gen Prozzis das erhalten sondern nur die "Gamer" Prozzis.

1700077473171.png


Klar habe ich mehr Leistung (FPS), welche vorher nicht frei wurde, da sich die Cores im Weg standen...

Die Logik verfängt bei mir nicht. Du verwechselst da Rohleistung und Leistung.
Die Leistung hast du ja nicht... Da dir halt statt der Scheduler nun die GPU im Weg steht
 
Ich rede ausschließlich von einem CPU Vergleich, nicht von einer GPU und dessen Limit!
Ich vergleiche 7950X3D und 14900K, nicht die GPUs untereinander.
Und ja die CPU leistet in jeder Auflösung dasselbe. Probiere es einfach mal in Anno mit entsprechendem Spielstand aus. Egal welche Auflösung du einstellst, die CPU Leistung bleibt gleich hoch.
Nö. Eben nicht. Wenn die GPU limitiert spielt die CPU keine Rolle mehr. Du konterkarierst dich mit jedem Satz. Wenn dir das selbst nicht auffällt ok, anderen schon. ;)

Und vor einem Jahr habe ich den 13900K gekauft, und spiele dann knapp 2 Jahre bevor wirklich schnellere CPUs herauskommen.:ka:
Es gibt jetzt schon "wirklich schnellere" CPUs. Nur halt nicht in jedem Game.

Wenn die neuen AMD CPUs dann schneller sind, kaufe ich diese, ist doch klar.
Wenn es dir um Hauptsache schneller geht, egal wieviel, warum bist dann zum 14900K statt zum X3D ? Plattform musst mit der nächsten Intel Gen eh wechseln, nur dass du bei AMD jetzt als auch nächstes Jahr die schnellere CPU bekommst. Insofern nehm ich dir das nicht so ganz ab. Ausser rein zuuuufällig sind ALLE Spiele die du daddelst und je interessant fandest nur auf Intel gut laufend.:D

Und danach kommt Intels Cache Entwicklung und überbietet AMD?
Stimmt. Auf einer dann sicher wieder neuen Plattform. :daumen:

Hersteller brechen ihre Versprechen. Kann schon sein, dass Intel APO nicht mehr verfolgt.
Jedenfalls gibt es keinen Grund dafür, denn ich wüsste nicht, dass Intel ihre Architektur in Zukunft was die E Kerne betrifft, ändert.
Ist doch jetzt schon bestätigt, dass die Arch sich in vielen Punkten ändern wird, Stichwort Tiles, Stacking / Foveros.

Intel hat den Support nur für die 14te "Generation" beworben, insofern ist Intel soweit nichts vorzuwerfen.
Joa. Nur dass die 14th Gen genau dasselbe ist wie 13th Gen und das somit ein sehr, sehr schwaches Argument ist.

Aber mir ist schon klar worum es dir geht. Du hast einen 7950X3D in deiner Signatur und musst das Feature schlechtreden, bevor überhaupt klar ist, was es kann und wie es sich entwickelt.
Ne, ich hab einen 7950X3D und ein ähnliches Feature ja mit dem Cache Provisioning via GameBar schon am Start. Und das funktioniert jetzt und in jedem Game - nicht nur in zweien. Insofern, was muss man sich da schönreden ? :D

Dass Intel keinen Support mehr bieten wird, wenn in einem Jahr neue Produkte kommen, ist rein spekulativ von dir.
Nö, ist jetzt schon bestätigt. Mit Meteor Lake kommen auch neue Boards. Warte mal wie hast du das noch einen Satz drüber genannt ? Schönreden. Oder eher Schönhoffen. :daumen:

AMD wollte Ryzen 5000 zunächst auch nicht mit den alten Chipsätzen anbieten, ich würde mir keine Illusionen machen und auf irgendeine lange Unterstützung im PC Markt bauen.
Kann ich nix zu sagen, ich war nicht im Management und Project Lead. Fakt ist jedoch, dass es so kam.
Von irgendwelchem Gaming in 1080p sprach doch @ThirdLife, nicht ich!
Ja, denn wenn du mit deiner 4090 in höheren Auflösungen spielst bleibt von der Mehrleistung der CPU nix mehr übrig da sie dann im GPU Limit hängt. Dude. So schwer ist das wirklich nicht zu kapieren, sogar meine Wand hats grad begriffen. :ugly:
 
Ja aber m.M.n gibt es einen Unterschied ob ich bei der Entwicklung entscheide "Hardwarebeschleunigung für Codec XY lasse ich weg" oder, "Ich aktiviere dieses Feature einfach im Treiber/Microcode für ältere Hardware nicht."

:ka:
Was ist für was?
Wenn eine Firma sagt dieses Produkt braucht ein neues MoBo weil inkompatibel obwohl User gezeigt
hatten das dem nicht so ist oder die akt. neue Sache?
Aber eigendlich egal oder? Nichts davon macht die Lage für den User besser.
 
Nö. Eben nicht. Wenn die GPU limitiert spielt die CPU keine Rolle mehr.
Deswegen ein Beispiel mit einem Spiel, in dem die GPU keine Rolle spielt, auch nicht in 4K.
Aber darüber habe ich sowieso nicht gesprochen, sondern rein von der CPU und die liefert unabhängig der GPU in egal welcher Auflösung dieselbe Leistung. Und nachdem man zu dieser Erkenntnis kam, hat man erst begonnen CPUs nicht mehr im GPU Limit zu testen, weil man wusste, aha die CPU bringt in jeder Auflösung dieselbe Leistung, ergo geht man isoliert auf 720p um das GPU Limit auszuschließen.
Es gibt jetzt schon "wirklich schnellere" CPUs. Nur halt nicht in jedem Game.
Dann sind die ja im Schnitt nicht schneller. ;)
 
Zuletzt bearbeitet von einem Moderator:
Um die CPU Limits zu testen muss man runter auf 720p und RT off setzen, das hat seinen Grund.
PT/RT geht aber auch ordentlich auf die CPU. Dementsprechend sollte man das schon bei CPU-Tests aktivieren bzw. wahlweise gesonderte Benchmarks damit anfertigen.

Wenn man dann aufgrund erhöhter Last teilweise ins GPU-Limit kommt, dann muss man eben in 480p benchen oder via Custom Resolution oder interner Skalierung noch weiter runter.

Die Auflösung ist bei CPU-Tests ja sowieso nur Mittel zum Zweck.
 
Wenn es dir um Hauptsache schneller geht, egal wieviel, warum bist dann zum 14900K statt zum X3D ?
Weil der 14900K getuned mehr Performance liefert.
Plattform musst mit der nächsten Intel Gen eh wechseln, nur dass du bei AMD jetzt als auch nächstes Jahr die schnellere CPU bekommst. Insofern nehm ich dir das nicht so ganz ab.
Deine Logik möchte ich haben. Ich nutze seit geraumer zeit die Sockel 1700 Plattform, wozu wechseln?
Du bist doch dagegen die Plattform zu wechseln und argumentierst für einen Wechsel?:lol:
Ausser rein zuuuufällig sind ALLE Spiele die du daddelst und je interessant fandest nur auf Intel gut laufend.:D
Nein, sind sie nicht. Starfield und Cities Skylines das ich mir gestern geholt hab, allerdings schon.
Stimmt. Auf einer dann sicher wieder neuen Plattform. :daumen:
Richtig.
Joa. Nur dass die 14th Gen genau dasselbe ist wie 13th Gen und das somit ein sehr, sehr schwaches Argument ist.
Warum ein schwaches Argument? Sie haben das Feature ja nicht für die 12th und 13th Generation beworben, also warum sollten sie es zugunsten Arrow Lake bei der 14th wo sie es beworben haben, streichen? Ergibt keinen Sinn.
Ne, ich hab einen 7950X3D und ein ähnliches Feature ja mit dem Cache Provisioning via GameBar schon am Start. Und das funktioniert jetzt und in jedem Game - nicht nur in zweien. Insofern, was muss man sich da schönreden ? :D
Cache Provisioning hilft dir aber nicht, wenn die Software keinen schnellen Cache benötigt.
Ich habe die Performance lieber konstant. ;)
Nö, ist jetzt schon bestätigt.
Das ist eine reine Erfindung und damit hast du die Schwelle bei mir erreicht, wo ich dich als Diskussionspartner nicht mehr ernst nehmen kann.
Ja, denn wenn du mit deiner 4090 in höheren Auflösungen spielst...
Davon war nicht die Rede. Ich verglich die CPU Performance, nicht die Leistung der GPU, die interessiert mich bei einem reinen CPU Vergleich vorerst nicht. Genausowenig wie mich die CPU Leistung bei einem reinen GPU Vergleich interessiert.
Ja, denn wenn du mit deiner 4090 in höheren Auflösungen spielst bleibt von der Mehrleistung der CPU nix mehr übrig da sie dann im GPU Limit hängt.
Die Leistung der CPU bleibt dennoch dieselbe, in egal welcher Auflösung.:ka:
Da kannst du auch eine RX480 einbauen und wild Auflösungen hin und hier schalten.
Die Leistung der CPU bleibt immer gleich. Vielleicht solltest du mal Cinebench mit verschiedenen Grafikkarten testen, dann geht dir vielleicht ein Licht auf. Und GPU Limit, ja. Dann wartet die CPU auf die GPU, davon war aber nicht die Rede und du scheinst es nicht verstehen zu können. Vielleicht den Artikel von Raff nochmal lesen?

Seit wann testet man CPUs im GPU Limit?
Stimmt, ich habe es mit XTU verwechselt.
Die Leistung hast du ja nicht... Da dir halt statt der Scheduler nun die GPU im Weg steht
Nicht wenn man die CPU Leistung misst. Und das tut man nun mal unabhängig der GPU, aber scheinbar weiß man das in einem Extreme Forum nicht mehr. Schon traurig irgendwie.:-(
 
Zuletzt bearbeitet von einem Moderator:
Nö. Eben nicht. Wenn die GPU limitiert spielt die CPU keine Rolle mehr.
Das kann man nicht pauschal sagen. Die CPU spielt immer eine Rolle, weil sie ja die Bilder berechnen muss, die die GPU dann darstellt.

Wenn Du Dir das hier anschaust:
1700119152511.png

...dann denkt man im ersten Schritt natürlich erst einmal, dass die CPU keine Rolle mehr spielt, ja. Das ist in diesem Diagramm auch absolut richtig. Etwas anderes zu behaupten, wäre eine falsche Aussage. Gerade auch im niedrigeren Bildratenbereich (60-90 FPS) mag das auch prinzipiell eher so sein.

Wenn man sich aber die Rohdaten der CapFrameX-Aufzeichnungen anschauen würde (auf die wir hier an der Stelle natürlich keinen Zugriff haben), dann würde man sehen, dass die Minimum-FPS und die kleinsten Perzentile trotzdem durchaus abweichen. Hier sind nicht ohne Grund nur die P1-FPS dargestellt.

Das kann man auch leicht selber überprüfen. Wenn man mit seinem persönlichen System ein Spiel startet, in dem man beispielsweise 180 FPS schafft (Average FPS!), dann ein FPS-Limit bei 144 FPS setzt und einmal mit und einmal ohne CPU- & RAM-OC bencht. Bei den Average FPS und den P1-Werten wird sich tendenziell nichts ändern, ja. Die werden quasi identisch sein. Wenn man aber die Latenz druch RAM- und CPU-OC verringert, werden die P0.2, die P0.1 und vor allem die Minimum-FPS definitiv ansteigen. Das spürt man auch, wenn man sehr empfindlich ist und vorrangig mit hohen Bildraten (~ab 120 FPS) spielt. Bei nur 60 FPS fällt das natürlich weniger ins Gewicht.

Umso höher die Bildwiederholrate ist, in der man spielt, desto mehr fällt das auch ins Gewicht. Profi-Spieler, die mit 250 FPS oder noch mehr spielen, wissen das und deshalb sind deren Systeme auch alle getunt - auch wenn sie mit einer RTX 4090 in 720p spielen. Das ist quasi für 99% aller Leute irrelevant. Ich wollte es aber trotzdem mal gesagt haben, dass die CPU nie unwichtig wird, auch nicht im GPU-Limit. ;)

Aber darüber habe ich sowieso nicht gesprochen, sondern rein von der CPU und die liefert unabhängig der GPU in egal welcher Auflösung dieselbe Leistung.
Das ist tatsächlich korrekt. Es wird immer dieselbe Leistung geliefert. Ob die GPU, dass dann darstellen kann, ist eine andere Sache. Es ist ja erstmal nur ein Angebot vom Prozessor.

Durch ein FPS-Limit wird natürlich ein Hardcut konstruiert. Dann wird nur so viel Leistung geliefert, um die Bildrate zu erreichen, die das Limit darstellt. Selbst dann kann es aber noch Unterschiede bei den Perzentilen, den Abständen zwischen den Perzentilen und den Varianzen geben. Hierbei kommt dann natürlich die Latenz immer noch deutlich zum Tragen.
 
Zuletzt bearbeitet von einem Moderator:
Nicht wenn man die CPU Leistung misst. Und das tut man nun mal unabhängig der GPU, aber scheinbar weiß man das in einem Extreme Forum nicht mehr. Schon traurig irgendwie.:-(
Aber die "reine" CPU Leistung misst man ja im Synthetischen Benchmark. Wo sachen wie Scheduling Probleme von vornerein nicht bestehen.
Und dort hilft dir APO nicht da es ja Scheduling Probleme behebt...
Ergo nicht mehr Leistung...
 
Aber die "reine" CPU Leistung misst man ja im Synthetischen Benchmark.
Ich möchte aber die Leistung in Spielen wissen, nicht in synthetischen Benchmarks...
Und dort hilft dir APO nicht da es ja Scheduling Probleme behebt...
Ergo nicht mehr Leistung...
Wir reden aber von Spielen und nicht irgendetwas synthetischem wie Cinebench.
Wie oft möchtest du noch das Thema wechseln?
 
Ich möchte aber die Leistung in Spielen wissen, nicht in synthetischen Benchmarks...

Die Leistung in Spielen wird aber nicht ausgefahren da die GPU limitiert.

Wir reden aber von Spielen und nicht irgendetwas synthetischem wie Cinebench.
Wie oft möchtest du noch das Thema wechseln?
Wie oft möchtest du noch gezielt gewisse sachen ignorieren um deinen "Standpunkt" als richtig darzustellen.
 
Die Leistung in Spielen wird aber nicht ausgefahren da die GPU limitiert.
Aha, weil du mit deiner 1080 Ti im GPU Limit bist soll sich auch kein anderer für die CPU Leistung in Spielen interessieren? Die Leistung von CPUs in Spielen muss natürlich im CPU Limit getestet werden, ansonsten testest du, wenig überraschend, die GPU.
 
Die Leistung in Spielen wird aber nicht ausgefahren da die GPU limitiert.
Deshalb wird außerhalb eines GPU Limits in 720p und bei Bedarf zusätzlichem Upscaling gemessen.
Wie oft möchtest du noch gezielt gewisse sachen ignorieren um deinen "Standpunkt" als richtig darzustellen.
Ich rede von der CPU Leistung in Spiel XY, nicht von der GPU. Ich habe das 5 oder 6 mal gesagt und du verstehst es noch nicht. Meine Geduld ist daher auch aufgebraucht.
 
Und was willst du uns jetzt sagen? Weil eine 4090 in UHD limitiert soll die CPU im GPU Limit getestet werden?

Ich kann dir nicht folgen :ka:
Meine Aussage bezieht sich seit Seite 1 auf die Aussage von Lichtspieler, dass er "Im Mittel 20% mehr Leistung" haben wird.
Was aber nicht stimmt da die zusätzlich gemessenen Frames in 4k bei 1% liegen was als Messungenauigkeit durchgehen kann.
 
Zurück