CPU EDC Wert Bedeutung Normaler Wert?

wenn ich Blend auswähle und bei Small FFTS auswähle, denn wiederum nicht.
Weil Blend deutlich wenig CPU Last erzeugt als Small FFTs. Bei letzterem kann die CPU, wie bereits erwähnt, in eines der Limits laufen(PPT, EDC, TDC) oder das Temperatur Limit wird erreicht und die CPU verringert daher dann den Boosttakt.

Dein CPU Kühler
kommt da vll. an seine Grenzen.
 
Weil Blend deutlich wenig CPU Last erzeugt als Small FFTs. Bei letzterem kann die CPU, wie bereits erwähnt, in eines der Limits laufen(PPT, EDC, TDC) oder das Temperatur Limit wird erreicht und die CPU verringert daher dann den Boosttakt.

Dein CPU Kühler

kommt da vll. an seine Grenzen.
Sollte man dem Beachtung schenken und kann man da ignorieren, weil beim Zocken taktet nichts runter?

Man führt diese Benchmarks ja nicht in Dauerschleife aus.
 
Wenn beim Zocken für dich alles läuft, dann kannst du das getrost ignorieren.

Zumal halt der größte Flaschenhals immer noch deine Grafikkarte bleibt, ob die CPU dann nun 95% oder doch 100% Leistung beim Zocken hat, wirst du mit der GTX 1050Ti nicht groß bemerken ^^
 
Wenn beim Zocken für dich alles läuft, dann kannst du das getrost ignorieren.

Zumal halt der größte Flaschenhals immer noch deine Grafikkarte bleibt, ob die CPU dann nun 95% oder doch 100% Leistung beim Zocken hat, wirst du mit der GTX 1050Ti nicht groß bemerken ^^
anbei Hwinfo unter Prime 95 Scrennshot
Zumal halt der größte Flaschenhals immer noch deine Grafikkarte bleibt, ob die CPU dann nun 95% oder doch 100% Leistung beim Zocken hat, wirst du mit der GTX 1050Ti nicht groß bemerken ^^

Das Verstehe ich nicht ganz heißt das das mit einer neuen GPU das alles noch einmal schlechter ausfallen könnte das ich das beim zocken das merke das die CPU nicht richtig taktet ?
 

Anhänge

  • Hwinfo Temperatur Last Prime 95.png
    Hwinfo Temperatur Last Prime 95.png
    306,9 KB · Aufrufe: 22
  • Ryzen Master last Prime.png
    Ryzen Master last Prime.png
    1,4 MB · Aufrufe: 17
  • Prime 95 takt1.png
    Prime 95 takt1.png
    509,2 KB · Aufrufe: 19
Zuletzt bearbeitet von einem Moderator:
Die screenshots sehen für mich normal aus.

Das Verstehe ich nicht ganz heißt das das mit einer neuen GPU das alles noch einmal schlechter ausfallen könnte das ich das beim zocken das merke das die CPU nicht richtig taktet ?
Nein, eher im Gegenteil, je nach Spiel.
Die CPU taktet übrigens eigentlich immer richtig, da alle modernen CPUs da extrem clevere Automatismen/Mechaniken haben.
Bei dir muss die CPU einfach nicht so hoch takten, wie sie könnte, wenn die Grafikkarte/das Spiel eben nicht genug Leistung anfordert.
Für manche Games reicht es schon, wenn nur 1-2 Kerne so um die 3GHz takten, damit alles läuft. :ka:
 
Die screenshots sehen für mich normal aus.


Nein, eher im Gegenteil, je nach Spiel.
Die CPU taktet übrigens eigentlich immer richtig, da alle modernen CPUs da extrem clevere Automatismen/Mechaniken haben.
Bei dir muss die CPU einfach nicht so hoch takten, wie sie könnte, wenn die Grafikkarte/das Spiel eben nicht genug Leistung anfordert.
Für manche Games reicht es schon, wenn nur 1-2 Kerne so um die 3GHz takten, damit alles läuft. :ka:
Ok langsam verstehe ich das also, mit einer neuen GPU würden denn, die auch die CPU höher Takten oh Mann, ich bin, auch schwer von Begriff das ist alles Neuland für mich.

Also würdest du sagen er taktet Richtig unter Last bei Prime 95 ?
 
mit einer neuen GPU würden denn, die auch die CPU höher Takten
Wahrscheinlich schon, da eine stärkere GPU meistens auch mehr Leistung bei der CPU abfordert.
Also würdest du sagen er taktet Richtig unter Last bei Prime 95 ?
Sieht für mich so aus. 3,9GHz Takt auf allen Kernen ist eigentlich genau das, was man da erwarten darf.

Es gibt ja auch heutzutage auch immer noch den Unterschied zwischen "singlecoreboost" und "allcoreboost" ;)
Die Taktrate kann, wenn alle Kerne gleichermaßen ausgelastet werden, nicht so hoch gehen, wie, wenn nur ein einzelner Kern Rechnen muss.
 
Wahrscheinlich schon, da eine stärkere GPU meistens auch mehr Leistung bei der CPU abfordert.

Sieht für mich so aus. 3,9GHz Takt auf allen Kernen ist eigentlich genau das, was man da erwarten darf.

Es gibt ja auch heutzutage auch immer noch den Unterschied zwischen "singlecoreboost" und "allcoreboost" ;)
Die Taktrate kann, wenn alle Kerne gleichermaßen ausgelastet werden, nicht so hoch gehen, wie, wenn nur ein einzelner Kern Rechnen muss.
Ok denn Danke ich dir oh Mann ist das alles Kompliziert.
 
Ja, ist es :ugly:

Was meinst du, warum PCGH.de (und deren Mitbewerber) so viele Fachredakteure haben :D

Aber hier im Forum bist du bestens aufgehoben für weitere Fragen :daumen:
 
Ja, ist es :ugly:

Was meinst du, warum PCGH.de (und deren Mitbewerber) so viele Fachredakteure haben :D

Aber hier im Forum bist du bestens aufgehoben für weitere Fragen :daumen:

So also muss eine neue GPU her, mir wurde zwar eine 3060 empfohlen, aber das gibt mein Budget nicht her.

Nun habe ich die Wahl zwischen der RTX 3050 und der RX 6600 nun ist die RX 6600 um einiges schneller.

Aber muss zugeben, dass ich mich zu Nvidia eher hingezogen fühlen.

Habe bevor ich mit die 1050 Ti gekauft, etliche AMD Karten ausprobiert und nur Probleme gehabt nach der 3 habe ich mir dann die 1050 Ti gekauft.

Die Frage wäre, wie verhält sich es zum Thema Bottleneck. Welche der beiden Karte wäre besser für Ryzen 5 5500 geeignet?

Würde es sich lohnen, auf den Black Friday zu warten?
 
Welche der beiden Karte wäre besser für Ryzen 5 5500 geeignet?
Immer die schnellere, also in diesem Fall die RX 6600 :D
Grafikpower kann man nie genug haben, da man diese immer in ein besseres Bild und höhere Qualität umwandeln kann.

Würde es sich lohnen, auf den Black Friday zu warten?
Höchstwahrscheinlich nicht, aber das kann auch niemand im voraus sagen.

etliche AMD Karten ausprobiert und nur Probleme gehabt
Falls du mit deiner zukünftigen RX 6600 auch Probleme haben solltest, sind wir natürlich für dich da ;)
 
Ok denn wird es wohl die RX 6600 werden nun habe ich aber gelesen das die Grafikkarte PCIE 4.0 besitzt das hat mein Mainboard(Gigabyte b450m Gaming X) ja aber die CPU der Ryzen 5 5000 unterstützt nur PCIE 3.0.

Würde das denn bedeuten die Karte läuft nur mit PCIE 3.0, wenn ja wie groß ist der Unterschied denn beim Zocken?
 
das hat mein Mainboard(Gigabyte b450m Gaming X) ja aber die CPU der Ryzen 5 5000 unterstützt nur PCIE 3.0.
Nein dein Mainboard kann auch nur PCIe Gen3.
Würde das denn bedeuten die Karte läuft nur mit PCIE 3.0, wenn ja wie groß ist der Unterschied denn beim Zocken?
Ja die läuft dann nur mit PCIe Gen3. Der Performance Verlust liegt im sehr niedrigen einstelligen Prozentbereich. Ob Du nun zBsp. statt 100 nur 97 FPS hast wirst Du nicht bemerken.
 
Nein dein Mainboard kann auch nur PCIe Gen3.

Ja die läuft dann nur mit PCIe Gen3. Der Performance Verlust liegt im sehr niedrigen einstelligen Prozentbereich. Ob Du nun zBsp. statt 100 nur 97 FPS hast wirst Du nicht bemerken.
Ok na da habe ich denn was falsch interpretiert. Wäre wahrscheinlich doch besser gewesen mich vorher hier beraten zu lassen, aber habe das Forum leider erst später gefunden. Na ja, wegen 3 FPS breche ich jetzt nicht gleich in den Tränen aus.

Nun habe ich aber noch kleines Problem, wenn ich den Rechner starte, habe ich manchmal das Problem das die Desktopsymbole als Papier Format angezeigt werden oder das die Desktopsymbole klein sind mit einem rahmen, drumherum., aber starten kann ich das Spiel darüber ganz normal.

Woran kann das liegen, das war bei meinem steinalten PC auch schon, kann das mit der Grafikkarte zusammen hängen?
 
Ja die läuft dann nur mit PCIe Gen3. Der Performance Verlust liegt im sehr niedrigen einstelligen Prozentbereich. Ob Du nun zBsp. statt 100 nur 97 FPS hast wirst Du nicht bemerken.
Was im Falle einer RX 6600 zu kurz gedacht ist, denn die Karte wird über die Schnittstelle nur mit 8 Lanes angebunden. Acht PCI-E-4.0-Lanes sind an sich kein Problem, acht PCI-E-3.0-Lanes dagegen schon eher (entspricht dann PCI-E 2.0 16x, zur Verdeutlichung), insbesondere, wenn es speicherlastig wird. Die neue PCGH-Print wird sich auch noch einmal sehr ausführlich mit diesem Thema beschäftigen.
 
Was im Falle einer RX 6600 zu kurz gedacht ist, denn die Karte wird über die Schnittstelle nur mit 8 Lanes angebunden. Acht PCI-E-4.0-Lanes sind an sich kein Problem, acht PCI-E-3.0-Lanes dagegen schon eher (entspricht dann PCI-E 2.0 16x, zur Verdeutlichung), insbesondere, wenn es speicherlastig wird. Die neue PCGH-Print wird sich auch noch einmal sehr ausführlich mit diesem Thema beschäftigen.
Oh Mann, das wird immer komplizierter, würde sich denn RX 6600 lohnen

Oder den doch eher die RTX 3050 oder verhält es sich dort genauso?

Wie viel FPS hatte ich den mit der RX 6600 im Schnitt weniger?

Weil wenn ich Endeffekt mit der RTX 3050 auf dieselben FPS komme, lohnt sich das mit der RX 6600 doch nicht!
 
Krasses Thema... von der EDC über die Temperaturen der SSD und Netzteil zur GPU Kaufberatung :ugly:


@topic
Von der Rohleistung her ist die RTX 3050 deutlich langsamer als eine RX 6600.
Die RX 6600 ist im Schnitt 30% schneller.
1661632503488.png

*klick*

Wenn du durch das beschnitte PCIe interface sagen wir 10% verlierst, bist du immer noch schneller als die RTX 3050.
(@PCGH_Dave könnte ja netterweise mal einen Wert aus der neuen Print spoilern ;))

Ideal für dein System wäre mMn. die RTX 3060, aber die gibt es erst ab 380€ aufwärts aktuell.
 
Spoiler gibt es keinen, aber je nach Spiel ist PCI-E 4.0 im zweistelligen Prozentbereich schneller, das kann ich sagen. Das ist aber auch eigentlich nichts neues.
 
Ok Leute, denn werde ich mir die RX 6660 bestellen. Nun habe ich aber mal wieder eine Frage, und zwar geht es dies Mal um HDCP 2.3, was die RX 6600 hat, aber mein TV von TCL nur HDCP 2.2 hat.

Ich benutze aber im Desktop Betrieb die 4k Auflösung

Kann es sei das ich mit der neuen Grafikkarte, denn kein 4 K habe im Desktop Betrieb oder das Bild Dunkel bleibt.

Oder ist nur relevant für Kopiergeschütze, Inhalte wie Streams usw.....
 
Zurück