News Umfrage: Hat der AM5 eine Chance gegen den übermächtigen AM4? Wo landet Intel?

Besitze 2 x AM4 Plattformen mit einmal X470/B550 Chipsatz.Werde diese auch sicherlich noch einige Jahre weiternutzen,solange die Leistung für meine zwecke ausreichend ist und der Umwelt zuliebe.Muß nicht immer der letzte Schrei sein und muß nicht " immer " mit max.mögliche Leistung haben.;)
 
Da scheint etwas tief in so mancher Psyche eingraviert zu sein, immer das Neuste haben zu müssen.

Wenn man genau weiss, dass es keinen relevanten Interschied machen wird aber trotzdem nicht nein sagen kann ist es bedenklich.

Nein, "Das ist mein einziges Hobby im Leben" und "Andere geben viel mehr Geld aus (beim Pferderennen/Autosammlung)" ist nichts was dem einen anderen Drall gibt.
Bedenklich und etwas anstrengend finde ich immer erst die kognitive Dissonanz, die entsteht, wenn "ich muss immer das neueste haben", "das neueste bringt nicht genug" und/oder "das neueste ist zu teuer" aufeinandertreffen.
Ziemliche Tapete an Auswahlmöglichkeiten. Über die starke AMD Dominanz bin ich doch überrascht.
Man ist halt informiert. Im Gamingbereich scheinen AMD-CPUs ja auch allgemein etwas an Fahrt aufzunehmen. Man findet die schon vergleichsweise häufig auch in Komplettsystemen.
Ich hab mir sogar die Option geschaffen, mit Profilen schnell zwischen "3,6 GHz 1V allcore" und "Boost" (was in spielen ~4,9 GHz auf Einzelkernen sind) umzuschalten weil ich dachte die "Kodiersettings" sind für Spiele dann doch zu mager aber...
So was ist mir heute einfach zu umständlich. Die Automatiken funktionieren auch einfach zu gut. Vielleicht kann man den Spannungsoffset nicht ganz so weit senken, aber ansonsten würde ein Powerlimit ja zum gleichen Ergebnis führen: Last auf einem Kern, ein Kern taktet hoch; Last auf allen Kernen, alle Kerne takten irgendwo in die Mitte. Oder hast du da gravierend andere Erfahrungen? Wenn du natürlich eh nie umstellen musst, spielt es natürlich auch irgendwie wieder keine Rolle. ;)
 
Mal zum Psychologen gehen der kann sicher helfen :daumen:. Davon mal ab kann ich mir nicht vorstellen das sich einer der von Bürgergeld leben muss einen 5800X3D leisten kann der kostet immerhin noch 289€ im besten Falle :rollen::wall:.
Willst du Clown mir erzählen wann ich zum Psychologen gehen sollte oder nicht?
Ich arbeite auch Beruflich mit vielen BG Empfängern zusammen und ich hab auch den einen oder anderen im Bekanntenkreis der BG empfängt. Mag ja sein das das in der Stadt evtl. anders ist, aber von den Jungs hat eigentlich jeder nen X3D oder ne PS5 oder sonstwas.
Und ich persönlich denke nun mal so, ich kauf immer die großen Editionen, sei es CPU oder Ipad, Auto oder sonstwas.
Für mich persönlich fühlt sich ein Ryzen 7 minderwertig an und deshalb will ich den wieder los werden, punkt.
 
Willst du Clown mir erzählen wann ich zum Psychologen gehen sollte oder nicht?
Ich arbeite auch Beruflich mit vielen BG Empfängern zusammen und ich hab auch den einen oder anderen im Bekanntenkreis der BG empfängt. Mag ja sein das das in der Stadt evtl. anders ist, aber von den Jungs hat eigentlich jeder nen X3D oder ne PS5 oder sonstwas.
Und ich persönlich denke nun mal so, ich kauf immer die großen Editionen, sei es CPU oder Ipad, Auto oder sonstwas.
Für mich persönlich fühlt sich ein Ryzen 7 minderwertig an und deshalb will ich den wieder los werden, punkt.
Der Clown hier bist wohl einzig und alleine du oder vielleicht auch nur jemand mit Minderwertigkeitskomplexen der das mir großen CPU`s ein wenig versucht zu kompensieren :ugly:. Das Phänomen kennt man ja überings auch bei den Autos :D.
 
So was ist mir heute einfach zu umständlich. Die Automatiken funktionieren auch einfach zu gut.
Ich benutze ja die Automatiken^^

Im BIOS hab ich nur einmal die Parameter für PPT, EDC, TDC usw. eingestellt - sprich der "Normalmodus" ist einfach der etwas getunte Werksboost. Das 3600MHz-profil ist einfach nur Windows-Energiesparen. :-P
Den Energiesparmodus habe ich einfach genau eingestellt wie "Ausbalanciert" mit Ausnahmen:
-Maximale Prozessorfrequenz einstellen (die 3680 deswegen weils dann real 3600 sind, woher der Offset kommt weiß ich nicht... Windows halt...)
-Minimaler Zustand auf 100% (verhindert extrem träges Ansprechen weil Kerne nicht runtergetaktet werden - abgeschaltet (C6) werden sie aber sehr wohl, sprich Idle-Verbrauch ist unverändert niedrig)
1691239215679.png


Alles andere (etwa absenken auf 1V) macht die Automatik selbst. Das Menü Energieoptionen hab ich dann als Symbol aufm Desktop:
1691239392691.png


Ergebnis: Ich kann mit drei Mausklicks beliebig zwischen allcore 3,6 und Werksboost auf 5 GHz umschalten.

Die Automatiken funktioniern zwar gut, kennen aber deinen Bedarf nicht. Automatik verbraucht halt bei mir imer viel mehr als nötig weil sie beim arbeiten nicht "weiß", dass mir 20 Minuten mehr egal sind.
Und beim Spielen... ich kann Diablo4 spielen mit 40W CPU-Verbrauch bei 3,6 GHz was 100fps (cap) locker hält oder ich kann die Automatik in den Boost lassen... dann habe ich die selben 100 fps nur mit 4,8 GHz und 80W. :ka:
 
Wie gesagt ich hab mich ja selber gewundert dass ichs praktisch nie brauche. Es kommt fast nie vor, dss ich die Singlecore-Performance brauche (oder will) und den Boost einschalte. Ist hier wirklich so dass die CPU 99% der zeit auf 3,6 läuft weil einfach alles super läuft. Eigentlich hab ichs nur hier und da mal an für nen neuen benchmark zu probieren
:haha:

EDIT... nur mal zum Spaß...
3,6 GHz, ~100W:
1691240134267.png


4,x GHz, 150W PPT-Limit (Boost):
1691240167825.png


...keine 10% Unterschied. :fresse:
 
Zuletzt bearbeitet:
Wie gesagt ich hab mich ja selber gewundert dass ichs praktisch nie brauche. Es kommt fast nie vor, dss ich die Singlecore-Performance brauche (oder will) und den Boost einschalte. Ist hier wirklich so dass die CPU 99% der zeit auf 3,6 läuft weil einfach alles super läuft. Eigentlich hab ichs nur hier und da mal an für nen neuen benchmark zu probieren
Ich habe auch so meine Zweifel, ob das wirklich nötig ist, dass eine CPU gleich alles, was ins Powerlimit passt in die CPU ballert, sobald der User mal irgendwo hinklickt, damit das ganze responsiv genug ist. Das Ding ist ja auch mit 3,6GHz pro Kern nicht lahm.
...keine 10% Unterschied. :fresse:
Das ist schon krass, dass 50% Mehrleistungsaufnahme so wenig bringen. Aber genau deswegen sind CPUs mit vielen Kernen ja potenziell so effizient.
 
Der Vollständigkeit wegen:
Ich selbst habe bei mir daheim 3 AM4-Rechner/Server, 2 Ryzen BGA Notebooks, und ein Intel BGA notebook.
Keines davon hat DDR5. Außerdem liegen hier noch einige Komponenten, die nur in AM4/DDR4-Slots passen. Damit ich upgrade, müssen schon ein paar Jahre noch ins Land gehen. Das eine System hat 128GiB RAM und 16 Kerne - also das wird definitiv nicht so schnell getauscht werden. Edit: Insgesamt habe ich über alle Rechner gerechnet über 300GiB DDR4! RAM im Einsatz und 52 Ryzen-Kerne hier "rumliegen", also über 100 Ryzen-Threads, die nicht AM5-kompatibel sind.
 
Zuletzt bearbeitet:
Insgesamt habe ich über alle Rechner gerechnet über 300GiB DDR4! RAM im Einsatz und 52 Ryzen-Kerne hier "rumliegen", also über 100 Ryzen-Threads, die nicht AM5-kompatibel sind.
Was zum Henker treibst du? ;)
Oft bietet sich ja an, einfach den alten Hauptrechner in so einer Form noch mal weiterzuverwenden, so kann man sich ein Upgrade ja auch schönreden. Aber wenn man so ein Volumen braucht, gelten vielleicht andere Regeln.
 
Ist bei mir Videokompression, im Wesentlichen die x265.exe.
Bei hochauflösendem Material (heutzutage filmt ja jeder in 4K...) in starken Kodiereinstellungen lastet das 32 Threads dauerhaft zwischen 95 und 100% aus - und mir ists völlig wurscht ob das Ding jetzt 5 Stunden mit 4 GHz (und 150+W) läuft oder 5h und 20 Minuten mit 3,6 GHz (und ~100W).
Ich hab mir sogar die Option geschaffen, mit Profilen schnell zwischen "3,6 GHz 1V allcore" und "Boost" (was in spielen ~4,9 GHz auf Einzelkernen sind) umzuschalten weil ich dachte die "Kodiersettings" sind für Spiele dann doch zu mager aber... ich habs nicht benutzt weil DeadSpace, Control, God of War, Witcher3, Diablo4 und alles was ich sonst gespielt hab nie ein CPU-Leistungsproblem hatte... wenn ich weniger fps hatte als mein Bildschirm Hz war immer die GPU bei 99% Last.

Klar, wenn man Zeit hat, macht es nichts, wenn die CPU mal 1-2 h mehr oder länger (beim 3D-Rendering) braucht. Wenn das bei Videokompression gar nur 20 Min. ausmacht, dann fällt das ja nicht weiter ins Gewicht.

Die von dir genannten Spiele sind ja auch mehr GPU-lastig. Aber manuell umschalten, wenn das doch das System ganz gut automatisch regelt? Wenn, würde ich das eher so machen: für das Komprimieren eben deine low Settings und zum Zocken dann Standard.
 
Was zum Henker treibst du? ;)
Oft bietet sich ja an, einfach den alten Hauptrechner in so einer Form noch mal weiterzuverwenden, so kann man sich ein Upgrade ja auch schönreden. Aber wenn man so ein Volumen braucht, gelten vielleicht andere Regeln.
Das ist teils professionell im Einsatz. Und teils leider auch einfach nur redundant, weil die Systeme getrennt laufen müssen. Hat mit VMs, Datenbanken und langen Berechnungen zu tun.
Edit: Darüber hinaus sind da noch 26 ARM-Kerne auf 6 Mini-Rechnern und 4 RISC V-Kerne bei mir zu Hause :)
 
Auf meinem X370 AM4 Board ist mit dem 5800X3D der inzwischen dritte Prozessor verbaut. Das einzige was schade ist, ist das fehlen von PCIe 4.0 auch wenn das nicht so viel Unterschied ist bei voller Anbindung der GPU. Aber bei mir ist das wie ein Stachel im fleisch wenn ich weiß, dass die GPU eigentlich mehr könnte. Und wenn es nur ein paar Prozent sind ^^
 
Auf meinem X370 AM4 Board ist mit dem 5800X3D der inzwischen dritte Prozessor verbaut. Das einzige was schade ist, ist das fehlen von PCIe 4.0 auch wenn das nicht so viel Unterschied ist bei voller Anbindung der GPU. Aber bei mir ist das wie ein Stachel im fleisch wenn ich weiß, dass die GPU eigentlich mehr könnte. Und wenn es nur ein paar Prozent sind ^^
Irre dich da nicht. In der aktuellen PCGH ist ein Vergleich von pci3.0 und 4.0, auch mit x16 angebundenen GPUs.
Je nach Spiel, GPU und Einstellungen kannst du bis zu 24% Leistung verlieren. Wobei die Regel natürlich ehr im Bereich von <5% liegt
 
Irre dich da nicht. In der aktuellen PCGH ist ein Vergleich von pci3.0 und 4.0, auch mit x16 angebundenen GPUs.
Je nach Spiel, GPU und Einstellungen kannst du bis zu 24% Leistung verlieren. Wobei die Regel natürlich ehr im Bereich von <5% liegt
Das war aber meiner Ansicht nach weitestgehend ein Test dafür, dass 8GB Speicher in den Einstellungen in den Spielen knapp sind. In diesem Grenzbereich kann PCIe 4.0 bzw. eine Verdopplung der Lanes bei einer geringfügigen Überbelegung noch etwas retten und da kommt man mit mehr Bandbreite halt ein kleines Stück weiter. Sieht man schön daran, dass der Effekt bei den 12-GB-Karten fast nicht auftritt. Nur die 4070 zeigt merkwürdige Ausreißer bei Cyberpunk mit FG und Diablo 4 mit DLSS ohne FG. Steigt die Belegung noch ein kleines bisschen weiter, sollte der relative Unterschied zwar wachsen, aber die Leistung auch so weit einbrechen, dass es keine Rolle mehr spielt. Da hilft nur mehr Speicher oder weniger Belegung.
 
Das war aber meiner Ansicht nach weitestgehend ein Test dafür, dass 8GB Speicher in den Einstellungen in den Spielen knapp sind. In diesem Grenzbereich kann PCIe 4.0 bzw. eine Verdopplung der Lanes bei einer geringfügigen Überbelegung noch etwas retten und da kommt man mit mehr Bandbreite halt ein kleines Stück weiter. Sieht man schön daran, dass der Effekt bei den 12-GB-Karten fast nicht auftritt. Nur die 4070 zeigt merkwürdige Ausreißer bei Cyberpunk mit FG und Diablo 4 mit DLSS ohne FG. Steigt die Belegung noch ein kleines bisschen weiter, sollte der relative Unterschied zwar wachsen, aber die Leistung auch so weit einbrechen, dass es keine Rolle mehr spielt. Da hilft nur mehr Speicher oder weniger Belegung.
Du sagst es. Die 4070 ist betroffen.
Und ebenfalls 8GiB Karten. Aber das habe ich nie negiert. Meine Aussage war eben "je nach GPU und Spiel" und das trifft zu, hast du ja bestätigt ^^
4070 + 8 Gib Karten in diesem Test. Wäre interessant ob die 4080 auch betroffen ist wie die 4070
 
Du sagst es. Die 4070 ist betroffen.
Und ebenfalls 8GiB Karten. Aber das habe ich nie negiert. Meine Aussage war eben "je nach GPU und Spiel" und das trifft zu, hast du ja bestätigt ^^
Ich wollte damit sagen, dass es wenn PCIe einen Unterschied macht, nicht die höchste Priorität sein sollte, sein Mainboard auszutauschen. Der Vorteil würde nur selten wirken und sich auch schnell abnutzen. Sobald Spiele noch mal etwas mehr Speicher wollen, hilft das nämlich auch nicht mehr.
4070 + 8 Gib Karten in diesem Test. Wäre interessant ob die 4080 auch betroffen ist wie die 4070
Vor allem wäre interessant zu wissen, woran es liegt. Gerade, dass FG bei Cyberpunk rumzickt und bei Diablo den Unterschied ausbügelt und sich die 6750XT daneben völlig unbeeindruckt davon zeigt, wirkt merkwürdig. Wobei Cyberpunk da bezüglich der Radeon eventuell wenig Aussagekraft hat, da die in dem Test dank PT eh völlig überfordert ist.
 
Zurück