Ryzen 4000G: Erste Benchmarks aus Asien machen die Runde

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Ryzen 4000G: Erste Benchmarks aus Asien machen die Runde

In Asien sind die Test-Samples von Ryzen 4000G offenbar schon verfügbar und drei Seiten haben ihre Werte veröffentlicht. Eine koreanische Seite bietet ein vollständiges Review mit fast allen Schikanen wie Leistungsaufnahme, Temperatur und sogar Speicher-OC-Vorteile.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Ryzen 4000G: Erste Benchmarks aus Asien machen die Runde
 
Klingt sehr interessant, bin echt auf richtige Benches gespannt.
Das AMD durch ein schnelleren Speicher deutlich profitiert, war schon zu FX Zeiten "auch" so.
 
Nur nicht in realer Anwendung. Ich Wette du wirst keinen Unterschied merken übers Jahr hinweg, es sei denn du spielst Benchmarks. :D
Und die besseren Idle Werte musst du auch berücksichtigen.
 
Deutlich weniger, wenn man die Leistungsaufnahme (Stromverbrauch) mit einkalkuliert, dass ist doch hier immer das Hauptargument.


Bei einer K CPU ist also das Hauptargument der Verbrauch? Seid wann soll das so sein?
Seid AMD 7nm hat wahrscheinlich, den bei K CPUs ging es nie um den Verbrauch sondern um
das war der FPS Counter ausspuckt.
K CPUs kauft man sich alleine schon mit der Absicht nicht den Normalen Takt fahren zu wollen.

K CPUs waren bei mir immer Boot ab ins Bios und sofort das Einstellen was ich mir vorgestellt habe.
Deswegen kauft man K CPUs würde man sich um Verbrauch kümmern würde man keine K CPU kaufen.


Das mit TDP und CPUs kam erst mit 7nm auf als AMD Thermische TDP benutz hat gegen Intels Elektrische TDP.
Damit hat man 2 Verschiedene Methoden gehabt die das ganze deutlich ungleicher aussehen ließen als es ist.
Für 7nm ist das jetzt kein Glanzleistung von der TDP und Leistung technisch kann man sich nicht mal absetzen.


Was mir Persönlich stinkt bei AMD ist ihr Marketing wie z.b. PBO das mit Glück gerade mal so 25 Mhz mehr ermöglicht.
Oder wie Gamers Nexus sagte es passiert eigentlich gar nichts, so viele Optionen und nichts tut sich.
PBO wurde auf dem AMD Kanal stark beworben für deutlich mehr Leistung, was einfach nicht stimmte.
Das minderst wie das funktionieren sollte wäre gehe nicht mit Takt runter bis du die maximalen Temperatur erreicht hast.
Aber man hat gar keinen Einfluss auf Boost oder Allcore alles hängt von Kühlung und Spannung ab. Genau das macht aber das ganze
Bewerben von PBO absolut sinnlos, weil man nie die TDP Limits durchbrechen kann weil die anderen Normen dafür sorgen das es nicht passiert.


Bei Intel kannst einfach sagen was Limit vom Hersteller ignoriere das ganze und er macht es dann ganz einfach. Also das was AMD eigentlich
beworben hat ist bei Intel der Standard. Boost 23 Sekunden mach daraus unendlich, sowas fehlt bei AMD und das nerft mich gewaltig.
Weil sich am Bios rumspielen überhaupt nicht lohnt, was ich schon mit den ganzen Overdrive Schmarn rumgespielt habe um dann festzustellen
das es Wurst ist.


Das wäre ein Punkt den AMD ändern solltem den das es gibt mehr Cores zählt jetzt nicht mehr. 8 Kerne darunter also das was jeden Interesiert
bekommst die gleichen Kerne bei Intel. Kostet das auch noch das gleiche, dann hat Intel ganz einfach mehr Leistung wegen OC.
Außerdem ist es langweilig nach dem Zweiten Ryzen, weil man genau weis da geht nicht mehr wie man Stock hat.

Würde ich heute den Rechner bauen dann wäre es statt X470 und 3800X. Wohl klar ein 10700KF geworden weil ich die maximale Leistung will für mein Geld.
 
Würde ich heute den Rechner bauen dann wäre es statt X470 und 3800X. Wohl klar ein 10700KF geworden weil ich die maximale Leistung will für mein Geld.

Du hast dich verschrieben, bzw. etwas Vergessen:

Für mehr Geld, nicht nur dein Geld ;-)

Ich sehe das eher so:

All die Jahre wurde ich von Intel verarscht, für einen Buchstaben (K), (X) und (Z)einen Preisaufschlag zu zahlen damit ich das Maximum für mein Geld bekommen.

nach einem 2600K, 5820k, 7820X, 7920X, muss ich sagen hat AMD klar die Schlacht für sich entschieden die letzten 2 Jahre.
 
Zuletzt bearbeitet:
220€vielleicht nicht, aber 100-120€ beim 3700X sind schon gerechtfertigt. Und wer mehr Rechenzeit zur Verfügung hat profitiert auch aktuell schon davon oder wird es in naher Zukunft (<5 Jahre) können. Wir Spieler sind aber nicht wirklich die Zielgruppe, da dort die Hardware idR. schnell durch gewechselt wird. Ich werde meinen 3700X wahrscheinlich noch die kommende GPU-Generation nutzen und in 1-2 Jahren wird er ausgetauscht, bevor die Vorteile von 8/16 wirklich zum Tragen kommen.
 
Bei AMD geht es derzeit wirklich Schlag auf Schlag. Da bin ich ja gespannt auf die neuen GPU`s. AMD oder Nvidia. Wer greift sich die Performance Krone und wer hat das besser Watt/Leistungsverhältnis ? Und wie performed Raytracing auf den neuen AMD/Nvidia Karten ?
 
Du hast dich verschrieben, bzw. etwas Vergessen:

Für mehr Geld, nicht nur dein Geld ;-)

Ich sehe das eher so:

All die Jahre wurde ich von Intel verarscht, für einen Buchstaben (K), (X) und (Z)einen Preisaufschlag zu zahlen damit ich das Maximum für mein Geld bekommen.

nach einem 2600K, 5820k, 7820X, 7920X, muss ich sagen hat AMD klar die Schlacht für sich entschieden die letzten 2 Jahre.



Dein Unmut kann ich nachvollziehen. Ohne Konkurenz hatte Intel "Marktwirtschaftlich" keinen Grund mehr Leistung für weniger Geld zu verkaufen.

Intel ist ein Unternehmen und die Aktionäre wollen nun mal maximal Gewinn sehen, egal wie. Da juckt es niemanden ob du für jedes Upgrade 50% mehr zahlts und nur 10% mehr Leistung erhältst.

Die Athlon 64 Prozessoren hatten bis zur Intel Core Architektur dominiert und auch soviel gekostet.

Daher ist die Gewinnmaximierung als einzigstes Ziel ist tötlich für Natur und Mensch.
 
Aufgrund der integrierten Grafikeinheit, müsste man den G Versionen eigentlich den Vortritt lassen , die paar Prozent sind gut zu verkraften, wenn man dafür noch eine integrierte Grafikeinheit bekommt.
 
Leistung ist immer relativ, 362€ (10700KF) vs 160€ (R5 3600) um mal ein Beispiel zu nennen. Der 3600 ist nicht schlechter, bzw. den Leistungsunterschied kannst an einer Hand abzählen obwohl der 10700KF 2 Kerne mehr hat. In Spielen bringt der 10700KF vielleicht 5-10 fps mehr, dafür zahlst du aber auch 220€ drauf.

Mein 3600, siehe Signatur
Screenshot-20200705-095301-com-sec-android-app-sbrowser &#8212; ImgBB
Screenshot-20200705-095308-com-sec-android-app-sbrowser &#8212; ImgBB

Du willst mir doch nicht ernsthaft erzählen, dass du 220€ Aufpreis damit rechtfertigst?

Dazu kommt, dass man für die 220€ Aufpreis beim Ryzen halt noch ein Board/ Ram dazu bekommst und wenn du etwas auf das Budget achtest immer noch günstiger bist... Für nen reinen Zocker/Office PC, sollte man dann lieber in die Graka investieren...
 
Kann mich mal jemand darüber aufklären, wieso man für ein Benchmark-Test eine Low/Mid-Range Karte wie die GTX 1660 nutzt ?
Wenn alle 3 Intel-CPUs den gleichen Wert erreichen, sieht das so aus, als ob da die GPU limitiert.
 
Schon schöne Hardware Stücke. Aber AMD zeigt damit auch, dass es eine CPU mit GPU nicht zwingend in der Lage sein muss.

Ich würde mir mal eine GPU Wünschen mit ein paar RDNA2 CUs und vllt 4GiB HBM2 Speicher und fertig. Dann hat man eine gute GPU, der genug Speicher gegeben und hat dann alles in einem Paket was wirklich jedes Spiel kann. Zwar nicht auf höchste, dafür ist so ein Gerät nicht da, aber auf jeden Fall sehr gut Zockbar. Der 3400G stößt langsam wieder an seine Grenzen, was ich schade finde.

Kann mich mal jemand darüber aufklären, wieso man für ein Benchmark-Test eine Low/Mid-Range Karte wie die GTX 1660 nutzt ?
Wenn alle 3 Intel-CPUs den gleichen Wert erreichen, sieht das so aus, als ob da die GPU limitiert.

Weil man eben realistisch testen will und nichts an den Haaren herbei gezogenes. So kann man sehen wie gut sich die CPUs unter realen Bedingungen Schlagen und nicht wie in 720p, wo keiner mehr drauf zockt und es am Ende auch keine Infos draus heraus gibt. Ja, ich weiß warum man 720p Tests macht, es macht aber keinen Sinn, wenn man eh im GPU Limit zockt.

Ob 3600 oder 10900K spielt keine Rolle, wenn am Ende die GPU das Limit vorgibt. Am Ende ist eh am sinnvollsten, wenn man gescheit kombiniert und nicht einen 3300X eine 2080TI vor setzt und der andere ein 10900K hat mit 5500XT.
 
Und genau deswegen ist der erste Test Blödsinn. Denn die Spiele unterscheiden sich im CPU-Bedarf, wenn 2/3 aller Testprobanten im GPU-Limit wie abgebildet hängen, ist die Aussage doch so gut wie sinnlos. Das ist auch nicht realistisch, mit einer GTX 1660 Karte zu testen - benutzt Du ja wohl offensichtlich auch nicht (sondern eine RX 5700XT). Der gleiche Test mit 720p und einer schnelleren Karte würde sicherlich mehr Unterschiede zwischen den CPUs zeigen.
 
Zurück