• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

AMD Zen 5 angeblich mit Antwort auf Intels Big-Little-Vorstoß

Rollora

Kokü-Junkie (m/w)
Das ist nichts weiter als Öko-Selbstdarstellung. Seht her, ich verbrauche weniger Strom, wenn mein Laptop weniger macht.
Ja mein Laptop braucht weniger Strom, deshalb ist er leichter, leiser, hat längere Akkulaufzeiten... was hat das mit Öko-Selbstdarstellung zu tun?
Was soll ein Gamer dazu sagen? Seht her, ich hab beim Zocken 4 Kerne die hätte ich mir auch sparen können? So eine Art Intel HD Graphics 2.0?
Ich muss da 2 Denkanstöße einwerfen. Erstens sind beim PC Kauf die Gamer eine absolute Randgruppe, also warum soll es um uns alleine gehen? Die Millionen von Büro-PCs profitieren natürlich schon davon, auch von der Intel HD Graphics ;)
Zweitens: mehr Kerne oder Leistung sind nie schlecht, die Frage ist halt ob und wie Spiele das nutzen. Auch die iGPU die in fast allen Intel CPUs schlummert ist eigentlich sehr gut - nur halt nicht fürs Highend- Gaming.
Aber auch in Highend-Gaming wäre die Leistung der iGPU in den CPUs/APUs durchaus sinnvoll zu nutzen, wenn die Hersteller dies wollten. OpenCL Beschleunigung und Co gibts nicht erst seit gestern, im Prinzip kann man die iGPU also zur Physik oder KI Beschleunigung verwenden, während sich die Grafikkarte eben nur um die Grafik kümmert - aber das wird halt leider nicht gemacht.

Am Ende vom Tag dient das nur dazu dass Ryzen 3 und Ryzen 5 CPUs mit dem Schrott verwässert werden und sich AMD die "Gaming" Variante der CPUs mit nur schnellen Cores mit Aufpreisen bezahlen lässt die in keiner Relation stehen.
Gerade die AMD CPUs haben einen höheren Idle-Verbrauch aufgrund von IF https://www.anandtech.com/show/13124/the-amd-threadripper-2990wx-and-2950x-review/4 .
Es ist im Desktop zwar egal aber woanders kann das natürlich Sinnvoll sein.
 

MTMnet

Freizeitschrauber(in)
Im PC warte ich auf 8 "kleine" Kerne bis 5,3 GHz und 2 "große" Special Turbo Kerne bis 6 GHz... :schief:

..
 

belle

PCGH-Community-Veteran(in)
Psst, nicht so laut, du könntest damit die "Glorious PC Gaming Masterrace" kränken.
Am PC zweifelt man eben noch ob diese Art von Prozessoraufbau überhaupt am Desktop einen sinnvollen Nutzen hätte.
Bei Tablets, Notebooks und kleinen Wohnzimmer-PCs mag das sinnvoll sein, aber am Gaming-PC mit 8 oder 12 Kernen plus Hyperthreading und mehr mag der Nutzen abgesehen von der Software begrenzt sein.
 

Don-71

PCGHX-HWbot-Member (m/w)
Gerade die AMD CPUs haben einen höheren Idle-Verbrauch aufgrund von IF https://www.anandtech.com/show/13124/the-amd-threadripper-2990wx-and-2950x-review/4 .
Es ist im Desktop zwar egal aber woanders kann das natürlich Sinnvoll sein.
Diese Aussage ist falsch!
Ein Ryzen 9 5950X mit einem B550 Chipsatz, liegt im Idle gleichauf mit dem sparsamsten Intel!

Wie CB sehr schön gezeigt hat, liegt das ausschließlich daran welchen Chipsatz man bei AMD im Desktop (B Chipsatz oder X Chipsatz) benutzt, und bei der Notebook Riege (APU) zeigt AMD schon seit dem Ryzen 4000 sämtlichen Intels die Rücklichter in Sachen Akkulaufzeit!
 

PCGH_Torsten

Redaktion
Teammitglied
Diese Aussage ist falsch!
Ein Ryzen 9 5950X mit einem B550 Chipsatz, liegt im Idle gleichauf mit dem sparsamsten Intel!

Wie CB sehr schön gezeigt hat, liegt das ausschließlich daran welchen Chipsatz man bei AMD im Desktop (B Chipsatz oder X Chipsatz) benutzt, und bei der Notebook Riege (APU) zeigt AMD schon seit dem Ryzen 4000 sämtlichen Intels die Rücklichter in Sachen Akkulaufzeit!

Die von Computerbase aufgezeigten Unterschiede hängen nur teilweise am I/O-Hub. Zwischen B550 und X570 sollten 4-6 W liegen, keine 14 W. Aber zwischen verschiedenen Mainboards, selbst mit gleichem I/O-Hub, können 20 W und mehr liegen. Die B550-Spanne im PCGH-Leerlauf-Test reicht derzeit von 51,5 W (Strix B550-I) bis 76,7 W (N7 B550, Test erscheint in der 06/21) und beim X570 sind es 58,9 W (Aorus Elite) bis 80,6 W (Aorus Extreme). Die restliche Ausstattung und zum Teil auch das UEFI/CPU-Spannungsvariationen haben einen viel größeren Einfluss auf den Verbrauch als das kleine Chipchen in der Mitte, auch das rund 6 W zwischen den genannten Minima und Maxima liegen, ist eher ein glücklicher Zufall. Entsprechend kann man aus Leerlaufsystemverbräuchen zwischen Systemen mit verschiedenen Platinen kaum einen Rückschluss auf die Effizienz der CPUs bei geringer Auslastung ziehen.
 

Bärenmarke

Software-Overclocker(in)
Gerade die AMD CPUs haben einen höheren Idle-Verbrauch aufgrund von IF https://www.anandtech.com/show/13124/the-amd-threadripper-2990wx-and-2950x-review/4 .
Es ist im Desktop zwar egal aber woanders kann das natürlich Sinnvoll sein.

Wer einen Threadripper kauft und den dann ideln lässt macht was falsch! Außerdem unterschlägst du die Tatsache, dass AMD im Notebooksegment doch auch auf Monolithen setzt ;-)
Das Problem besteht also nur bei den Desktop Ryzens, Threadrippern und Epycs. Letzte beiden sind eher nicht so oft im Idle, von daher sehe ich da keine große Problematik.
 

Pu244

Lötkolbengott/-göttin
Bezweifle den direkten Durchbruch dieser Technologie. Ist wohl eher interessant für stromsparende Laptops, Tablets mit "billigen" Prozessoren.

Da Laptops den Großteil dieser Klasse stellen, wird es sich wohl quasi sofort durchsetzen. Intel hat es ja schon mit seinen IGPs so gemacht. Die waren eindeutig für die Laptops bestimmt, auf dem Desktop wurden die eben mitgeliefert, weil man nicht noch extra CPUs ohne IGPs fertigen wollte.

Auf lange Sicht wird es sicher Bedarf geben an z.B. 8/16 schnellen und 8/16 langsamen Kernen. Aber wenn man sich anschaut wie sparsam schon jetzt Prozessoren arbeiten wenn die runter takten, glaube ich nicht das es so wahnsinnig viel bringen wird. Bis das eine ausgereifte Technologie mit wirklichem Nutzen wird, vergehen noch viele Jahre.

Da der Bedarf bei den Laptops da ist und bei den Komplett PC Herstellern die EU Energiesparrichtline kneift, wird sich das ganze wohl, wie gesagt, sofort durchsetzen. Gamer sind einfach eine winzige Minderheit, die nicht wirklich interessiert.

Am PC zweifelt man eben noch ob diese Art von Prozessoraufbau überhaupt am Desktop einen sinnvollen Nutzen hätte.
Bei Tablets, Notebooks und kleinen Wohnzimmer-PCs mag das sinnvoll sein, aber am Gaming-PC mit 8 oder 12 Kernen plus Hyperthreading und mehr mag der Nutzen abgesehen von der Software begrenzt sein.

Ich sehe das einfach als netten Bonus, so wie die IGPs bei den Core i CPUs. So haben die CPUs dann einfach etwas mehr Leistung und verbrauchen weniger Strom, beides ist doch rundum positiv.

Wer einen Threadripper kauft und den dann ideln lässt macht was falsch!

Auch eine Workstation gurkt sehr oft im Leerlauf herum. Von daher kann stromsparen nicht schaden.

Das Problem besteht also nur bei den Desktop Ryzens, Threadrippern und Epycs. Letzte beiden sind eher nicht so oft im Idle, von daher sehe ich da keine große Problematik.

Bei einfachen Servern dürften die CPUs wohl sehr oft, bis die meiste Zeit, im Leerlauf herumgeistern. Die müssen die Leistung bereithalten, das bedeutet aber nicht, dass diese auch dauernd abgefragt wird. Auch bei Workstations wird sehr oft mit wenig Last gearbeitet, die Last liegt dann nur an, wenn sie gebraucht wird, etwa beim Videokomprimieren, Kompilieren usw.

Das einzige große Feld, bei dem die Leistung fast dauerhaft gebraucht werden dürfte, sollten Supercomputer sein.
 

BxBender

BIOS-Overclocker(in)
Bei einem PC ist das so. Schaue aber mal auf die Masse aller PCs und das vorhandene Einsparpotential!

Wie meinst du das?
Das die Weltbevölkerung dadurch insgesamt ein Kohlekraftwerk einsparen kann?
Dann sollen die Leute erst einmal allgemein anfangen überall zu reduzieren.
Vor allem müsste weltweit Mining unter Strafe gestellt werden.
Und Herstellern müssten Obergrenzen für ihre Hardwareprodukte festgelegt werden.
Es kann nicht sein, dass Grafikkarten mit 500 Watt und CPU's mit 300 Watt Verbrauch im Handel verkauft werden dürfen.
Und Gamer haben auch keine Scham, diese Produkte auch noch stark überteuert zu kaufen.

Wenn du bezogen auf einzelne große Firmen meinst, die dadurch 10 Euro Strom pro Monat einsparen könnten.
Dann greift auch hier wie oben immer noch meine Assage, dass der Prozessor wegen 5 Watt Verbrauchunterschied im normalen Office-Modus keinen wesentlichen Teil des Gesamtverbrauchs einnimmt.
Dazu verbrauchen alle restlichen Komponenten schon mehr als genug Strom.
Wenn man also im Desktopbetrieb unbedingt auf Superduperöko oder Geizhals macht, dann bei allen Komponenten, oder eben keiner.

Ich habe z.B. einen 3700X gekauft, der macht maximal 65 Watt bzw 88 Watt unter Vollast.
Hätte ich einen 11900K genommen, wäre ich bei 300 Watt in der Spitze.
Wäre mir Stromsparen jetzt extrem wichtig, wäre Leistung zweitrangig, dann wäre ich bei einem 35 Watt Modell oder so gelandet.
Aber dann darf man sich halt auch keinen übergroßen Bildschirm da hinstellen, der für sich alleine auch schon wieder 100 Watt zieht.
Und auch die Wahl des Mainboards kann mal eben schnell 15 Watt Unterschied im Verbrauch machen.
Mit einem falschen Mainboard hast du also mit einen Prozessor, der weniger verbauchen sollte, evtl. nachher nichts gespart, oder vielleicht noch mehr verbraucht, wenns blöd läuft.

Deshalb bin ich ja der Meinung, dass die kleinen Kerne im Desktopsegment sowas von unnütz sind.
Genauso unsinnig wie SSD's, RAM und HDD's, die dann in einer neuen Variante 0,5 Watt weniger verbrauchen.
Es mag schön sein, dass allgemein gespart wird.
Aber für den Nutzer bringt es nichts.
Vor allem in diesem Fall eher das Gegenteil, weil man dadurch wichtigen Platz für Leistung opfert.
Mit einem Seitenhieb verweise ich da jetzt mal auf die 3.5+0.5GB Sache mit der GTX 970.
3.5GB schneller RAM +0.5GB Schnecke.
Unnütz verschenkter Platz auf der Karte, der am Ende wahnsinnig schmerzt, wenn man die Leistung abrufen will und auch müsste.
Spätestens, wenn die großen Kerne nicht mehr ausreichen, wird man die kleinen unnützen Kerne im System verfluchen und jemandem die Pest an den Hintern wünschen.
Ich bin also definitiv der Meinung, Stromsparmechanismen im Desktopnbereich sind wichtig, müssen aber anders optimiert werden.
Und der Platz sollte nicht für Pipifax Mist ausgegeben werden, sondern für leistungsseigernde Dinge wie lieber1-2 Kerne mehr, und/oder etwas mehr Cache zur Beschleunigung.
Wie ich schon gesagt habe, finde ich es gut, wenn die im Mobilbereich so etwas einsetzen, da macht es Sinn.
Und wenn man die Möglichkeit erhält, so etwas nach Wunsch auch in seiner kleinen Desktop bzw- Mini-PC Kiste einzubauen, ist das auch ok.
Aber man darf auf keinen Fall anfangen, komplett auf das System umzusteigen, und den Leuten, die Leistung wünschen, diese wieder zu nehmen.
Wenn also demnächst nur noch 12 statt 16 Kerner als Ryzen 8000 auf den MArkt kommen sollten, weil die letzten 4 Kerne für 5 Watt weniger Strom im Idle geopfert worden sind, dann frage ich mich ernsthaft, wer sich so etwas kaufen würde.
Oder wenn es eine Ergänzung wäre, würde ich trotzdem sagen, na dann gib mir doch lieber gleich 18 oder gar 20 dicke Kerne für meine Anwendung.
 

Pu244

Lötkolbengott/-göttin
Dann sollen die Leute erst einmal allgemein anfangen überall zu reduzieren.

Der gute alte Whataboutism.

Wenn du sagst überall, dann schließt dies auch die CPUs ein, damit wäre die Debatte eigentlich auch schon beendet.

Wie meinst du das?
Das die Weltbevölkerung dadurch insgesamt ein Kohlekraftwerk einsparen kann?

Ist wohl mehr, als nur eines und das beste daran ist: niemand muß auf irgendwas verzichten. Das sind doch eigentlich die besten Einsparmöglichkeiten. Aber dennoch wird hier herumgemeckert, warum auch immer.

Vor allem müsste weltweit Mining unter Strafe gestellt werden.

Funktioniert nach europäischem Recht wohl (glücklicherweise) nicht.

Es kann nicht sein, dass Grafikkarten mit 500 Watt und CPU's mit 300 Watt Verbrauch im Handel verkauft werden dürfen.
Und Gamer haben auch keine Scham, diese Produkte auch noch stark überteuert zu kaufen.

Genau, du hast aus irgendeinem, nicht nachvollziehbarem Grund, ein Problem damit, wenn 5 bis vermutlich 20W, komplett ohne Komforteinbußen, eingespart werden sollen, aber da willst du auf einmal den den Verbotsstaat haben.

Ich hoffe, dass solche intoleranten Leute, niemals das sagen haben werden, auch wenn das bei vielen recht modern ist. Ich habe jedenfalls keine Lust, dass Grakas auf 50W und CPUs auf 25W gedrosselt werden.

BTW: warum hast du eigentlich eine GTX 1080? Eine GTX 1050Ti hätte doch auch gereicht.

Deshalb bin ich ja der Meinung, dass die kleinen Kerne im Desktopsegment sowas von unnütz sind.

Mit der Einstellu8ng würden PCs heute noch im Leerlauf 150-200W benötigen, so wie vor gut 10-20 Jahren.

Es war nicht die einzelne Killermaßnahe, die alles auf einmal gebracht hat, sondern die Summe vieler kleiner Schritte.

Ich bin also definitiv der Meinung, Stromsparmechanismen im Desktopnbereich sind wichtig, müssen aber anders optimiert werden.

Am Ende bedeutet das, nichts wird gemacht. Dieses "aber anders" oder "etwas besseres" ist das Lieblingsmantra von Leuten, die gegen alles sind, aber nichts beitragen und selbst keine Ideen haben.
 

Ganjafield

Freizeitschrauber(in)
Da Laptops den Großteil dieser Klasse stellen, wird es sich wohl quasi sofort durchsetzen. Intel hat es ja schon mit seinen IGPs so gemacht. Die waren eindeutig für die Laptops bestimmt, auf dem Desktop wurden die eben mitgeliefert, weil man nicht noch extra CPUs ohne IGPs fertigen wollte.
Bei Laptops könnte ich es mir auch vorstellen aber eher nicht so wirklich im Desktop Bereich. Außer die CPU'S sind als Billigschiene für OEM Ware konzipiert. Wir werden sehen.
In einigen Jahren wird sich das vermutlich auch ändern und irgendwann wird fast jede CPU ein Big-Little Prinzip haben. Aber bis dahin ist es noch ein weiter Weg.
Gamer sind einfach eine winzige Minderheit, die nicht wirklich interessiert.
Deshalb rückt Intel bei jeder neuen CPU-Generation die Gamingleistung auf großen Präsentationen in den Vordergrund? Klingt unlogisch
Ich hoffe, dass solche intoleranten Leute, niemals das sagen haben werden, auch wenn das bei vielen recht modern ist. Ich habe jedenfalls keine Lust, dass Grakas auf 50W und CPUs auf 25W gedrosselt werden.
Willkommen nach der Wahl im September mit den Grünen an der Regierung.
Da wird dann kommunistisch/sozialistisch durchregiert. :D
 
Zuletzt bearbeitet:

Pu244

Lötkolbengott/-göttin
Bei Laptops könnte ich es mir auch vorstellen aber eher nicht so wirklich im Desktop Bereich. Außer die CPU'S sind als Billigschiene für OEM Ware konzipiert. Wir werden sehen.

Es wird wohl nichts anderes geben, so wie das mit den Core i CPUs und den IGPs seit Sandy Bridge der Fall ist. Du kannst natürlich gerne bis in alle Ewigkeit mit Zen 4 oder Rocketlake herumgeistern.

Deshalb rückt Intel bei jeder neuen CPU-Generation die Gamingleistung auf großen Präsentationen in den Vordergrund? Klingt unlogisch

Natürlich machen sie das, besonders wenn sie darin Sieger sind. Nur bei den Absatzzahlen sind die Gamer dann eben eine kleine Minderheit, mit wohl weit unter 5% der CPU Verkäufe. Die Multimedianutzer sind da deutlich interessanter, die lassen sich auch mit einer hohen Gamingleistung beeindrucken.
 

Bärenmarke

Software-Overclocker(in)
Auch eine Workstation gurkt sehr oft im Leerlauf herum. Von daher kann stromsparen nicht schaden.

Ich wiederhole mich gerne nochmal, wer sich nen großen Threadripper kauft und er dann sehr oft im Leerlauf ist, dann stimmt was nicht. Zumindest wenn bei dir sehr oft die gleiche Bedeutung wie bei mir hat.
Wobei dann hier wiederum die Frage ist, wie sieht der Stromverbrauch unter Last aus und wie viel Geld lässt sich durch die Zeitersparnis sparen, weil Projekte schneller fertig werden. Da ist der idle Verbrauch vollkommen irrelevant in dem Bereich, außer man möchte natürlich ein Haar in der Suppe finden.



Bei einfachen Servern dürften die CPUs wohl sehr oft, bis die meiste Zeit, im Leerlauf herumgeistern. Die müssen die Leistung bereithalten, das bedeutet aber nicht, dass diese auch dauernd abgefragt wird. Auch bei Workstations wird sehr oft mit wenig Last gearbeitet, die Last liegt dann nur an, wenn sie gebraucht wird, etwa beim Videokomprimieren, Kompilieren usw.

Zwischen Teillast und wirkliche im idle besteht doch ein Unterschied und wäre mir neu, dass die Epycs im Teillastbereich so grottenschlecht sind. Und ein wenig Last wird man immer haben, wobei das jetzt wiederum von den Anwendungen abhängt. Bei dem Server den wir für unser Managementsystem mitverkaufen, kann ich dir garantieren der wird keine Sekunde im Leerlauf verbringen ;-)
Ist halt wieder ein sehr breitgefächerter Bereich und auch da wird auf den Idle verbrauch wohl wenig wert gelegt.
 

belle

PCGH-Community-Veteran(in)
@Pu244
Der Nutzen aller CPU Features ist immer von der SW abhängig. Das zeigen neue AVX Versionen Jahr für Jahr.
Das ist ja das Problem. Es dauert noch bis solche Software erscheint und bis diese flächendeckend sinnvoll genutzt werden noch länger.

Ob Games davon überhaupt profitieren, ist da noch eine weitere Geschichte und für Officeaufgaben und das Surfen kann ich PPT beim Ryzen auch auf 45 Watt stellen.
 

Casurin

BIOS-Overclocker(in)
Du meinst Intel guckt sich das bei AMD ab. Schliesslich hat AMD bereits Chiplet Designs auf dem Markt. ;)
Psst - hat nicht AMD erfunden, auch nicht Intel, sondern gibt es schon seit Jahrzehnten. Nur halt wrid das wenn geht vermieden weil es diverse Nachteile (auch kosten) hat. Nur wenn man es schon auf Intel vs AMD reduziert - Pentium Pro 1995 - der war doch etwas früher als Ryzen.

Das ist nichts weiter als Öko-Selbstdarstellung. Seht her, ich verbrauche weniger Strom, wenn mein Laptop weniger macht.
Das Öko-gedöhns ist hier wirklich fehl am Platz.
ABER - es wurde hier ja immer wieder von den Leute schon regelrecht gepredigt wie ach so wichtig es ist gleichzeitig zu Rendern und zu Spielen, oder wie wichtig die Multithreadleistung bei Videokonvertieren ist. Und rate mal was die "kleinen" Kerne weit aus besser können - richtig, genau das. Für die selbe Chipfläche besitzen diese für selche Aufgaben eine HÖHERE Leistung bei gleichen Verbrauch.


Und weil's mal was andres ist - kann hier PU244 nur großteils zustimmen:
Der gute alte Whataboutism.
Jep, es gibt zwar viele andere Sachen bei denen man weitaus mehr Energie einsparen kann, das ist hier in diesem Fall aber irrelevant weil man auch beim PC ohne viel was zu tun deutlich sparen kann.

Funktioniert nach europäischem Recht wohl (glücklicherweise) nicht.
Sie versuchen es eh schon, aber man muss wirklich froh sein das es noch nicht möglich ist.


Deshalb rückt Intel bei jeder neuen CPU-Generation die Gamingleistung auf großen Präsentationen in den Vordergrund? Klingt unlogisch
Und dann schau mal womit sie bei den Firmenprodukten werben - mit Spielen? Oh nein, nicht wirklich.
Woran könnte es liegen das Events, Messen und Werbung die auf Gamer zielen die Spieleleistung in den Vordergrund stellen .... was für eine knifflige Frage, es schaut sich ja auch jeder der ein CPU oder einen ganzen PC kauft alle Produkte aller Hersteller an und fragt nicht einfach den bekannten der viel Zeit mit dem PC (beim Spielen) verbringt was er empfehlen würde.... ja ja, wenn man nur wüsste warum das so ist.
 

Rollora

Kokü-Junkie (m/w)
Wer einen Threadripper kauft und den dann ideln lässt macht was falsch! Außerdem unterschlägst du die Tatsache, dass AMD im Notebooksegment doch auch auf Monolithen setzt ;-)
Das Problem besteht also nur bei den Desktop Ryzens, Threadrippern und Epycs. Letzte beiden sind eher nicht so oft im Idle, von daher sehe ich da keine große Problematik.
Ein Grund mehr warum ich etwa auf die Desktop APUs von AMD warte :) (und weil ic hdann keine GPU kaufen muss )
Ich unterschlage es nicht, ich zeige nur auf, dass das Multichipdesign mehrere kleine Nachteile haben kann - was im Desktop aber egal ist.
 

latiose88

Freizeitschrauber(in)
Das Öko-gedöhns ist hier wirklich fehl am Platz.
ABER - es wurde hier ja immer wieder von den Leute schon regelrecht gepredigt wie ach so wichtig es ist gleichzeitig zu Rendern und zu Spielen, oder wie wichtig die Multithreadleistung bei Videokonvertieren ist. Und rate mal was die "kleinen" Kerne weit aus besser können - richtig, genau das. Für die selbe Chipfläche besitzen diese für selche Aufgaben eine HÖHERE Leistung bei gleichen Verbrauch.
Echt ist das so.ALso in dem fall ja nur her damit. Ich hoffe die kleinen sinn so flexible das ich davon erheblich Profitiere. ALso meine Anwendung nutzt kein einzies AVX. Die kleinen können das ja nicht. Im grunde müsste ich ja dann auch keine Nachteile haben. Ich verwende zwei mal gleichzeitig das Videoumwandeln. Und joa die 16 Kerne sind teilweise je nach dem welche Aufnahmen ich so umwandle auch schon auf 100 % gelandet. Ich komme also an meine Grenzen. Brauche also mehr Leistung.
Dann will ich freilich noch nebenbei Zocken. Dann Grätscht mir manchmal auch noch das Betriebsystem mit rein und die Leistung bricht ein.Ich habe gemerkt das Game ruckelt sogar sowas wie Counterstike. Mein bester Kumpel merkte es auch das es ruckelte.Es handelt sich um so was einfaches wie Counterstrike Source.
Das umwandeln hat auch länger gedauert. Als ich es mal so getestet hatte war scheinbar eine Software im hintergrund dabei wo die Last und so nach oben trieb.
Ich könnte wohl auf solche ungewöhnlichen Konstruktionen wohl echt Profitieren. Ich habe also ein ungewöhnliches Nutzer Profil. Ich hoffe mir bringt dieses Konzept wirklich was.
Meine Games nutzen jedenfalls kein AVX das weis ich,die Software weis ich auch.So schmale Kerne könnten hier der heilige Gral sein.
Die einzigen Instruktionen die ich Nutze sind BMI1 und LZCNT neben den ganzen SSE Einheiten.

Habe dennoch zwischen nem Ryzen 9 3950x und einem 5950x 10 % mehrleistung beim Umwandeln verzeichnet. Bei selben Einstellung und ohne AVX und auch selbe Takt und 2 Umwandlung gleichzeitig.

Habe nun vorhin gelesen das erst ein i7 4700k über BMI1 berherscht und es ein 3770k oder 2700k noch garnicht kann weil die nur AVX können. Das LZCNT kann anscheinend schon der Bulldozer als Instuktion. Dann ist das wohl schon älter als BMI1. Und wird ALS SSE4A bezeichnet.
Nun wenn ich BMI2 an schalte und ab passiert kaum was.Kaum schalte ich BMI1 aus dann verdreifacht sich die Umwandlungszeit erheblich.ALso sprich aus 4 Minuten als Beispiel wären es dann 12 Minuten.
Man kann also sagen alles beruht auf BMI1 als Basis.

Ich hoffe die kleinen Kerne beherschen solch eine Instuktion,denn sonst wäre die Leistung am ende wirklich schlechter als ich gedacht hatte. Es steht auch nirgendswo welche Instuktionen die kleinen Cores so alles beherschen und was nicht. Das wird hier also wohl komplett unter dem Teppich gekehrt.

Es braucht also fakten. Und es soll am ende dieses Konezept mir am ende auch mehrleistung bieten sonst macht es halt null sinn. Ich könnte mir ja auch einen Threadripper holen,aber beim Umwandeln habe ich da eben zu wenig Mehrleistung. Es klemmt auch beim SMT weil ohne mehrleistung habe als mit. Und die Software zum Aufteilen kann leider auch nicht so gut splitten wie ich es gerne haben würde. Es nervt auch jedes mal neu zu zu weisen. Also ist die Rettung dieses Konezpt am Ende.

Also zusammengefasst. Spiele bei mir brauchen höchstens 4 Kerne,etwege hintergrundlast kann schon mal 2 Kerne im Desktop verbraten,dann noch 16 Kerne beim Umwandeln. Also ein 16 Kerner mit 4-6 kleinen Kerne begrüße ich sehr. Oder wenn die kleinen so viel können ,also 12 große und 12 kleine Kerne. Wo die großen SMT/HT an haben. Ich hoffe das ich am ende dann mehrleistung habe als ich mir vorstellen könnte.
Es sei denn sie machen da noch mehr kleine Kerner mit wenigen großen. Wir werden ja sehen was alles möglich ist. Wer sowas hat,kann ich ja sehr gerne es testen lassen. Ich werde also meine EInstellung nicht ändern,also ich fahre mit diesen Settings schon mindestens 7 Jahre so. Und habe es auch nicht vor es zu ändern. Also hat gefälligst die CPU hier Ordentlich sich zu verbessern,sonst gibt es kein Geld dafür.
 

Casurin

BIOS-Overclocker(in)
Ich hoffe die kleinen Kerne beherschen solch eine Instuktion,denn sonst wäre die Leistung am ende wirklich schlechter als ich gedacht hatte. Es steht auch nirgendswo welche Instuktionen die kleinen Cores so alles beherschen und was nicht. Das wird hier also wohl komplett unter dem Teppich gekehrt.
Die kleinen Kerne beherrschen noch kein AVX, das ändert sich aber schon mit Gracemont.
When deine Software aber nicht mal AVX nutzt dann würde ich dir raten bessere Software fürs Videokonvertieren zu suchen. AVX2 wird schon weitgehend verwendet und bringt deutlich Vorteile.


Die jetzigen Tremont sind recht gut. Pentium Silver N6005, 10W ist ungefähr vergleichbar mit einem i3 6100 (51W) oder Ryzen 7 2700U (15W). Beim ersten Lakefield (1+4 - die ersten Big-Little) können die Kerne noch nicht voll gleichzeitig laufen, der i5 L16G7 (7W) hat dort aber eine Cinebench-Leistung die ungefähr dem Ryzen 3 3200U (15W) entspricht. Also zumindest in Sachen Effizienz habe sie sich da gut verbessert.

Größentechnisch ist ungefähr 4x Tremont ~=~ 1 SunnyCove.
hardwareLuxx hatte da auch ein paar benchmarks gemacht, für CinebenchR20 lieferte der L16G7 ~214 Punkt/W und damit auch deutlich mehr als die normalen Stromsparmodelle von Intel zu dem Zeitpunkt (so faktor 3-4 besser).
 

latiose88

Freizeitschrauber(in)
@Casurin
Danke dir,nun weis ich dank der Webseite das diese kleinen kein Befehlsatz von LZCNT oder BMI1 beherschen.Damit sind diese für mich unbrauchbar. Ich finde es echt entäuschend. Das diese kein AVX beherschen stört mich nicht und ist nicht schlimm aber die beiden befehlsetze brauche ich unbedingt. Ohne das ist es ja auch kein Wunder das die Leistung so weit einbricht. Mag zwar schon schneller sein als ein AMD Athlohn 64 X2 6000 das so um die 20 Minuten beim Umwandeln gebraucht hatte. Es mag zwar gleich gut sein wie ein i7 4700hq aber das reicht mir nicht aus. Denn sobald das BMI Instuktion nicht existiert wird diese CPU dann zwischen nen AMD Athlohn 64 X2 6000+ und einem i7 4700 bzw 3770k zurückfallen.Und genau da wo ich eben nicht hin will. Dachte die kleinen seien so Leistungsstark. Und nein ich werde meine Software nicht wechseln. Bin wegen dem Interlacing das so manche meiner Aufnahmen haben an das gebunden. Ja ist halt so bei meinen TV aufnahmen. WIll ich meine 720x576 er Aufnahmen auch weiterhin Umwandeln.
Ich hole mir auch kein HD+ weil das kostet ja Geld.Solange dies und da werde ich nicht mehr erleben das 720p im TV kostenlos als Standard geben wird.Das wird sich auch in 50 Jahren nicht mehr ändern,weil die Chef eben davon Geldgierige sind. Also selbst wenn mal 8k und mehr standard sein sollten wird 720p im Fee TV niemals kostenlos zu empfangen sein. Nur die 3 Sender ARD,ZDF und das dritte. Wenn da mal ein FIlm kommt,dann nehme ich es freilich in 720p auf.

Es wird sich dann erst wohl bei mir ändern,wenn im Fernsehen diese endlich sich von den 50 Halbbilder verabschiedet haben.Dann habe ich das Deinterlacing nicht mehr nötig und dann brauche ich auch so 2 Kerne weniger bei der Auslatung. Denn ohne dem Wandle ich viel schneller um. Von 1:30 auf 1 Minute geht es dann abwärts. Der Filter bremst also sehr stark das Umwandeln aus. Bei manchen sieht man das nicht mehr,bei manchen ist es aber unerträglich. Das Problem ist,man erkennt von aussehen nicht ob es das ist oder nicht.
So muss ich immer erst schauen ob es Interlaced verseucht ist oder nicht. Darum kann ich nicht einfach Handbrake nehmen oder dergleichen. Ich benutze den Filter libav Linear blending. Yadilf machte da nen sehr unsauberen Arbeit beim entflechten. Leider hat Handbrake keine so vielen Filter Optionen,sonst wäre ich dort schon geblieben. Besonders schlimm ist es bei Sendungen also Nachrichten oder dergleichen.Da hilft der FIlter nicht.Es wird nur unscharf ,kann somit nicht alles sauber verdecken.
Genau darum befinde ich mich da bei der Sackgasse. Handbrake macht hier ne verschlimmbesserung.Entweder zeigt dieser erst garkein Bild an,Flackert,Bild Fehler oder es wird das Bild am ende noch schlimmer als im Rohzustand oder Audio und Ton sind unsynchron. Anscheinend hat Handbrake damit ein Problem.Auch alle Deinterlacer ausprobiert. Jeder schlimmer als der andere.So macht damit die Benutzung zur Qual und spaß macht es auch nicht.

Ich hoffe die nachfolgenden kleinen Cores beherschen diese beiden Befehlsätze ich bin auf diese angewiesen.Wie wichtig diese sind,zeigt es auch bei meinem Ryzen 9 5950x. Da wurde ohne diesem Befehl anstatt 1:30 dann 8 Minuten draus. Also Intel streng dich an,denn so wie es aktuell ist,kann man mich nicht überzeugen. Ohne diese beiden jedenfalls ist es für mich total uninteressant. Es ist also mein Ernst. Ich mache die Leistung anhand dieser Befehle abhängig.
Und schlechter als ein I7 4700 HQ brauche ich est recht nicht.Auf dieser CPU brauche ich 6 Minuten zum Umwandeln.Freilich dann nur 1 gleichzeitig.
Wenn es aber passt dann sehr gerne auf dem Laptop.Denn ich will auf dem Laptop günstig ne bessere CPU haben. Also wenn es nicht besser als ein I7 4700HQ ist was ich als Laptop habe,könnt ihr mich da auch mal.Denn ich brauche Leistung,bei wenig Stromverbauch. Wenn ich nen bessern Laptop haben will kann ich mir jetzt schon ein Laptop mit Ryzen 5 5500U holen.
Nur will ich da eben keine 700 € dafür ausgeben. Merkwürdig das habe ich früher schon ausgegeben.Habe gedacht wir wären da inzwischen bei der Leistung schon weiter.DIe Entwicklung ist somit sehr langsam im moment. Dann heist es wohl warten.Mein Laptop den ich gebraucht gekauft habe ist wohl inzwischen schon 6-7 Jahre alt. Eigentlich kann man da schon in der Zeit bei mehrleistung erwarten. Der i7 4700HQ leidet unter ner Hitzeproblem. Bei 3 Ghz anstatt 3,4 ghz ist alles gut,aber dann war es das.Erwarte also das auch in dieser Sache nachgebessert wird.Nur der ne bessere Arbeit leistet,bekommt dann auch mein Geld von mir.
 

Casurin

BIOS-Overclocker(in)
@Casurin
Danke dir,nun weis ich dank der Webseite das diese kleinen kein Befehlsatz von LZCNT oder BMI1 beherschen.Damit sind diese für mich unbrauchbar.
ich bin mir ziemlich sicher das Tremont beide Erweiterungen unterstützt. Wobei ich deine Fixierung auf alte Bitminipulations-Erweiterungen etwas zweifelhaft ansehe - da müsste schon jemand im source Assembler verwenden damit das zum Problem wird, sonst haben moderne Architekturen und Compiler hier auch schon bessere Möglichkeiten.

Ich finde es echt entäuschend. Das diese kein AVX beherschen stört mich nicht
Gracemont, was bei Alderlake kommt, hat AVX2.
Auch deine Einschränkung auf alte Bitmanipulationen finde ich... sagen wir mal fragwürdig.


Es mag zwar gleich gut sein wie ein i7 4700hq aber das reicht mir nicht aus.
In den meisten Anwendungsfällen sind die jetzigen kleinen (die noch kein AVX haben) schon gleich schnell wie Skylake, deutlich vor Haswell.

Denn sobald das BMI Instuktion nicht existiert wird diese CPU dann zwischen nen AMD Athlohn 64 X2 6000+ und einem i7 4700 bzw 3770k zurückfallen.
Also da Tremont schon eine bessere Leistung bring und Alderlake mit der Folgegeneration und kleinerer Fertigung daher kommt.


Wie wichtig diese sind,zeigt es auch bei meinem Ryzen 9 5950x. Da wurde ohne diesem Befehl anstatt 1:30 dann 8 Minuten draus.
nein, das zeigt dann nur wie fehlerhaft und schlecht die Software ist. Zen 3 beherrscht mit AVX2 weitaus mächtigere Bitmanipulationsbefehle die den 4fachen Durchsatz von LZCNT und BMI1 besitzen. Wenn deine Software sowas nicht kann dann ist sie einfach nur grottenschlecht geschrieben den sowas wandelt dir quasi jeder Compiler der letzten 5 Jahre richtig um.
 

latiose88

Freizeitschrauber(in)
@Casurin

Ok dann weis ich ja nun bescheid wo mein aktueller Punkt ist. Hybrid hat die selbe Leistung wie Xmedia Recode. Oder auch Advidmux hat die selben Probleme. Nur eines davon ist also am fortschrittlichsten und das ist nun mal Handbrake wo halt wie gesagt nur das Problem mit dem Deinterlacing ist. So ist das halt mit der Software.Die hängt halt noch immer gewaltig der Hardware hinter her. Da dies alles nur Freie Entwickler sind,kann man hier also nicht so viel Erwarten. Darum kommen wir auch bei der Anzahl der Kerne nicht immer weiter nach vorne. Weil eben die Software sehr stark abbremst. Wie es weiter gehen wird,ist halt sehr Fraglich. Und ja ich gebe dir recht die Software ist nicht gut,aber liefert schöne Ergebnisse bei der Bildqulität. Das ist eben das Erkennungsmerkmal dieser Software.
Ram lastet es ebenso super schlecht aus.Da braucht sogar meine Schneidsoftware mehr Ram als das Umwandeln an sich. Und auch beim Ramtakt kommt eben nicht das raus was man zwischen 2133 zu 3600 mhz an Rohleistung erwarten kann.Mit etwas glück die hälfte oder gar nur 5 % mehr an Leistung. Da liefert jede andere Software weitaus mehr Mehrleistung aus als das.

Und die mehrleistung ist auch vom VIdeomaterail abhängig. Ich habe nur 720x 576 er TV Aufnahmen im Mpeg 2-TS Format. Da kann man nicht viel erwarten.Und sogar Handbrake hat da Probleme damit,da richtig in fahrt zu kommen. Erst ab HD wird es dann mit AVX interessant. Zuvor pfuff 4 Sekunden schneller entscheiden ob AVX an oder aus ist. Das ist nicht viel. Und dafür dann höhere Temps ,höherer Stomverbrauch. Würden das 10 und mehr % sein,wäre das ja im Verhältnis. Dem ist aber nicht so. Meine Einstellung scheinen wohl zu niedrig zu sein. Habe es mit absicht so niedrig wie möglich gestellt um möglichst schnell umzuwandeln aber gleichzeitig die Bildqulität nicht zu verschlechtern.Nur settings herunter gestellt die nichts zu Bildqulität beigetragen hatten. Könnt sogar das LZCNT abschalten und würde nix merken. Müsste ich mal ausprobieren.
Habe es nur zur Sicherheit eingeschaltet. Unglaublich wie eingeschränkt mein Nutzer Profil ist.
Dann können ja doch die kleinen CPUS nur kommen. Ich werde mich dann beim Laptop von der Rohleistung mich überraschen lassen.
Ob nen gute oder böse Überraschung ,das wird es noch zeigen.
 
Oben Unten