News CPU-Report zu Mindfactory: Keine Chance gegen 7800X3D und 5800X3D

den 5800X3D hab ich ebenfalls noch auf meiner Wunschliste. Ich bräuchte ihn zwar wahrscheinlich aktuell noch gar nicht, aber mit dem wird man einfach für sehr viele Jahre ausgesorgt haben.
 
Das Argument Intel wäre für Rendering, Video etc gut kann ich nicht teilen. So egal ist den Unternehmen der Stromverbauch nicht. Hatte früher im Call Center gearbeitet
. Da kamen von Lenovo diese Mini PC zum tragen, den bei 600 Plätzen, spielt der Verbrauch sehr wohl eine Rolle.

Das der ein oder andere Anwender das ignorieren kann, liegt bestimmt an unterschiedlcihen Gründen.

Ein Freund von mir hat eine dicke PVA ANlage den juckt das auch nicht.

Bei den meisten Software für Rendern und Video wird die Grafikkarte zur Beschleunigung genutzt. Das ist deutlich schneller als CPU.

In Blender kann ich den Ryzen 7950x nicht mit dem RX6900XT nutzen.
 
Mich würde ja mal interessieren wie sich die X3D in Sachen wie On1, Luminar, etc. schlagen...
Bei Adobe-Produkten gibts ja die Puget Benchmarks - aber bei der Konkurrenz?
Vlt wärs ja eine interessante Möglichkeit den 3700X in Rente zu schicken.
Luminar ist die letzte Rotz-Software (was Ressourcenverbrauch betrifft). Die kriege ich auch mit meiner CPU nicht vernünftig zum laufen.
 
Ich halb noch das "alte" Luminar 2018 und die Flex-Version für manche Bearbeitungen die mit Luminar bei MIR einfacher laufen wie mir anderen Tools
Für den Rest habe ich mittlerweile ON1 oder (seit Ewigkeiten) ACDSee
 
CPUs sind einfach wie GPUs viel zu teuer geworden. Ein 7800X3D dürfte nur maximal 200 Eur kosten. Eine RTX4080 nur maximal 600 Eur. Wieso AM5 so unbeliebt ist hat AMD selber vergurkt, weil die Boards und RAM zu lange viel zu teuer waren. Wenn man in 4k spielt lohnt ein AM4 System immer noch mehr von Preis Leistung her, auch jetzt noch zu kaufen.
nuja ganz so extrem sehe ich das nicht. der 5800x3d kostet ja schon 300 und ist damit sehr günstig im Vergleich zu dem was er vorher gekostet hat. Ich hab mich aber nur für den x3d entschieden weil ich so viel Factorio spiele, für alles andere hätte der normale x gereicht.
Die Boards und Ram sind definitiv zu teuer gewesen, k.a. wie das jetzt ist. mein Upgrade zum 5800x3d hatte mich etwa 500€ gekostet, für nen 7800x3d wär ich bei 1100€ Gesamtkosten gewesen.

Beim ersten Intel Quad-Core Prozessor für Desktop-PCs und Workstations handelt es sich um den Core 2 Extreme QX6700, der zum Preis von 999 US-Dollar vertrieben werden soll. Nach Informationen von DigiTimes soll ab Januar dann eine günstigere Variante folgen, die die Bezeichnung Core 2 Quad Q6600 tragen wird. Diese CPU soll dann für 851 US-Dollar verkauft werden.

teurer ... jaja
ich hatte mir den C2Q6600 für etwa 500€ damals geholt, ohne board.
kauf dir halt den 5700X, der kostet nur 180€, der 5800X kostet 200€. 3D-cache ist halt schon was besonderes oben drauf.


Ich halb noch das "alte" Luminar 2018 und die Flex-Version für manche Bearbeitungen die mit Luminar bei MIR einfacher laufen wie mir anderen Tools
Für den Rest habe ich mittlerweile ON1 oder (seit Ewigkeiten) ACDSee
es gibt noch Leute die ACDSee verwenden? bin schon vor ewigkeiten auf Faststone umgestiegen weil ACDSee nicht mehr mit so vielen Bildern in einem Ordner zurechtgekommen ist. Irgendwann wollte Faststone auch nicht mehr und da hab ich alles in HydrusNetwork importiert. Faststone verwende ich immernoch als standard Anzeigeprogramm.
 
Zuletzt bearbeitet:
Es kommt auf den Anwendungszweck an. Intel hat aus den Möglichkeiten viel gemacht. Den Multicore sowie den Singlecore mit einer unterlegenen Fertigung an AMD angeglichen.
???
Sorry, aber Intel hat da gar nichts angeglichen. Man hat mit viel Strom die Benchmarkbalken entsprechend nach rechts verschoben, da ist man aber meines Erachtens nach weit von weg, etwas anzugleichen. Ich kann ja nicht sagen, dass eine CPU mit 100W Verbrauch im Gaming und 100fps nah dran am AMD Chip ist, der mit 50W Verbrauch 110fps schafft. Das ist schon noch ein meilenweiter Unterschied. Gleiches Bild herrscht ja auch im Anwendungsbereich, wo nahezu identische Leistungswerte gelten, aber 170W gegen 250W und mehr laufen!

P.S.
Interessant wird es vor allem dann, wenn die Nutzer die bei NV derzeit schwer auf die Effizienzkarte setzen, dies dann bei Intel als nebensächlich beurteilen.

So ein Quatsch. Es gibt keinen Kampf zwischen E-Cores und 3D Cache. Beide Architekturen bedienen völlig unterschiedliche Interessenfelder.
Ist das so? Beide Techniken herrschen im Desktop Bereich, beide Techniken zielen auf den Gamingmarkt ab und da herrscht halt ein fast aussichtsloser Vorsprung von AMD im Bereich der Effizienz (der nicht alleine auf der schlechteren Fertigung seitens Intel basiert). Intel hat die E-Cores ja quasi seit Beginn konterkariert, in dem man die Kerne auch relativ hoch taktet und viel Energie reinsteckt, damit sie eben die Benchmarkbalken möglichst weit rechts haben. E-Cores sind in meinen Augen der falsche Begriff.

Aber die Hersteller von Komplettrechnern reagieren träge und bringen die AMD-CPUs in immer mehr High End Modelle. Und die Käufer reagieren noch träger. Die Marke Intel hat sich in vielen Jahren eingeprägt. AMD muss deshalb am Ball bleiben, und auch einige Jahre führen, wenn sie Parität herstellen wollen. Ein Image kann man sich nur hart über lange Zeiträume erarbeiten.
Wobei gerade bei den Resellern war ich überascht, wieviele AMD Systeme es dann eben doch gibt. Sah vor ein paar Jahren noch dramatisch anders aus, auch wenn Intel nachwievor das "voreingestellte" System ist, bspw. Dell. So gibt es doch meist schon eine Auswahl Intel oder AMD. Vor ein oder zwei Jahren war das noch anders, da musste man sehr lange suchen bis man auf AMD traf. Es tut sich also was.

Mich würde ja mal interessieren wie sich die X3D in Sachen wie On1, Luminar
Etwas schlechter als die non 3Ds. Cache bringt hier nix!
Das Argument Intel wäre für Rendering, Video
So etwas sollte man ohnehin auf die GPU verlagern!

Bei den meisten Software für Rendern und Video wird die Grafikkarte zur Beschleunigung genutzt. Das ist deutlich schneller als CPU.
:daumen:

das gibts noch :ugly: ich hab das in den frühen 2000er immer als Bildbetrachter genutzt, wusste gar nicht, dass es sich so lange gehalten hat.

Der wurde doch eingestellt und dafür kommt ein Raptor Lake Ref.
Jein! Im High End Desktop kommt der RLR, dadrunter soll wohl auch immer noch Meteor Lake kommen, halt nach letzten Gerüchten mit über 5Ghz Boost und 6 P Cores, zusammen mit der IPC Verbesserung wird man also sehr vermutlich in Bereiche eines 13600K laufen. Die Hoffnung ist halt, dass die Effizienz sich dramatisch verbessert, durch Taktsenkung und Intel 4 könnte dies natürlich auch sein, man darf halt nicht den E-Cores Fehler machen und die CPUs ans maximale Taktlimit bringen, lieber auf 5-10% Leistung verzichten, dafür mit 70W laufen lassen!

Die Boards und Ram sind definitiv zu teuer gewesen, k.a. wie das jetzt ist. mein Upgrade zum 5800x3d hatte mich etwa 500€ gekostet, für nen 7800x3d wär ich bei 1100€ Gesamtkosten gewesen.
Das ist eine schöne und ehrliche Aussage, zu Beginn waren die Boards und alles drumherum recht teuer. Interessanterweise haben dies oftmals die Leute erzählt, die dann selber Z690/Z790 DDR5 Platinen mit einem Intel verbaut haben, wo ich dann nur den Kopf schütteln konnte. Allerdings ist das eben auch alles mittlerweile in der Vergangenheitsform zu erzählen, aktuell bekommt man für 90 EUR ein Board und 50 EUR für ein 16GB Kit, damit für 140 EUR einen Unterbau für AM5, der in Verbindung mit einem 3D eben die maximale Leistung holt und selbst die teuersten Intelsysteme abhängt. Daher verwundert es auch gar nicht mal so, dass der 7800X3D mittlerweile an der Spitze thront.
 
CPUs sind einfach wie GPUs viel zu teuer geworden. Ein 7800X3D dürfte nur maximal 200 Eur kosten. Eine RTX4080 nur maximal 600 Eur. Wieso AM5 so unbeliebt ist hat AMD selber vergurkt, weil die Boards und RAM zu lange viel zu teuer waren. Wenn man in 4k spielt lohnt ein AM4 System immer noch mehr von Preis Leistung her, auch jetzt noch zu kaufen.
Die Kritik verstehe ich nicht, dass ein 7800X3D maximal 200€ kosten soll ist milde gesagt utopisch, wann soll es dies schon jemals gegeben haben, selbst lange vor der ganzen Teuerung und Inflationsauswirkungen, war zum Beispiel ein extrem beliebte Intel 2600K nie so günstig. Außerdem sind die Preise am Anfang einer neuen Plattform immer hoch, egal ob Intel oder AMD, es war nie anders. Das man RAM-Preise einem CPU-Hersteller in die Schuhe schiebt, halte ich im besten Fall für Wunschdenken. Die Preise für die Hauptplatinen fallen auch, es überrascht mich auch hier nicht das die Preise hier Anfang höher sind, die Erstkäufer wurden schon immer kräftig geschröpft. Preisbewusste Käufer können sowieso nie die neueste Generation erwerben, vor allem nicht anfangs. Das ganze liest sich für mich wie ein künstliche Aufreger, ohne Grundlage aus der Vergangenheit.
 
Jupp, ACDSee gibts noch
Die entwickeln auch noch fleißig weiter.
Habe mir vor 5 Jahren die 2018er Standard / Home gekauft und die läuft ziemlich flott.
Nur könnte ich jetzt noch mehr Bearbeitungs- / RAW-Entwicklungsmöglichkeiten brauchen - und dafür bräuchte es Professional oder Ultimate
 
Bei den meisten Software für Rendern und Video wird die Grafikkarte zur Beschleunigung genutzt. Das ist deutlich schneller als CPU.

Schneller, ja, aber das Ergebnis sind (oft sogar deutlich) größere Dateien bei schlechterer Bildqualität. Also für professionelle Videoproduktion oder auch zu Archivierungszwecken würde ich GPU-Encoding niemals einsetzen.
 
Schneller, ja, aber das Ergebnis sind (oft sogar deutlich) größere Dateien bei schlechterer Bildqualität. Also für professionelle Videoproduktion oder auch zu Archivierungszwecken würde ich GPU-Encoding niemals einsetzen.
Wie kommt das? Weißt du das, würde mich brennend intreressieren.
 
Nen Prozessor der nur fuer Gaming taugt wurde mir niemals in den Tower kommen.
Da verzichte ich liebend gern auf 3FPS in 720P
 
Das er überall die selbe Power möchte, und da sind für ihm tatsächlich die Cache Monster falsch.
Naja nicht wirklich, ersten kann so ein 7800x3d auch Anwendung und diese sogar flott. Klar ein 13700k ist da die Bessere Wahl wenn die Anwendungen mit Kernen Skalieren, aber die Frage ist doch wie viel macht man was.
70 30 Zocken Mehrkern Anwendungen 7800x3d andersherum z.b den 7950x oder halt den 13900k. Aber wenn man beides macht ist man z.b mit einem 7950X3d nicht schlecht dabei:
siehe hier:
Sind halt 9%.
1691572968196.png


Ist natürlich immer eine Frage des budgets , und der nutzung. Aber wenn ich den ganzen Tag 16 Kerne oder mehr brauche weil Anwendung x das halt gut umsetzt. Ist man bei den non 3d Modeln natürlich besser unterwegs . Aber das ist halt auch nicht der Markt dieser CPU.
 
Zurück