News Zen 6: Ryzen X ("Medusa") nutzt neuen 2.5D-Interconnect für deutlich mehr Bandbreite [Gerücht]

Was ist denn daran so schwer zu verstehen? Du tust ja gerade so, als wäre so ein simpler Unterbau pure Raketentechnik und ließe sich nur mit exorbitant hohen Kosten realisieren. Schon allein der gesunde Menschenverstand sollte einen aufhorchen lassen oder willst du mir ernsthaft erzählen, die Preise wären fair kalkuliert? Ich bitte dich... Hier gilt es auszuloten, was die holde Kundschaft max. zu zahlen breit ist.

Ich lasse mich natürlich gern eines Besseren belehren, das setzt aber voraus, dass du mit Argumenten aufwartest, statt derartiges von dir zu geben:



Edit: Ehrlich gesagt finde ich es schon reichlich unverfroren, die Leserschaft hier für derart dumm verkaufen zu wollen. Als wenn Mainboardpreise von mehreren hundert Euro tatsächlich gerechtfertigt wären. Natürlich darf der Hersteller aufrufen, wie es ihm beliebt, nur hat er sich in dem Fall auch der Kritik zu stellen. Wo leben wir denn, wenn wir keine Kritik zulassen würden?

mit frdl. Gruß

Entschuldige bitte, aber von jemandem, der Faktenbehauptungen zu Gesamtherstellungskosten verbreitet, die deutlich unter den jeweiligen Einzelpreisen von I/O-Hub, PCB, Power-Stages, etc. liegt, lasse ich mir kein "unverfroren" an den Kopf werfen.

Und nein, ein Mainboard ist keine Raketentechnik. Eben genau das ist, wie gesagt, das Problem: Die Endpreise für Mainboards bestanden auch in der Vergangenheit nicht aus absurd hohen Entwicklungskosten oder der Anschaffung für sündhaftteure Fertigungsmaschinen. Sondern aus Faktoren, die 5-10 Jahre später nicht abgezahlt sind, sondern schlicht anhaltende Stückkosten darstellen. Plus Inflationsaufschlag plus Mehrkosten, wenn einem die für DDR-2133 und PCI-E 3.0 nötige Qualität nicht mehr reicht, die es auf den ersten Mainboards für 230-W-CPU-Dauerbetrieb mit 60+ HSIOs gab. Und die haben zu Sockel-2011-v3-Zeiten auch schon 300-400 Euro gekostet. Das AMD und Intel jetzt das "HEDT"-Label von dieser Aufwandsklasse runtergerubbelt haben, anstatt die heutige Mehrleistung durch wesentlich mehr echten Fortschritt im alten Mainstream-Rahmen zu realisieren, spart bei den Mainboard-Herstellern keinen einzigen Cent ein.
 
Entwicklung eines maimboards vorgaben vom chiphersteller Ingenieur 8std testen 2 Wochen Fabrik 1 Monat min 10k stk.
Vermarktung 4 Wochen
Ein b650m Brett ist mit min 12 layer Pflicht wegen pcie5
Komponente grob 20$ chipsatz grob 50$
marge typisch sind 20% Handel und transport 20% +10$
grob ab 112$ =120€ machbar
Da sind keine Zusätze dabei
Kann sein das amd den aib noch 30% zugesteht
Dann wäre ne Grundmainboard ab 150$ oder 168€ möglich
Siehe Marktpreise

Wo die preise abnormal hoch sind ist bei dgpu das wird sich bald regeln.

pcie5 und ddr5 brauchen teurere Materialien das isn fakt.
Bei dgpu dagegen sinken die preise deutlich seit ende der Lieferengpässe von 2022
ne ad104 chip gpu könnte es ab 385$ geben (rtx4070)
Das dies nicht so ist liegt an der Konkurrenz.
 
Naja das teuerste bei am5 ist ja das pci express 5.0. Was auch noch dem Preis hoch hält das mehr an sata Anschlüsse.
Darum sind ja auch b650 dabei die fast so viel wie A620 kosten.
Recht viel mehr wird man auch in Zukunft nicht mehr einsparen können.
Darum sind wir bei den Mainboarx Preisen schon sehr weit runter gekommen. Recht viel billiger werden also die MainBqoards eben nicht mehr.
Das macht eine Entscheidung auch leichter., aber auch teilweise doof für welche die nur sehr wenig Geld zur Verfügung haben.
 
Leute...

Ihr seid mittlerweile sowas von weit weg vom eigentlichen Thema :kaffee:

Ich erspare mit jetzt mal den gesamten thread durch zu wischen und begnüge mich mit den letzten Antworten...
 
Könnte mir vielleicht jemand erklären, warum bei gpus egal ist, wie viele Kerne sie haben, bei CPUs aber scheinbar immer ein Skalierungsproblem herrscht? Ist es bei der CPU unmöglich, dass das System die CPU halt als eine CPU sieht und die CPU selbst die Aufgaben unter den Kernen verteilt?
 
Gpu sind lineare Prozesse bedeutet eins nach dem andrem und das lässt sich prima parallelisieren
Das liegt an directx da windows für eine gpu nur einen thread erlaubt dieser kann aber in Unterprozesse mit einer Liste (command list) befehle parallelisieren bis zu 8 thread sind möglich kann aber nie über den mainthread hinaus skalieren quasi schafft man mit mehr Kernen einen höhere Auslastung eines Kerns der von andere aufgaben frei bekommt.
Gpu sind in order cpu out of order darum können cpu auch mehr als nur pixel zaubern
In cpu gibt es auch alu wie in der gpu zen hat 4 intel ci 14th 6 kommend mit zen 5 6 alu
Diese aber beschleunigen nur die avx befehle die in games sehr selten genutzt werden.
Wichtiger bei cpu ist die Latenz zum L3 cache und dessen Größe damit steigt die ipc mehr kerne bringt also nix fürn gamer die tatsächliche ipc ist viel wichtiger.
Allgemein reichen 6 kern cpu völlig aus. Da das Os mittlerweile viele kerne so sehr beschäftigt das man mit 4 kernen bzw 2 kernen zu wenig ipc über hat fürn spiel. (Prozess zeit)
 
Könnte mir vielleicht jemand erklären, warum bei gpus egal ist, wie viele Kerne sie haben, bei CPUs aber scheinbar immer ein Skalierungsproblem herrscht? Ist es bei der CPU unmöglich, dass das System die CPU halt als eine CPU sieht und die CPU selbst die Aufgaben unter den Kernen verteilt?
Das Hauptproblem liegt in der Parallelisierbarkeit der Probleme, die von CPUs in der Regel berechnet werden. Das meiste, was gut parallelisierbar ist und viel Leistung braucht, wird genau deshalb auf GPUs ausgelagert. Bei CPUs wird extrem viel Aufwand betrieben, um Abläufe, die sich nur sequentiell abarbeiten lassen, was daran liegt, dass zukünftige Rechenschritte die Ergebnisse von vorhergehenden Rechenschritten benötigen, möglichst schnell zu verarbeiten. Die allermeiste Parallelisierung, die dabei möglich ist, wird trotzdem betrieben. Um ein Programm auf mehrere Kerne zu verteilen, muss das Programm also in voneinander möglichst unabhängig lauffähige Unterprozesse aufgeteilt werden. Die gegenseitige Unabhängigkeit ist wichtig, weil ansonsten der Kommunikationsaufwand größer ist, als der Geschwindigkeitsgewinn durch die Auslagerung. GPUs hingegen bearbeiten stark parallele Aufgaben. Viele Berechnungen müssen tausende Male parallel passieren. Wenn z.B. ein Shader auf ein Objekt angewendet wird, dass auch nur ein tausendstel des Bildschirm in Anspruch nimmt, dann muss der Shader schon bei Full HD über 2.000 Mal ausgeführt werden. Dazu kommt, dass viele Shader unabhängig voneinander ausgeführt werden können. Bei zwei bis acht Millionen Pixeln im Bild, auf die jeweils mehrere Shader angewendet werden und einer vierstelligen Zahl Shaderprozessoren ist es so kein Problem, die GPU gut auszulasten.

Ich finde das hier ist ein guter Startpunkt, falls du mehr Details willst: https://en.wikipedia.org/wiki/Parallel_computing
 
In cpu gibt es auch alu wie in der gpu zen hat 4 intel ci 14th 6 kommend mit zen 5 6 alu
Diese aber beschleunigen nur die avx befehle die in games sehr selten genutzt werden.
Wichtiger bei cpu ist die Latenz zum L3 cache und dessen Größe damit steigt die ipc mehr kerne bringt also nix fürn gamer die tatsächliche ipc ist viel wichtiger.
Allgemein reichen 6 kern cpu völlig aus. Da das Os mittlerweile viele kerne so sehr beschäftigt das man mit 4 kernen bzw 2 kernen zu wenig ipc über hat fürn spiel. (Prozess zeit)
Ok ALU sind es also,was wird denn noch eine Rolle ,es gibt nicht nur diese Einheiten sondern auch Floingpoint und Float also Fließkomma Einheit.DIese spielt doch auch eine Rolle für die Leistung bei Programmen und auch gibt es Programme wo es auch mehr als 8-12 Kerne Ausnutzen kann,diese sind ab einer gewissen Punkte auch so wie bei den Spielen auch dann.
 
Das hängt vom program ab und dem source code nicht alle Programme kann man parallelisieren encoding bspw geht das problemlos da die daten für künftige Berechnungen schon vorhanden sind und somit keine Abhängigkeit von älteren daten abhängt alles was Echtzeit ist sei es Bild ton Bearbeitung oder Textverarbeitung kann nur in singlethread abgearbeitet werden.
Darum profitiert man von mehr kernen nur bei viel parallel laufenden Programmen.
Und die Prozess Zeit bestimmt wie lange ein Programm an cpu zeit bekommt. Deswegen ist der sheduler von Windows hier relevant Ein win xp kann nicht mehr als 2 threads bearbeiten ein win vista kommt gerade mal mit 4 threads zurecht erst win 8 auf an ist cpu kern unabhängig.
Seitdem hängt es vom Programm ab ob mehr als 4 threads einer cpu genutzt werden können
Der explorer ist bis heute singlethread und eins der ältesten Programme die es gibt (1988)
 
Ja schon aber selbst wenn alles Perfekt abläuft gibt es auch da irgendwann seine Grenzen.Das ist dann ab einer gewissen Anzahl an Kernen dann schluss.Es ist auch Entscheidend welchen Codec man verwendet beim encodieren.Eigentlich sagt man ja bei H264 ist ab 16 Kernen schluss.Aber für das es da eigentlich schluss ist,geht es dennoch noch 10 % über das bei einem 24 Kerner.Aber bestimmt nur wenn man mehr als 1 gleichzeitig verwendet.Hier spielt es dann ne rolle wie oft man ein Programm dann ausführt.Aber auch das hat so seine Grenzen.Ich bin gespannt ob ich so bei Zen 6 noch was heraus holen kann.Klar ist egal ob eins von dem oder zwei selbe Programm,mit dem Cache habe ich schon länger kein Problem mehr.Klar bei so einer CPU wie dem Ryzen 7 5700 und 5800 mit den 16 vs 32 MB L3 Cache sah ich unterschiede.Aber weder bei L1 noch L2 war ein Unterschied feststellbar.Eigentlich sollte ja wenn total Cache Unabhängig ist,es richtig Gas geben können,aber leider Limitert doch noch was.Denn ich will es ja noch schneller haben.
Zen 5 wird nur als übergang sein um Platz für Zen 6 zu machen.Allerdings sehe ich 10 % als sau wenig an.Wenn allerdings der Preis passt,dann geht das schon klar.Die extra 10 % nehme ich falls das stimmt gerne mit.Sind halt 24 Kerne von 32.Diese abstufung wird es auch noch geben,für die wo mit 32 Kernen nix anfangen können.
Ich teile also in Zukunft das selbe Schicksal wie die Zocker,kann man so sagen.Da ist dann die IPC einfach durch mehr kerne errreicht worden,kann man so sagen.
 
Wenn allerdings der Preis passt,dann geht das schon klar.

Wurde denn jemals neuer Kram günstig veräußert? Sprich, das würde ich mir ganz schnell aus dem Kopf schlagen. Selbst AMD hat sukzessive kräftig an er der Preisschraube gedreht. Zur Erinnerung: Selbst für den kleinen Ryzen 5 5600X wurden ursprünglich 299,- Euro aufgerufen.

Quelle: AMD Ryzen 5000 im Test: 5950X, 5900X, 5800X & 5600X/Modelle, Preise, Verfügbarkeit und Taktangaben

Vom 5900X wollen wir gar nicht reden.... lassen wir stattdessen Bilder sprechen: :D

5900x.jpg


Quelle: Geizhals

Angesprochen dürfen sich vor allem all jene fühlen, die bereit sind, auch für den noch so kleinsten Zuwachs gehörig in die Tasche zu greifen. Also jene Klientel, die sich nicht lumpen lässt, wenn es um Innovation geht. Wirtschaftlich gesehen natürlich völlig legitim, auszuloten, wo die Grenze zu ziehen ist.

Edit: Wer sich hingegen in Geduld übt, bekommt den Plunder irgendwann hinterher geschmissen.

mit fdl. Gruß
 
Zuletzt bearbeitet von einem Moderator:
Natürlich lässt sich fast immer ein Produkt ins Feld führen, welches ein schlechteres Preis-Leistung-Verhältnis sein Eigen nennt. Hier geht's mehr darum aufzuzeigen, dass solche Wünsche wohl nicht erhört werden:

Wenn allerdings der Preis passt,dann geht das schon klar.

Und natürlich dreht nicht alleinig AMD an der Preisschraube. Nur würde eine Auflistung all derjenigen viel zu viel Zeit in Anspruch nehmen. :D

Wer sich hingegen in Geduld übt, erhält den Krempel häufig für lau, weil selten bedarfsgerecht produziert wird. Bspw. wenn sich der Plunder bis zur Decke stapelt. Okay, man/n könnte es wie bei Ferrero handhaben, wo überschüssige Ware einfach vernichtet wird, um das Preisgefüge stabil zu halten.

Persönlich würde ich mir ehrlich gesagt reichlich verar*** vorkommen, wenn der Krempel im späteren Verlauf wird die Hälfte veräußert wird.

mit frdl. Gruß
 
Zuletzt bearbeitet von einem Moderator:
Zurück