Basti1988
Freizeitschrauber(in)
Ja, vielleicht kommt er ja aus Bayern oder Sachsen?!
Also ich habe es jedenfalls diesmal ganz gut verstanden und ja, es ergibt Sinn.
MfG
Ey lass Bayern ausm Spiel.
Ja, vielleicht kommt er ja aus Bayern oder Sachsen?!
Also ich habe es jedenfalls diesmal ganz gut verstanden und ja, es ergibt Sinn.
MfG
Ist es denn gesichert das die Latenz steigt im Mittel? Schließlich musste vorher zwei von 4 DIEs den weg über die anderen DIEs gehen, was dann ja mit der neuen Methode deutlich schneller sein sollte oder?
Eben nicht. Von den 4 dies hatte jeder eine direkte Verbindung per IF zu jedem anderen.
Ey lass Bayern ausm Spiel.
Ok, nur zum Verständnis, es ist schneller wenn zwei DIEs ohne MC per IF mit den anderen DIEs mit MC kommunizieren als wenn alle den direkten aber im Mittel längeren Weg über den NB chip nehmen?Rein von der Logik her, muss die Latenz steigen, wenn zusätzliche physische Einheiten dazwischen geschaltet werden, weil der Verwaltungsaufwand steigt. Außerdem werden die Signalwege länger, was die Signalqualität verschlechtert. Man braucht zusätzliche Korrekturinstanzen, wenn die Geschwindigkeit gehalten oder sogar erhöht werden soll. Könnte über Takt usw. kompensiert werden, was aber Energie benötigt.
Das ganze erledigt sich eh, wenn es einen zusätzlichen Die mit IMC geben sollte.
Eben, dass dachte ich ja auch.Ja, mit einer Latenz von 200ns. Toll. Das kriegt man der zentralen Verwaltungsinstanz sicherlich auch gebacken.
Ok, nur zum Verständnis, es ist schneller wenn zwei DIEs ohne MC per IF mit den anderen DIEs mit MC kommunizieren als wenn alle den direkten aber im Mittel längeren Weg über den NB chip nehmen?
Also ist der Weg per IF zum anderen DIE gleichlang aber schneller oder kürzer und schneller?
Ok, vorr. gesetzt die zentrale Einheit ist performant genug, sollte das dann keine relevanten Auswirkungen auf die Desktop CPUs haben oder werden diese in jedem Fall Latenz technisch langsamer, da dort ausschl. interne MCs zum Einsatz kommen, im Vergleich zu TR?Nein, das denke ich nicht. Aber es hat auch keine großen Vorteile gegenüber dem aktuellen Ansatz. Bei einer Sterntopologie kommt es immer drauf an, wie performant die zentrale Einheit ist.
Solch schlechte Gerüchte bei HWUB? kann ich nciht glauben. Vor allem da TSMC selbst zu dne 7nm sagt sie hoffen schlussendlich 5 GHz erreichen zu können.Gerüchten zufolge (hardware unboxed) kommen in tsmc 7nm theoretische 5,2ghz erreicht werden real wird eher 4,6 min und max 4,8ghz
Eine Aufstockung der Kerne pro CCX auf 6-8 Kerne war schließlich auch im Gespräch. Damit könnte man dann einen Ryzen 7 2800 mit 12 Kernen erstellen.
Die Distanz ist nicht das Problem - aber JEDE externe Beschaltung bringt zwingend Verzögerungen mit sich. Da ist dann der Kanal ungefähr so:Auch wenn das sicher eine Verschlechterung der Latenzen mit sich bringt, würde ich noch nicht die Welt untergehen sehen wollen. Der Speichercontroller sitzt ja nicht wie Anno 2003 mehrere Zentimeter entfernt auf einem ganz anderen Sockel.
Wie du bereits sagtest - der L4 ist ein Cache, der Speichercontroller sitzt da noch immer auf der CPU. Im Cache-controller ist hinterlegt welche Daten im Cache liegen - wenn der festellt das es im L4 liegt dann wird auf den L4 zugegriffen, wenn nicht dann gehts zum RAM - 2 unterschiedliche Kanäle, die Daten werden nicht durch einen Extra-Chip durchgeschleift.So etwas kann funktionieren, wenn man es denn gut macht. Bei Intels i7 5775c war der L4 Cache auch auf einem externen Chip, und der hatte bekanntlich eine hervorragende Performance. Auch wenn sich die Latenzen im Vergleich zu den Chips ohne L4 Cache etwas verschlechterten.
Sagt der Typ der immer versucht mit großen Worten um sich zu werfen der dann aber immer wieder beweist das er von Grundlagen der Physik keine Ahnung hat.So ein Blech! Derjenige Typ versteht echt gar nichts!
Ich glaubte AMD müsste aufholen und nicht irgendwelche Verschaltungen kreieren die wiederum verlangsamen.
Verstehe eh nur die Hälfte.
So wie ich das jetzt verstanden habe senkt AMD nur die Latenzen bei den TR DIEs ohne MC. Bei den DIEs mit MC würde sie sich etwas verlängern, weshalb das Design, so verstehe ich es, bei den Desktop CPUs zu höheren Latenzen führt, da dort jeder DIE, sind ja nur zwei, einen eigenen MC(memory/Speichercontroler) besitzt.Ich kenne mich in der Materie nicht so aus aber wäre ein externer Speichercontroller nicht wieder ein Schritt zurück?
Sowas hat es früher doch auch schon gegeben.
Kann AMD nicht die CCX Latenzen anders senken?
Kann AMD nicht die CCX Latenzen anders senken?
Wenn du eh nur die Hälfte verstehst, wäre es intelligent gewesen, den Kommentar gleich ganz zu lassen.
Die Zen-Architektur hat ohnehin schon sehr lange Signallaufzeiten, weil die Cluster sich über lange Wege erstrecken. Daraus resultiert die zu Intels monolithischer Architektur verhältnismäßig hohe Eingangsspannung und demzufolge "niedrig" ist das zu erzielende Taktsignal. Der Integrated Memory Controller ist nicht alles, die Memory Management Unit und der Advanced Programmable Interrupt Controller sind auch noch da. Letzteres macht in der I/O-Performance viel mehr aus. Die Zen-CPUs brauchen das sehr hohe DRAM-Taktsignal gerade deswegen, weil die Speichertransaktionen der Flaschenhals sind.
Wenn schon 14FF 7-mal mehr Memory Transactions umsetzt dann steigt dieser Wert bei 14FF++ auf bis das Zehnfache an. Davon profitieren die Games, vielmehr noch wie sonstige Anwendungenszenarien.
SiSoftware veroeffentlicht Test des Ryzen 7 2700X und Ryzen 5 2600 - Hardwareluxx
AMD hat den Weg gewählt, viele Cluster auf großer Fläche zu verteilen. Das ergibt nun mal Weg gleich Zeit.
Nur ein Vorschlag: AMD hätte die CPUs in höher bauen können anstatt in breiter bzw. länger, per Dual-Stack-Verfahren, so wären alle die sämtlichen Cluster auf einem kleinen Punkt konzentriert, der Speichercontroller nehme eine zentrale Funktion inmitten dieser Layer ein.
Ist es denn gesichert das die Latenz steigt im Mittel? Schließlich musste vorher zwei von 4 DIEs den weg über die anderen DIEs gehen, was dann ja mit der neuen Methode deutlich schneller sein sollte oder?
MfG
Ok, vorr. gesetzt die zentrale Einheit ist performant genug, sollte das dann keine relevanten Auswirkungen auf die Desktop CPUs haben oder werden diese in jedem Fall Latenz technisch langsamer, da dort ausschl. interne MCs zum Einsatz kommen, im Vergleich zu TR?
MfG