AMD RDNA 2: Bilder eines Engineering Samples der Radeon 6000

Die Technologie ist nicht proprietär, jeder kann bei Micron bestellen.

Hatten wir das mit der Leseschwäche heute bei dir nicht schon mal?
Die Technik ist proprietär, da Micron die im Alleingang entwicklet hat mit Input von nVidia. Selbst der JEDEC hat man noch keine Specs vorgelegt, hofft aber, dass man die später von denen standardisiert bekommen wird, damit man den Speicher in größerem Rahmen vertreiben kann. Darüber hinaus war die Entwicklung eine Kooperation zwischen Micron und nVidia. Die Chips benötigen neue Speichercontroller, d. h. man kann nicht einfach die BGAs austauschen, sondern muss dafür die Chiparchitektur, konkret die IP der Controller anpassen. Und eben aufgrund dieser Kooperation darf man wohl sehrwohl davon ausgehen, dass die ersten Chargen hier nVidia vorbehalten bleiben, denn die werden so etwas nicht mit Micron aufsetzen um dann in Engpässe zu laufen.

Also noch mal zusammenfassend:
o aktuell ist sie proprietär, weil kein offizieller Standard: "At this point in time, it [specs] has not been submitted to JEDEC for standardization"
o sie wird aktuell nur nVidia zur Verfügung stehen: "Right now, only Nvidia uses GDDR6X memory, but Micron hopes this will change over time. Can it? [...] Nvidia is the only customer, so GDDR6X's evolution depends on Nvidia's demands and Micron's ability to mass-produce"
o und daher wird AMD sie vorerst nicht nutzen können und sich in Verbindung mit RDNA2 auf Standard-GDDR6 beschränken

"The biggest caveat of GDDR6X at this point is that it was developed solely by Micron with some input from Nvidia. Micron has not submitted the standard to JEDEC, and it is unclear whether GDDR6X will ever become an industry standard. Micron hopes that GDDR6X will be used for non-graphics applications, but it will be hard to promote the new type of memory without support from other companies."
 
Verstehe ich auch nicht. Englisch scheint nicht so sein Ding zu sein^^

sie wird aktuell nur nVidia zur Verfügung stehen: "Right now, only Nvidia uses GDDR6X memory

Das ist schlicht nicht das, was dort steht...

ps: und das hier ist ja wohl noch eindeutiger: "We now start offering and opening this up to the industry, GDDR6X is not customer-specific," said Ebert. "We expect other customers to have interest moving forward, and then we will also engage with them."

Soll ich es dir vllt. noch übersetzen? :D
 
Verstehe ich auch nicht. Englisch scheint nicht so sein Ding zu sein^^



Das ist schlicht nicht das, was dort steht...

ps: und das hier ist ja wohl noch eindeutiger: "We now start offering and opening this up to the industry, GDDR6X is not customer-specific," said Ebert. "We expect other customers to have interest moving forward, and then we will also engage with them."

Soll ich es dir vllt. noch übersetzen? :D
Ich habe genau die Stelle beim ersten Mal zitiert.

blabla...Aufregung...blabla
Ich bin des Englischen mächtig. Leseschwäche ist angeboren, Englisch kann man lernen..

@Topic
Nach vorläufiger Xbox Series X Bewertung ist deren GPU-Einheit genau so stark wie RTX 2080 Ti bei Gears 5 mit 52 CUs, die nur mit 1,8GHz takten. Bei der PS5 sieht man, dass es weitaus höher geht.
 
Zuletzt bearbeitet von einem Moderator:
ich gehe da sogar gern mal noch weiter:
"Micron hopes that GDDR6X will be used for non-graphics applications, but it will be hard to promote the new type of memory without support from other companies."

Klingt jetzt auch nicht unbedingt danach, als würde man stolz drauf sein nur einen einzigen Kunden für sein Produkt zu haben. ^^
 
Zuletzt bearbeitet von einem Moderator:
Ehrlicherweise muss man dazu sagen, dass Micron das erst jetzt anderen Unternehmen anbietet(ka, wann das Interview statt fand). Für Big Navi wäre das wohl etwas spät.
 
Warum müssen diese Leak Bilder immer so undeutlich sein...

Schwer zu sagen, was wir da sehen. Finde an "Full Secure Typical XT A0 ASIC" & "Typical Samsung 16 Gb" vor Allem die Anführungszeichen und "Typical" interessant. Da gabs mal ein serienreifes RX 5700 Sample auf Ebay da steht aber nichts in Anführungszeichen und auch kein "Typical" Vlt. ein frühes Sample von "LittleBigNavi" aka RX 6700 XT???
Da steht eindeutig: Samsung 16 Gb. Also Samsung 2 GiB Module und nicht 16 Gbps. Die wirds wohl noch in 16 Gbps geben aber zumindest lt. Samsung Site momentan nur als Samples. Da diese Module in 14 Gbps in Massenproduktion sind, denke ich, dass die dann verbaut werden, wenn die Karten wirklich Anfang November (4.11.?) rauskommen sollten. Was für einen spätern Lauch einer RX 6800 XT sprechen könnte. Zudem sehe ich nur 3+3 Module, wo sollen da noch 2 mehr sein? Links und Rechts sind Schrauben oder die VRM in Weg... Spräche dann wohl ehr für 12 GiB Vram...
 

Anhänge

  • s-l1600-1.jpg
    s-l1600-1.jpg
    449,3 KB · Aufrufe: 96
  • 47eb08c28f6f2897a7434549f09b80d99abb70d6-2.jpg
    47eb08c28f6f2897a7434549f09b80d99abb70d6-2.jpg
    216,2 KB · Aufrufe: 100
Ne, da in der Reihe rechts vom Prozessor sind auch die Kontakte von zwei Rambausteinen zu erkennen. Jeweils in der Ecke, der Platz in der Mitte ist durch eine Schraube oder ähnliches belegt.
 
also ich hoffe es ist ein besser als Zen 2 , Zen 3 sollte Hoffentlich Single core mindesten r20 530 punkte schaffen wäre genial und 4600mhz über Taktung hinkriegen mal schauen wäre echt super und wenn big navi 6000er mit 3070 besser noch 3080 mithalten kann Ray Tracing hat und 16gb vram so um die 500bis800€ kostet bin ich bereit zu kaufen
 
Tech-P@rn am Morgen vertreibt Kummer und Sorgen. Was will ich mit RGB und verrückten Farben, wenn ich mir so ein Schmuckstück in den PC kleben könnte? Wobei mir diesmal auch das Kühlerdesign von Nvidia zusagt.

Daumen drücken, dass BigNavi die 3070 schlägt und Nvidias Speicherkrüppelpolitik mal wieder offenbart! :D
 
@Bohemian
Wird eben persönlich, wenn Argumente fehlen oder selbst bloßgestellt wird, einfach ignorieren.

@Topic
Eine BigNavi lite mit 16GB zwischen RTX 3070 und RTX 3080 wäre doch genial. So stark muss die Karte nicht sein, es muss der Preis und das Gesamtpaket stimmen.
Bei Nvidia kann man eigentlich nur bei RTX 3090 seine Ruhe haben und die ist sündteuer. Alle anderen sind vergiftete Köder, wo man dann in 1-2 Jahren wieder das bessere Modell mit vlt 2GB mehr VRAM holen muss.
 
Der Schluss ist doch absolut logisch, 52CUs in der Xbox liefern ziemlich genau die Leistung der 2080Ti, dass die Xbox RDNA 2 nutzt ist öffentlich bekannt. Dass Sony ebenfalls über 2Ghz mit RDNA 2 geht ist auch hinreichend dokumentiert. Insweit sind die beiden Argumente doch gut und richtig.
Nein, die XSX GPU ist weit von 2080ti Level entfernt, und eher zwischen 2080 und 2080S angesiedelt (siehe z.Bsp. PC/XSX Spiele wo eine 2080 in Grunde für XSX Grafik enpfohlen wird).
Eine RTX 2080ti mit 1900 Mhz kommt auf 16,5 Teraflops, die XSX GPU auf 12 Teraflops.
Der Gears 5 Test ist dahingehend nicht aussagekräftig weil nicht der gleichd Build verwendet wurde, und Microsoft offenbar einen Framelock genutzt hat was die Sache sowieso kaum vergleichbar machen lässt.
 
Moderativer Hinweis: Hier sind gerade ein paar Beiträge verschwunden, die sich eigentlich nur noch um die Anwesenheit eines Nutzers gedreht haben. Da das Thema jetzt durch ist: bitte wieder onTopic! ;)
 
Nein, die XSX GPU ist weit von 2080ti Level entfernt, und eher zwischen 2080 und 2080S angesiedelt (siehe z.Bsp. PC/XSX Spiele wo eine 2080 in Grunde für XSX Grafik enpfohlen wird).
1. Empfohlen heißt nicht, dass die Leistung 1:1 entspricht. Spieleentwickler schreiben die VGA, die am meisten verbreitet ist, da rein. Bei Gears 5 kommt ein konkreter Test mit festen Einstellungen vor.
2. TFs sind nicht gleich TFs, die Architektur hat da auch ein Wörtchen mitzureden (siehe Vega und Pascal), zumal Ampere sich mehr Richtung Compute und RDNA2 Richtung Gaming entwickel haben.
 
@Bohemian
Wird eben persönlich, wenn Argumente fehlen oder selbst bloßgestellt wird, einfach ignorieren.

Bei den Leuten die gerade wieder aus ihren Löchern kommen erwartet uns scheinbar was ganz dickes.

@Topic
Eine BigNavi lite mit 16GB zwischen RTX 3070 und RTX 3080 wäre doch genial. So stark muss die Karte nicht sein, es muss der Preis und das Gesamtpaket stimmen.

Mir würden bei der Karte dann schon 12GB reichen. Bei den Spielen die ich aktuell im Auge habe dürfte das für die nächsten Jahre locker reichen.

Bei Nvidia kann man eigentlich nur bei RTX 3090 seine Ruhe haben und die ist sündteuer. Alle anderen sind vergiftete Köder, wo man dann in 1-2 Jahren wieder das bessere Modell mit vlt 2GB mehr VRAM holen muss.

Es ist immer die Frage ob das was NV da präsentiert hat auch wirklich beim Kunden ankommt oder ob da zu viel schön "geredet" wurde.
 
Die bisherige Diskussion unter den beiden AMD News hat mich echt enttäuscht. Lange nicht mehr so unproduktive Kommentare gelesen.

Ich tippe wir werden sehen 16GB 512Bit 18Gbps rund herum um den Chip gepflastert.
Vllt kommt auch eine 32GB Variante mit Wakü und 350 Watt als Topmodell

Leistungstechnisch ist Big Navi ein einziges Rätselraten von knapp hinter der 3080 bis knapp vor 3090 ist alles drin.

Von der Rohleistung in Tflops kann man nun keine Vergleiche mehr erarbeiten.
 
Zurück