• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

AMD RDNA 2: Bilder eines Engineering Samples der Radeon 6000

gerX7a

Software-Overclocker(in)
Die Technologie ist nicht proprietär, jeder kann bei Micron bestellen.

Hatten wir das mit der Leseschwäche heute bei dir nicht schon mal?
Die Technik ist proprietär, da Micron die im Alleingang entwicklet hat mit Input von nVidia. Selbst der JEDEC hat man noch keine Specs vorgelegt, hofft aber, dass man die später von denen standardisiert bekommen wird, damit man den Speicher in größerem Rahmen vertreiben kann. Darüber hinaus war die Entwicklung eine Kooperation zwischen Micron und nVidia. Die Chips benötigen neue Speichercontroller, d. h. man kann nicht einfach die BGAs austauschen, sondern muss dafür die Chiparchitektur, konkret die IP der Controller anpassen. Und eben aufgrund dieser Kooperation darf man wohl sehrwohl davon ausgehen, dass die ersten Chargen hier nVidia vorbehalten bleiben, denn die werden so etwas nicht mit Micron aufsetzen um dann in Engpässe zu laufen.

Also noch mal zusammenfassend:
o aktuell ist sie proprietär, weil kein offizieller Standard: "At this point in time, it [specs] has not been submitted to JEDEC for standardization"
o sie wird aktuell nur nVidia zur Verfügung stehen: "Right now, only Nvidia uses GDDR6X memory, but Micron hopes this will change over time. Can it? [...] Nvidia is the only customer, so GDDR6X's evolution depends on Nvidia's demands and Micron's ability to mass-produce"
o und daher wird AMD sie vorerst nicht nutzen können und sich in Verbindung mit RDNA2 auf Standard-GDDR6 beschränken

"The biggest caveat of GDDR6X at this point is that it was developed solely by Micron with some input from Nvidia. Micron has not submitted the standard to JEDEC, and it is unclear whether GDDR6X will ever become an industry standard. Micron hopes that GDDR6X will be used for non-graphics applications, but it will be hard to promote the new type of memory without support from other companies."
 

waynetrain

Komplett-PC-Käufer(in)
Verstehe ich auch nicht. Englisch scheint nicht so sein Ding zu sein^^

sie wird aktuell nur nVidia zur Verfügung stehen: "Right now, only Nvidia uses GDDR6X memory

Das ist schlicht nicht das, was dort steht...

ps: und das hier ist ja wohl noch eindeutiger: "We now start offering and opening this up to the industry, GDDR6X is not customer-specific," said Ebert. "We expect other customers to have interest moving forward, and then we will also engage with them."

Soll ich es dir vllt. noch übersetzen? :D
 

-ElCritico-

Freizeitschrauber(in)
Verstehe ich auch nicht. Englisch scheint nicht so sein Ding zu sein^^



Das ist schlicht nicht das, was dort steht...

ps: und das hier ist ja wohl noch eindeutiger: "We now start offering and opening this up to the industry, GDDR6X is not customer-specific," said Ebert. "We expect other customers to have interest moving forward, and then we will also engage with them."

Soll ich es dir vllt. noch übersetzen? :D
Ich habe genau die Stelle beim ersten Mal zitiert.

blabla...Aufregung...blabla
Ich bin des Englischen mächtig. Leseschwäche ist angeboren, Englisch kann man lernen..

@Topic
Nach vorläufiger Xbox Series X Bewertung ist deren GPU-Einheit genau so stark wie RTX 2080 Ti bei Gears 5 mit 52 CUs, die nur mit 1,8GHz takten. Bei der PS5 sieht man, dass es weitaus höher geht.
 
Zuletzt bearbeitet:

Jahtari

Software-Overclocker(in)
ich gehe da sogar gern mal noch weiter:
"Micron hopes that GDDR6X will be used for non-graphics applications, but it will be hard to promote the new type of memory without support from other companies."

Klingt jetzt auch nicht unbedingt danach, als würde man stolz drauf sein nur einen einzigen Kunden für sein Produkt zu haben. ^^
 
Zuletzt bearbeitet:

waynetrain

Komplett-PC-Käufer(in)
Ehrlicherweise muss man dazu sagen, dass Micron das erst jetzt anderen Unternehmen anbietet(ka, wann das Interview statt fand). Für Big Navi wäre das wohl etwas spät.
 

troppa

Software-Overclocker(in)
Warum müssen diese Leak Bilder immer so undeutlich sein...

Schwer zu sagen, was wir da sehen. Finde an "Full Secure Typical XT A0 ASIC" & "Typical Samsung 16 Gb" vor Allem die Anführungszeichen und "Typical" interessant. Da gabs mal ein serienreifes RX 5700 Sample auf Ebay da steht aber nichts in Anführungszeichen und auch kein "Typical" Vlt. ein frühes Sample von "LittleBigNavi" aka RX 6700 XT???
Da steht eindeutig: Samsung 16 Gb. Also Samsung 2 GiB Module und nicht 16 Gbps. Die wirds wohl noch in 16 Gbps geben aber zumindest lt. Samsung Site momentan nur als Samples. Da diese Module in 14 Gbps in Massenproduktion sind, denke ich, dass die dann verbaut werden, wenn die Karten wirklich Anfang November (4.11.?) rauskommen sollten. Was für einen spätern Lauch einer RX 6800 XT sprechen könnte. Zudem sehe ich nur 3+3 Module, wo sollen da noch 2 mehr sein? Links und Rechts sind Schrauben oder die VRM in Weg... Spräche dann wohl ehr für 12 GiB Vram...
 

Anhänge

  • s-l1600-1.jpg
    s-l1600-1.jpg
    449,3 KB · Aufrufe: 96
  • 47eb08c28f6f2897a7434549f09b80d99abb70d6-2.jpg
    47eb08c28f6f2897a7434549f09b80d99abb70d6-2.jpg
    216,2 KB · Aufrufe: 100

Gerry1984

Software-Overclocker(in)
Ne, da in der Reihe rechts vom Prozessor sind auch die Kontakte von zwei Rambausteinen zu erkennen. Jeweils in der Ecke, der Platz in der Mitte ist durch eine Schraube oder ähnliches belegt.
 

Fatih29

Schraubenverwechsler(in)
also ich hoffe es ist ein besser als Zen 2 , Zen 3 sollte Hoffentlich Single core mindesten r20 530 punkte schaffen wäre genial und 4600mhz über Taktung hinkriegen mal schauen wäre echt super und wenn big navi 6000er mit 3070 besser noch 3080 mithalten kann Ray Tracing hat und 16gb vram so um die 500bis800€ kostet bin ich bereit zu kaufen
 

NoltschM

Komplett-PC-Aufrüster(in)
Tech-P@rn am Morgen vertreibt Kummer und Sorgen. Was will ich mit RGB und verrückten Farben, wenn ich mir so ein Schmuckstück in den PC kleben könnte? Wobei mir diesmal auch das Kühlerdesign von Nvidia zusagt.

Daumen drücken, dass BigNavi die 3070 schlägt und Nvidias Speicherkrüppelpolitik mal wieder offenbart! :D
 

-ElCritico-

Freizeitschrauber(in)
@Bohemian
Wird eben persönlich, wenn Argumente fehlen oder selbst bloßgestellt wird, einfach ignorieren.

@Topic
Eine BigNavi lite mit 16GB zwischen RTX 3070 und RTX 3080 wäre doch genial. So stark muss die Karte nicht sein, es muss der Preis und das Gesamtpaket stimmen.
Bei Nvidia kann man eigentlich nur bei RTX 3090 seine Ruhe haben und die ist sündteuer. Alle anderen sind vergiftete Köder, wo man dann in 1-2 Jahren wieder das bessere Modell mit vlt 2GB mehr VRAM holen muss.
 

RavionHD

PCGH-Community-Veteran(in)
Der Schluss ist doch absolut logisch, 52CUs in der Xbox liefern ziemlich genau die Leistung der 2080Ti, dass die Xbox RDNA 2 nutzt ist öffentlich bekannt. Dass Sony ebenfalls über 2Ghz mit RDNA 2 geht ist auch hinreichend dokumentiert. Insweit sind die beiden Argumente doch gut und richtig.
Nein, die XSX GPU ist weit von 2080ti Level entfernt, und eher zwischen 2080 und 2080S angesiedelt (siehe z.Bsp. PC/XSX Spiele wo eine 2080 in Grunde für XSX Grafik enpfohlen wird).
Eine RTX 2080ti mit 1900 Mhz kommt auf 16,5 Teraflops, die XSX GPU auf 12 Teraflops.
Der Gears 5 Test ist dahingehend nicht aussagekräftig weil nicht der gleichd Build verwendet wurde, und Microsoft offenbar einen Framelock genutzt hat was die Sache sowieso kaum vergleichbar machen lässt.
 

McZonk

Moderator
Teammitglied
Moderativer Hinweis: Hier sind gerade ein paar Beiträge verschwunden, die sich eigentlich nur noch um die Anwesenheit eines Nutzers gedreht haben. Da das Thema jetzt durch ist: bitte wieder onTopic! ;)
 

-ElCritico-

Freizeitschrauber(in)
Nein, die XSX GPU ist weit von 2080ti Level entfernt, und eher zwischen 2080 und 2080S angesiedelt (siehe z.Bsp. PC/XSX Spiele wo eine 2080 in Grunde für XSX Grafik enpfohlen wird).
1. Empfohlen heißt nicht, dass die Leistung 1:1 entspricht. Spieleentwickler schreiben die VGA, die am meisten verbreitet ist, da rein. Bei Gears 5 kommt ein konkreter Test mit festen Einstellungen vor.
2. TFs sind nicht gleich TFs, die Architektur hat da auch ein Wörtchen mitzureden (siehe Vega und Pascal), zumal Ampere sich mehr Richtung Compute und RDNA2 Richtung Gaming entwickel haben.
 

boedefelt

PC-Selbstbauer(in)
@Bohemian
Wird eben persönlich, wenn Argumente fehlen oder selbst bloßgestellt wird, einfach ignorieren.

Bei den Leuten die gerade wieder aus ihren Löchern kommen erwartet uns scheinbar was ganz dickes.

@Topic
Eine BigNavi lite mit 16GB zwischen RTX 3070 und RTX 3080 wäre doch genial. So stark muss die Karte nicht sein, es muss der Preis und das Gesamtpaket stimmen.

Mir würden bei der Karte dann schon 12GB reichen. Bei den Spielen die ich aktuell im Auge habe dürfte das für die nächsten Jahre locker reichen.

Bei Nvidia kann man eigentlich nur bei RTX 3090 seine Ruhe haben und die ist sündteuer. Alle anderen sind vergiftete Köder, wo man dann in 1-2 Jahren wieder das bessere Modell mit vlt 2GB mehr VRAM holen muss.

Es ist immer die Frage ob das was NV da präsentiert hat auch wirklich beim Kunden ankommt oder ob da zu viel schön "geredet" wurde.
 

AfFelix

Freizeitschrauber(in)
Die bisherige Diskussion unter den beiden AMD News hat mich echt enttäuscht. Lange nicht mehr so unproduktive Kommentare gelesen.

Ich tippe wir werden sehen 16GB 512Bit 18Gbps rund herum um den Chip gepflastert.
Vllt kommt auch eine 32GB Variante mit Wakü und 350 Watt als Topmodell

Leistungstechnisch ist Big Navi ein einziges Rätselraten von knapp hinter der 3080 bis knapp vor 3090 ist alles drin.

Von der Rohleistung in Tflops kann man nun keine Vergleiche mehr erarbeiten.
 

RavionHD

PCGH-Community-Veteran(in)
1. Empfohlen heißt nicht, dass die Leistung 1:1 entspricht. Spieleentwickler schreiben die VGA, die am meisten verbreitet ist, da rein. Bei Gears 5 kommt ein konkreter Test mit festen Einstellungen vor.
2. TFs sind nicht gleich TFs, die Architektur hat da auch ein Wörtchen mitzureden (siehe Vega und Pascal), zumal Ampere sich mehr Richtung Compute und RDNA2 Richtung Gaming entwickel haben.
Die 2080ti ist keine Ampere GPU. Und inwiefern bzw ob RDNA2 effizienter wie Turing ist in puncto FPS/Teraflops wird sich erst zeigen.
 

-ElCritico-

Freizeitschrauber(in)

AfFelix

Freizeitschrauber(in)
Die 2080ti ist keine Ampere GPU. Und inwiefern bzw ob RDNA2 effizienter wie Turing ist in puncto FPS/Teraflops wird sich erst zeigen.

Joa ein Nachtrag zum Vergleichen
3090 36Tflops 150%
2080ti 15Tflops 96%
5700Xt 9Tflops 66%
2070 8Tflop 65%

Gut was man sagen muss die großen GPUs sind pro terraflop nie so effizient wie die Mittelklasse
 

HardwareNoob41

PC-Selbstbauer(in)
Die bisherige Diskussion unter den beiden AMD News hat mich echt enttäuscht. Lange nicht mehr so unproduktive Kommentare gelesen.

Ich tippe wir werden sehen 16GB 512Bit 18Gbps rund herum um den Chip gepflastert.
Vllt kommt auch eine 32GB Variante mit Wakü und 350 Watt als Topmodell

Leistungstechnisch ist Big Navi ein einziges Rätselraten von knapp hinter der 3080 bis knapp vor 3090 ist alles drin.

Von der Rohleistung in Tflops kann man nun keine Vergleiche mehr erarbeiten.
So wie die Big Navi hier https://www.gamestar.de/artikel/ryzen-4000-radeon-rx-6000-vorstellungstermine,3361787.html aussieht, ist davon auszugehen, dass da was ziemlich starkes kommt bis ca. Gleichstand RTX 3090! Ist wohl auch ein schöner Brocken!
 

HardwareNoob41

PC-Selbstbauer(in)
So wie es aussieht wird sich Big Navi dann mit der 3070 rumschlagen.

Nö wird sich Big Navi nicht! Siehe
Recommented content - Twitter An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
ist der Unfug mit Big Navi in maximaler Ausführung und 3070 Contender jetzt mal vom Tisch! Da das erwiesenermaßen nicht zutrifft! Schon gar nicht wenn die 60 % Perf/ Watt von RedGamingTech stimmen! Erste Benchmark zur größten Ausführung von Big Navi gibts erst nach den Tests von RTX 3090, zumindest macht das Marketingtechnisch Sinn!
 

HardwareNoob41

PC-Selbstbauer(in)

draco1993

Komplett-PC-Käufer(in)
wie die amdler träumen komplett unrealistisch. Wenn sie die 2080ti schon eingeholt haben dann passt das doch ins realistische bild und ist für amd verhältnisse sogar ziemlich gut. Ich erinnere die 1080 Ti ist immer noch schneller als alles was amd hat. Release 2017
 

draco1993

Komplett-PC-Käufer(in)
Wenn die Grafikeinheit in den Konsole um die 2080 Super Performance hat, ist es naiv zu glauben, dass Big Navi nicht schneller sein wird als die 2080 ti.
ich wette mit dir. ich werde dir 50€ überweisen wenn du recht hast. ich sage maximal 3070 custom = navi 2. im schnitt nicht bei sondergames natürlich.
 

INU.ID

Moderator
Teammitglied
Ich hab mal 2 Beiträge entfernt. Keine Ahnung ob die Angaben echt waren, aber bitte postet hier im öffentlichen Bereich keine persönliche Daten wie eure Bankverbindung o.ä.
 
Oben Unten