News Radeon RX 8000: Erste Fakten zu RDNA 4 und viele Gerüchte zu Navi 44 und Navi 48

Und ich denke die Gerüchtespekulanten setzen "Kein- High-End" mit, wieder kein echter Konkurrent gegen den grössten Chip von NVidia gleich, wie es AMD eigentlich seit den Titan-Anfängen nie absichtlich tat.

N31 ist auch nur 20% grösser wie N21, und wenn der grösste N4x 20-25% grösser wird als N31, dann wird auch RDNA4 in seiner Generation einen schnelleren Chip liefern, aber halt einer, der nur im absolut besten Fall den geschnittenen, gegenüber N21 33% grösseren AD102 auf der 4090 erreichen können würde. :kaffee:
Deswegen wäre der grösste N4x trotzdem High-End, aber halt kein Halo-Produkt wie ein AD102, das die Limitierungen der Produktion zu grossen Teilen ausreizt und grösser wegen den CPU-Limitierungen abseits von hoch experimentellen Spielkästen wie Raytracing, sowieso auch kaum mehr Sinn macht.

Stellt sich mir nur die Frage, wie modular AMD RDN4 hinbringt. Ich glaube zwar nicht dran, dass sie bei RDNA4 bereits den Schritt wie bei CDNA gehen und mehrere GPU-Chiplets zusammen kleben, aber falls doch, wäre AMD gar nicht mehr auf grosse Chips angewiesen und die Gerüchteküchler könnten das Fehlen eines richtig grossen Chips zusätzlich missinterpretieren.
 
Die Gerüchte sagen aktuell folgendes:
Chiplet-Design - gestrichen
RT Leistung - kaum Fortschritt
Maximale Performance - 7900GRE
Die Gerüchte stimmen mich optimistisch.

Bei RDNA2 hieß es, der Launch wird katastrophal und man wird kaum auf dem Level der 2080 Ti landen. Die Erwartungen wurden stark übertroffen.

Bei RDNA3 hieß es, AMD wird alles abreißen. Was daraus geworden ist, ist bekannt.

Bei RDNA4 heißt es, der Launch wird katastrophal. Meine Prognose lautet dementsprechend, dass AMD die Erwartungen übertroffen wird ^^
 
Zuletzt bearbeitet:
Und ich denke die Gerüchtespekulanten setzen "Kein- High-End" mit, wieder kein echter Konkurrent gegen den grössten Chip von NVidia gleich, wie es AMD eigentlich seit den Titan-Anfängen nie absichtlich tat.

N31 ist auch nur 20% grösser wie N21, und wenn der grösste N4x 20-25% grösser wird als N31, dann wird auch RDNA4 in seiner Generation einen schnelleren Chip liefern, aber halt einer, der nur im absolut besten Fall den geschnittenen, gegenüber N21 33% grösseren AD102 auf der 4090 erreichen können würde. :kaffee:
Deswegen wäre der grösste N4x trotzdem High-End, aber halt kein Halo-Produkt wie ein AD102, das die Limitierungen der Produktion zu grossen Teilen ausreizt und grösser wegen den CPU-Limitierungen abseits von hoch experimentellen Spielkästen wie Raytracing, sowieso auch kaum mehr Sinn macht.

Stellt sich mir nur die Frage, wie modular AMD RDN4 hinbringt. Ich glaube zwar nicht dran, dass sie bei RDNA4 bereits den Schritt wie bei CDNA gehen und mehrere GPU-Chiplets zusammen kleben, aber falls doch, wäre AMD gar nicht mehr auf grosse Chips angewiesen und die Gerüchteküchler könnten das Fehlen eines richtig grossen Chips zusätzlich missinterpretieren.
Der stärkste RDNA4 Chip wird wohl nur ein monolithischer max. ~300mm² in 4nm.

Das mit mehreren Chiplets auf auf einen Interposer wurde ja verworfen. Vllt kommst dann mit RDNA5.

Hätte dann wohl ungefähr so ausgesehen.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zuletzt bearbeitet:
7900XT Leistung bei ca. 200W (hab ich jetzt so aus den Gerüchten und schnellen Mathe rausgelesen)
dazu ein guter Preis und ich bin dabei, 399€-499€? möglich?!
:ugly:
Wunschdenken, AMD wirds doch nicht günstiger anbieten als sie müssten. Wenn die Leistung bei der 7900 liegen sollte (was leider nicht der Fall sein wird), wird das auch der Preis, warum würde man sein eigenes Geschäft untergraben? Im genannten Preisbereich wildert die 4060 Ti
 
Das geht nur dann wenn man die Architektur anpasst aber da kann man keine Wunder erwarten bzw sowas verkauft sich nicht.

Laut tsmc geht bei einer node Verkleinerung entweder mehr Leistung oder weniger Verbrauch...
Ich bin nicht darauf eingegangen wie es zustande kommt, aber durch einen effizienteren Node und Architekturverbesserungen ist es möglich - wie du selbst schreibst.
;)
Man kann auch den möglichen Mehrtakt nicht voll ausreizen oder den Flaschenhals am Speicherinterface mit GDDR7-VRAM minimieren.
Bei günstigen Preisen kann ich mir aber auch weiterhin GDDR6-VRAM ab 20 GBit/s vorstellen.
 
Dachte ich mir. Hier wird ja richtig wild spekuliert was AMD an Leistung und Effizienz zulegen kann.

Anhang anzeigen 1444382
Die Gerüchte sagen aktuell folgendes:
Chiplet-Design - gestrichen
RT Leistung - kaum Fortschritt
Maximale Performance - 7900GRE
Es wird halt das aktuelle N6 Lineup durch N5 Chips ersetzt. da und dort Optimierungen, aber keine Wunder, keine komplett neue Arch.
Und auch wenn viele (Chatstar, Don...)es nicht wahrhaben wollen, das Chipletdesign ist eben nicht automatisch günstiger, deshalb macht es bei kleineren Chips für die Masse und für Laptops klar Sinn bei Monolithen zu bleiben
 
Steht und fällt nachher eh alles mit dem Preis.
Selbst doppelte 7900er Leistung wäre für die allermeisten komplett irrelevant, wenn sie 3000€ kostet.

Eine richtig gute 300-400€ Karte wäre 100 mal wertvoller.
Nvidia hat ja keine Lust mehr, die geizigen Gamer zu bedienen.

Aber wenn Intel die nächste Generation gut abliefert, könnte AMD mit der "wir bleiben einfach 50€ unter Nvidia" Strategie richtig auf den Nase fliegen.
 
Dachte ich mir. Hier wird ja richtig wild spekuliert was AMD an Leistung und Effizienz zulegen kann.

Anhang anzeigen 1444382
Die Gerüchte sagen aktuell folgendes:
Chiplet-Design - gestrichen
RT Leistung - kaum Fortschritt
Maximale Performance - 7900GRE



Wie man daraus "Leistung einer 7900XTX bei deutlich verringertem Verbrauch" machen kann ist mir mal wieder schleierhaft.
Bleiben aber Gerüchte. ;)
Ich kann mir nicht vorstellen, das AMD nur eine Karte maximal bringt, die Rasterleistung auf Höhe der 7900GRE liefert und dabei etwa nur RT Leistung der 7900XT.
Und ich denke die Gerüchtespekulanten setzen "Kein- High-End" mit, wieder kein echter Konkurrent gegen den grössten Chip von NVidia gleich, wie es AMD eigentlich seit den Titan-Anfängen nie absichtlich tat.
Hat AMD nicht hier und da mit der R9 290X an der ersten Titan gekratzt?
N31 ist auch nur 20% grösser wie N21, und wenn der grösste N4x 20-25% grösser wird als N31, dann wird auch RDNA4 in seiner Generation einen schnelleren Chip liefern, aber halt einer, der nur im absolut besten Fall den geschnittenen, gegenüber N21 33% grösseren AD102 auf der 4090 erreichen können würde. :kaffee:
Deswegen wäre der grösste N4x trotzdem High-End, aber halt kein Halo-Produkt wie ein AD102, das die Limitierungen der Produktion zu grossen Teilen ausreizt und grösser wegen den CPU-Limitierungen abseits von hoch experimentellen Spielkästen wie Raytracing, sowieso auch kaum mehr Sinn macht.

Stellt sich mir nur die Frage, wie modular AMD RDN4 hinbringt. Ich glaube zwar nicht dran, dass sie bei RDNA4 bereits den Schritt wie bei CDNA gehen und mehrere GPU-Chiplets zusammen kleben, aber falls doch, wäre AMD gar nicht mehr auf grosse Chips angewiesen und die Gerüchteküchler könnten das Fehlen eines richtig grossen Chips zusätzlich missinterpretieren.
Den letzten Part hatte ich mir auch schon mal so gedacht. Aber die Gerüchte sagen jetzt keine Chiplets.
 
Natürlich geht das (generell gesehen)
Nein eben nicht....
Sagmal checkt ihr das endlich mal und liest die Infos von tsmc...

Und Architektur und mehr shader bringen kaum mehr Leistung wenns gut läuft 10 20% allerdings kauft da kaum jemand dann was neues
Ich bin nicht darauf eingegangen wie es zustande kommt, aber durch einen effizienteren Node und Architekturverbesserungen ist es möglich - wie du selbst schreibst.
;)
Man kann auch den möglichen Mehrtakt nicht voll ausreizen oder den Flaschenhals am Speicherinterface mit GDDR7-VRAM minimieren.
Bei günstigen Preisen kann ich mir aber auch weiterhin GDDR6-VRAM ab 20 GBit/s vorstellen.
Allerdings bringen Architektur und mehr shader kaum mehr Leistung wenns gut läuft 10 bis 20% im best case allerdings kauft da kaum jemand dann was neues deshalb wird das dann nicht gemacht
Die Gerüchte stimmen mich optimistisch.

Bei RDNA2 hieß es, der Launch wird katastrophal und man wird kaum auf dem Level der 2080 Ti landen. Die Erwartungen wurden stark übertroffen.

Bei RDNA3 hieß es, AMD wird alles abreißen. Was daraus geworden ist, ist bekannt.

Bei RDNA4 heißt es, der Launch wird katastrophal. Meine Prognose lautet dementsprechend, dass AMD die Erwartungen übertroffen wird ^^
Bei rdna2 war es aber nicht wegen amd selber sondern die Überheblichkeit von nvidia das man selbst mit einem schlechteren Prozess amd deutlich schlagen kann nur wegen einem höheren Verbrauch war nvidia dann vorne
Der Wechsel zu tsmc hat dann das alte Kräfteverhältnis wieder hergestellt

Nochmal wird nvidia nicht den Fehler machen wie bei rdna2
 
Zuletzt bearbeitet:
Derjenige der entsprechende Karten hat
Einfach nur nein. Bis auf die Reflexionen sind alle anderen Effekte schlicht und ergreifend visuell so gut wie nicht sichtbar. Nur im direkten Vergleich kann man eventuell sehen, dass da etwas anders ist. Realistische sehen die Spiele dadurch auch nicht aus. Ich habe schon viele meiner Freunde und Bekannten Cyberpunk 2077 einmal mit und ohne Ray Tracing gezeigt und niemand konnte einen Unterschied erkennen. Ihnen ist nicht einmal Aufgefallen, dass mit RT z.B. die Reflexionen immer sichtbar sind. Einzig an der FPS Anzeige war es deutlich sichtbar. ?
 
Nein eben nicht....
Sagmal checkt ihr das endlich mal und liest die Infos von tsmc...

https://en.wikipedia.org/wiki/5_nm_process

Ich glaube Du musst Dich eher mal schlau machen. Wenn ein Prozess-Sprung ansteht, dann kann man schon variieren was "höhere Performance bei gleichem Verbrauch" oder "geringerer Verbrauch bei gleicher Performance" angeht.

Das was Du meinst sind nur Maximal-Werte wenn man nur in eine Richtung entwickelt.

In December 2019, TSMC announced an average yield of approximately 80%, with a peak yield per wafer of over 90% for their 5 nm test chips with a die size of 17.92 mm2.[22] In mid 2020 TSMC claimed its (N5) 5 nm process offered 1.8x the density of its 7 nm N7 process, with 15% speed improvement or 30% lower power consumption; an improved sub-version (N5P or N4) was claimed to improve on N5 with +5% speed or -10% power
Einfach nur nein. Bis auf die Reflexionen sind alle anderen Effekte schlicht und ergreifend visuell so gut wie nicht sichtbar. Nur im direkten Vergleich kann man eventuell sehen, dass da etwas anders ist. Realistische sehen die Spiele dadurch auch nicht aus. Ich habe schon viele meiner Freunde und Bekannten Cyberpunk 2077 einmal mit und ohne Ray Tracing gezeigt und niemand konnte einen Unterschied erkennen. Ihnen ist nicht einmal Aufgefallen, dass mit RT z.B. die Reflexionen immer sichtbar sind. Einzig an der FPS Anzeige war es deutlich sichtbar. ?

Ob Neon-Lichter die Umgebung in ihr jeweiliges Licht tauchen oder nicht haben diese Leute nicht gesehen? Oder die dynamischen Schatten? Oder die reflektierenden Lichter in korrekter Farbe? Sehschwäche?
 
Bleiben aber Gerüchte. ;)
Ich kann mir nicht vorstellen, das AMD nur eine Karte maximal bringt, die Rasterleistung auf Höhe der 7900GRE liefert und dabei etwa nur RT Leistung der 7900XT.

Hat AMD nicht hier und da mit der R9 290X an der ersten Titan gekratzt?

Den letzten Part hatte ich mir auch schon mal so gedacht. Aber die Gerüchte sagen jetzt keine Chiplets.

Ja die 290X hat mit 2816 zu 2688 mehr ALUs verglichen zur beschnittenen ersten Titan. Die zweite Titan mit dem mehr oder weniger gleichen, aber vollen Chip mit 2880 ALUs war von den Rechenwerken her minimal grösser.
Die 290X hatte allerdings deutlich weniger Textureinheiten (176 zu 224/240) und nur 4, statt 6GB VRAM.

Die 290X war daher schon recht nah dran, ja, aber scheint dennoch auch sonst ein deutlich einfacheres Design gewesen zu sein, das immerhin fast 0.9 Mia. Transistoren weniger verbaut hatte und entsprechend mit einer deutlich kleineren Chipfläche auskam (438mm^2 vs. 561/533mm^2, beide 28nm), vergleichsweise viel Strom soff und trotz 512bit Speicheranbindung rein technisch daher nicht wirklich zur Titan konkurrenzfähig war. Der direkte Konkurrent zur 290X ist deswegen eher bei der GTX 780(Ti) zu suchen, die letztlich wegen der Sollbruchstelle VRAM von nur 3GB gegenüber der 290X mittelfristig im Nachteil war und entsprechend auch relativ rasch im Ranking Plätze verlor, trotz dem gleichen Chip wie auf der Titan.
 
Ja die 290X hat mit 2816 zu 2688 mehr ALUs verglichen zur beschnittenen ersten Titan. Die zweite Titan mit dem mehr oder weniger gleichen, aber vollen Chip mit 2880 ALUs war von den Rechenwerken her minimal grösser.
Die 290X hatte allerdings deutlich weniger Textureinheiten (176 zu 224/240) und nur 4, statt 6GB VRAM.

Die 290X war daher schon recht nah dran, ja, aber scheint dennoch auch sonst ein deutlich einfacheres Design gewesen zu sein, das immerhin fast 0.9 Mia. Transistoren weniger verbaut hatte und entsprechend mit einer deutlich kleineren Chipfläche auskam (438mm^2 vs. 561/533mm^2, beide 28nm), vergleichsweise viel Strom soff und trotz 512bit Speicheranbindung rein technisch daher nicht wirklich zur Titan konkurrenzfähig war. Der direkte Konkurrent zur 290X ist deswegen eher bei der GTX 780(Ti) zu suchen, die letztlich wegen der Sollbruchstelle VRAM von nur 3GB gegenüber der 290X mittelfristig im Nachteil war und entsprechend auch relativ rasch im Ranking Plätze verlor, trotz dem gleichen Chip wie auf der Titan.
Deswegen war die 290X, halt eben mehr als der Konkurrent zur 3GB 780TI und konnte sich auch von der Leistung her stark in Kampfnähe platzieren.

Ob die technisch weniger eindrucksvoll war ist mir als Kunde ja relativ..., ich meine damals wie heute zählt was raus kommt.
 
1. AMD bietet aktuell schon genug Leistung für alle Spiele
2. Wer die 3 Raytracing Only Titel spielen will greift zu Nvidia
3. Kaufen 95% hier generell Nvidia und trauern nur über die höheren Kosten der 5000er Gen

Solange die Konsolengeneration ordentliche Preis/Leistung bietet, passt doch alles.
 
Einfach nur nein. Bis auf die Reflexionen sind alle anderen Effekte schlicht und ergreifend visuell so gut wie nicht sichtbar. Nur im direkten Vergleich kann man eventuell sehen, dass da etwas anders ist. Realistische sehen die Spiele dadurch auch nicht aus. Ich habe schon viele meiner Freunde und Bekannten Cyberpunk 2077 einmal mit und ohne Ray Tracing gezeigt und niemand konnte einen Unterschied erkennen. Ihnen ist nicht einmal Aufgefallen, dass mit RT z.B. die Reflexionen immer sichtbar sind. Einzig an der FPS Anzeige war es deutlich sichtbar. ?
Mit einer 3070ti,? Kein Wunder, eine 4090 hat mehr als die doppelte Raytracing Leistung.Wie schon gesagt eine entsprechende Karte ,da ist eine 3070 ti weit davon entfernt.
 
Zurück