Radeon RX 6000: AMD zeigt zwei unangekündigte Grafikkarten

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Radeon RX 6000: AMD zeigt zwei unangekündigte Grafikkarten

Auf dem AMD-Livestream zur CES wurde auch ein kurzer Ausblick auf neue RDNA2-Grafikkarten gegeben. CEO Lisa Su stellte "viele, viele neue Produkte" für 2021 in Aussicht. Besonderes zwei Grafikkarten-Designs sorgen für Spekulationen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Radeon RX 6000: AMD zeigt zwei unangekündigte Grafikkarten
 
Es war der einzige spannende Moment der ganzen Präsentation. Als ich die beiden Karten im Hintergrund sah, war mir alles davor und danach Gesagte total egal.
 
Wollten sie bestimmt schon einführen.
Aber bei TSMC ist ja gerade alles Voll, also wo sollen bitte die Chips herkommen?

Aktuell gehen ja alle Karten weg, so wie sie in den Lagern sind.
 
Was will man damit :ka: ?
Ich will damit den Weltfrieden herbeiführen und die globale Energiekrise lösen!



Blöde Frage...
Zocken, was sonst. :schief:
Nicht jeder braucht 800€-1500€ Grafikkarten und nicht jeder braucht quadrillionen FPS.
Momentan kommt meine RX580 bei 1440p@75Hz an ihre Grenzen, ein Upgrade in Form einer 6600XT (oder 6700) wäre mir da sehr willkommen. 12GB Speicher wären schon geil, aber 50 oder mehr Prozent mehr Rohleistung würde mich schon sehr weit bringen.
Eine 5700(XT) bekommt man neu nur noch völlig überteuert, selbst gebraucht.

Ich hoffe einfach, dass AMD im Bereich von 200-250€ eine gute midrange Karte platziert und ich wäre ziemlich happy ;)
(Zu NVidia will ich nicht unbedingt wechseln mit deren fast prähistorischen Treibern ggü. der AMD Radeon Software)
 
Ich hoffe einfach, dass AMD im Bereich von 200-250€ eine gute midrange Karte platziert und ich wäre ziemlich happy ;)
Geht mir genauso, nur glaub ich mittlerweile nicht mehr wirklich daran dass diese Preisregion nochmal erreicht wird...
Wobei: Nvidia oder AMD ist mir eigentlich egal, der Preis muss passen. Hatte schon beide Hersteller verbaut und war eigentlich immer zufrieden.
 
Wenn sie Zaubern hätte können, hätten wir völlig überraschend eine 7800XT und 7900XT gesehen... mit ordentlicher RT-Leistung.

Da wär sogar "Nvidia" Kinnlade runtergegangen...
Die haben doch auch so die "Büchs" gestrichen voll. Mit dem geänderten Speicherhierarchienmodell ala IFC haben sie denen richtig einen reingewürgt. Still ruht der See und Wunden lecken.

Es kommt eben auch darauf an, wieviel Energie ich aufwenden muss, um ein bit zu übertragen (pJ) und wo ich an der Größe der Diesize sparen kann, Nvidia alles egal. Big, bigger, biggest = money money money. Das Samsung damit absolut Probleme hat dürfte faktisch klar sein.

Den Kloß werden sie erstmal schlucken müssen. Kein Wort von Huang dazu...schon komisch, dass der auch mal die Kl*ppe halten kann.
 
Die haben doch auch so die "Büchs" gestrichen voll. Mit dem geänderten Speicherhierarchienmodell ala IFC haben sie denen richtig einen reingewürgt. Still ruht der See und Wunden lecken.

Es kommt eben auch darauf an, wieviel Energie ich aufwenden muss, um ein bit zu übertragen (pJ) und wo ich an der Größe der Diesize sparen kann, Nvidia alles egal. Big, bigger, biggest = money money money. Das Samsung damit absolut Probleme hat dürfte faktisch klar sein.

Den Kloß werden sie erstmal schlucken müssen. Kein Wort von Huang dazu...schon komisch, dass der auch mal die Kl*ppe halten kann.
Immer dieses Fanboy-Gehabe...
Ist doch (aus Verbrauchersicht) völlig egal wie groß ein Chip ist und wo eine Architektur geändert wird. Das einzige was beim Kunden zählt ist effektive Leistung, der Preis (und von mir aus noch Effizienz). Und Nvidia hat mMn im Moment mit Raytracing und DLSS die Nase vorn (nur der Speicherausbau ist abseits von RTX 3090 und RTX 3060 mal wieder mager). Zu deiner Argumentation: Sowohl Navi21 als auch GA102 sind rießig, der Stromverbrauch beider Chips ist hoch und die Leistung auch.
Geld machen wollen außerdem alle. AMD hat mit Ryzen und den RX Karten bislang nur einen sehr niedrigen Preis angeboten, weil Sie Marktanteile gewinnen mussten (Umsatz). Wenn ich mir den Preis der aktuellen Zen3 CPUs im Vergleich zu Zen2 anschaue, dann merkt man, dass auch die massiv die Preise angezogen haben. Das beste für den Verbraucher ist Konkurrenz. Sobald ein Hersteller die Oberhand gewinnt, wird es teuer. Ich hoffe bloß, dass Intel halbwegs gegenhalten kann und nicht untergeht. Sonst wird AMD verdammt teuer.
Und ich bin kein Fanboy. Ich habe seit über zwei Generationen einen All-AMD PC (Phenom II X4, übergangsweise FX8320, Ryzen 1600, HD7870, RX480) und einen Renoir-AMD-Laptop. Aber nur weil dort die P/L besser war.
 
Ja, im Gegensatz dazu bringt AMD noch den L3 Cache ala IFC auf dem GPU Design unter (und ist trotzdem kleiner), was sonst viel kleiner ausfallen würde. Du scheinst nur wenig davon zu verstehen, auf PCGH aber halb so wild.

Das ist kein Fanboydenken sondern die Wahrheit, wenn man sich ansieht was Nvidia mit Ampere veranstaltet, wo Limitationen bestehen. DLSS und RT spielen dabei doch kaum eine Rolle.

Bisherige GPUs bauen auf einer 3er Cache Hierachie auf, sozusagen L0 bis L2 denen bestimmte Funktionsblöcke zugeordnet sind (Compute, Shader usw.). Die weitere Erhöhung der Recheneinheiten würde also gleichfalls diese Hierachie gemessen am Design und SI weiter wachsen lassen, wobei die Caches und Controller dafür Platz im Design brauchen. Das Phy selbst, also die Anbindung von Ressourcen, kostet nicht nur Fläche sondern auch Leistung in Form von Energieaufnahme und letztlich pJ pro bit für den Zugriff auf den GDDR. Je größer ein Design ausfällt um so mehr Einheiten brauchts du, die eigentlich nur Leitungsfunktionen übernehmen, anstatt dass du sie ins Rechenmodell einbinden kannst. Desto länger diese Wege, um so mehr Energie oder steigende Latenz.

Da macht sich so ein weiterer schneller Cache als L3 in Form von SRAM ala IFC, der auch noch nahe der Shadereinheiten platziert wird und als Bindeglied dient, damit die Latenz erheblich reduziert (was natürlich auch Energie spart) doch ziemlich gut. Die Skalierbarkeit spricht für sich, weil man über die Taktrate und entsprechende Kanäle direkt an den GDDR auch die Leistung anpassen kann, ohne das man groß etwas im Design oder der Ausstattung ändern muss, wenn die Hitrate stimmt. Man kann sogar die Bandbreite einfach so mit dem Takt ändern oder anpassen. Diesen Kloß muss Nvidia erstmal runterschlucken, wenn man sich Ampere mal genauer anschaut und wenn man nicht aufpasst, geht es einem so wie Intel, erst Gelächter und nun stillt ruht der See. Innovativ ist AMD damit allemale, auch wenn es Anleihen aus der Zenentwicklung sind. Die Entkopplung und Bereinigung macht dabei eine hohe Taktrate der Recheneinheiten möglich und natürlich rechnen sie dann auch schneller bzw. steigt die Gesamtauslastung. Du brauchst weniger und bist schneller.

UVP mäßig liegt AMD unter der Preisgestaltung von Nvidia und bietet in diesen Segmenten deutlich mehr fürs Geld (vor allem eine effizientere Speicheraustattung), außer für jemanden zählt nur DLSS und RT was bisher kaum eine Rolle spielt und die Unterschiede fallen viel zu oft marginal aus (RT on oder off). Aber das Marketing wird schon richten. Das nunmehr Effizienz bei guter bis besserer Hardwareaustattung und dazugehörigen Eigenschaften keine Rolle mehr spielt, war ja klar, von wegen Fanboy.

Und nur so, Zen1 war genauso teuer und leistete weniger, ein 1800x kostete 549 EUR, und damit ein 8C/16T nicht 449 (der in Form eines 5800x auch noch deutlich mehr leistet). Wie heute schon geschrieben www Gerüchte und Gelaber, mehr nicht. Was etwas mehr kostet ist die Plattform als Unterbau (Perpherie), was sicher PCIe 4.0 bedingt ist, da gebe ich dir gerne Recht. Aber auch die leistet deutlich mehr, vor allem bei der Anbindung von schneller Storage.

Nvidia geht da kaum ähnliche Wege, indem man pro Takt jetzt zwei Aufgaben auf einer FP Einheit (int8, int4 auf Gamerhardware=also INT32, mit 64 weiteren FP und zusätzlichen Integer-Berechnungen) ausführen kann. Das weisen sie gleich mal als doppelte Shaderanzahl aus, obwohl die Anzahl faktisch gleich geblieben ist, im FP Modell nur die Rechenaufgaben deutlich mehr Energie kosten und wenn du diese Einheiten (Multi ALUs) nicht brauchst, einen Haufen Wust mitschleppst, weil man diese auch mit Energie versorgen muss. Von allem mehr, macht es theoretisch nicht gleich besser. Parallel rechnen können nicht, es geht nur FP oder INT. Das komplette Design ist also sehr stark auf FP optimiert. Nur deshalb hat sich in der Theorie die Rechenleistung gegenüber Turing verdoppelt, die eigentliche Anzahl der Cores ist völlig gleich geblieben, nur brauchen sie für bestimmte Berechnungen deutlich mehr Energie.
 
Zuletzt bearbeitet von einem Moderator:
Wollten sie bestimmt schon einführen.
Aber bei TSMC ist ja gerade alles Voll, also wo sollen bitte die Chips herkommen?

Aktuell gehen ja alle Karten weg, so wie sie in den Lagern sind.
Die kleineren Modelle sind oft beschnittene Chips von den größeren Modellen - die Chips sind also nicht gut genug für die großen Modelle, kommen halt in die kleinen.
In der Regel sammelt man diese für ne Weile und fängt dann mit der Produktion der eigentlichen Grafikkarten an.
Wird hier nicht anders sein.

Alles was keine 6800(XT) usw. wird geht in die kleineren Modelle. Gib denen n halbes Jahr.
 
Wenn sie Zaubern hätte können, hätten wir völlig überraschend eine 7800XT und 7900XT gesehen... mit ordentlicher RT-Leistung.

Da wär sogar "Nvidia" Kinnlade runtergegangen...
Tja, wir sind aber nicht in der Zauberwelt sondern in der echten. Und in der hat AMD seine Fabs in Austin und Dresden verhöckert, um nicht an dem Verschlucken von ATi zu ersticken. Also muß AMD heute das nehmen, was der Quasi-Monopolis TSMC dem kleinen Designstudio AMD so gibt. Bei NVidia ähnlich... beide haben das Produktionsrisiko weit wegdelegiert und stehen nun mit runtergelassenen Hosen abhängig vom Wohl, den Fähigkeiten und dem zugeteilten Kontingent eines eigennützigen fernöstlichen Herstellers da.
Da können sie auf den Papier noch so tolle Chips entwerfen. Wenn TSMC (oder bei NVidia Samsung) es nicht packt, sie in entsprechender/m Qualität und Yield in Silizium zu backen, haben sie keine und damit keinen Umsatz und keinen Gewinn und du muß bei deiner alten Karte bleiben.
 
Nicht jeder braucht 800€-1500€ Grafikkarten und nicht jeder braucht quadrillionen FPS.
Momentan kommt meine RX580 bei 1440p@75Hz an ihre Grenzen, ein Upgrade in Form einer 6600XT (oder 6700) wäre mir da sehr willkommen. 12GB Speicher wären schon geil, aber 50 oder mehr Prozent mehr Rohleistung würde mich schon sehr weit bringen.
Eine 5700(XT) bekommt man neu nur noch völlig überteuert, selbst gebraucht.

Ich hoffe einfach, dass AMD im Bereich von 200-250€ eine gute midrange Karte platziert und ich wäre ziemlich happy ;)

Ich muss dich da aber enttäuschen. Die RX6700 wird wohl von der UVP auf dem Niveau der RX5700 zu Release liegen.
 
Ich hoffe einfach, dass AMD im Bereich von 200-250€ eine gute midrange Karte platziert und ich wäre ziemlich happy ;)
Ich glaube nicht das es deine "6600XT" dann für 200-250€ geben wird (eher 300+€) und mehr wie 8GB bekommt die auch niemals mit nem schönen 128 bit SI :fresse:.
Tja...hätteste mal bei der 5700 zugeschlgen wo die preise noch human waren (Juli`20...329€). Vielleicht aber kommt ja noch eine 6500XT die dürfte auch leistungsmäßig 5-10% über deiner 580er liegen und deinen Preispunkt treffen :ugly:.
 
Zurück