Radeon RX 6000: Zweitschnellste GPU mit 2.400 MHz Game Clock und 255 Watt?

denoch sollte die xt version bei unter 300 watt bleiben.

was die xtx version betrifft, falls es die überhaupt gibt und kommt, gut möglich das die dannn über 350watt und durch den wakü einen maximalen boost von über 2.2ghz halten wird.
 
Ohne RT Leistung...da ist Grün noch ein gutes Stück vorraus.
RT wird, denke ich, erst in 1-2 Generation wirklich relevant. Derzeit ist eher noch wie beheizte Sitze beim Auto, nice to have aber kein allzu großer Verlust, wenn man's nicht hat, weil man sie höchstens im Winter vermisst, so wie halt nur ein Teil der Spiele mit RT Support raus kommt.
 
Es gibt noch einige Shadereinheiten die man mehr freischalten kann beim GA102. Es wäre nicht das erste Mal, wo eine xx80Ti quasi genauso schnell wie die Titan (heute: 3090) war bzw. nur minimale Abstriche hatte.

Wenn NV will bzw. muss, können sie die RTX3090 umlabeln zur 3080Ti (und 20 statt 24 GB verbauen und 100 MHz Takt abziehen um nen Pseudoabstand zu wahren).
Klar, wäre machbar. Aber was ist mit dem Verbrauch? Der ist jetzt schon weit weg von Gut und Böse, eine 3080Ti mit 350W wäre zwar denkbar aber ich denke, dass wäre ein ziemlich sinnloses Unterfangen. Dazu ist der Abstand zur 3090 schon extrem gering, man hat ja nur eine Range von 10% in die man eine 3080 hieven kann.
Ich sehe da keinen Platz und wenn sie schon die 3090 im Namensschema andern, dann wird es wohl das gewesen sein. 7nm TSMC oder Ampere ist durch.
 
Klar, wäre machbar. Aber was ist mit dem Verbrauch?
Der bleibt etwa da wo er ist. 10GB vRAM mehr und 100 MHz weniger für so ne erfundene 3080Ti gleichen sich etwa aus auf den 320W die wir schon haben für die 3080.

Der Chip ist ja der gleiche - nicht wie 2080 (Mittlerer Chip) gegen 2080Ti (großer Chip).
Technisch gesehen ist die RTX3080 bereits die Ti bzw. deren Nachfolger. Der mittlere Chip, also der technische Nachfolger der 2080, kommt als 3070 demnächst.
 
denoch sollte die xt version bei unter 300 watt bleiben.

was die xtx version betrifft, falls es die überhaupt gibt und kommt, gut möglich das die dannn über 350watt und durch den wakü einen maximalen boost von über 2.2ghz halten wird.
So wie das Video von Igor interpretiere, sind die Angaben zur XT Version... die XTX ist noch in der Schwebe... ob sie es überhaupt in den Markt schafft...

Ich bin nach wie vor gespannt auf BN! Manche Sprüche gegen Igor sollte sich der eine oder andere hier ganz fix verkneifen! So wie ich es aktuell warnehme ist er der Einzige der im deutschsprachigen Raum zu IT-Hardware schreibt und Content produziert, der noch Ahnung und vor allem auch Erfahrung hat !! Manch renomierter Verlag wundert sich derweil, warum die Auflage sinkt... "Billig-Schreiberlinge" oder besser noch Volontäre können derartige Artikel nicht liefern! Zumal bei Igor diese, ich nenne es mal Kaffeesatzleserei, schon fundiert ist/scheint... denn nicht nur bei RTX3080 lag er erstaunlich dicht an den tatsächlichen Werten der Karte.
 
ja und denoch ist rdna2 trozdem bis heute noch ein geheim und wird auch so bleiben bis zum 28.10.2020.

OField,​

genau rt wird erst ein grossen leistung fortschritt sprung machen , wenn rdna3 mit den revolutionären architektur mit chiplet design usw, sowie von nvidia´s kommende hopper kommen.
 
Fakt ist Leute die 5700XT Reihe läuft icht rund und die Anderen wegen der Treiber auch nicht und @ Vorgänger nein die Treiber kommen bei Nvidia nicht im gleichen Abständen raus. Nur am Anfang als de 3080er war wei es Probleme mit Spannungsspitzen gab sonst nur ca alle 2 Monate und ja ich bin seit der TNT1 Nvidia Anhänge und ich hatte wenigstens NIE Probleme. Deswegen ist AMD Mist und ich bin kein Geizkragen, der sich mit der 2ten Wahl zufrieden gibt nur weil sie billiger ist
 
So wie das Video von Igor interpretiere, sind die Angaben zur XT Version... die XTX ist noch in der Schwebe... ob sie es überhaupt in den Markt schafft...

Ich bin nach wie vor gespannt auf BN! Manche Sprüche gegen Igor sollte sich der eine oder andere hier ganz fix verkneifen! So wie ich es aktuell warnehme ist er der Einzige der im deutschsprachigen Raum zu IT-Hardware schreibt und Content produziert, der noch Ahnung und vor allem auch Erfahrung hat !! Manch renomierter Verlag wundert sich derweil, warum die Auflage sinkt... "Billig-Schreiberlinge" oder besser noch Volontäre können derartige Artikel nicht liefern! Zumal bei Igor diese, ich nenne es mal Kaffeesatzleserei, schon fundiert ist/scheint... denn nicht nur bei RTX3080 lag er erstaunlich dicht an den tatsächlichen Werten der Karte.
Er hat doch nur wirklich mehr als genug gespoilert mal wieder in dem Video, die in oder andere Info ein wenig editiert und fertig ist der Schuh. Die Dinger kommen so, da brauch keiner mehr dran zu zweifeln. Wir werden da wie er korrekt sagt variablen bei den Modellen sehen, weil Wandler und Platine natürlich eine Qualitätssache sind. Ich hoffe die Referenz wird ordentlich.
 
Ja ich denke auch dass die Karten so kommen wie er es darstellt.... Hier und da plus minus bisschen was, aber halte die Aussage für nachvollziehbar und verlässlich....
Wie die Karten dann performen werden wir sehen.... Die mich ist die spannende Frage das Feature Setup.... Was bringt AMD in den Bereich....
Spannende Tage bis zum 28.ten....
 
wie kommst du bei rdna2 bei xt bzw xtx version auf 64 rops ?

die grüchte sprechen bis zu 128 rops !!!
Weil AMD gerne sowas macht.
290X, 2806 Shader 64 ROPs
FuryX, 4096 Shader 64 ROPs
Vega64, 4096 Shader 64 ROPs
5700XT, 2560 Shader 64 ROPs

Und die Gerüchte sprechen immer von 64 ROPs.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Reddit. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Weil AMD gerne sowas macht.
290X, 2806 Shader 64 ROPs
FuryX, 4096 Shader 64 ROPs
Vega64, 4096 Shader 64 ROPs
5700XT, 2560 Shader 64 ROPs

Und die Gerüchte sprechen immer von 64 ROPs.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Reddit. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Naja 5700XT x2 = 128 nicht 64

Was hat AMD gesagt? Doppelte 5700XT
 
fassen wir das ganze nochmal zusammen bis zum 28.10.2020,

man kann ganz einfach erstmal ohne zu zweifeln die doppelte 5700xt leistung in betracht nehmen und bei fast jedes spiel, die fps schonmal mindestens verdoppeln !


aber achtung auch hier wird schnell einiges einfach weg ignoiert !

den rdna1 hat nicht ihren vollen potenzial gezeigt, durch ihren si bandbreiten und cu krüppel und auch noch alt lasten von gcn usw noch mit geschleppt.

Radeon VII:
Compute Units : 60
FP32 (float) performance : 13.44 TFLOPS
Shading Units: 3840
TMUs: 240
Bandwidth: 1,024 GB/s

Radeon RX 5700 XT:
Compute Units : 40
FP32 (float) performance : 9.754 TFLOPS
Shading Units: 2560
TMUs: 160
Bandwidth: 448.0 GB/s

wie man nur sowas weg sieht bzw ignoiert, das rdna1 mit deutlich abgespeckte daten und dabei trozdem genauso schnell geblieben ist wie die vega2, bis auf 4k, mit ausnahme spiele wegen si bandbreiten und vram krüppel.

so und jetzt zur rdna2, der komplett von gcn alt techniche befehle und berechnungen befreit wurde, was nichts mit gaming zu tun hatte, so wird rdna2 ein reiner gamer gpu werden.

und wenn man jetzt nur die daten von navi 10 verdoppeln würde, so ist man definitive mindestens doppelt so schnell mit rdna2 unterwegs !!!


nun, inwiefern navi 21 verdoppelt wurde und dazu der shader takt+ angehoben wurde usw, wird bis zum 28.10.2020, ein geheimnis bleiben.

ob die karte letztendlich unter 300 oder bis zu 350 watt verbraucht, das muss jeder für sich selbst enscheiden als verbraucher, vor allem wenn man mindestes doppelte leistung eines rx 5700xt haben will, und all die vorteile von hdmi2.1, rt und doppelten vram usw.

ansonsten, würde man jetzt rx 5700xt im cf betrieb nehmen, wären wir bei satte 400 watt verbrauch !

und sollte jetzt also navi 21 xt bzw xtx ca 300-350 watt verbrauchen, dann hat sich doch der effizient bei pro watt nochmal deutlich verbessert, bei selbe fertigung ? !
 
Zuletzt bearbeitet von einem Moderator:
Naja 5700XT x2 = 128 nicht 64

Was hat AMD gesagt? Doppelte 5700XT
Doppelte 5700XT mit bis zu 26% mehr Takt schafft nur 70-75% mehr Leistung.

Das heißt wieder nur 64 ROPs.
Vielleicht können die bedingt durch der Architektur die ROPs nicht erhöhen.

Und bei AMD sind die ROPs symmetrisch zum Speicherinterface.

Hätte Big Navi 512 Bit würde ich die Theorie mit 128 ROPs glauben.
 
Ich würde eine Radeon nicht mal als Geschenkt einbauen so viele Probleme die mit ihren Treiber immer haben und weswegen AMD alle 2 Wochen neuen Catalyst Treiber vom Stapel lässt wo bei Nvidia alle 2 Monate neue Treiber nur raus kommen. Auch als ich letzte Woche meine GeForce 3080 schon bestellen konnte und diese hier in Ankündigung waren habe ich dem hier nicht mal 10 Sek Zeit geschenkt weil AMD Grafikkarten Dreck sind. Seht Euch nur die extremen Probleme der 5700XT Reihe mit den Catalyst Treibern. AMD Grafikkarten versuchen mir nicht meinen rechner
Warum verseuchst du deine Gedanken mit diesem Thema und postest hier so einiges krummes Gedankengut, so ala nach dem Reinheitsgebot diverser menschlicher Ansichten.

Es gibt genügend andere Threads, bei denen du das Loblied auf Nvidias Grafikkarten anstimmen kannst.

Wieso sprichst du von Problemen anderer die selbst eine 5700XT besitzen, oder besaßen, du jedoch nur Gequatsche aus der hohlen Hand heraus nachplapperst.

Warum erwähnst du nicht das Thema sicherheitsrelevante Lücken der Intel-Prozessoren?
Sind die CPU's auch deswegen Dreck?

Ich glaube hier wirst du wohl eher nicht dieser Meinung sein!

Ich besitze relativ aktuelle von Nvidia mit dem jeweils aktuellsten Geforce-Treibern und von AMD mit den jeweils aktuellsten Adrenalin-Treiber.

Ich habe bei beiden diverse Probleme, jedoch auch die Sorglosigkeit zu den Vorzügen des jeweiligen Grafikkartenherstellers.

Also bitte, such dir ein anderes Thema zum rummotzen.
 
Zuletzt bearbeitet:
Der bleibt etwa da wo er ist. 10GB vRAM mehr und 100 MHz weniger für so ne erfundene 3080Ti gleichen sich etwa aus auf den 320W die wir schon haben für die 3080.

Der Chip ist ja der gleiche - nicht wie 2080 (Mittlerer Chip) gegen 2080Ti (großer Chip).
Technisch gesehen ist die RTX3080 bereits die Ti bzw. deren Nachfolger. Der mittlere Chip, also der technische Nachfolger der 2080, kommt als 3070 demnächst.
Ich glaub ich verstehe dich gerade gar nicht.

Du würdest also eine 3080Ti mit 20GB VRAM und 100Mhz weniger Takt als eine 3080 kaufen? Macht doch überhaupt keinen Sinn so eine Karte, da VRAM nur selten limitiert und nur, aber wirklich nur in diesen Szenarien würde eine Ti dann schneller sein als eine Non TI. In 95% aller Fälle wäre eine NonTi dann schneller als eine Ti, das macht gar keinen Sinn. In meinen Augen ist die 3090 schon die TI, der Abstand würde in etwa passen, dazu kann man dann noch eine Titan bringen mit allen aktivierten Einheiten und 48GB VRAM.

Ich bleibe dabei, sollte eine Ti kommen, kommt diese exakt gleichschnell wie eine non TI, halt nur mit 20GB VRAM. Oder aber es kommt eine Variante in 7nm TSMC, wobei NV dann eine Menge Geld verbrannt hat, da man letztlich neue Masken und alles fertigen muss, letzlich auch nur um eine "Zwischengeneration" zu bringen. In meinen Augen wären sie gut beraten, mit einer evtl. anstehenden Niederlage zu leben und sich mit allem was sie haben auf den Ampere Nachfolger zu konzentrieren, diesen dann nach Möglihckeit direkt in 7nm+ EUV bei TSMC bringen.
 
Du würdest also eine 3080Ti mit 20GB VRAM und 100Mhz weniger Takt als eine 3080 kaufen?
Ja.
Der Grund ist einfach: Die Taktraten/Spannungen/Verbrauch der Karte würde ich sowieso manuell einstellen, wie NVidia den Werkstakt ansetzt ist mir vollkommen egal. Ich würde eine solche Karte mit maximal 250W betreiben wollen was ohnehin zu niedrigeren Taktraten (im Bereich um die 1700 MHz) führt - ob NVidias Werksboost da jetzt 1800 oder 1900 hergeben würde ist egal.
Die 20 GB vRAM dagegen kann ich mir nicht selbst manuell einstellen, die müssen schon ab Werk da sein. ;-)

Genauso würde ichs mit ner RX6900XT auch tun - wie weit die kommt bei 250W Cap wird man sehen müssen.
In 95% aller Fälle wäre eine NonTi dann schneller als eine Ti, das macht gar keinen Sinn.
Nur wenn du von der gleichen Shaderanzahl ausgehst was ich nicht tue. Eine 3080Ti könnte auch 78 SM und 9984 Shader haben als Beispiel - NV kann den GA102 fast beliebig beschneiden. Die wäre selbst mit 100 MHz weniger noch schneller als ne (mit 68 SM stark kasterierte) 3080.
 
Um das mal mit ein paar Fakten vom PCGH-Test zu unterfüttern:
4K, maxed out: 3080 FE @ Stock im Mittel +91 % mehr Fps i. V. z. RTX 2070 Super und +105 % mehr Fps i. V. z. RX 5700 XT (über die 19 vermessenen Titel).


Darüber hinaus: Die 2,4 GHz sind als Game-Takt recht unwahrscheinlich bzw. gar unrealistisch.
Mit Navi 10 schafften sie gerade mal 1,755 GHz und das auch noch mit nur 40 CUs (und auch bereits im N7P).
Wenn sich der Takt in diesen Regionen bewegen wird, wird das der maximale Peak-Takt sein, d. h. der Game-Takt wird ein gutes Stück darunter liegen.
Für einen derartigen Sprung bräuchte AMD auch einen neuen Fertigungsprozess und etwas wie ein N7+ würde da zweifelsfrei nicht ausreichen. ;-)

hast du jetzt langsam rdna2 angefangen zu verstehen, das wir hier weder noch mit gcn, noch mit rdna1 zu tun haben ?!


Trink dir mal einen Tee und komm wieder runter. Mir scheint du verstehst eh nicht ganz was RDNA2 überhaupt ist und wo es herkommt, sondern bist hier weitestgehend den Marketingversprechen und Influencern aufgesessen.
und du wolltest mir sagen, ich würde rdna2 nicht verstehen ?:stupid:
 
Zurück