• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Radeon RX 6900: 2,2 GHz bei 238 Watt, bis zu 2,5 GHz bei Navi 22

M

Metamorph83

Guest
ja natürlich. erstens konnte die VII auch scho 230 TBP mit einem normlalen UV (bei Leistungssteigerung zu Stock). zweitens handelt es sich hier um eine gänzlich andere Architektur. Bei RDNA haben scho deutlich bessere Effizienz gesehen, RDNA2 soll lt. eigenen AMD Angaben 50 % Effiziensteigerung haben, Leaks sprechen sogar von 60 % aktuell.
Das glaubt auch nur der, der an den Weihnachtsmann glaubt. Dass AMD 60% Effizienz rausholt wäre ein Quantensprung, ohne gleichen. Marketing Hype Gewäsch. Zudem skalieren Shader nicht linear, das heisst die oberen 20% Leistung brauchen überproportional viel Saft. Die werden realistisch etwas um die 20-30% rausholen was in etwa iwo bei 300Watt Total Board Power endet, die Frage ist wieviel Leistung rüber kommt bei 300 Watt.
Nicht umsonst verbauen die auch einen riesigen Kühler mit ebenso vielen Lüftern und das wegen 230 Watt Totalboard Power (der Chip müsste dann iwo bei 140 Watt liegen, wers glaubt...)

Übrigens schau mal in den Ampere Thread rein, die Amperes 3080/3090 laufen undervolted auch mit 230-260 Watt total entspannt... Also UV ist erstmal kein Argument für Spekulationen.
 
Zuletzt bearbeitet von einem Moderator:

gerX7a

Software-Overclocker(in)
also ich hab jetzt mal nichts berechnet, aber wenn ich mich recht erinnere (!), war die 3080 - nicht die 3090! - immer so in etwa doppelt so flink wie die 5700xt, guck mir das aber bei gelegenheit sicher nochmal an. ^^.

Über die 10 Titel, die Igor vermessen hat, ist die 3080 ggü. der RX 5700 XT in WQHD im Mittel + 55 % und in 4K im Mittel um +81 % schneller. (Darüber hinaus ist die 3080 bereits in WQHD durchgehend effizienter als die ausgereizte 5700 XT, in 4K gar deutlich. In WQHD im Mittel -0,5 W/Fps, in 4K gar im Mittel -1,3 W/Fps bei diesen 10 Titeln.)
 

Algo

Freizeitschrauber(in)
Ich drücke den Jungs von AMD beide Daumen, dass das ein erfolgreicher Launch mit starken Karten und guten P/L wird ... (damit Nvidia heftig Preise drücken muss :D - dank Gsync noch gut 2 Jahre auf grün festgelegt :ka:)
Mein Monitor nagelt mich quasi auch auf NVIDIA fest, aber ich werde es definitiv durchrechnen, ob es sich lohnt auf einen neuen Monitor zu setzen ^^
Bravo ihr beiden ... ihr macht genau das wofür Nvidia mit Properitärem G-Sync hinaus wollte: Schön im eignen Ökosystem einsperren den Kunden.
 

HardwareNoob41

PC-Selbstbauer(in)
Sofern die Daten korrekt sind, wäre das schon eine Hausnummer. Die 50% Effizienzsteigerung nur durch Architekturverbesserungen hätten sie dann tatsächlich erreicht. Schon krass, wenn man mit Navi 10 vergleicht, doppelte CUs und höherer Takt, dennoch nur 20 Watt mehr. Hoffen wir, dass ihre Treiber auch einen guten Sprung machen und die Leistung auch auf der Straße ankommt.

Interessant ist auch, dass der Speichercontroller scheinbar mit GDDR6 und HBM2 umgehen können soll. Vielleicht erwartet uns da dann ja tatsächlich eine schöne Überraschung. :)
Tja sind eben alle Bremsen von GCN die noch in RDNA1 enthalten waren entfernt worden! Das wird ein spannender Oktober!
 

geist4711

Software-Overclocker(in)
denke die ca 4wochen bis man mehr weiss,
werden alle überleben, mehr oder weniger ;-)

wenn die cpu ca 250w frisst und speicher sowie restkarte ca 100, ist man beim selben wie bei der 3090, mal schauen wies dann leistungstechnisch ausschaut und was der verbauch real in spielen usw sagt, der liegt ja auch nicht auf 350w festgenagelt bei NV......
schaun mer mal, wird spannend!

wobei, ich hab ein anderes preis-limit, die 410 für meine 5700xt war schon über meinem eigentlichen budget, aber wenn einem die karte abkippt, kann man auch mal über sein gesetztes limit gehen, wenn man sofort ersatz braucht weil man sonst weder tv- schauen noch spielen oder internet machen kann,
das waren mir die 100€ mehr in dem falle wert.
 
M

Metamorph83

Guest
Tja sind eben alle Bremsen von GCN die noch in RDNA1 enthalten waren entfernt worden! Das wird ein spannender Oktober!
Und da denke ich der (Denk-) Fehler bei den großen Erwartungen. RDNA ist eine zweifelsfreie bessere Arch als GCN, aber man erwartet nun dass man durch das ablösen von GCN den heiligen Gral erschaffen hat und die Rohleistung komplett auf die Straße bringt, bei viel viel viel viel weniger Strom... Genau der selbe Hype/die Erwartung den alle bei Ampere hatten...
 

sifusanders

PC-Selbstbauer(in)
Rohleistung komplett auf die Straße bringt
Wir haben zumindest bei Navi10 und Navi14 lineares Scaling zwischen den beiden gesehen. Weiterhin wissen wir - von AMD selbst so gesagt - dass bei RDNA und natürlich RDNA2 scaling eine ganz wichtige Rolle gespielt hat. Ich denke also, dass das Auslasten der Shader (sofern die Bandbreite stimmt) nicht das Problem darstellen sollte.
 
M

Metamorph83

Guest
Ich hab nie gesagt, dass 230 TBP auf den Karten der Fall sein wird. Wenn man sich die Zahlen angguckt, sieht man auch 'socketpower' ergo Chip-only.
Habe nur gesagt, dass das sicherlich möglich wäre eine Karte mit 240 TBP auf n7+ zu kreieren. ICh wolllte Dir vor allem aufzeigen, dass Dein RVII Vergleich halt völlig daneben war.
Wo war der daneben? Natürlich ist 240 TBP machbar aber nicht mit 80 CU. N7+ ist kein neuer Node nur eine Optimierung...

1601203601684.png

1601203623238.png

Wir haben zumindest bei Navi10 und Navi14 lineares Scaling zwischen den beiden gesehen. Weiterhin wissen wir - von AMD selbst so gesagt - dass bei RDNA und natürlich RDNA2 scaling eine ganz wichtige Rolle gespielt hat. Ich denke also, dass das Auslasten der Shader (sofern die Bandbreite stimmt) nicht das Problem darstellen sollte.
Ach komm, ich freu mich auf den Launch, werde dir die kommenden 6 Monate das jedes mal vorhalten. Natürlich skaliert die Leistung linear, wie schon immer... :devil:
 

cPT_cAPSLOCK

BIOS-Overclocker(in)
Ich bin sehr gespannt. So gute Chancen hatte AMD wirklich seit langem nicht mehr. Nvidias Launch war eine einzige Katastrophe, man ist diesmal in der Keynote einfach deutlich übers Ziel hinausgeschossen und hat viel zu überzogene Erwartungen erzeugt, die Verfügbarkeit der 3080 und 3090 strebt nach wie vor gegen null und viele Karten der Boardpartner sind mit irreparablen Problemen geplagt. Und selbst wenn Ampere so funktioniert, wie es sein sollte, ist der Sprung von Turing auf Ampere doch gar nicht so riesig, wie im Voraus getönt wurde. Der Ball liegt tief in AMDs Seite des Feldes. Ich hoffe, sie verpassen die Chance nicht noch einmal.
Abwarten und Tee trinken. Bald wissen wir mehr - und die Chance, bis dahin eine GA102-Karte zu bekommen, ist ja alles in allem nicht mal gesichert.
gRU?; cAPS
 

sifusanders

PC-Selbstbauer(in)
Der Vergleich war daneben, weil andere Architektur, habe ich Dir aber auch schon geschrieben. RDNA1 war schon signifikant verbessert, RDNA2 wird da noch was draufsetzen. Wieviel steht natürlich noch in den STernen, da gibt es nur die AMD Aussage (50 %) sowie die Leaks die von 60 % sprechen.
Ich sage natürlich nicht, dass das auf jeden Fall so kommt, ich halte es dennoch für möglich. Kommt immer drauf an, wem und welchen Leaks man glauben schenkt.

2020-09-27 13_17_24-AMD Big Navi and RDNA 2 GPUs_ Release Date, Specs, More _ Tom's Hardware.png
 
Zuletzt bearbeitet:

gerX7a

Software-Overclocker(in)
" socket_power_limit_ac[0] (W) "
klingt eher nach GPU Power
kommt also noch Einiges dazu

Die 238 W der großen RDNA2-GPU ist nur die GPU-TDP. Das Board wird bestenfalls 310 W bis hin zu gar 330 W TBP aufweisen in dieser Konfiguration (zzgl. Speicher, Gedöns und vor allem Wandlerverluste).
Der GA102 der 3080 dürfte mit 220 - 230 W TDP spezifiziert sein.
 

Waupee

Freizeitschrauber(in)
Ich warte ab, und die Probleme bei NV sind denke ich mal auch nichts neues ging AMD mit der 7870er Reihe anfangs auch nicht besser.

Ich hoffe nur es wird auch ein konkurrenzfähiges Produkt und die Preisschlacht beginnt dann :-)
 

Algo

Freizeitschrauber(in)
Ach ich bin entspannt und schau mir erst mal das Event am 28.10 an und Tests dann sehen wir weiter. Klingt zumindest mal nach guten Voraussetzungen um zumindest mit der 3080 mithalten zu können. Wir werden sehen.
 

4thVariety

Software-Overclocker(in)
Gemessen an der Hitzeentwicklung müsste es viel mehr AIO Wasserkühler für GPUs geben, als für CPUs. Bei 4k Ultra ist es schon oft ein Witz. 300W auf der Grafikkarte und kaum 40W auf der CPU.
 

Algo

Freizeitschrauber(in)
Die 238 W der großen RDNA2-GPU ist nur die GPU-TDP. Das Board wird bestenfalls 310 W bis hin zu gar 330 W TBP aufweisen (Speicher, Gedöns und vor allem Wandlerverluste).
Der GA102 der 3080 dürfte mit 220 - 230 W TDP spezifiziert sein.
Hat jemand ausgerechnet schon mit den238W GPU-Power sollte eine Karte mit GDDR6 bei 280-300 Watt landen. Vergiss nicht. AMD nutzt wohl kein GDDR6X welches deutlich mehr Strom verbraucht. Bauen sie auf die großen karten sogar noch HBM2e wäre der verbrauch noch niedriger.
 

gerX7a

Software-Overclocker(in)
Dann hat dieser "jemand" falsch gerechnet. Mit den 238 W TDP hat die Karte schon min. 264 W (bereits der best case) noch vor den Wandlern. Unter 300 W TBP sind nur für das Navi21a-Modell denkbar.

HBM kann man übrigens mittlerweile gesichert ausschließen mit den sich konkret verdichtenden Gerüchten zu dem InfinityCache und dem kleinen SI. Mit AMDs beschränkten Ressouncen und ihrem deutlch kleineren Absatzmarkt wäre das völlig unwirtschaftlich für die. nVidia hätte sich so etwas noch am ehesten beim GA102 leisten können, nur haben die hier offensichtlich zugunsten der Marge darauf verzichtet. AMD setzt derzeit zu wenig um. Die Radeon VII gab es nur, weil das eine zweitverwertete MI50 war, aus keinen anderen Grund und die wurde auch wieder schnell eingestellt, weil sie unrentabel wurde als der Preis fiel und man die Vega 20-Chips wohl besser bei Apple platzieren konnte.
 
Zuletzt bearbeitet:

Olstyle

Moderator
Teammitglied
Über die 10 Titel, die Igor vermessen hat, ist die 3080 ggü. der RX 5700 XT in WQHD im Mittel + 55 % und in 4K im Mittel um +81 % schneller. (Darüber hinaus ist die 3080 bereits in WQHD durchgehend effizienter als die ausgereizte 5700 XT, in 4K gar deutlich. In WQHD im Mittel -0,5 W/Fps, in 4K gar im Mittel -1,3 W/Fps bei diesen 10 Titeln.)
Igo testet leider gerne CPU limitiert weil er aus seiner Sicht "realistische" Settings wählt statt die GPUs richtig zu quälen. Um zu sehen zu was die neuen GPUs wirklich im Stande sind, sind seine Messungen daher leider nicht wirklich brauchbar und es bietet sich an bei Raff nachzusehen (erst Recht wenn man sowieso gerade bei PCGH.de im Forum ist).

@Topic: Klingt auf jeden Fall erstmal extrem lecker, selbst wenn die Verbrauchsangaben ausschließlich ASIC-Power sind.
 

ZeXes

Software-Overclocker(in)
Die Zahlen klingen durchaus realistisch.

TSMCs 7nm(+) Fertigung ist einfach der 8nm Samsung Fertigung weeit überlegen. Die AMD Grafikkarten werden weit weniger Energie ziehen, als es ihre NVIDIA Pendants gerade tun.

Die große Frage ist halt das Featureset der neuen AMD Grafikkarten und ob man da mit NVIDIA wieder aufschließen kann, oder nicht wird spannend zu sehen sein.

Bei K.I. (DLSS) und RayTracing muss AMD liefern.
 

Algo

Freizeitschrauber(in)
Dann hat dieser "jemand" falsch gerechnet. Mit den 238 W TDP hat die Karte schon min. 264 W (bereits der best case) noch vor den Wandlern. Unter 300 W TBP sind nur für das Navi21a-Modell denkbar.

HBM kann man übrigens mittlerweil egesichert ausschließen mit den sich konkret verdichtenden Gerüchten zu dem InfinityCache und dem kleinen SI. Mit AMDs beschränkten Ressouncen und ihrem deutlch kleineren Absatzmarkt wäre das völlig unwirtschaftlich für die. nVidia hätte sich so etwas noch am ehesten beim GA102 leisten können, nur haben die hier offensichtlich zugunsten der Marge darauf verzichtet. AMD setzt derzeit zu wenig um. Die Radeon VII gab es nur, weil das eine zweitverwertete MI50 war, auch keinen anderen Grund und die wurde auch wieder schnell eingestellt, weil sie unrentabel wurde und man die Vega 20-Chips wohl besser bei Apple platzieren konnte.
Mag sein ... ist halt momentan ganauso Spekulation wie deine Berechnung ;) ... aber werden wir dann ja hoffentlich in ca einem Monat mehr wissen.

EDIT: Was HBM angeht: Wir werden sehen: Es gibt eine Navi10-Karte mit HBM für das MacBook Pro.
 

SFVogt

Freizeitschrauber(in)
Sollten diese Daten stimmen... hab ich echt meine Zweifel an Samsung's "8nm" Fertigung und deren Effizienz bei den neuen RTX Karten. :huh:
Samsung 8nm scheint auch lang nicht so effizient wie TSMC 7nm zu sein wenn man die TBP von Ampere anschaut, sieht man auch schon an der Packungsdichte GA100 zu GA102. Das heißt allerdings im Umkehrschluss das nVidia bei der nächsten Generation allein durch den Wechsel zu TSMC 7nm, der dann ja bereits günstiger sein sollte, oder gar 7nm+ nochmal ne ganze Schippe drauf legen könnte. Ich denke nVidia hat sich mit Samsung 8nm selbst ausgebremst und das versetzt AMD jetzt in eine gute Position ranzurücken.
 

Incredible Alk

Moderator
Teammitglied
1.) Ist das nur GPU-TDP oder bezieht sich das auf die gesamte Karte? (letztes wäre nett)
2.) Welche Speicherbandbreite haben 21a/b? (ich hoffe mehr als 256Bit)
3.) Liegt die 21b deutlich vor der 3080 oder nur etwa auf deren Niveau? (bei letztem sehe ich keinen Upgradegrund für mich, solange meine Karte nicht kaputt gehen sollte)
4.) Preis?
5.) Verfügbarkeit?
1.) Es ist nur die GPU-TDP, denn sonst wäre es die TBP. Die gesamte Leistungsaufnahme dürfte um die 300W liegen (200-240W GPU und 60-100W Rest)
2.) 256 bit + "Infinity Cache" auf der GPU der die geringere Bandbreite als zusätzlicher Lastlevel-Cache ausgleichen soll. Wie gut das läuft werden wir sehen
3.) Das weiß aktuell niemand. Aufgrund der Rohdaten/Gerüchte würde ich persönlich auf eine Performance zwischen 3080 und 3090 tippen - AMD wird wohl auch das primäre Ziel haben, die 3080 zu schlagen und die Taktraten/TBP entsprechend wählen.
4.) Geschätzt? Wenns schneller als ne 3080 ist und 16GB vRAM hat würde ich raten 999$. Wenn AMD mit Gewalt Marktanteile aufbauen will könnte die Karte im Extremfall aber sogar günstiger als die 3080 sein - auf Kosten von AMDs Marge.
5.) Schwer einzuschätzen. AMD sagt freilich dass man breite Verfügbarkeit haben wird zum Launch. Aber das hat NV auch behauptet. :ugly:
 

0ldN3rd

Software-Overclocker(in)
Gibt es eigentlich auch einen PCR-Test für HWF?
Ich bin mit HWF infiziert... Akuter Fall von "Haben-Will-Fieber"!!
Ich schließe mich lieber mal selber ein bis zum 28.10. ... :-)
 
M

Metamorph83

Guest
Der Vergleich war daneben, weil andere Architektur, habe ich Dir aber auch schon geschrieben. RDNA1 war schon signifikant verbessert, RDNA2 wird da noch was draufsetzen. Wieviel steht natürlich noch in den STernen, da gibt es nur die AMD Aussage (50 %) sowie die Leaks die von 60 % sprechen.
Ich sage natürlich nicht, dass das auf jeden Fall so kommt, ich halte es dennoch für möglich. Kommt immer drauf an, wem und welchen Leaks man glauben schenkt.
Und nochmal, du scheinst resistent gegenüber realistischen Einschätzungen zu sein. Es sollte doch schon allgemein bekannt sein, Marketingfolien von Herstellern nicht allzu zu ernst zu nehmen. Siehe Poor Volta, Siehe Ampere Faktor 1,9 usw.
Diese beziehen sich immer auf die besten Werte unter i-welchen unbekannten Bedingungen, im besten Fall.

Die Leistung wird nicht nicht nennenswert steigen, keine Frage. Das wird eine sehr wahrscheinlich gute Grafikkarten Gen kommen, aber eben nicht das was hier so viele denken/äußern, nämlich die Übergeneration die alle Karten neu mischt...

U.a. die MSI 5700 XT. Nach den ganzen Einschätzungen wird diese einfach mal 2 genommen, was bedeutet das diese 520 Watt unter lasst aufnimmt (mit 8 GB statt 16). Mit (m.m. n. unrealistisch) 45% Effizientsteigerung bist du iwo bei 286 Watt. Also die 300 Watt werden wohl hinkommen.

Zur Leistung, diese skaliert halt eben nicht linear, ist aber aktuell schwer einzuschätzen wie RDNA2 ohne GCN sich hier verhält. Der Takt wird sehr wohl so nicht mit skalieren. Nach der Folie im Artikel sind es etwa 2-2,2 GHhz, was in etwa der aktuellen Gen entspricht. D.h. man konnte diesen anscheinend/zumindest halten. Wenn wir durch die IPC Steigerung und anderen möglichen Verbesserungen der Big Navi einfach tatsächlich den Faktor 2 ohne Verluste in der Leistung bei Erhöhung der Shader unterstellen, was ja ja im Prinzip der Idealfall (Best Case) ist und sehr wahrscheinlich nie so eintreffen wird, pendeln wir zwischen 3080-3090.
Wenn man jetzt aber nur den Faktor 1,75 erreicht, was schon sensationell wäre, ist man auf 3080 Niveau.

Da es ein A und B Big Navi geben soll, glaube ich das sich die 2,2 Ghz Variante davon minimal vor die 3080 setzen kann..., mit entsprechender TBP natürlich ;) Natürlich daher der Move von Nvidia bis an die Kotzgrenze zu gehen...

Übrigens ja, die Radeon 7 hat ne andere Arch, aber eben den selben Node, die schiere Anzahl Transistoren fordern ihren Tribut und diese Anzahl Transistoren hast du auch in RDNA2, nur anders geschaltet, so dass diese mehr Leistung bei gleicher Watt Zahl bekommst... Deshalb nahm ich das Bsp. her, weil es da noch nur um den Verbrauch ging...


1601204875919.png

1601206070620.png
 
Zuletzt bearbeitet von einem Moderator:

Einwegkartoffel

Lötkolbengott/-göttin
Bravo ihr beiden ... ihr macht genau das wofür Nvidia mit Properitärem G-Sync hinaus wollte: Schön im eignen Ökosystem einsperren den Kunden.

Was hast du an meinem Beitrag nicht verstanden? :ka: Ich habe halt einen GSync Monitor. Ist schon gekauft worden, bevor NVIDIA "GSync compatible" eingeführt hat. Kann ich ja jetzt nicht mehr ändern...

Und wie gesagt: wenn AMD liefert, bin ich gerne bereit zu wechseln ;)
 

gerX7a

Software-Overclocker(in)
Igo testet leider gerne CPU limitiert weil er aus seiner Sicht "realistische" Settings wählt statt die GPUs richtig zu quälen. Um zu sehen zu was die neuen GPUs wirklich im Stande sind, sind seine Messungen daher leider nicht wirklich brauchbar und es bietet sich an bei Raff nachzusehen (erst Recht wenn man sowieso gerade bei PCGH.de im Forum ist).

Welche Überraschung erwartest du hier? Mit der vermeintliche CPU-Limitierung wird die Ampere-Karte dann im Vergleich nur noch besser. Beispielsweise in PCGH 3080 ggü. 5700 XT in 4K im Mittel +105 % mehr Fps. (Mit über +120 % gewinnen bspw. hinzu Control, Doom Eternal und SW Jedi Fallen Order.)
Darüber hinaus sind für eine Effizienzbetrachtung ausnahmslos Igors Messungen zu gebrauchen, da derartige Messung keine andere Publikation bietet.
 
Zuletzt bearbeitet:

ChrisMK72

PCGH-Community-Veteran(in)
Na das sieht ja mal erfreulich aus !

1.jpg


Hoffe BN schlägt oberhalb der 3080 und damit auch sehr nah(oder über?) der 3090 auf. :daumen:

edit:


denke die ca 4wochen bis man mehr weiss,
werden alle überleben, mehr oder weniger ;-)

Diese Zeit werde ich wohl so, oder so noch auf mein Kärtchen warten müssen(oder auch noch 2-4 Wochen länger). So what ? :ka:
 

Linmoum

Freizeitschrauber(in)
Dann hat dieser "jemand" falsch gerechnet. Mit den 238 W TDP hat die Karte schon min. 264 W (bereits der best case) noch vor den Wandlern. Unter 300 W TBP sind nur für das Navi21a-Modell denkbar.
Nein, das ist auch problemlos für das bis zu 2200MHz-Modell möglich. Wird am Ende auf 280-300W hinauslaufen.

HBM kann man übrigens mittlerweil egesichert ausschließen mit den sich konkret verdichtenden Gerüchten zu dem InfinityCache und dem kleinen SI.
Es gibt keine sich konkret verdichtenden Gerüchte zu dem IF-Cache. Das kam einzig und alleine von einer Quelle bisher. Andere sagen wiederum, dass das Engineering-Board mit dem 256bit SI zwar N21 zuzuordnen ist, aber nur für Emulationszwecke lief. Und N21 daher (auch) mit HBM kommt. 512bit SI wird es nicht geben.
 

Jahtari

Software-Overclocker(in)
Über die 10 Titel, die Igor vermessen hat, ist die 3080 ggü. der RX 5700 XT in WQHD im Mittel + 55 % und in 4K im Mittel um +81 % schneller. (Darüber hinaus ist die 3080 bereits in WQHD durchgehend effizienter als die ausgereizte 5700 XT, in 4K gar deutlich. In WQHD im Mittel -0,5 W/Fps, in 4K gar im Mittel -1,3 W/Fps bei diesen 10 Titeln.)

Sag ich doch - wenn big Navi als tatsächlich um das 2,3fache schneller sein wird, ist sie der 3080 mehr als nur auf den fersen, auch wenn diese wie zu sehen mal arg drüber ist - mitunter aber eben auch nur so bei 170% liegt. wie immer halt. auch wenn ich @PCGH_Raff 's tests hernehme. und da ich einen UHD-Monitor habe, interessieren mich die anderen ergebnisse ja nur peripher. dass die 3080 effizienter als die 5700xt ist, ist wohl auch klar. versteh grad nicht. worauf Du hinaus willst. ^^

Screenshot (5).png
Screenshot (6).png
 

gerX7a

Software-Overclocker(in)
Nein, das ist auch problemlos für das bis zu 2200MHz-Modell möglich. Wird am Ende auf 280-300W hinauslaufen.

Das "2200 MHz"-Modell ist laut der Tabell Navi21b und damit die 238 W TDP GPU, du Scherzbold.
Aber du kannst ja mal gerne vorrechnen, wie du den Verbrauch wegrechnest und die Physik Lügen strafst.
Ich greife mal etwas vor, damit du dich nicht vollends blamieren musst. ;-) Bereits diese 238 W der GPU bedeuten mit guten Wandlern um die 280 W und da sind jetzt weder Verluste auf dem Board, weder der Speicher noch die Lüfter eingerechnet.
Und um dir die Mühe gleich vollends zu ersparen, der absolute (aber auch unrealistische) best case für 16 GiB mittels 8 x 16Gb-BGAs wären 16 W + 3 W Wandlerverluste. (Realistischer ist gar mehr, da dieser 2 W-Wert pro BGA für 14 Gbps / 8 Gb-BGAs gilt), d. h. alleine schon damit bist du bei 300 W angekommen und mit PCB und Lüftern kommen mindestens noch einmal 10 W oben drauf und wie gesagt, das ist alles sehr optimistisch gerechnet.
 
Zuletzt bearbeitet:
M

Metamorph83

Guest
Na das sieht ja mal erfreulich aus !

Anhang anzeigen 1334983

Hoffe BN schlägt oberhalb der 3080 und damit auch sehr nah(oder über?) der 3090 auf. :daumen:
Die Tatsache das es ein A und eine B Version gibt (mit nur 7% mehr takt, mit über19% mehr Verbrauch), sehe ich nicht so positiv. Warum sollte man das tun wenn der selbe Chip schon von Grund auf eine 3080 locker hinter sich lässt? Ich schätze A unter 3080 ein, minimal und B auf Augenhöhe vielleicht ein Stück darüber.
Diesmal wird der Preis und VRam Bestückung den Käufer abholen.., da bin ich mir sicher. Von der Leistung her schenken die sich wohl nix.
 

AfFelix

Freizeitschrauber(in)
Beispielsweise in PCGH 3080 ggü. 5700 XT in 4K im Mittel +105 % mehr Fps. (Mit über +120 % gewinnen bspw. hinzu Control, Doom Eternal und SW Jedi Fallen Order.)

Einzelbenchmarks sind egal....

Die 105% in 4k sind ausm Heft oder woher?
PCGH gibt online nur Alle 4 Auflösungen zusammen raus. :ka:

Bitte Quellenangabe! sonst bleibt es bei den gemittelten 86%
 
Oben Unten