AMD Big Navi: Angeblich nur Konkurrenz zur RTX 3070 - bei 275 Watt

airflow.jpg

Drei Dinge die eine 3080, bzw. 3090 brauchen.

1. Dort wo der CPU Lüfter ist, sollte kein Standardlüfter sitzen der die Luft nach unten drückt und verwirbelt, sondern ein CPU Towerkühler der die Luft nach hinten weitertransportiert. An der Rückseite des Gehäuses ist ein Lüfter der Luft nach außen pumpt äußerst wichtig. Fehlt so ein Lüfter, dann heitzt bereits eine 2070 oder 2080 ein Gehäuse unglaublich auf. Davon geht übrigends Nvidia auch aus, denn die Krümmung die der Windstrom ansosnten hier macht ist sehr optimistisch. Luftströme knicken nicht einfach nach links ab, besonders wenn da heiße Bauteile wie CPUs, Spannungswandler und RAM in der Nähe sind.

2. Sind Eure Slotblenden dicht genug, dass an der Stelle die heiße Luft nicht sofot wieder nach innen gesaugt werden? Das Diagramm ist sehr optimistisch hier.

3. Hat Euer Gehäuse an der Stelle Lüfter damit auch Luft reingepumpt wird? So ein Strömungsverhalten wie hier haben in der Regel nur HP Server mit Luftkanälen. An Position 3 muss schon ein Lüfter stehen, damit die Luft so sauber da unten durchgepumpt wird und nicht von alles Seiten gleichmäsig angezogen.


Worst Case:
Gehäuse ohne Frontlüfter, Gehäuse ohne Exit Lüfter hinten, AMD/Intel Referenzkühler und schon zirkuliert im Gehäuse eine Menge heiße Luft.


Die Menge heiße Luft wird bei AMD nicht weniger werden. Wir stehen wirklich vor einem Umbruch wenn es darum geht wie wichtig Luftströme für PCs werden.
 
Falls sich die Sache was ich nicht wirklich glauben kann wirklich so einfach gestaltet und es sich bei Big Navi am Ende nur um eine mehr oder weniger hochskalierte XBox GPU mit 80CU's anstatt 56CU's (52 aktiv) handelt.
Dann würde sie wohl nur mit Müh und Not mit der 3080 konkurieren können (Übertaktet mal außen vor) aber sie wäre wohl wirklich nur 428mm2 gross und die Preis/Leisungs Karte in der Oberklasse schlechthin.

Ach ja, bezüglich der Leistungsfähigkeit der XBOX GPU bin ich immer noch der Meinung das sie theoretisch in etwa so schnell wie eine 2080ti sein müsste.
Wahrscheinlich liegt sie trotzdem anhand der geringeren Speicherbandbreite ca 10% zurück. (560 vs. 616GB/s)

Aber theoretisch gestaltet sich die Sache so 12.1 TFLOPS XBOX vs. 14.2 TFLOPS

Wenn man sich jetzt aber mal die folgende Grafik wo die Effizienzsteigerung von 50% zwischen GCN und RDNA1 verglichen wird zu Gemüte führt
Dann sieht man das diese anhand einer Steigerung von 25-30% bei der IPC ca. 12.5% Prozess (7nm) und der Rest: Design, Frequency and Power improvement zustande kam.
RDNA deliv.png

Bei RDNA2 könnte ich mir gut vorstellen das letzteres siehe Renoir am gesammten Kuchen (50%) einen grösseren Anteil und der Prozess da immer noch 7nm (allerdings e) entsprechen kleiner ausfallen wird.
Daher um auf die angekündeten 50% zu kommen wäre es doch eher überraschend wenn die IPC nicht um mindestens 20% ansteigen würde. Ergo 12.1 x 1.2 würde in etwa einer equivalenten Leistung zu 14.5 Turing TFLOPS entsprechen (laut Computerbase ist die RDNA1 und Turing IPC in etwa 1:1 zu übertragen)
Aber wie gesagt die Speicherbandpreite bei der 2080ti ist in etwa 10% höher (616 vs560GB/s) daher ist die 2080ti wohl trotzdem noch etwas schneller unterwegs.

Aber um auf Big Navi zurück zu kommen der mit einem 512Bit Interface wohl mindestens 896GB/s liefern wird bzw. 896/560GB/s = 1.6x schliesst die Lücke.

Daher 80Cu's / 52CU's = 1.54 (Bei jeweils gleichem Takt) jetzt gehen die Meinungen ja auseinander wie gut bzw. schlecht ein Big Navi mit steigender Anzahl an Schadern skalieren könne.

Bei 70% %worst case) würde das in etwa auf +38% relativ 2080ti und best case 90% + 49% hinauslaufen.

Das Notabene mit einem 428mm2 Die mit wohl 16GB je nach Szenario wäre das ein harter Brocken der selbst die 3080 gehörig ins schwitzen bringen könnte.

Trotz 16GB wohl kaum teurer oder gar günstiger als eine 3080 10GB und ohne diese exorbitante Leistungsaufnahme von >300W.

Ich hoffe ich konnte ein wenig Licht in die Sache bringen und aufzeigen das Big Navi sich mit 100%iger Sicherheit nicht mit der 3070 rumprügeln muss. (und falls 505mm2 erst recht nicht denn dann wird die 3090 anvisiert)
 
Zuletzt bearbeitet:
Es ist falsch. Die 3070 smoken sie easy wirst sehen. Wer logisch denken kann dem ist das seit der 5700 XT klar.
Hmm die 5700 hat den Abstand auf Nvidia verkürzt - ja.
Aber hatte trotz nicht gerade geringem Verbrauch bei brandneuem Prozess eben auch nicht gerade brilliert. Man konnte Nvidia die einen 16nm Prozess( hieß halt 12nm) verwendeten und zusätzliche Transistoren für RT und Tensor verbruten nicht schlagen.
Selbst eine doppelte 5700 würde halt Nvidia (wenn deren Performanceaussagen stimmen) nicht schlagen - und der Verbrauch wäre auch noch höher.
Gut, wenn Navi 2 schneller und effizienter wird, kann man sich sicher mit der 3080 anlegen, aber AMD sollte ja auch gegen die 3090 antreten können.
Vielleicht erscheint ja noch eine "even bigger Navi", der ebensogroß oder gar größer ist als Nvidias sehr große Chips + HBM - das würde interessant klingen.

Aber ich wünsche, dasss AMD alle überraschen würde und selbst Nvidias 3090 auf ganzer Linie (also auch unter RT und einer offenen DLSS Variante) schlagen könnte.
 
Zuletzt bearbeitet:
AMD macht gerade alles richtig und lässt nichts von sich hören. Jetzt werden sogar schon Spekulationen als Fakten gehandelt. Besser kann es für AMD nicht laufen.

Seit wann ist die völlige Abwesenheit an Informationen ein untrügliches Zeichen dafür alles richtig zu machen?
Genaugenommen lässt diese alle denkbaren Szenarien gleichermaßen zu, von wird gut bis wird medioker bis wird schlecht.
Zudem kann es durchaus sein, dass AMDs Stillschweigen überhaupt nichts mit dGPUs zu tun hat, sondern schlicht dem Vertrag mit Sony/Microsoft zuzuschreiben ist und dass sie erst was zu RDNA2 sagen dürften, wenn ihr mit denen vereinbarter Launchtermin gekommen ist ...

Und auf welche Spekulationen beziehst du dich? In erster Linie hast du hier gerade deine eigene Spekulation als Pseudofakt in den Raum gestellt, indem du behauptet hast, dass AMD alles richtig macht, obwohl man das zuzeit überhaupt nicht bewerten kann, ergo hast du hier effektiv nur deinen Bias zur schau gestellt. Die einzig sinnvolle Aussage deinerseits ist: "Du hoffst / wünscht / glaubst, dass AMD derzeit alles richtig macht." - Das ist aber eine vollkommen andere Aussage als "AMD macht zurzeit alles richtig".
 
Seit wann ist die völlige Abwesenheit an Informationen ein untrügliches Zeichen dafür alles richtig zu machen?
Genaugenommen lässt diese alle denkbaren Szenarien gleichermaßen zu, von wird gut bis wird medioker bis wird schlecht.
Zudem kann es durchaus sein, dass AMDs Stillschweigen überhaupt nichts mit dGPUs zu tun hat, sondern schlicht dem Vertrag mit Sony/Microsoft zuzuschreiben ist und dass sie erst was zu RDNA2 sagen dürften, wenn ihr mit denen vereinbarter Launchtermin gekommen ist ...

Und auf welche Spekulationen beziehst du dich? In erster Linie hast du hier gerade deine eigene Spekulation als Pseudofakt in den Raum gestellt, indem du behauptet hast, dass AMD alles richtig macht, obwohl man das zuzeit überhaupt nicht bewerten kann, ergo hast du hier effektiv nur deinen Bias zur schau gestellt. Die einzig sinnvolle Aussage deinerseits ist: "Du hoffst / wünscht / glaubst, dass AMD derzeit alles richtig macht." - Das ist aber eine vollkommen andere Aussage als "AMD macht zurzeit alles richtig".

Besser als mit bescheuerten Sprüchen wie "Poor Volta" oder "Overclockers Dream" rauszuhauen und am Ende in der Luft zerfetzt zu werden. Das ist dagegen deutlich seriöser und hinter den Kulissen soll ja AMD recht überzeugt von den Karten sein. Man darf also gespannt sein ob die Nvidia ärgern können.
 
Hmm die 5700 hat den Abstand auf Nvidia verkürzt - ja.
Aber hatte trotz nicht gerade geringem Verbrauch bei brandneuem Prozess eben auch nicht gerade brilliert. Man konnte Nvidia die einen 16nm Prozess( hieß halt 12nm) verwendeten und zusätzliche Transistoren für RT und Tensor verbruten nicht schlagen..

Ich weiß nicht wie oft man es eigentlich noch erwähnen muss, bis es der letzte fanboy mal kapiert hat :schief:
Der 12nm war ein extrem auf nvidia angepasster Prozess, bei dem sie ihre gewünschten Taktraten ohne Probleme fahren konnten. Dazu war er für nvidia sehr günstig in der Herstellung, wieso zum Teufel hätten sie also auf 7nm wechseln sollen, bei dem die Taktwall damals niedriger war?
Bestes Beispiel ist hier auch intel mit ihrem 14nm Prozess, der von der Dichte etc deutlich hinter dem 7nm von TSMC ist, jedoch intel die Möglichkeit bietet die CPUs mit 5GHz zu takten, wodurch sie sich im Gamingmarkt die Performancekrone retten können...
Ist das so schwer zu begreifen, dass ein neuer Prozess hinsichtlich der Performance (Verbrauch im Sweetspot ist deutlich besser), nicht zwingend besser sein muss?


Selbst eine doppelte 5700 würde halt Nvidia (wenn deren Performanceaussagen stimmen) nicht schlagen - und der Verbrauch wäre auch noch höher.
Gut, wenn Navi 2 schneller und effizienter wird, kann man sich sicher mit der 3080 anlegen, aber AMD sollte ja auch gegen die 3090 antreten können.
Vielleicht erscheint ja noch eine "even bigger Navi", der ebensogroß oder gar größer ist als Nvidias sehr große Chips + HBM - das würde interessant klingen.

Der Thread nervt langsam gehörig! Zum einen sind zu Navi2 außer, dass die Energieeffizienz bezüglich Navi 1 um 50% besser ausfallen soll nichts bekannt. Und da AMD bei Ryzen sehr ehrlich war, was die Daten betrifft und der Labersack Konduri nicht mehr an Bord ist, sehe ich auch keine Zweifel, wieso das nicht stimmen sollte. Vernünftig begründete Widersprüche sind gerne gesehen, nur gibt es die mit der aktuellen Infolage schlicht und ergreifend nicht.
Von daher wird sich AMD auch definitiv mit der 3080 anlegen können, aber wer gerne wetten möchte, gerne PM an mich!
 
Und da AMD bei Ryzen sehr ehrlich war, was die Daten betrifft [...] Von daher wird sich AMD auch definitiv mit der 3080 anlegen können, aber wer gerne wetten möchte, gerne PM an mich!
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Ab 3:40 sage ich nur:
PBO/on = 4.75Ghz

Dann hieß es wochenlang, "wenn Ryzen3000 mit PBO problemlos 4.75GHz packt, dann sind mit manuellem OC wahrscheinlich 5GHz drin". Und am Ende waren es dann zwischen 4.2-4.4GHz. :ugly:

AMDs Marketing-Gewäsch kann man komplett in der Pfeife rauchen. Die Produkte mögen ansich gut sein, aber was das Marketingteam von sich gibt hat nichts mit den Produkten zu tun. ;)
 
AMD muss sich aber auch nicht mit der 3090 messen. Davon abgesehen wird es schon schwierig für AMD. Die Karten müssen in etwa 3070 und 3080 Leistung haben und noch irgendwas zusätzlich. Nvidia hat mittlerweile mit DLSS 2.0, Voice, RTX IO und und und zu viele Vorteile gegenüber ner „normalen“ Graka von AMD.

Zumindest bei den Preisen von 500 und 700 Euro. Da müsste AMD schon echt gute Preise haben um mitzukommen. Für mich. Ich hoffe es für AMD.
 
Das der Obertroll hier gleich aus dem Loch gekrochen kommt ist ja nichts neues, aber wo hat denn AMD da gelogen?
Wenn ich mir hier die Turbotaktraten anschaue kommen wir auf 4,7GHz:
AMD mit Architektur: Zen 2, Sockel: AM4 Preisvergleich Geizhals Deutschland
Und das es nicht einzelne Modelle gibt, die auch 4,75 GHz erreichen darfst du mir gerne widerlegen :schief:
Zum einen ging es mir um die Architekturversprechen und da haben sie sich was die Mindestangaben betrifft übertroffen, von daher sehe ich keinerlei Grund AMD bei Ryzen schlechtes Marketing vorzuwerfen.
Ansonsten darfst du das gerne mit richtigen Fakten belegen.
Des Weiteren, auch wenn man nur 4,7 anstatts 4,75GHz erreicht, was macht das Performancetechnisch aus? Richtig da befinden wir uns in der Messtoleranz...



Wo hieß es das offiziell von AMD, dass man locker auf 5 GHz kommt? Beleg doch deine haltlosen Aussagen auch mal :schief:



Das einzige was man komplett in der Pfeife rauchen kann sind deine Kommentare, da sie vor Unsinn nur so strotzen! Zum einen war das Marketing von Ryzen gut und zum anderen ist wie bereits erwähnt der "Poor Volta Mann" jetzt bei intel angestellt und seitdem habe ich von der Radeongroup auch keine Ankündigungen mehr gelesen die meilenweit von der Realität entfernt waren! Ansonsten gerne Belege!

Beim lesen der ersten Zeile entwickelte sich ein aufmerksames Lächeln zu einem herzhaften Lachen :D
Danke !
 
zudem wird AMD auch nicht über den Treiber schneller wie immer prophezeit. sieht man ja wie schlecht die vega läuft.

Also bei mir läuft Vega deutlich besser als Pascal ! Manchmal reicht es nicht nur auf Benchmarks zu schauen.

Sicher sind die neuen Karten deutlich schneller, das heißt aber nicht das die alten Karten langsamer werden.
 
Wenn es stimmt was Tom von "Moores law is dead" hier gehört haben will dann hat Igor eventuell einfach Infos zu Navi 22 bekommen ... einem kleineren Bruder von Navi 21 ;). Aber gut er ist halt auch nur jemand der in der Gerüchteküche rührt. Mag auch falsch sein. Aber ich würde RDNA2 nicht aufgrund von Igors Infos abschreiben. Auf der anderen Seite lag er was Ampere angeht die letzten Monate schon richtig.
Breaking the Nvidia Hype before Big Navi Enters the Arena… - YouTube
 
Ein bisschen mehr wissen wir jetzt schon. Fairer Weise muss man sagen, wenn wir nur danach gehen was wir wissen, braucht keiner eine Big Navi vergleichen und schön reden, weil diese noch nicht einmal bestätigt ist. Aktuell tritt eine 5700xt gegen Ampere an...

Nvidia GeForce RTX 3080 Early Look: Ampere Architecture Performance - Hands-On!

Wenn es danach geht, braucht man nur die pcgh aus August z.B. aufschlagen und von der Annahme ausgehen das die 3070 der 2080Ti entspricht:
Eine maximal übertaktete 2080Ti liegt gemäß pcgh-Index wie folgt vor einer RX5700XT (ohne OC):
FullHD: 35,3%
WQHD: 39,7%
UWQHD: 40,9%
UHD: 43%
Im Mittel sind es also gemäß Index 2020/2021: 39,7% Leistungsunterschied zwischen einer RX5700XT und einer maximal übertakteten RTX2080Ti.

Spekulatius:
Sollte man diese Daten zugrundelegen und dann davon ausgehen, dass AMD keinen Mist mit RDNA2 gebaut hat, sollte die Leistung einer 3070 ohne weiteres möglich sein, evtl. sogar bis zur 3080 ohne große Brechstange.
Sind aber alles nur Vermutungen und wir werden es irgendwann dieses Jahr dann sehen können.

Was ich nur nicht verstehe, das sind so einige Aussagen aus dem grünen und roten Lagern, die einzig darauf abzielen, Stunk zu verbreiten und die Diskussion und einen Bereich zu führen, der auf persönlicher Ebene endet.

Ich selber halte mich für keinem Lager angehörig, auch wenn ich die letzten Jahre nur nvidia gekauft habe - meine letzte Karte der roten Fraktion war die HD7950 PCS+ und die läuft immer noch im Rechner eines Kollegen xD.

Bevor ihr AMD abschreibt, wartet doch einfach auf die entsprechenden Daten der AMD Karten - sollte einem nicht so schwer fallen, oder? Dann könnt ihr ja das feindliche Laher bewerfen mit diversen Kommentaren, die dann sohar Hand und Fuß haben - wenn man so etwas nötig haben sollte.
Im Endeffekt muss jetzt erst einmal Ampere in unabhängigen Test (sry DigitalFoundry ich traue den Werte nicht zu 100% xD) zeigen, was die Karten wirklich leisten können und ich gehe persönlich davon aus, das pcgh alles daran setzt zum Fall des NDA die Daten liefern zu können.
 
Überrascht mich kein bisschen, das ist doch schon lange so, wieso sollte es jetzt anders sein.
Nicht grundlos kaufe ich mir gleich eine RTX3000 Karte, ohne zu wissen was AMD wieder vermukst.
AMDs versagen ist schon chronisch, wenn nicht sogar *Normal* für sie.
AMD darf ruhig weiter versagen, Intel wird es schon richten mit ihren neuen Karten :daumen:
AMD müsste gezwungen werden ihre Grafiksparte abzustoßen, das wir endlich wieder ein eigenständiges, gesundes und sich nur auf sich selbst konzentrierendes ATI haben :cool:

Edit.:
Ich habe gerade ein wenig in dem Thema gelesen, ach du meine Güte, hier sind aber viele AMD Fanboys, ihr Hass frisst sie geradezu auf.
Ist aber normal bei den AMD Fanboys, sie sind weniger, aber viel lauter und nerfiger als alle andern Fanboys zusammen.

OMG :lol:
 
leute denk doch mal anderrum:
warum sollte NV plötzlich dermaßen viel verbrauch zulassen, bei ihren neuen karten?.

Es ist keine Frage von zulassen, sondern von brauchen. Wenn man sieht wie sich der Aufbau von Ampere geändert hat und wie viele Einheiten nun parallel rechnen können, ist eine Steigerung im maximalen Stromverbrauch unvermeidbar. Je nach Szenario kann Ampere bis zu 50% mehr Recheneinheiten gleichzeitig nutzen, das bedeutet er muss eben auch entsprechend mehr Transistoren schalten. Wenn man das sieht ist ein Erhöhung in der TGP um rund 1/3 ziemlich gut.
 
Zuletzt bearbeitet:
Zurück