AMD: Spiele-Chef gratuliert Nvidia zum Ampere-Launch, Vorfreude auf RNDA 2

Meint ihr Ampere würde PCIe3.0x16 voll auslasten bzw ist PCIE4.0 hier 'erforderlich' um >95% Performance zu erlangen? Bei den Vorgenerationen hat man ja nachgewiesen, dass sie selbst PCIE3.0x8 kaum voll ausgelastet haben.

Screenshot_20200903-141524_Firefox.jpg
 
@deady1000 Ich glaub diesmal sieht die geschichte anders aus. Gerade die umstrukturierung des Datenverkehrs direkt zur GPU könnte selbst PCIe 4.0 SSDs sinnvoll erscheinen lassen :schief:

Bin mal gespannt auf offiziellere, weitläufigere Benchmarks

Auch wenn ich diese Gen bei beiden Seiten (Hoffentlich) aussetzen werd :P
 
Wenn AMD nicht im September reagiert und im Oktober was liefern kann dann ist es scheiss egal was AMD hat, dann geht das Geld zu Nvidia.

Ja, es ist viel zu ruhig. Wenn AMD was in die Waagschale werfen will, dann müssten die selbst Mal mit Infos kommen. Es macht jetzt nach dem Launch strategisch und wirtschaftlich keinen Sinn die Infos zurück zu halten wenn man möchte, dass die Gamer ihr Geld zurückhalten um AMD Karten zu kaufen. Ausgenommen man weiß jetzt schon das man keinen Stich landen kann.....
 
Also wenn ich nicht sofort mein Geld in eine neue Grafikkarte investieren kann sterbe ich. Entweder AMD sagt jetzt GANZ SCHNELL was Sache ist, oder ich kaufe mir 2 oder besser 3 RTX 3090. Ich habe keinerlei andere Sorgen im Leben, und meine alte Grafikkarte war schon am ersten Tag viel zu langsam. Ich brauche Grafikkarten wie die Luft zum atmen, wenn jetzt noch mal paar Wochen ohne was Neues ins Land ziehen, springe ich vom Dach. Außerdem bin ich auf gar keinen Fall ein Nerd oder so was, ich bin nur total sücht ig nach Geld ausgeben und Grafikkarten kaufen.
 
Meint ihr Ampere würde PCIe3.0x16 voll auslasten bzw ist PCIE4.0 hier 'erforderlich' um >95% Performance zu erlangen? Bei den Vorgenerationen hat man ja nachgewiesen, dass sie selbst PCIE3.0x8 kaum voll ausgelastet haben. Ich würde schätzen man benötigt PCIe4.0 nicht unbedingt.

Anhang anzeigen 1099675

Jene die aussagen, dass sie unbedingt die maximale Leistung brauchen (ist zwar in meinen Augen nur zwanghafte Schönrednerei einer überteuerten Investition) sollten ja konsequenterweise auf jene Plattform setzen, die mehr Performance rauskitzeln kann. Und wenn Zen3 mit PCIe4 nur 1% mehr Performance bringen sollte als das Beste, das Intel aufzufahren hat.

Alle anderen die die Welt etwas entspannter sehen, greifen zu dem, das ihnen mehr zusagt.
Ich persönlich werde sehr wahrscheinlich PCIe4 nicht nutzen, da es von Asus weder für mein x370, noch für mein x470-Board freigegeben worden ist. Aber nur wegen PCIe4 werde ich ganz sicher nicht die alten Mainboards wegwerfen. Wenn ich da dann halt potenziell 1-2% Performance liegen lasse, ist mir das ziemlich Wurscht.

Die neuen Techniken wie DirectStorage müssen sich zudem erst noch etablieren. Ich werte das derzeit als Anfangstechnologie, wie dies immer noch auch RayTracing oder KI-unterstütztes Upscaling darstellt. Richtig interessant wird das langsam in 1-3 Jahren, wenn es breiter verfügbar ist. Dann ist sowieso Zen4/5-Zeit und ein Umstieg der Plattform auf DDR5 und PCIe4/5 wird wesentlich interessanter sein.
 
AMDs Stillschweigen kann aber auch beide Richtungen bedeuten:

Entweder haben sie tatsächlich keine "Angst" vor den Ampere Karten und wissen, dass Big Navi ziemlich gut wird

Oder eben das Gegenteil: AMD weiß, dass die neuen RX6000er eben nicht bis in die höchsten Sphären vorstoßen können und halten deswegen den Ball flach um nach release nicht "dumm" da zu stehen.

Jegliche Interpretation Wochen vor der Ankündigung oder release bringt nun wirklich nichts :ka:
 
Meint ihr Ampere würde PCIe3.0x16 voll auslasten bzw ist PCIE4.0 hier 'erforderlich' um >95% Performance zu erlangen? Bei den Vorgenerationen hat man ja nachgewiesen, dass sie selbst PCIE3.0x8 kaum voll ausgelastet haben. Ich würde schätzen man benötigt PCIe4.0 nicht unbedingt.

Anhang anzeigen 1099675

Bei Hardware Unboxed haben sie letzte Woche Tests veröffentlicht, in denen selbst eine 5700XT schon unter bestimmten Umständen durch PCIe 3.0 gedrosselt wird, wobei das stark von individueller Game Engine und Optimierung für PC abhängig ist. Das war für sie Grund genug, das GPU-Testsystem für Ampere auf X570 umzustellen. In den allermeisten Fällen wird es kaum einen bis keinen Unterschied machen, aber wenn du in allen Fällen auf Nummer sicher gehen willst, dann hast du da zumindest eine ziemlich fundierte Meinung.
 
Es macht strategisch absolut keinen Sinn nach der Präsentation der Konkurrenzkarten still zu bleiben.
Das einzige was passiert ist dass Nvidia durch die Hypewelle alle potentiellen Käufer reinholt, und AMD nur mehr den kleinen Rest.
 
Jene die aussagen, dass sie unbedingt die maximale Leistung brauchen (ist zwar in meinen Augen nur zwanghafte Schönrednerei einer überteuerten Investition) sollten ja konsequenterweise auf jene Plattform setzen, die mehr Performance rauskitzeln kann. Und wenn Zen3 mit PCIe4 nur 1% mehr Performance bringen sollte als das Beste, das Intel aufzufahren hat.

Alle anderen die die Welt etwas entspannter sehen, greifen zu dem, das ihnen mehr zusagt.
Ich persönlich werde sehr wahrscheinlich PCIe4 nicht nutzen, da es von Asus weder für mein x370, noch für mein x470-Board freigegeben worden ist. Aber nur wegen PCIe4 werde ich ganz sicher nicht die alten Mainboards wegwerfen. Wenn ich da dann halt potenziell 1-2% Performance liegen lasse, ist mir das ziemlich Wurscht.
Sehe ich auch so. Für <5% Unterschied mache ich kein Fass auf und kaufe mir so ein X570-Board mit Fön. Boykottiere den Chipsatzlüfter seit dem ersten Tag und da knicke ich jetzt nicht ein. Evtl schaue ich mir X670 mal an wenn es da ist, aber viel wichtiger werden jetzt die Benchmarks sein. Wahrscheinlich ist der Unterschied zwischen PCIe4.0 und PCIe3.0x16 nicht so relevant.
 
Ich sach nur eins zum thema AMDs RDNA2 schweigen: NDA.... Ampere wird nicht in den neuen Konsolen stecken.... RDNA2 schon... Also abwarten und Tee trinken Aktuell gibts sowieso für viele keinen wirklichen Kaufgrund was einzig und allein am Vram liegt... 3070 und 3080 bedienen WQHD gamer mit hohen frequenzen (120hz+) beide karten haben eventuell genug Power für 4k Gaming... aber weder 8 noch 10gb sind zukunftssicher bei 4k.

Bin zwar auch mächtig geflsht von dem Leistungsschub... muss aber sagen: trotz der vielen gerüchte um 20 oder 40% mehrleistung gegenüber turing, bin ich jetzt nicht in einer erwartungen übertroffen haltung.... 60-80% mehr leistung habe ich definitiv erwartet weniger wäre peinlich gewesen.

Aber Dennoch und trotz meiner schwierigkeiten mit Nvidia die letzten jahre.... Bin mega happy grundsätzlich kann ne 3070 jedes aktuelle games in 4k packen wenn der vram ausreicht und man nicht unbedingt Krasses AA und MS braucht.... Alles in allem muss man sagen : well played Nvida :daumen:

Ich denke hat sich denfinitiv gelohnt n paa Monate Kürzer zu treten und mir ne 200euro vega zu holen anstatt ne 2080ti.... Und die vega kommt schon gut kla wenn man auf 3200x1800 pixel runter geht bei 60hz. Im grunde kann von AMD kommen was will. wenn es 16gb Vram hat und Mindestens an ne 2080 ti ran kommt. Seh ich mich da eher als bei ner 10gb 3080
 
Es riecht nach NDAs mit Microsoft und Sony. Auch wenn BigNavi schwächer ist, müsste AMD etwas verlaute lassen.
 
Wir wissen dass der AMD Chip 80CUs haben wird, wir wissen dass er ein 33% breiteres Speicherinterface hat. Wir wissen, dass AMD den Vorteil der besseren Fertigung bei TSMC genießt. Wir wissen, dass die Erfahrungen der hochpotenten SOCs neuen Konsolen in RDNA2.0 schlummert. Wir wissen seit heute, dass die Verantwortlichen bei AMD offensichtlich keien Angst vor Ampere haben. :daumen:

Wäre es anders, wären die Twitterkommentare sonst newsworthy?

Nein, "wissen" wir nach wie vor nicht, genaugenommen noch nicht einmal, dass AMD tatsächlich ein 512 Bit SI verwenden wird. Das sind bisher alles unbestätigte Gerüchte (und natürlich das Wunschdenken der Fans; das sei ihnen durchaus gegönnt, aber das hundertfach zu wiederholen macht daraus auch keine Fakten).
Das breite Speicherinterface spielt übrigens keine Rolle, denn aufgrund der beschränkteren Ressourcen von AMD und da die ja auch noch Marge erwirtschaften wollen, kann man ausschließen, dass die hier übermäßig schnelles GDDR6 verbauen, d. h. mit bestenfalls 16 Gbps stehen hier 1024 GiB/s bei nVidia 936 GiB/s gegenüber, was ein geringer Unterschied ist und AMD hat in der Vergangenheit schon mehrfach demonstriert, dass die mit gar noch einem weitaus größeren Bandbreitenvorteil nichts anzufangen wussten. Die müssen hier erst mal vorlegen, dass die das architektonisch sinnvoll umsetzen können.
Ähnliches gilt in diesem Falle wohl auch bzgl. des Prozesses. Mit Navi 10 haben sie demonstriert, dass sie sehr viel Potential auf der Straße haben liegen lassen, denn mit dem Prozess wäre weitaus mehr möglich gewesen (wie der GA100 belegt) und bzgl. des Samsung-Prozesses wartet nVidia erneut mit einem semi-customized Prozess auf und den Aufwand wird man nicht zum Spaß betrieben und bezahlt haben. Sieht man sich das Leistungsgefüge und die Transistorzahlen an, dann hat nVidia hier offensichtlich extrem viel aus dem Prozess herausgeholt und bspw. verwendet man hier schon einen höhere Logikdichte als AMD bei Navi 10, der bereits einen 2nd Gen 7nm-Prozess verwendet, konkret den N7P. Und darüber hinaus hat auch hier bereits AMD mit Navi 10 demonstriert, dass sie mit dem weitaus moderneren Prozess (N7P vs. 12FFC/N) dennoch nicht mehr als nur mithalten konnte, d. h. AMD muss erst einmal vorweisen, dass sie die Möglichkeiten, die ihnen zur Verfügung stehen, auch effizienz nutzen können und das insbesondere dieses Jahr, denn bei RDNA2 werden sie prozestechnisch nur minimale Vorteile mitnehmen können (da sie mit Navi 10 bereits den N7P verwenden), während nVidia hier mindestens einen ganzen Full-Node-Sprung ausnutzen konnte.
Und welche Erfahrtungen der Konsolen? Zu denen gibt es keinerlei belastbare Leistungsdaten, d .h. man kann immer noch nicht einschätzen wo sich RDNA2 im Vergleich zu Ampere positioniert, also ein sinnloses Argument. Und bspw. bei der Xbox liegt die gemittelte Logikdichte gerade mal auf dem Niveau, dass auch nVidia bei Ampere im modifizierten 8LPP erreicht (trotz 7 nm). ;-) Und darüber fehlinterpretierst du das hier auch ein wenig, denn es handelt sich bei den GPUs lediglich um eine Zweitverwertung der IP, wie es AMD in den vergangenen Jahren vielfach gemacht hat, so mit Vega und Polaris. Ob das, was jetzt als "PC-RDNA2" kommt, ggf. eine mittlerweile weiterentwickelte Variante ist, oder ob die Entwicklung hier immer noch auf dem Stand von 2018 ist, wird man abwarten müssen.
Und "wir" wissen ebensowenig, ob da wer bei AMD Angst hat, wobei das "Angst haben" auch vollkommen unnötig ist, denn die Sachlage ist bei AMD bereits vollkommen klar, denn die können nun sehr konkret abschätzen wogegen sie antreten (müssen) und die wissen natürlich sehr genau was sie haben (und was nicht). Angst ist da fehl am Platze. Die müssen jetzt mit den Karten spielen die sie haben, egal ob die gut oder schlecht sind und wenn die nicht ganz so gut sein sollten, muss es wie immer das Markting mit ein wenig Verzicht auf Marge richten. Das ist der normale Lauf der Dinge.
Deine Interpretation des "Nicht-Angst-habens" ist hier ausschließlich deinem Bias zuzuschreiben. Was hätte Azor schreiben sollen?
"Wow, Jensen, ich bin platt, die Dinger sind ja mal echt der Hammer und haben uns eiskalt erwischt. Wären wir nicht auf den Revenue angewiesen, würde ich RDNA2 einpacken und es nächstes Jahr noch mal mit RDNA3 versuchen. Man sieht sich." ???
Das war ein wenig Freundlichkeit und noch viel wichtiger, das war im Wesentlichen Marketing, denn hier geht es dabei im Gespräch zu bleiben und das, obwohl man keinerlei neue Details anbietet, weil man nach wie vor nichts verkünden will und das absehbar bis zum eigentlichen Launch.
So wie sich das bereits seit 2018 darstellt, geht es bei dieser "Stille" viel mehr um die neuen Konsolen (siehe -ElCritico-), als um die PC-RDNA2-Karten. Einfach mal abwarten. AMD wird dieses Jahr sicherlich oben mitspielen, jedoch wie weit oben, kann man aktuell schlicht noch nicht vorhersagen ... (Naja, nicht ganz, schneller als die 3070 wird es zweifelfrei werden ... ;-))
 
Zuletzt bearbeitet:
bin ich jetzt nicht in einer erwartungen übertroffen haltung.... 60-80% mehr leistung habe ich definitiv erwartet weniger wäre peinlich gewesen.
Üblich waren es eigentlich immer so 30%, außer beim Topmodell und bei Turing waren es teilweise negative Prozente. :ugly: Ne im ernst, das sagste jetzt auch nur im Nachhinein. Der Leistungsschub bei Ampere ist durch die Bank schon gewaltig. Das muss man anerkennen. Hier wird einem schon mit einer RTX3070 einiges geboten.
 
Ja als Laie scheint die Funkstille keinem Sinn zu ergeben.
Man darf nicht vergessen dass wir hier keine Ahnung haben was hinter den Kulissen los ist. Wir haben nicht die Weisheit mit Löffeln gefressen um zu sagen wenn x so ist dann ist y so. Das ist ja das gefährliche, LaienBehauptungen so aufzustellen dass sie als 100%ige Wahrheit rüberkommen, das finde ich verkehrt für ein technisches Fachforum. Vielleicht klärt sich das alles?! Und das heißt es ooh ooh, ja ist doch clever und logisch.
-> Der Weise weiß dass er nichts weiß.
(Nochmal, die Nvidia Präsentation ist keine 24h her, da braucht man noch keine Schnappatmung bekommen)
 
Am Ende zählt Preis zu Performance zu Verbrauch. Schafft es AMD erneut eine Sparsame Karte ( im Vergleich zu Ampere nicht wirklich schwierig ) zu einem gutem Preis mit Vergleichbarer Performance auf den Markt zu bringen, sind Quasi alle Möglichkeiten wieder offen.

Für mich zählt am Ende nur P/L. Verbrauch irrelevant...

Es macht strategisch absolut keinen Sinn nach der Präsentation der Konkurrenzkarten still zu bleiben.
Das einzige was passiert ist dass Nvidia durch die Hypewelle alle potentiellen Käufer reinholt, und AMD nur mehr den kleinen Rest.

Über 50% der User warten auf Big Navi laut PCGH-Quickpoll. Ich glaube daher nicht, dass Nvidia über eine "Hypewelle" "alle" potentiellen Käufer abholt...
 
Sehe ich auch so. Für <5% Unterschied mache ich kein Fass auf und kaufe mir so ein X570-Board mit Fön. Boykottiere den Chipsatzlüfter seit dem ersten Tag und da knicke ich jetzt nicht ein. Evtl schaue ich mir X670 mal an wenn es da ist, aber viel wichtiger werden jetzt die Benchmarks sein. Wahrscheinlich ist der Unterschied zwischen PCIe4.0 und PCIe3.0x16 nicht so relevant.

Gibt ja eine sehr gute Alternative mit dem B550-Chipsatz ohne Fön :)
(Mir wär der egal, da im Hauptrecher eh schon ein I/O-Die-Wasserkühler eingebaut ist und der Fön so oder so weg käme :D )

Interessanter würde ich PCIe4 finden, wenn man die GPU bsw. mit praktisch ohne Leistungseinbussen im 8x-Modus betreiben und die anderen 8 Lanes für was anderes einsetzen könnte. Aber das sind dann schon wieder speziellere Usecases die mich wiederum nicht betreffen. Ich brauch neben den 16 für die GPU idealerweise nur noch 4-8 Lanes für eine bis zwei M.2-Disks und dann noch paar (langsamere) Lanes für die Soundkarte.
 
Meint ihr Ampere würde PCIe3.0x16 voll auslasten bzw ist PCIE4.0 hier 'erforderlich' um >95% Performance zu erlangen? Bei den Vorgenerationen hat man ja nachgewiesen, dass sie selbst PCIE3.0x8 kaum voll ausgelastet haben. Ich würde schätzen man benötigt PCIe4.0 nicht unbedingt.

Es gibt doch Tests zu Navi 10 mit PCIe4 vs 3. Sieh' dir die für eine Abschätzung an.
Und um den Tests vorzugreifen: Nein, unbedingt benötigen wird man es zweifelsfrei nicht. ;-)

PCIe 3.0 vs. 4.0 in Spielen im Test - ComputerBase
PCI-Express 4.0 Performance Scaling with Radeon RX 5700 XT | TechPowerUpPCI'-'Express 4.0 vs. 3.0 im Test '-' Vorteil oder Gleichstand? Echte Workloads sorgen ab und zu fuer Aha'-'Momente! | Praxistest | igor sLAB
 
Zuletzt bearbeitet:
Zurück