AMD: Spiele-Chef gratuliert Nvidia zum Ampere-Launch, Vorfreude auf RNDA 2

Da Nvidia die 3070 mit 8GB und die 3080 auch nur mit 10GB vorgestellt hat fällt mir das warten auf Infos zu Big Navi nicht einmal sonderlich schwer. Und wenn meine 2080 jetzt doch verkauft wird dann übernimmt solange erstmal meine gute alte 1050ti die Arbeit.
Das Zeug was zurzeit am Spielemarkt draußen ist kann ich mit der notfalls auch mal 1-3 Monate zocken oder so.
 
AMDs Infopolitik zu Big Navi ist echt nicht so gut und bisher sehen alle Unkenrufe eher danach aus, das sie nicht mithalten können. Aber der Herr mit den Spekulatzius hat schon ausreichend berichtet. Das ist eh fast die einzige Quelle, neben manch anderer, die man nutzen kann. Bei der 3090 werde ich wohl mal genauer hinschauen...

Das sie nicht mit was mithalten können(3080, 3090...)?
Es bedeutet noch lange nicht, dass AMD nichts gegen Nvidia in der Hand hat, nur weil es so still um Big Navi ist.
Das könnte man nämlich auch genau andersherum interpretieren.
Abwarten und Tee/Kaffe trinken.
 
Je höher die Leistung der Karte,desto eher benötigt man auch eine bessere Anbindung.Vor allem in FHD und WQHD wird 4.0 eine Rolle spielen,je geringer die Auflösung,desto mehr Durchsatz brauch man am Slot da dadurch die DrawCalls und die Fps steigen was mehr und schnellere Kommunikation mit Ram und CPU erfordert.

Lass mal überlegen ... :

5700 XT, alle Settings auf Maximum

BF5
FullHD PCIe 2.0 : 148,4 Fps
FullHD PCIe 4.0 : 152,8 Fps (+2,96 %)
4K PCIe 2.0 : 68,3 Fps
4K PCIe 4.0 : 71,2 Fps (+4,25 %)

Hitman 2
FullHD PCIe 2.0 : 77,2 Fps
FullHD PCIe 4.0 : 78,6 Fps (+1,81 %)
4K PCIe 2.0 : 35,6 Fps
4K PCIe 4.0 : 35,9 Fps (+1,13 %)

Wolfenstein 2
FullHD PCIe 2.0 : 213,0 Fps
FullHD PCIe 4.0 : 225,4 Fps (+5,82 %)
4K PCIe 2.0 : 76,5 Fps
4K PCIe 4.0 : 78,1 Fps (+2,09 %)

Ahh ... die Antwort ist NEIN. Ampere auf PCIe 3.0 x16 wird zweifelsfrei nicht zu katastrophalen Fps-Einbrüchen führen, d. h. an der grundlegenden Situation ändert sich nichts bzgl. der vermeintlichen Wichtigkeit von PCIe 4.0 ;-)
 
Sorry 4 OT, aber wenn ich hier schon wieder vom "Fön" auf den X570er lese... :kotz:

Man kann sich auch vieles einreden (lassen)

Auf meinem billigen X570er Board von MSI steht der Chipsatzlüfter im UEFI auf "höchstleistung" und dreht dann in Extremsituationen, wie stundenlanges benchmarken/stresstesten, mal auf 2000RPM hoch. Ja das klingt ultra viel, aber das Ding hört man dann trotzdem nicht :nene:
Und bevor hier noch das Thema "Haltbarkeit" aufkommt... Die meisten hier haben 1-2 Lüfter auf der CPU, mindestens einen im Netzteil, 2-3 auf der GPU und dann noch 3-6 (oder mehr) im Gehäuse... :schief:
 
B550 stände auch noch bereit, bietet PCIex 4.0 und hat keinen Föhn.

Hat ja auch keiner was gegen, sich bei einem neuen Systemkauf was mit PCIe 4 zu holen.
Oft ging's aber auch darum, ob man sich wegen des Unterschiedes PCIe4 vs. PCIe3 eine komplett neue Plattform inkl. CPU holen sollte und das ist eher halt nicht der Fall.

Also wer eh aufrüsten muss, ja sicher.
Ansonsten, mit schnellem Intel Gaming System und PCIe 3 ... nein.

Aber mit den Jahren wird dann nach und nach eh jeder ein PCIe 4 System haben.
Dann kommt ja gleich noch das nächste Thema dazu, mit neuem DDR5 Speicher. Hört ja nie auf.
 
Sorry 4 OT, aber wenn ich hier schon wieder vom "Fön" auf den X570er lese... :kotz:

Man kann sich auch vieles einreden (lassen)

Auf meinem billigen X570er Board von MSI steht der Chipsatzlüfter im UEFI auf "höchstleistung" und dreht dann in Extremsituationen, wie stundenlanges benchmarken/stresstesten, mal auf 2000RPM hoch. Ja das klingt ultra viel, aber das Ding hört man dann trotzdem nicht :nene:
Und bevor hier noch das Thema "Haltbarkeit" aufkommt... Die meisten hier haben 1-2 Lüfter auf der CPU, mindestens einen im Netzteil, 2-3 auf der GPU und dann noch 3-6 (oder mehr) im Gehäuse... :schief:

Vorurteile halt.
Habe auch ein x570 Board mit Lüfter und ich höre rein garnichts davon.
 
Die Besitzer der 2080TI versuchen jetzt krampfhaft die Karte zu verkaufen. Beim Release der 3070 wir man den feststellen das die karte doch nicht wirklich (ausser in RT) schneller ist und die Preise gehen wieder hoch. Besitzer der 2080TI wieder angep....
 
Noch zwei Generationen und wir stecken vermutlich die SSD in der Grafikkarte ein und nicht auf dem Mainboard. Die meisten Daten müssen sowieso in die Grafikkarte und der PCIe Bus ist dann nur dazu da, dass RAM und CPU die paar Dinge bekommen die sie brauchen.
 
Viel wird da glaub ich auch übertrieben und aufgebauscht. Wahrscheinlich gerade von Leuten, die das gar nicht haben, nur um rumzumeckern. ;)

Ich probier immer neutral zu bleiben und das Wichtige im Vordergrund zu sehen, anstatt AMD vs. Intel vs. Nvidia, nämlich Spaß ! Spielspaß! Hauptsache Fun eben.

Manchmal erdet mich das auch etwas, wenn ich lese, was manche für tolle Preis-/Leistungssysteme haben und das wir hier bei PCGH eigentlich fast quer durch die Bank eher herausstechen aus der Masse an Zockern.
Meine aktuelle Überbrückungskarte find ich auch echt knuffig, was die alles so stemmt. Von einer GTX 1660 Super hätte ich das gar nicht so erwartet.
Ok ... für mich dürfen es bald wieder ein paar fps mehr sein, aber zocken kann man damit auch. Teilweise auch easy WQHD.

Also : Immer aufm Teppich bleiben, Leute !
Egal ob AMD, Intel, Nvidia, PCIe3, oder 4, Mainboard mit und ohne Lüfter, oder whatever. :)

Zocken tun wir doch alle!
(Hoff' ich zumindest! :D )
 
Noch zwei Generationen und wir stecken vermutlich die SSD in der Grafikkarte ein und nicht auf dem Mainboard. Die meisten Daten müssen sowieso in die Grafikkarte und der PCIe Bus ist dann nur dazu da, dass RAM und CPU die paar Dinge bekommen die sie brauchen.

Gibt es ja schon seit paar Jahren im exklusiven Rahmen mit der Radeon Pro SSG :)
 
Wir wissen dass der AMD Chip 80CUs haben wird, wir wissen dass er ein 33% breiteres Speicherinterface hat. Wir wissen, dass AMD den Vorteil der besseren Fertigung bei TSMC genießt. Wir wissen, dass die Erfahrungen der hochpotenten SOCs neuen Konsolen in RDNA2.0 schlummert. Wir wissen seit heute, dass die Verantwortlichen bei AMD offensichtlich keien Angst vor Ampere haben. :daumen:

Vor allem wissen wir, dass die PS5 36 CU bei 2,23 GHz hat und damit 10,28 TFlops schafft und die X1SeriesX 52 CU bei 1,825 GHz 12,2 TFlops schafft. Was erwartet man da bei 80 CU im Endeffekt. Das sind hochgerechnet max. 23 TFlops. Also irgendwo zwischen 3070 und 3080.
 
Vor allem wissen wir, dass die PS5 36 CU bei 2,23 GHz hat und damit 10,28 TFlops schafft und die X1SeriesX 52 CU bei 1,825 GHz 12,2 TFlops schafft. Was erwartet man da bei 80 CU im Endeffekt. Das sind hochgerechnet max. 23 TFlops. Also irgendwo zwischen 3070 und 3080.

Die Flops zwischen NVidia und AMD lassen sich nicht so simpel vergleichen. Nicht mal zwischen den Generationen vom gleichen Hersteller.
Egal ob es dabei um die verschiedenen Rechenwerke geht oder um grüne Laubbläseranlagen gegen rote Grillplatten.
 
Naja, der mündige Kunde lässt sich eigentlich nicht hypen und kann auch noch ein paar Wochen abwarten.

Wer jetzt "blind" die neuen Ampere Karten kauft, hätte sich sowieso dafür entschieden...

Ich hatte bis zur Vorstellung von Ampere auf BigNavi mit 2080Ti-Leistung für ~600 € spekuliert und nVidia aufgrund der Preisentwicklung gar nicht auf dem Schirm. Nun bietet mir die Lederjacke eine Karte, welche direkt meine Anforderungen erfüllt, jedoch 100 € unter meiner Schmerzgrenze liegt oder alternativ eine, die deutlich mehr Power liefert und nur 100 € darüber angesiedelt ist... Selbstverständlich muss berücksichtigt werden, dass die Karten bei der Präsentation besser dargestellt wurden, als sie es letztlich sind, aber es ist doch sehr unwahrscheinlich, dass Ampere mit belastbaren Testergebnissen plötzlich zum Rohrkrepierer verkommt. Abgesehen von Holzattrappen und Speicherkrüppel hat nVidia in der Vergangenheit immer geliefert, Knackpunkt war weniger die Leistung als vielmehr der Preis und genau hier haben sie angesetzt. Ich bin tatsächlich geneigt, mir blind die 3080 zu gönnen und nicht auf AMD zu warten, ganz einfach weil damit die Anforderungen an meine zukünftige GPU mehr als erfüllt sind. Vielleicht schwingt bei meiner Entscheidung auch noch der Ärger über meine Vega56 mit, die für AMD-Verhältnisse extrem schlecht gealtert ist und in neueren Titeln auf GTX1060-Niveau zurückfällt... Wie dem auch sei - ich fühle mich weder unmündig noch gehyped!
 
Das sie nicht mit was mithalten können(3080, 3090...)?
Es bedeutet noch lange nicht, dass AMD nichts gegen Nvidia in der Hand hat, nur weil es so still um Big Navi ist.
Das könnte man nämlich auch genau andersherum interpretieren.
Abwarten und Tee/Kaffe trinken.

Hab ich irgendwo gesagt ob sie mithalten können oder vllt mehr kommt? Nein. Und mit was sonst wenn nicht 3070/80/90? Matrox? Trotzdem könnte man ja so langsam ausm Mustopf kommen. Wie gesagt sind die Unkenrufe ja anders, vllt sollte man dagegen was bringen oder man hat nichts, was weiß ich.
 
#Kopfstreichel# ...haste fein gemacht meiner... wenn wir launchen schiesen wir erstmal eure Preisvorstellung in Keller... so wo stehtn das Buffet und der Alk..
 
Hab ich irgendwo gesagt ob sie mithalten können oder vllt mehr kommt? Nein. Und mit was sonst wenn nicht 3070/80/90? Matrox? Trotzdem könnte man ja so langsam ausm Mustopf kommen. Wie gesagt sind die Unkenrufe ja anders, vllt sollte man dagegen was bringen oder man hat nichts, was weiß ich.

Schau in deinen Post #77.
Deine Aussage war zu allgemein, deshalb wollte ich es konkreter wissen.
Denke nämlich, dass sie nicht mit der 3090 mithalten können, aber darunter schon.
 
Bei Hardware Unboxed haben sie letzte Woche Tests veröffentlicht, in denen selbst eine 5700XT schon unter bestimmten Umständen durch PCIe 3.0 gedrosselt wird, wobei das stark von individueller Game Engine und Optimierung für PC abhängig ist. Das war für sie Grund genug, das GPU-Testsystem für Ampere auf X570 umzustellen. In den allermeisten Fällen wird es kaum einen bis keinen Unterschied machen, aber wenn du in allen Fällen auf Nummer sicher gehen willst, dann hast du da zumindest eine ziemlich fundierte Meinung.

Ich freue mich schon auf die vielen Grafikkarten-Testsysteme, die nicht mehr i9, sondern Ryzen9 einsetzen werden.
 
Zurück