AMD: Spiele-Chef gratuliert Nvidia zum Ampere-Launch, Vorfreude auf RNDA 2

Und AMD so:
Nö Paperlaunch Ende November, kaufbar ab Mitte Januar - achja und kostet 999$US für knappe RTX3080-Leistung, bitte und danke.

Und Nvidia so:
RTX3080 20GB, gleicher Preis.
Feuchte grüne Träume...

Nvidia so:
Paperlaunch September, lieferbar Dezember.
https://www.pcgameshardware.de/Nvid...lechte-Lieferbarkeit-bis-Weihnachten-1357455/

AMD so:
Hardlaunch November, 3090 Leistung für 999€

Nvidia 3090 Fanboys so:
:wall::heul:


(um mal auf dem Niveau kommunizieren)
 
Mein PC ist vollständig wassergekühlt, da hole ich mir aus Prinzip kein Board, welches aktiv mit Luft gekühlt werden muss. Ich boykottiere es einfach. Wenns danach ginge, könnte ich mir auch einen Noctua NH-D15 und einen Accelero Xtreme IV kaufen. Da hörste dann genau so wenig wie mit einer WaKü. Finde ich halt ästhetisch unansprechend - genau wie einen 40mm-Lüfter der hier und da mit ~2000rpm anspringt. Die sollen es hinbekommen, dass der Chipsatz wieder 5W statt 15W säuft, da einen passiven Alu-Kühler draufpacken, statt diese kostensparenden Billo-Lüfter und gut ist.

Und deine Wasserkühlung wird mit deiner Klimaanlage gekühlt? Ne, da hast du auch Lüfter vermutlich im Push/Pull, also sicherlich nicht wenige. Du überdramatisierst den onboard Lüfter so dermaßen, dass es eben nur mit Ahnungslosigkeit betitelt werden kann.
Btw. sind die Lüfter, die dein Wasser kühlen auch nicht lautlos.

Bei hoher Chipsatzleistung ist eine Kühlung nun mal notwendig. Früher gab es auch Grafik, die nicht aktiv gekühlt werden musste. Die Zeiten sind vorbei. Das wirst du halt auch irgendwann einsehen.
Bis dahin kannst du dich natürlich weiterhin so kindisch verhalten.
 
Feuchte grüne Träume...

Nvidia so:
Paperlaunch September, lieferbar Dezember.
https://www.pcgameshardware.de/Nvid...lechte-Lieferbarkeit-bis-Weihnachten-1357455/

AMD so:
Hardlaunch November, 3090 Leistung für 999€

Nvidia 3090 Fanboys so:
:wall::heul:


(um mal auf dem Niveau kommunizieren)
:lol:
Der war gut. Ohne Ironie. War gut. :ugly::daumen:

Und deine Wasserkühlung wird mit deiner Klimaanlage gekühlt? Ne, da hast du auch Lüfter vermutlich im Push/Pull, also sicherlich nicht wenige. Btw. sind die Lüfter, die dein Wasser kühlen auch nicht lautlos.
Was genau von 'aus Prinzip' hast du nicht verstanden?
Ich will's nicht haben, werd's nicht brauchen, werd's nicht kaufen.
Ende der Durchsage, X670 darf es gern wieder besser machen.
 
Genaugenommen dürfte der Wert gar näher an 20 TFlops liegen, denn dass ein so großer Chip mit dem Takt der PS5 läuft, ist sehr unwahrscheinlich.
Wenn die PC-Karten also kein weiterentwickeltes RDNA2 darstellen, darf man bzgl. der TFlops tatsächlich nicht mehr als 20 - 21 TFlops bei AMD erwarten (es sei denn, es gibt gar deutlich mehr als 80 CUs).



Mit Blick auf TFlops sind die Werte sehrwohl vergleichbar, gar 1:1, denn das ist das, was du für mathematische Berechnungen brauchst. Und schlussendlich skaliert die Performance hier sogar über beide Hersteller gleichermaßen mit einem identischen Faktor pro Funktionseinheit und Takt.

Wenn du darauf hinweisen möchtest, dass TFlops nicht direkt auf Fps übertragbar sind, hast du recht, jedoch geben diese i. d. R. dennoch eine halbwegs verlässliche Indikation in welche Richtung man sich bewegt. Dass eine 10 TFlops-Karte in der Renderleistung an eine 20 TFlops-Karte heranreicht, kann man nach aktuellem Stand eher ausschließen, weil kein Hersteller seine Funktionseinheiten derart anders/unüblich zusammensetzen wird, weil ein gewisses Verhältnis an Rechenleistung (FP, INT, Texturen, ROPs, etc.) von aktuellen Game-Engines schlicht vorausgesetzt wird.

Anhand der Flops lässt sich die Leistungsfähigkeit in FPS nicht abschätzen. Nicht mal ansatzweise.

Eine Fury X fährt 8.6TFlops auf, die 5700 7.9TFlops. Trotzdem ist die 5700 im Schnitt laut PCGH knapp 60% schneller wie die Fury X.
Eine R9 270X/HD7870 bringt etwas weniger wie 2.6TFlops auf die Waage, eine HD5870 etwas mehr als 2.7TFlops. Trotzdem ist die 270X/HD7870 laut CB knapp 20% leistungsfähiger in ihrem Aufgabengebiet.
 
Lass mal überlegen ... :

5700 XT, alle Settings auf Maximum

BF5
FullHD PCIe 2.0 : 148,4 Fps
FullHD PCIe 4.0 : 152,8 Fps (+2,96 %)
4K PCIe 2.0 : 68,3 Fps
4K PCIe 4.0 : 71,2 Fps (+4,25 %)

Hitman 2
FullHD PCIe 2.0 : 77,2 Fps
FullHD PCIe 4.0 : 78,6 Fps (+1,81 %)
4K PCIe 2.0 : 35,6 Fps
4K PCIe 4.0 : 35,9 Fps (+1,13 %)

Wolfenstein 2
FullHD PCIe 2.0 : 213,0 Fps
FullHD PCIe 4.0 : 225,4 Fps (+5,82 %)
4K PCIe 2.0 : 76,5 Fps
4K PCIe 4.0 : 78,1 Fps (+2,09 %)

Ahh ... die Antwort ist NEIN. Ampere auf PCIe 3.0 x16 wird zweifelsfrei nicht zu katastrophalen Fps-Einbrüchen führen, d. h. an der grundlegenden Situation ändert sich nichts bzgl. der vermeintlichen Wichtigkeit von PCIe 4.0 ;-)

Du scheinst die Grundlage meiner Aussage schon nicht zu verstehen, von daher erübrigt sich ein Kommentar dazu.

Also für 720p-Benchmarks braucht man PCIe4.0. Ok, ist notiert.
Brauche die Rohleistung hauptsächlich für VR und WQHD-Gaming, ggf etwas SuperSampling rein und maximale Details.
Bis 144Hz wird PCIe3.0x16 schon nicht relevant bottlenecken.
Nochmal, es geht um Drawcalls und die Fps sowie die CPU Auslastung dabei. Je höher die drei Faktoren, desto wichtiger ist die Anbindung. Du verlierst auf jeden Fall etwas Performance, vor allem bei der satten Leistung die die Karte hat sieht man auch schnell mal wieder öfter das CPU Limit.
 
Zuletzt bearbeitet:
@AMD und Nvidia Fanboys: Intel bringt dann überraschend 3090Ti Leistung für 500€ und beide Lager heulen. :P;)

Raja vor, noch ein Tor! xD
 
Zuletzt bearbeitet:
Man sollte sich nicht um die RTX 3090-Performance @PCIe 3.0 x16 sorgen, sondern viel mehr um die RTX 3070-Performance @PCIe 3.0 x16. Letzterer wird als erstes der VRAM ausgehen und was dann passiert hat Computerbase anhand der RX 5600 XT eindrücklich demonstriert: PCIe 3.0 vs. 4.0 in Spielen im Test - ComputerBase

Die klein(er)en Karten aka Speicherkrüppel sind die Sorgenkinder, nicht der High-End-Bolide mit dekadenter VRAM-Ausstattung. Die RTX 3080 VRAM-Geiz-Edition dürfte ob ihrer massiven Rohleistung@4K auch der VRAM im einen oder anderen (RT)Titel ausgehen. Noch härter könnte es eine potentielle RTX 3060 mit nur 6GB treffen... der Abschuss wäre wenn Nvidia das Design auf 8xLanes wie AMD bei der RX 5500 XT begrenzt. Die Redaktionen sind doch nicht doof, weil sie auf Matisse umstellen.
 
Zuletzt bearbeitet von einem Moderator:
Himmel, gleich zwei, die mit der deutschen Sprache Probleme haben?

Du scheinst die Grundlage meiner Aussage schon nicht zu verstehen [...]

deady1000 fragte nach einer Idikation bzgl. relevanter Probleme/Nachteile bzgl. PCIe 3 und ich gab ihm etwas Material als Entscheidungshilfe und der vorgreifenden Aussage, dass der Impact gering ist, genaugenommen sogar sehr gering. Dann kamst du mit deiner verkomplizierenden Aussage (die ihn möglicherweise eher weniger interessierte) und dann habe ich dir dargelegt, dass der Impact faktisch tatsächlich sehr gering ist und zur besseren Illustration habe ich dabei sogar auf den Unterschied PCIe 2.0 gegen 4.0 zurückgegriffen (inkl. aktueller Titel in MaxSettings) und selbst bei diesem "extremen" Bandbreitenunterschied zeigen sich nur verhältnismäßig kleine Änderungen in den Fps, sowohl in FullHD bei hohen Fps als auch in 4K bei deutlich geringeren Fps. Und jetzt versuche du mir noch mal zu erklären was ich angeblich nicht verstanden hätte. Mir scheint eher, du willst nicht akzeptieren, dass PCIe 4.0 hier nur eine untergeordnete Rolle spielt oder geht es hier nur darum das letzte Wort zu haben?

Keiner hat in Abrede gestellt, dass bzgl. der Draw-Calls über den PCIe-Bus die Bandbreite eine Rolle spielt, aber halt nur eine geringe, wie man ja recht eindeutig an diesen (und auch vielen anderen) Daten sieht und dann kommt wiederum alles zurück aufs Lesen:
a) "Nein, unbedingt benötigen wird man es [PCIe 4] zweifelsfrei nicht."
b) "NEIN. Ampere auf PCIe 3.0 x16 wird zweifelsfrei nicht zu katastrophalen Fps-Einbrüchen führen"
c) "an der grundlegenden Situation ändert sich nichts bzgl. der vermeintlichen Wichtigkeit von PCIe 4.0"

Was hast du nun an den drei Aussagen nicht verstanden? Wir sagen beide, dass es ein wenig Fps kostet. Du selbst schreibst abschließend "Du verlierst auf jeden Fall etwas Performance" und verwendet hier ebenfalls ein sehr unbestimmtes "etwas" und dennoch versuchst du hier ein Fass aufzumachen, noch dazu, wo selbst in obigem Extrembeispiel mit über 200 Fps gerade man 6 % Fps verloren gehen.

Ob für deady1000 nun möglche Fps-Einbußen im Bereich von 2 % bis schlechtestenfalls 5 % (man beachte, dass obige Tests PCIe 2.0 verwendeten) relevant und schwerwiegend genug sind um auch noch eine neue Plattform anzuschaffen, muss er selbst entscheiden. Aber selbst wenn er als absoluter Enthusiast, der dem letzten Frame hinterher jagt, diese Frage mit Ja beantwortet, ändert das dennoch nichts daran, dass der Einfluss von PCIe auf die Fps nur sehr gering ist.

Mit Ampere können tendenziell noch ein paar Draw-Calls mehr abgesetzt werden, aber auch hier wird der relative, zusätzliche Verlust mit Blick auf PCIe überschaubar bleiben, wenn man bei v3.0 bleibt. Zumal vermutlich der größere Teil der Anwender die Rechenleistung auch primär für eine höhere Auflösung und schönere Grafik (höhere Settings) nutzen wird und eher weniger um seine Fps-Zahl ins Übernatürliche zu steigern, d. h. hier wird die zusätzliche Rechenleistung für komplexere Berechnungen auf der GPU eingesetzt und weniger um noch mehr Fps zu erreichen (und damit deutlich mehr Draw-Calls abzusetzen) und wie auch oben schon bei den über 200 Fps von Wolfenstein zu sehen war, ist das aber auch da kein allzu großes Problem.

Und darüber hinaus als Anmerkung, kann man an den Titeln auch möglicherweise noch die Vorteile von DX12 ggü. DX11 sehen kann, denn der BF5-Test lief mit DX11, während Hitman 2 DX12 verwendete, dass den Draw-Call Overhead zu reduzieren hilft, was möglicherweise auch die kleineren Fps-Verluste aufgrund der geringeren PCIe-Bandbreite bei der Verwendung von PCIe 2.0 erklärt.
Man beachte dennoch das "möglicherweise", da man den Anteil der Engine und die Verwendung der Engine in dem konkreten Titel ohne Detailkenntnisse nicht abschätzen kann, jedoch ist allgemein bekannt, dass mit DX12 weitaus mehr Draw Calls abgesetzt werden können, was dann natürlicherweise auch deutlich besser über einen schmalbandigeren PCIe-Bus performed.

Anhand der Flops lässt sich die Leistungsfähigkeit in FPS nicht abschätzen. Nicht mal ansatzweise.

Eine Fury X fährt 8.6TFlops auf, die 5700 7.9TFlops. Trotzdem ist die 5700 im Schnitt laut PCGH knapp 60% schneller wie die Fury X.
Eine R9 270X/HD7870 bringt etwas weniger wie 2.6TFlops auf die Waage, eine HD5870 etwas mehr als 2.7TFlops. Trotzdem ist die 270X/HD7870 laut CB knapp 20% leistungsfähiger in ihrem Aufgabengebiet.

Und nun zum zweiten Spezialisten mit potentieller Leseschwäche. Was ist an dem Satz "Wenn du darauf hinweisen möchtest, dass TFlops nicht direkt auf Fps übertragbar sind, hast du recht" nicht zu verstehen und ebenso an dem ganz grob skizziersten Zusammenhang "jedoch geben diese [TFlops] i. d. R. dennoch eine halbwegs verlässliche Indikation in welche Richtung man sich [hier bzgl Fps] bewegt."
Insbesondere dann auch noch mit der sehr bewusst großzügig gefassten Aussage "Dass eine 10 TFlops-Karte in der Renderleistung an eine 20 TFlops-Karte heranreicht, kann man nach aktuellem Stand eher ausschließen".
Du dagegen tust so, als hätte ich eine Formel a la "TFlops * 9,76 = Fps in FullHD bei MaxSettings" aufgestellt.

gpus_tflops_and_normalized_performance.png

Eingie Anmerkungen zum Graphen:
a) Hier werden TFlops mit Fps-Werten (normalisiert) in Relation gesetzt mittels des PCGH-Index (Die Titan RTX hat hier den Performance-Wert 100 %)
b) Der Index enthält 20 Spiele, es gibt jedoch Titel die AMD oder nVidia benachteiligen. Ich gehe hier in Ermangelung besserer Daten davon aus, dass sich diese Effekte gegenseitig aufheben (was zweifelsfrei leicht optimistisch ist, da man annehmen kann, dass der Markt eher auf nVidia hin optimieren wird).
c) Der Index inkludiert 4 Auflösungen. Das klingt erst mal gut, ist aber ggf. suboptimal, da manch schwachbrüsntigere Karten insbesondere bei 4K Probleme haben werden und deren Ergebnisse dort könnten sie dort überproportional im Index runterziehen. Da man die Daten jedoch nicht weiter filtern kann, muss ich mich mit dem begnügen, was ich dort frei Haus geliefert bekomme.
d) Bei Navi 10 habe ich die TFlops angepasst, da AMD hier dazu übergegangen ist drei Takt-Bereiche anzugeben (Base, Game, Boost), deren offizielle TFlops-Angaben beziehen sich jetzt jedoch auf den Boost-Takt, der bei nVidia eher dem allgmein nicht angegebenen Peak-Takt entsprechen würde. nVidia's TFlops-Angaben beziehen sich dagegen nur auf den offiziell angegeben Boost-Takt und niemals auf den Peak-Takt, den eine Karte kurzfristig erreichen kann. (Bspw. die RTX 2080 Ti FE mit 1,64 GHz wird offiziell mit 14,2 TFlops angegeben. Nimmt man jedoch den Peak-Takt, der je nach Modell bei über 1,9 GHz liegt, erreicht man hier theoretisch über 16,5 TFlops auf der Karte.)

Was man in dem Graphen nun sieht, ist ein recht grober aber erkennbarer Zusammenhang zwischen TFlops und der Kartenrenderleistung gegeben.
Auffällig sind die überproportinal hohen TFlops-Werte bei Vega, was auf eine etwas unausgeglichene Architektur hindeutet. In Spezialfällen mag das von Vorteil sein, im Rendering nützte das den Vega-Karten jedoch eher weniger. Den Ausreißer (die "GCN-Altlast") hat AMD bei Navi 10 offensichtlich korrigiert und mit Blick auf RDNA2 (in Anlehnung an die von den Konsolen bereits bekannten Daten) wird sich auch die neue Architektur nun voraussichtlich ähnlich zu Navi 10 und Turing verhalten.
Ergo trifft meine Aussage bzgl. einer "Indikation" und "groben Richtung" bzgl. einer Leistungsabschätzung zu und, oh Wunder, es findet sich keine Karte im Graphen, die einen nur halb so hohen Tflops-Wert wie eine andere aber dennoch eine grob vergleichbare Renderleistung hat. Und schlussendlich sollte das auch nicht überraschen in dieser ungenauen Betrachtungsweise, denn die TFlops-Werte stehen bei aktuellen GPU-Generationen in einem festen Verhältnis zu den Shader Prozessoren und deren Leistung zum betriebenen Takt, sodass es hier zwangsweise eine Korrelation geben muss.

Und um noch einmal die Spikes bei den GCN-Karten final zu beleuchten. Es ist hier keinesfalls so, dass die FP32-Leistung überproportional hoch ist bei diesen Karten. Im Gegenteil, der FP32-Durchsatz ist hier pro Funktionseinheit und Takt ebenso hoch wie bei den RDNA-Karten und auch wie bei nVidia. Der FP32-Durchsatz ist hier überall gleich. Das Problem bei den GCN-Karten ist, dass deren Renderleistung dazu relativ gesehen schlicht schlechter ist (i. V. z. RDNA und Pascal/Turing).
Mit RDNA hat AMD dieses Missverhältnis korrigieirt und jetzt sieht das Verhältnis eher so wie typischerweise beobachtet werden kann aus.

Darüber hinaus als abschließende Bemerkung: Ein derartiges Missverhältnis bei RDNA2 wäre zudem fatal, denn die Richtung "viel weniger TFlops aber deutlich höhere Renderleistung ist abwegig". Dagegen die beobachtete Richtung "viel mehr TFlops und deutlich weniger Renderleistung" hätte bedeutet, dass RDNA2 selbst in der größten Ausbaustufe nur mit einer 3060 oder 3070 konkurrieren könnte. Zum Glück hat AMD die Architektur schon mit RDNA umgestellt, sodass man hier nun wieder etwas "geradliniger" mittels der (in diesem Falle behelfsmäßig herangezogenen) TFlops abschätzen kann.
 
Du kannst die Navi Werte nicht nehmen weil die Karte nur knapp 50% derLeistung hat.Die 3090 bringt das Restsystem doch ganz anders zum schwitzen als es eine 5700XT vermochte. Was meinst du wie schnell das Teilselbst in WQHD bei vielen Games aktuell ins CPU Limit rennt.
 
Himmel, das Fass ohne Boden.
Da nVidia noch keine Karten mit PCIe 4.0 verkauft und AMD nichts schnelleres anzubieten hat, bleibt nur diese Karte, aber selbst das rettet dich nicht aus deiner Misere. Wie oft denn noch? Es ist unbestritten, das die PCIe-Bandbreite einen Einfluss auf die Fps hat, aber nach wie vor nur einen kleinen. Selbst auf einer 3090 wirst du keine 20 % oder gar 30 % Fps verlieren, es sei denn du reduzierst die Auflösung auf SVGA und dann wird eher die CPU der limitierende Faktor sein.

Wenn du hier bzgl. dem nicht verfügbaren Ampere weiterdiskutieren willst, dann stelle doch einfach mal ein paar Prozentwerte bzgl. deiner Erwartungen in den Raum, so bspw. -15 % in BF5 in FullHD MaxSettings o. Ä. Ich bin sicher, dass sich die ein oder andere Seite es sich nicht nehmen lassen wird auch noch einmal den Effekt von PCIe zu beleudten und dann werden wir weitersehen.
 
Du kannst die Navi Werte nicht nehmen weil die Karte nur knapp 50% derLeistung hat.Die 3090 bringt das Restsystem doch ganz anders zum schwitzen als es eine 5700XT vermochte. Was meinst du wie schnell das Teilselbst in WQHD bei vielen Games aktuell ins CPU Limit rennt.
Mit einem CPU-Limit aufgrund von High-FPS (>120Hz) kommt man doch klar:
Dann stellt man eben die Render-Auflösung bzw das Supersampling höher. Das gibt optisch einen enormen Boost und kostet in diesem Fall ja gar nichts. Alternativ akzeptiert man, dass die Karte kompletter Overkill ist, limitiert die Framerate und erfreut sich des niedrigeren Stromverbrauchs. Also das würde ich mal als Luxusproblem bezeichnen.
 
Mit einem CPU-Limit aufgrund von High-FPS (>120Hz) kommt man doch klar:
Dann stellt man eben die Render-Auflösung bzw das Supersampling höher. Das gibt optisch einen enormen Boost und kostet in diesem Fall ja gar nichts. Alternativ akzeptiert man, dass die Karte kompletter Overkill ist, limitiert die Framerate und erfreut sich des niedrigeren Stromverbrauchs. Also das würde ich mal als Luxusproblem bezeichnen.

Sicher ist das kein riesen Problem.DerEinschnitt bei mir ist aber mit Thunderbolt an 4x schon graviernd in FHD mit einer V56/Navi.In UHD dagegen fällt es kaum ins Gewicht. Ich würde sagen 5-10% lässt man liegen in niedrigeren Auflösungen, gerade bei Strategietiteln und OpenWorlds mit vielen DrawCalls.Auch in FS2020 dürfte sich dasbemerkbar machen. Wasman selbst alsProblem ansieht ist jedem seine Sache,fürmarginal halte ich die Anbindung aber vor allem bei einer3090 nicht.
 
Müssen sie das? Hört sich für uns wie der nette Samariter an, ist aber auch nur eine Art von Marketing um sich selbst ins Rampenlicht zu rücken, bzw. um zu sagen toll übrigens uns gibts auch noch ;)

Wie schon woanders erwähnt, das gehört "eigentlich" zum guten Ton, auch wenn man dabei natürlich die Gelegenheit
ergreift, nochmal an die eigenen Produkte zu erinnern. Unüblich ist eher, was Jensen sich geleistet hat bzw der
Ton, in dem er zuletzt AMD kritisiert hat.
 
Wie schon woanders erwähnt, das gehört "eigentlich" zum guten Ton, auch wenn man dabei natürlich die Gelegenheit
ergreift, nochmal an die eigenen Produkte zu erinnern. Unüblich ist eher, was Jensen sich geleistet hat bzw der
Ton, in dem er zuletzt AMD kritisiert hat.

Ja da fehlten mir auch die Worte. Und da fragt sich noch einer warum mir NVidia bei all der Anstandslosigkeit so unsympatisch ist?

Trotzdem werde ich nicht müde zu schreiben , dass auch mir die Presentation gefallen hat. Ein Lob für die RTX 3080 ist absolut angebracht (ist einfach die die mir gefallen hat).
 
Ich persönlich finde es eher extrem beeindruckend das zu den BIG NAVI von AMD noch keine Datenleaks verfügbar sind.
AMD ist NICHT!!! verpflichtet Daten vor einer Präsentation preiszugeben.
Ich warte ab was kommt,denn die Nvidia Karten beeindrucken mich nicht wirklich.
Ab 3070 aufwärts ein DreiSlot Design notwendig.Dazu die Aussage von MSI bei deren Präsentation das es Probleme bereitet die Wärme der Amperekarten abzufuehren.
Das schon die 3070 ca 320 Watt Leistung verbraten soll lässt auch nicht grad darauf schliessen das da besonderer Wert auf Effizienz gelegt wurde.

Mal abgesehen davon wer von euch allen hier kauft sich denn wirklich eine neue Graka gleich am Anfang?Die meisten warten doch eh erst mal 1 bis 3 Monate ab.
Und von denen kaufen mehr als 50% eher eine Mittelklassengrafikkarte als ein Top-bis Highendmodell.


Mfg Kuanor
 
Zurück