• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

AMD: Spiele-Chef gratuliert Nvidia zum Ampere-Launch, Vorfreude auf RNDA 2

wtfNow

Software-Overclocker(in)
Und AMD so:
Nö Paperlaunch Ende November, kaufbar ab Mitte Januar - achja und kostet 999$US für knappe RTX3080-Leistung, bitte und danke.

Und Nvidia so:
RTX3080 20GB, gleicher Preis.
Feuchte grüne Träume...

Nvidia so:
Paperlaunch September, lieferbar Dezember.
https://www.pcgameshardware.de/Nvid...lechte-Lieferbarkeit-bis-Weihnachten-1357455/

AMD so:
Hardlaunch November, 3090 Leistung für 999€

Nvidia 3090 Fanboys so:
:wall::heul:


(um mal auf dem Niveau kommunizieren)
 

weisserteufel

Freizeitschrauber(in)
Mein PC ist vollständig wassergekühlt, da hole ich mir aus Prinzip kein Board, welches aktiv mit Luft gekühlt werden muss. Ich boykottiere es einfach. Wenns danach ginge, könnte ich mir auch einen Noctua NH-D15 und einen Accelero Xtreme IV kaufen. Da hörste dann genau so wenig wie mit einer WaKü. Finde ich halt ästhetisch unansprechend - genau wie einen 40mm-Lüfter der hier und da mit ~2000rpm anspringt. Die sollen es hinbekommen, dass der Chipsatz wieder 5W statt 15W säuft, da einen passiven Alu-Kühler draufpacken, statt diese kostensparenden Billo-Lüfter und gut ist.

Und deine Wasserkühlung wird mit deiner Klimaanlage gekühlt? Ne, da hast du auch Lüfter vermutlich im Push/Pull, also sicherlich nicht wenige. Du überdramatisierst den onboard Lüfter so dermaßen, dass es eben nur mit Ahnungslosigkeit betitelt werden kann.
Btw. sind die Lüfter, die dein Wasser kühlen auch nicht lautlos.

Bei hoher Chipsatzleistung ist eine Kühlung nun mal notwendig. Früher gab es auch Grafik, die nicht aktiv gekühlt werden musste. Die Zeiten sind vorbei. Das wirst du halt auch irgendwann einsehen.
Bis dahin kannst du dich natürlich weiterhin so kindisch verhalten.
 

deady1000

Volt-Modder(in)
Feuchte grüne Träume...

Nvidia so:
Paperlaunch September, lieferbar Dezember.
https://www.pcgameshardware.de/Nvid...lechte-Lieferbarkeit-bis-Weihnachten-1357455/

AMD so:
Hardlaunch November, 3090 Leistung für 999€

Nvidia 3090 Fanboys so:
:wall::heul:


(um mal auf dem Niveau kommunizieren)
:lol:
Der war gut. Ohne Ironie. War gut. :ugly::daumen:

Und deine Wasserkühlung wird mit deiner Klimaanlage gekühlt? Ne, da hast du auch Lüfter vermutlich im Push/Pull, also sicherlich nicht wenige. Btw. sind die Lüfter, die dein Wasser kühlen auch nicht lautlos.
Was genau von 'aus Prinzip' hast du nicht verstanden?
Ich will's nicht haben, werd's nicht brauchen, werd's nicht kaufen.
Ende der Durchsage, X670 darf es gern wieder besser machen.
 

BigYundol

Software-Overclocker(in)
Genaugenommen dürfte der Wert gar näher an 20 TFlops liegen, denn dass ein so großer Chip mit dem Takt der PS5 läuft, ist sehr unwahrscheinlich.
Wenn die PC-Karten also kein weiterentwickeltes RDNA2 darstellen, darf man bzgl. der TFlops tatsächlich nicht mehr als 20 - 21 TFlops bei AMD erwarten (es sei denn, es gibt gar deutlich mehr als 80 CUs).



Mit Blick auf TFlops sind die Werte sehrwohl vergleichbar, gar 1:1, denn das ist das, was du für mathematische Berechnungen brauchst. Und schlussendlich skaliert die Performance hier sogar über beide Hersteller gleichermaßen mit einem identischen Faktor pro Funktionseinheit und Takt.

Wenn du darauf hinweisen möchtest, dass TFlops nicht direkt auf Fps übertragbar sind, hast du recht, jedoch geben diese i. d. R. dennoch eine halbwegs verlässliche Indikation in welche Richtung man sich bewegt. Dass eine 10 TFlops-Karte in der Renderleistung an eine 20 TFlops-Karte heranreicht, kann man nach aktuellem Stand eher ausschließen, weil kein Hersteller seine Funktionseinheiten derart anders/unüblich zusammensetzen wird, weil ein gewisses Verhältnis an Rechenleistung (FP, INT, Texturen, ROPs, etc.) von aktuellen Game-Engines schlicht vorausgesetzt wird.

Anhand der Flops lässt sich die Leistungsfähigkeit in FPS nicht abschätzen. Nicht mal ansatzweise.

Eine Fury X fährt 8.6TFlops auf, die 5700 7.9TFlops. Trotzdem ist die 5700 im Schnitt laut PCGH knapp 60% schneller wie die Fury X.
Eine R9 270X/HD7870 bringt etwas weniger wie 2.6TFlops auf die Waage, eine HD5870 etwas mehr als 2.7TFlops. Trotzdem ist die 270X/HD7870 laut CB knapp 20% leistungsfähiger in ihrem Aufgabengebiet.
 

Gurdi

Kokü-Junkie (m/w)
Lass mal überlegen ... :

5700 XT, alle Settings auf Maximum

BF5
FullHD PCIe 2.0 : 148,4 Fps
FullHD PCIe 4.0 : 152,8 Fps (+2,96 %)
4K PCIe 2.0 : 68,3 Fps
4K PCIe 4.0 : 71,2 Fps (+4,25 %)

Hitman 2
FullHD PCIe 2.0 : 77,2 Fps
FullHD PCIe 4.0 : 78,6 Fps (+1,81 %)
4K PCIe 2.0 : 35,6 Fps
4K PCIe 4.0 : 35,9 Fps (+1,13 %)

Wolfenstein 2
FullHD PCIe 2.0 : 213,0 Fps
FullHD PCIe 4.0 : 225,4 Fps (+5,82 %)
4K PCIe 2.0 : 76,5 Fps
4K PCIe 4.0 : 78,1 Fps (+2,09 %)

Ahh ... die Antwort ist NEIN. Ampere auf PCIe 3.0 x16 wird zweifelsfrei nicht zu katastrophalen Fps-Einbrüchen führen, d. h. an der grundlegenden Situation ändert sich nichts bzgl. der vermeintlichen Wichtigkeit von PCIe 4.0 ;-)

Du scheinst die Grundlage meiner Aussage schon nicht zu verstehen, von daher erübrigt sich ein Kommentar dazu.

Also für 720p-Benchmarks braucht man PCIe4.0. Ok, ist notiert.
Brauche die Rohleistung hauptsächlich für VR und WQHD-Gaming, ggf etwas SuperSampling rein und maximale Details.
Bis 144Hz wird PCIe3.0x16 schon nicht relevant bottlenecken.
Nochmal, es geht um Drawcalls und die Fps sowie die CPU Auslastung dabei. Je höher die drei Faktoren, desto wichtiger ist die Anbindung. Du verlierst auf jeden Fall etwas Performance, vor allem bei der satten Leistung die die Karte hat sieht man auch schnell mal wieder öfter das CPU Limit.
 
Zuletzt bearbeitet:

Terracresta

Software-Overclocker(in)
@AMD und Nvidia Fanboys: Intel bringt dann überraschend 3090Ti Leistung für 500€ und beide Lager heulen. :P;)

Raja vor, noch ein Tor! xD
 
Zuletzt bearbeitet:

Freiheraus

BIOS-Overclocker(in)
Man sollte sich nicht um die RTX 3090-Performance @PCIe 3.0 x16 sorgen, sondern viel mehr um die RTX 3070-Performance @PCIe 3.0 x16. Letzterer wird als erstes der VRAM ausgehen und was dann passiert hat Computerbase anhand der RX 5600 XT eindrücklich demonstriert: PCIe 3.0 vs. 4.0 in Spielen im Test - ComputerBase

Die klein(er)en Karten aka Speicherkrüppel sind die Sorgenkinder, nicht der High-End-Bolide mit dekadenter VRAM-Ausstattung. Die RTX 3080 VRAM-Geiz-Edition dürfte ob ihrer massiven Rohleistung@4K auch der VRAM im einen oder anderen (RT)Titel ausgehen. Noch härter könnte es eine potentielle RTX 3060 mit nur 6GB treffen... der Abschuss wäre wenn Nvidia das Design auf 8xLanes wie AMD bei der RX 5500 XT begrenzt. Die Redaktionen sind doch nicht doof, weil sie auf Matisse umstellen.
 
Zuletzt bearbeitet:

gerX7a

Software-Overclocker(in)
Himmel, gleich zwei, die mit der deutschen Sprache Probleme haben?

Du scheinst die Grundlage meiner Aussage schon nicht zu verstehen [...]

deady1000 fragte nach einer Idikation bzgl. relevanter Probleme/Nachteile bzgl. PCIe 3 und ich gab ihm etwas Material als Entscheidungshilfe und der vorgreifenden Aussage, dass der Impact gering ist, genaugenommen sogar sehr gering. Dann kamst du mit deiner verkomplizierenden Aussage (die ihn möglicherweise eher weniger interessierte) und dann habe ich dir dargelegt, dass der Impact faktisch tatsächlich sehr gering ist und zur besseren Illustration habe ich dabei sogar auf den Unterschied PCIe 2.0 gegen 4.0 zurückgegriffen (inkl. aktueller Titel in MaxSettings) und selbst bei diesem "extremen" Bandbreitenunterschied zeigen sich nur verhältnismäßig kleine Änderungen in den Fps, sowohl in FullHD bei hohen Fps als auch in 4K bei deutlich geringeren Fps. Und jetzt versuche du mir noch mal zu erklären was ich angeblich nicht verstanden hätte. Mir scheint eher, du willst nicht akzeptieren, dass PCIe 4.0 hier nur eine untergeordnete Rolle spielt oder geht es hier nur darum das letzte Wort zu haben?

Keiner hat in Abrede gestellt, dass bzgl. der Draw-Calls über den PCIe-Bus die Bandbreite eine Rolle spielt, aber halt nur eine geringe, wie man ja recht eindeutig an diesen (und auch vielen anderen) Daten sieht und dann kommt wiederum alles zurück aufs Lesen:
a) "Nein, unbedingt benötigen wird man es [PCIe 4] zweifelsfrei nicht."
b) "NEIN. Ampere auf PCIe 3.0 x16 wird zweifelsfrei nicht zu katastrophalen Fps-Einbrüchen führen"
c) "an der grundlegenden Situation ändert sich nichts bzgl. der vermeintlichen Wichtigkeit von PCIe 4.0"

Was hast du nun an den drei Aussagen nicht verstanden? Wir sagen beide, dass es ein wenig Fps kostet. Du selbst schreibst abschließend "Du verlierst auf jeden Fall etwas Performance" und verwendet hier ebenfalls ein sehr unbestimmtes "etwas" und dennoch versuchst du hier ein Fass aufzumachen, noch dazu, wo selbst in obigem Extrembeispiel mit über 200 Fps gerade man 6 % Fps verloren gehen.

Ob für deady1000 nun möglche Fps-Einbußen im Bereich von 2 % bis schlechtestenfalls 5 % (man beachte, dass obige Tests PCIe 2.0 verwendeten) relevant und schwerwiegend genug sind um auch noch eine neue Plattform anzuschaffen, muss er selbst entscheiden. Aber selbst wenn er als absoluter Enthusiast, der dem letzten Frame hinterher jagt, diese Frage mit Ja beantwortet, ändert das dennoch nichts daran, dass der Einfluss von PCIe auf die Fps nur sehr gering ist.

Mit Ampere können tendenziell noch ein paar Draw-Calls mehr abgesetzt werden, aber auch hier wird der relative, zusätzliche Verlust mit Blick auf PCIe überschaubar bleiben, wenn man bei v3.0 bleibt. Zumal vermutlich der größere Teil der Anwender die Rechenleistung auch primär für eine höhere Auflösung und schönere Grafik (höhere Settings) nutzen wird und eher weniger um seine Fps-Zahl ins Übernatürliche zu steigern, d. h. hier wird die zusätzliche Rechenleistung für komplexere Berechnungen auf der GPU eingesetzt und weniger um noch mehr Fps zu erreichen (und damit deutlich mehr Draw-Calls abzusetzen) und wie auch oben schon bei den über 200 Fps von Wolfenstein zu sehen war, ist das aber auch da kein allzu großes Problem.

Und darüber hinaus als Anmerkung, kann man an den Titeln auch möglicherweise noch die Vorteile von DX12 ggü. DX11 sehen kann, denn der BF5-Test lief mit DX11, während Hitman 2 DX12 verwendete, dass den Draw-Call Overhead zu reduzieren hilft, was möglicherweise auch die kleineren Fps-Verluste aufgrund der geringeren PCIe-Bandbreite bei der Verwendung von PCIe 2.0 erklärt.
Man beachte dennoch das "möglicherweise", da man den Anteil der Engine und die Verwendung der Engine in dem konkreten Titel ohne Detailkenntnisse nicht abschätzen kann, jedoch ist allgemein bekannt, dass mit DX12 weitaus mehr Draw Calls abgesetzt werden können, was dann natürlicherweise auch deutlich besser über einen schmalbandigeren PCIe-Bus performed.

Anhand der Flops lässt sich die Leistungsfähigkeit in FPS nicht abschätzen. Nicht mal ansatzweise.

Eine Fury X fährt 8.6TFlops auf, die 5700 7.9TFlops. Trotzdem ist die 5700 im Schnitt laut PCGH knapp 60% schneller wie die Fury X.
Eine R9 270X/HD7870 bringt etwas weniger wie 2.6TFlops auf die Waage, eine HD5870 etwas mehr als 2.7TFlops. Trotzdem ist die 270X/HD7870 laut CB knapp 20% leistungsfähiger in ihrem Aufgabengebiet.

Und nun zum zweiten Spezialisten mit potentieller Leseschwäche. Was ist an dem Satz "Wenn du darauf hinweisen möchtest, dass TFlops nicht direkt auf Fps übertragbar sind, hast du recht" nicht zu verstehen und ebenso an dem ganz grob skizziersten Zusammenhang "jedoch geben diese [TFlops] i. d. R. dennoch eine halbwegs verlässliche Indikation in welche Richtung man sich [hier bzgl Fps] bewegt."
Insbesondere dann auch noch mit der sehr bewusst großzügig gefassten Aussage "Dass eine 10 TFlops-Karte in der Renderleistung an eine 20 TFlops-Karte heranreicht, kann man nach aktuellem Stand eher ausschließen".
Du dagegen tust so, als hätte ich eine Formel a la "TFlops * 9,76 = Fps in FullHD bei MaxSettings" aufgestellt.

gpus_tflops_and_normalized_performance.png

Eingie Anmerkungen zum Graphen:
a) Hier werden TFlops mit Fps-Werten (normalisiert) in Relation gesetzt mittels des PCGH-Index (Die Titan RTX hat hier den Performance-Wert 100 %)
b) Der Index enthält 20 Spiele, es gibt jedoch Titel die AMD oder nVidia benachteiligen. Ich gehe hier in Ermangelung besserer Daten davon aus, dass sich diese Effekte gegenseitig aufheben (was zweifelsfrei leicht optimistisch ist, da man annehmen kann, dass der Markt eher auf nVidia hin optimieren wird).
c) Der Index inkludiert 4 Auflösungen. Das klingt erst mal gut, ist aber ggf. suboptimal, da manch schwachbrüsntigere Karten insbesondere bei 4K Probleme haben werden und deren Ergebnisse dort könnten sie dort überproportional im Index runterziehen. Da man die Daten jedoch nicht weiter filtern kann, muss ich mich mit dem begnügen, was ich dort frei Haus geliefert bekomme.
d) Bei Navi 10 habe ich die TFlops angepasst, da AMD hier dazu übergegangen ist drei Takt-Bereiche anzugeben (Base, Game, Boost), deren offizielle TFlops-Angaben beziehen sich jetzt jedoch auf den Boost-Takt, der bei nVidia eher dem allgmein nicht angegebenen Peak-Takt entsprechen würde. nVidia's TFlops-Angaben beziehen sich dagegen nur auf den offiziell angegeben Boost-Takt und niemals auf den Peak-Takt, den eine Karte kurzfristig erreichen kann. (Bspw. die RTX 2080 Ti FE mit 1,64 GHz wird offiziell mit 14,2 TFlops angegeben. Nimmt man jedoch den Peak-Takt, der je nach Modell bei über 1,9 GHz liegt, erreicht man hier theoretisch über 16,5 TFlops auf der Karte.)

Was man in dem Graphen nun sieht, ist ein recht grober aber erkennbarer Zusammenhang zwischen TFlops und der Kartenrenderleistung gegeben.
Auffällig sind die überproportinal hohen TFlops-Werte bei Vega, was auf eine etwas unausgeglichene Architektur hindeutet. In Spezialfällen mag das von Vorteil sein, im Rendering nützte das den Vega-Karten jedoch eher weniger. Den Ausreißer (die "GCN-Altlast") hat AMD bei Navi 10 offensichtlich korrigiert und mit Blick auf RDNA2 (in Anlehnung an die von den Konsolen bereits bekannten Daten) wird sich auch die neue Architektur nun voraussichtlich ähnlich zu Navi 10 und Turing verhalten.
Ergo trifft meine Aussage bzgl. einer "Indikation" und "groben Richtung" bzgl. einer Leistungsabschätzung zu und, oh Wunder, es findet sich keine Karte im Graphen, die einen nur halb so hohen Tflops-Wert wie eine andere aber dennoch eine grob vergleichbare Renderleistung hat. Und schlussendlich sollte das auch nicht überraschen in dieser ungenauen Betrachtungsweise, denn die TFlops-Werte stehen bei aktuellen GPU-Generationen in einem festen Verhältnis zu den Shader Prozessoren und deren Leistung zum betriebenen Takt, sodass es hier zwangsweise eine Korrelation geben muss.

Und um noch einmal die Spikes bei den GCN-Karten final zu beleuchten. Es ist hier keinesfalls so, dass die FP32-Leistung überproportional hoch ist bei diesen Karten. Im Gegenteil, der FP32-Durchsatz ist hier pro Funktionseinheit und Takt ebenso hoch wie bei den RDNA-Karten und auch wie bei nVidia. Der FP32-Durchsatz ist hier überall gleich. Das Problem bei den GCN-Karten ist, dass deren Renderleistung dazu relativ gesehen schlicht schlechter ist (i. V. z. RDNA und Pascal/Turing).
Mit RDNA hat AMD dieses Missverhältnis korrigieirt und jetzt sieht das Verhältnis eher so wie typischerweise beobachtet werden kann aus.

Darüber hinaus als abschließende Bemerkung: Ein derartiges Missverhältnis bei RDNA2 wäre zudem fatal, denn die Richtung "viel weniger TFlops aber deutlich höhere Renderleistung ist abwegig". Dagegen die beobachtete Richtung "viel mehr TFlops und deutlich weniger Renderleistung" hätte bedeutet, dass RDNA2 selbst in der größten Ausbaustufe nur mit einer 3060 oder 3070 konkurrieren könnte. Zum Glück hat AMD die Architektur schon mit RDNA umgestellt, sodass man hier nun wieder etwas "geradliniger" mittels der (in diesem Falle behelfsmäßig herangezogenen) TFlops abschätzen kann.
 

Gurdi

Kokü-Junkie (m/w)
Du kannst die Navi Werte nicht nehmen weil die Karte nur knapp 50% derLeistung hat.Die 3090 bringt das Restsystem doch ganz anders zum schwitzen als es eine 5700XT vermochte. Was meinst du wie schnell das Teilselbst in WQHD bei vielen Games aktuell ins CPU Limit rennt.
 

gerX7a

Software-Overclocker(in)
Himmel, das Fass ohne Boden.
Da nVidia noch keine Karten mit PCIe 4.0 verkauft und AMD nichts schnelleres anzubieten hat, bleibt nur diese Karte, aber selbst das rettet dich nicht aus deiner Misere. Wie oft denn noch? Es ist unbestritten, das die PCIe-Bandbreite einen Einfluss auf die Fps hat, aber nach wie vor nur einen kleinen. Selbst auf einer 3090 wirst du keine 20 % oder gar 30 % Fps verlieren, es sei denn du reduzierst die Auflösung auf SVGA und dann wird eher die CPU der limitierende Faktor sein.

Wenn du hier bzgl. dem nicht verfügbaren Ampere weiterdiskutieren willst, dann stelle doch einfach mal ein paar Prozentwerte bzgl. deiner Erwartungen in den Raum, so bspw. -15 % in BF5 in FullHD MaxSettings o. Ä. Ich bin sicher, dass sich die ein oder andere Seite es sich nicht nehmen lassen wird auch noch einmal den Effekt von PCIe zu beleudten und dann werden wir weitersehen.
 

deady1000

Volt-Modder(in)
Du kannst die Navi Werte nicht nehmen weil die Karte nur knapp 50% derLeistung hat.Die 3090 bringt das Restsystem doch ganz anders zum schwitzen als es eine 5700XT vermochte. Was meinst du wie schnell das Teilselbst in WQHD bei vielen Games aktuell ins CPU Limit rennt.
Mit einem CPU-Limit aufgrund von High-FPS (>120Hz) kommt man doch klar:
Dann stellt man eben die Render-Auflösung bzw das Supersampling höher. Das gibt optisch einen enormen Boost und kostet in diesem Fall ja gar nichts. Alternativ akzeptiert man, dass die Karte kompletter Overkill ist, limitiert die Framerate und erfreut sich des niedrigeren Stromverbrauchs. Also das würde ich mal als Luxusproblem bezeichnen.
 

Gurdi

Kokü-Junkie (m/w)
Mit einem CPU-Limit aufgrund von High-FPS (>120Hz) kommt man doch klar:
Dann stellt man eben die Render-Auflösung bzw das Supersampling höher. Das gibt optisch einen enormen Boost und kostet in diesem Fall ja gar nichts. Alternativ akzeptiert man, dass die Karte kompletter Overkill ist, limitiert die Framerate und erfreut sich des niedrigeren Stromverbrauchs. Also das würde ich mal als Luxusproblem bezeichnen.

Sicher ist das kein riesen Problem.DerEinschnitt bei mir ist aber mit Thunderbolt an 4x schon graviernd in FHD mit einer V56/Navi.In UHD dagegen fällt es kaum ins Gewicht. Ich würde sagen 5-10% lässt man liegen in niedrigeren Auflösungen, gerade bei Strategietiteln und OpenWorlds mit vielen DrawCalls.Auch in FS2020 dürfte sich dasbemerkbar machen. Wasman selbst alsProblem ansieht ist jedem seine Sache,fürmarginal halte ich die Anbindung aber vor allem bei einer3090 nicht.
 

bohnengegart

Komplett-PC-Aufrüster(in)
Müssen sie das? Hört sich für uns wie der nette Samariter an, ist aber auch nur eine Art von Marketing um sich selbst ins Rampenlicht zu rücken, bzw. um zu sagen toll übrigens uns gibts auch noch ;)

Wie schon woanders erwähnt, das gehört "eigentlich" zum guten Ton, auch wenn man dabei natürlich die Gelegenheit
ergreift, nochmal an die eigenen Produkte zu erinnern. Unüblich ist eher, was Jensen sich geleistet hat bzw der
Ton, in dem er zuletzt AMD kritisiert hat.
 

Pleasedontkillme

Software-Overclocker(in)
Wie schon woanders erwähnt, das gehört "eigentlich" zum guten Ton, auch wenn man dabei natürlich die Gelegenheit
ergreift, nochmal an die eigenen Produkte zu erinnern. Unüblich ist eher, was Jensen sich geleistet hat bzw der
Ton, in dem er zuletzt AMD kritisiert hat.

Ja da fehlten mir auch die Worte. Und da fragt sich noch einer warum mir NVidia bei all der Anstandslosigkeit so unsympatisch ist?

Trotzdem werde ich nicht müde zu schreiben , dass auch mir die Presentation gefallen hat. Ein Lob für die RTX 3080 ist absolut angebracht (ist einfach die die mir gefallen hat).
 

Kuanor

PC-Selbstbauer(in)
Ich persönlich finde es eher extrem beeindruckend das zu den BIG NAVI von AMD noch keine Datenleaks verfügbar sind.
AMD ist NICHT!!! verpflichtet Daten vor einer Präsentation preiszugeben.
Ich warte ab was kommt,denn die Nvidia Karten beeindrucken mich nicht wirklich.
Ab 3070 aufwärts ein DreiSlot Design notwendig.Dazu die Aussage von MSI bei deren Präsentation das es Probleme bereitet die Wärme der Amperekarten abzufuehren.
Das schon die 3070 ca 320 Watt Leistung verbraten soll lässt auch nicht grad darauf schliessen das da besonderer Wert auf Effizienz gelegt wurde.

Mal abgesehen davon wer von euch allen hier kauft sich denn wirklich eine neue Graka gleich am Anfang?Die meisten warten doch eh erst mal 1 bis 3 Monate ab.
Und von denen kaufen mehr als 50% eher eine Mittelklassengrafikkarte als ein Top-bis Highendmodell.


Mfg Kuanor
 

ChrisMK72

PCGH-Community-Veteran(in)
Was meint ihr, wann die Info-Bombe platzt ?

Falls AMD echt noch irgendwie auf die Konsolen wartet, wie lange ?
Vielleicht startet AMD ein paar Wochen vor Konsolenstart mit der Vorstellung ?
Dann könnten die Konsolen auch mit dazu stoßen und zusammen würde ein ziemlicher Info-Hype entstehen.

Vielleicht warten die noch ab, bis der Release-Hype bei Nvidia so gerade etwas abflacht und schlagen dann zu und "übernehmen" die Newsseiten.
Der neueste Shice is schließlich immer der interessanteste.

Wann wäre theoretisch ein guter Zeitpunkt dafür ?
Mitte/Ende Oktober ?
Zu spät dürfen sie auch nicht starten, wegen dem Weihnachtsgeschäft.

Vielleicht sind wir ja in 6-8 Wochen schlauer, was da kommt.
 

Dragon AMD

Volt-Modder(in)
Was meint ihr, wann die Info-Bombe platzt ?

Falls AMD echt noch irgendwie auf die Konsolen wartet, wie lange ?
Vielleicht startet AMD ein paar Wochen vor Konsolenstart mit der Vorstellung ?
Dann könnten die Konsolen auch mit dazu stoßen und zusammen würde ein ziemlicher Info-Hype entstehen.

Vielleicht warten die noch ab, bis der Release-Hype bei Nvidia so gerade etwas abflacht und schlagen dann zu und "übernehmen" die Newsseiten.
Der neueste Shice is schließlich immer der interessanteste.

Wann wäre theoretisch ein guter Zeitpunkt dafür ?
Mitte/Ende Oktober ?
Zu spät dürfen sie auch nicht starten, wegen dem Weihnachtsgeschäft.

Vielleicht sind wir ja in 6-8 Wochen schlauer, was da kommt.
Wird die GeForce RTX 3080 knapp? Paperlaunch und begrenzte Anzahl der Founders Edition? Spurensuche! - YouTube

Igor hat sich fast verplappert[emoji16].

Gesendet von meinem D6603 mit Tapatalk
 

ChrisMK72

PCGH-Community-Veteran(in)
Oh ... noch gar nicht gecheckt. Mal nachschauen, was er da "verplappert". :)

Danke :daumen:

Edit:

- Igor testet schon Ampere ? :D
- Man könnte mehr produzieren ?
- Customs werden teurer(je nach Modell ?) ?
- Ok, er hat Ampere schon da und kuschelt schon mal damit ;) :D
- Produktion läuft noch gar nicht so lang ? Wenig Vorlaufzeit ?
- Wasserkühlung für die FE Version eher nicht so
- Es könnte zum Verkaufsstart ganz kurz knapp werden, aber es wird zeitnah genug Zeug da sein(Nachschub kommt dann genug)
- Ok, er sagt's noch mal ... Verfügbarkeit nach einem Schwund zum Start ziemlich stabil. Monatelange Durststrecke nicht zu erwarten

So ... mal Teil 2 checken :D

- Watt(für nicht Ruhrpottler---> Was ;) ) is mit Turing ? Bei Mindfactory kommt ne 2070 Super(und weitere) von KFA2 im Angebot ? Also neu natürlich, nix gebraucht. ( Anmerkung von mir: Naja ... ok ... ich schätze da wird's eher quer durch die Bank für alles Angebote geben, Vergesst auch nicht den Gebrauchtmarkt, wenn man die Angebote der Neukarten mit gebraucht vergleicht und Superschnäppchenjäger ist ;) )
- Ah ... ok .... Über Turing freuen und nicht auf n letzten Drücker aufm Gebrauchtmarkt verticken. (Anmerkung von mir: Eine Karte, mit der man zufrieden ist, ist ja nicht morgen auf einmal schlechter. Behalten und zufrieden damit zocken. Der Zeitpunkt für n guten Verkauf im Gebrauchtmarkt ist eher schon rum.)

Ok ... jetzt kommt Teil 3 (über AMD) :D

- Ende Okt., Anfang November ? "Brecher", also gleich BigNavi ? (Anmerkung von mir: wie viele Wochen wär das noch ? 7-9 ? Kommt ja fast mit meiner Schätzung hin, um 1-2 Wochen wollen wir uns mal nicht streiten. Im Zweifelsfall liegt Igor immer richtig :D Ich hab ja keine Connections und weiß nix. )
- Ok ... aktuell totenstille
- Spekulatius Nr. 4 ;) BigNavi ungefähr im Bereich 275Watt(ca. ~), stärker als die RTX 3070 so Pi mal Daumen, wenn die Nvidia Angaben stimmen und hinhauen sollten. Also so ungefähr im Bereich 3070 - 3080. Es is noch nicht ganz fix, ob man da nochmal nachjustiert, je nachdem was man an Power rausquetschen will. 3090 Leistung wohl eher nicht. (Anmerkung: So würde ich das interpretieren, zumindest)
- Customs(also AMD jetzt) werden wohl knapp/eng für das Weihnachtsgeschäft
- 3090 wird wohl wirklich eher nicht gepackt
- Mit alles rausquetschen wird man evtl. an die 3080 ran kommen. Je nach Fall und Anwendung mal drunter/drüber. Aber letzteres ist noch sehr spekulativ, also nicht 100%.
- Kooperationswirkung Ryzen/BigNavi soll mitgenommen werden. Halt für schöne Geschäftszahlen.


---


Ok, danke Igor ! :D
Jetzt wissen wir glaub ich so gut bescheid, wie man zu dieser recht stillen Zeit überhaupt bescheid wissen kann. :)
 
Zuletzt bearbeitet:

Dudelll

BIOS-Overclocker(in)
Was meint ihr, wann die Info-Bombe platzt ?

Falls AMD echt noch irgendwie auf die Konsolen wartet, wie lange ?
Vielleicht startet AMD ein paar Wochen vor Konsolenstart mit der Vorstellung ?
Dann könnten die Konsolen auch mit dazu stoßen und zusammen würde ein ziemlicher Info-Hype entstehen.

Vielleicht warten die noch ab, bis der Release-Hype bei Nvidia so gerade etwas abflacht und schlagen dann zu und "übernehmen" die Newsseiten.
Der neueste Shice is schließlich immer der interessanteste.

Wann wäre theoretisch ein guter Zeitpunkt dafür ?
Mitte/Ende Oktober ?
Zu spät dürfen sie auch nicht starten, wegen dem Weihnachtsgeschäft.

Vielleicht sind wir ja in 6-8 Wochen schlauer, was da kommt.

Kommt mMn drauf an wo sie landen. Falls 3080 Leistung möglich ist würd ich spätestens 1-2 Tage vor 3080 release massig Infos raushauen bzw mit konkreteren Infos anfangen.

Falls Die 3070 eher der Gegner wird würd vermutlich Anfang/Mitte Oktober reichen.

Tldr: kurz vor tatsächlichem ampere release halt ^^
 
P

pseudonymx

Guest
Üblich waren es eigentlich immer so 30%, außer beim Topmodell und bei Turing waren es teilweise negative Prozente. :ugly: Ne im ernst, das sagste jetzt auch nur im Nachhinein. Der Leistungsschub bei Ampere ist durch die Bank schon gewaltig. Das muss man anerkennen. Hier wird einem schon mit einer RTX3070 einiges geboten.

Nope hab ich immer gesagt und erwartet. Allein wegen 7nm (bzw 8) Man hat bei AMD gesehen was mit Hochmodernen Litographien geht und nachdem RTX20 ja Quasi fast schon nurn refresh mit Raytracing war hab ich diesmal nen riesen sprung erwartet. Wie krass der schub wirklich ist wird sich ja erst noch zeigen. Ich hab definitiv erwartet (gehofft meinetwegen) Das mit den neuen Karten endlich mal UHD Gaming bezahlbar wird umso Krasser hab ich beim Nvidia event gejubelt.... Muss aber zugebenn das ich mich von den ganzen 20% mehrleistungs gerüchten hart hab beeinflussen lassen und jez Umso geflashter bin ;) Naja am ende wirds warscheinlich trotzdem ne AMD.... ich gehör net zu denen die sich alle 2 Jahre ne GraKa kaufen und 10gb bei der 3080.... Määäääää da muss AMD mich füttern am besten mit Iwie 3070 leistug und 16GB Vram (ja ich weis das ne 3070ti kommt mit 16gb iis die frage obs sie vor big navi kommt)

Aber seis drum wennalles released ist wird gekauft was das beste p/l is... dann muss AMD mich nur noch mit zen3 glücklich machen..... AM besten noch dieses jahr... sonst muss ich meinen 3900 wieder zurückkaufen XD
 

ChrisMK72

PCGH-Community-Veteran(in)
So, jetzt haben wir Igor's Spekulatiussuppe(thx! :daumen:).

Kann ja jetzt jeder raus machen, was er möchte.
Sehr lang wäre die Wartezeit natürlich nicht.
Schön zu wissen, dass da nicht einfach nix passiert, trotz der Stille.
Da kommt auf jeden Fall was.

Falls man also eine Karte im Bereich 3070/3080 haben will und nicht auf grün festgelegt ist, könnte(sollte) man durchaus abwarten, was Ende Oktober/Anfang November so raus kommt, von AMD.
Wie wir ja auch bereits wissen, könnte Nvidia auch noch darauf reagieren.
Wie schnell, das is auch noch so ne Frage.

Das soll's von mir dazu gewesen sein.
Ihr wisst bescheid. :)


edit:

am ende wirds warscheinlich trotzdem ne AMD.... ich gehör net zu denen die sich alle 2 Jahre ne GraKa kaufen und 10gb bei der 3080.... Määäääää da muss AMD mich füttern am besten mit Iwie 3070 leistug und 16GB Vram (ja ich weis das ne 3070ti kommt mit 16gb iis die frage obs sie vor big navi kommt)

Aber seis drum wennalles released ist wird gekauft was das beste p/l is... dann muss AMD mich nur noch mit zen3 glücklich machen..... AM besten noch dieses jahr... sonst muss ich meinen 3900 wieder zurückkaufen XD

Also die 10GB der 3080 find' ich ehrlich gesagt auch eher so ... meeeeh. Nix für mich(edit: Aber was ich mir holen werde, is glaub ich eh bekannt ;) ).
Und Ryzen wird dich sicherlich glücklich machen können. Da geh ich mal von aus. :daumen:
 
Zuletzt bearbeitet:
Oben Unten