News zu Big Navi? "Morgen geht die Sonne auf" in mysteriösem AMD-Tweet

Kaufentscheidungen können lange vorher getroffen werden. Ich habe mich auch bereits entschieden. Nvidia wird eine enorme RT Power bieten, hat DLSS 2.0 und G-Sync => Es wird wieder Nvidia bei mir.

was hat jetzt deine Aussage mit Seiner zu tun ?

Das wird auch Zeit, mit jedem Tag der vergeht verliert AMD Kunden an nVidia.

Deine Kaufentscheidung würde sich genau so schnell änderten, wenn AMD jetzt genau mit deinen Anforderungen um die Ecke kommen und es besser machen für weniger.
Daher ist deine Aussage in Kontext zu Seiner genau so Schwachsinn.
 
Zuletzt bearbeitet:
Hier ist was morgen passieren wird:

(1) AMD wird so knapp übert der 3070 liegen, sofern der Preis gut ist, soll das ja kein Nachteil sein.
(2) Dann wird AMD zeigen müssen was ihr Raytracing kann, sonst rennt jeder zu Nvidia. Es wird besser sein müssen als das was wir auf Crysis Konsole gesehen haben, wo es eine zweite versteckte Voxelgemoetrie gibt mit der das berechnet wird und wegen der Objekte auf dem Fußboden schon mal keine Reflektion haben. Immo wird das nicht passieren, Schach Matt AMD die erste.
(3) Dann wird AMD zeigen müssen wieviel besser ein Spiel mit 16GB RAM aussieht. Tun sie das nicht kauft jeder doch wieder die 3080, so muss Nvidia wenigstens mit einer 20GB Version nachlegen. Ich glaube AMD wird das nicht machen, Schach Matt die Zweite.

So irgendwie enttäuscht aber mit zu viel Kohle in der Tasche wird sich dann entschlossen eine 3080 zu kaufen. Nur dass die nicht verfügbar ist, weil Crypto-Miner (Ethereum im Speziellen) gemerkt haben, dass die Karte 3x schneller schürft als eine 2080 (Int32 Cores lassen grüßen) und gerade dabei sind die Karte überall bei Distributoren aufzukaufen, bevor auch nur sonst jemand (z.B. Computerladen an der Ecke) in Deutschland eine Vorbestellung dafür abgeben kann.

Pech gehabt, nun musste AMD kaufen und mit ansehen wie Cryptominer die 3000er Serie in den Augen von Gamern vernichten werden.
 
Hier ist was morgen passieren wird:

(1) AMD wird so knapp übert der 3070 liegen, sofern der Preis gut ist, soll das ja kein Nachteil sein.
(2) Dann wird AMD zeigen müssen was ihr Raytracing kann, sonst rennt jeder zu Nvidia. Es wird besser sein müssen als das was wir auf Crysis Konsole gesehen haben, wo es eine zweite versteckte Voxelgemoetrie gibt mit der das berechnet wird und wegen der Objekte auf dem Fußboden schon mal keine Reflektion haben. Immo wird das nicht passieren, Schach Matt AMD die erste.
(3) Dann wird AMD zeigen müssen wieviel besser ein Spiel mit 16GB RAM aussieht. Tun sie das nicht kauft jeder doch wieder die 3080, so muss Nvidia wenigstens mit einer 20GB Version nachlegen. Ich glaube AMD wird das nicht machen, Schach Matt die Zweite.

So irgendwie enttäuscht aber mit zu viel Kohle in der Tasche wird sich dann entschlossen eine 3080 zu kaufen. Nur dass die nicht verfügbar ist, weil Crypto-Miner (Ethereum im Speziellen) gemerkt haben, dass die Karte 3x schneller schürft als eine 2080 (Int32 Cores lassen grüßen) und gerade dabei sind die Karte überall bei Distributoren aufzukaufen, bevor auch nur sonst jemand (z.B. Computerladen an der Ecke) in Deutschland eine Vorbestellung dafür abgeben kann.

Pech gehabt, nun musste AMD kaufen und mit ansehen wie Cryptominer die 3000er Serie in den Augen von Gamern vernichten werden.

  1. Kann gut möglich sein
  2. Realtime Raytracing basiert immer auf einer BVH Struktur. Also eine eigene Instanz in der das Raytracing berechnet wird. In diesem BVH Bereich ist die Welt deutlich simpler gezeichnet und einige Objekte auch gar nicht vorhanden. Das ist Entscheidung des Entwicklers.
  3. AMD wird sehr wahrscheinlich mit 16GB VRAM daher kommen. Mehr VRAM als die Konkurrenz war schon immer eins von AMDs Standbeinen.

Das mit deinen Crypto-Minern etc. Kannst du eigentlich auch für dich behalten weil es absolute Spekulation ist was du da angibst.
 
Wenn man Igor in seinen letzten Videos richtig zugehört hat kann Ampere so etwas wie AMDs FX werden weil die " gedoppelkten " Cu nur in speziellen Fällen schneller sind als die CUs von Turing . Die Spiele die DF zeigen durfte sind das Best Case Szenario und erst wenn Raff und alle anderen tester richtige Test machen wird sich zeigen wie schnell Ampere im worst Case ist. Die 350W Brechstange kommt nicht von ungefähr.
 
BigNavi wurde angesichts von Ampere wohl eingestampft und man möchte jetzt was anderes verkaufen und die Leute wieder an die frische Luft und an die Sonne (sun) bringen.

Anhang anzeigen 1332286
Der Artikel ist Unsinn, AMD verkauft keine Fahrräder!
 
AMD wird sehr wahrscheinlich auch nicht an die 3090 rankommen. Aber die dürfte für 95% des Marktes eh nicht interessant sein.

Da Nvidia zwischen der 3080 und der 3090 eine so auffällig große Lücke lässt, kann man vermuten dass Nvidia hier Platz für einen Konter gegen AMD frei lässt. Nvidia lag hier schön früher oft richtig. Daher vermute ich, dass AMD die 3080 durchaus in Bedrängnis bringen kann und dazu sehr wahrscheinlich noch 16 GByte RAM haben dürfte. Der Konter dürfte dann in Form einer 3080ti mit 20 GByte RAM kommen.
Exakt so wird das sein :daumen:
 
So wie sie dicht gehalten haben kann ich mir vorstellen dass sie etwas ganz unerwartetes (positives) im Angebot haben.
Von Luftnummer bis 3090 Killer ist alles drin, am wahrscheinlichsten wohl die Mitte.
Bin gespannt und hoffe dass die Gerüchte dann endlich aufhören.
Meine größte Hoffnung liegt im Verwendeten Prozess:
Nvidias verwendeter Samsung 8nm ist TSMCs 7nm Prozess DEUTLICH unterlegen was Transistordichte und Verbrauch betrifft. Das sieht man auch, wenn man GA100 und GA102 vergleicht:

Nvidia könnte also, wenn sie TSMCs 7nm Prozess verwendet hätten nochmal deutlich schneller sein (30% +/-), aber man ist es halt nicht - hier hat AMD also noch Spielraum. Denn anders ausgedrückt: bei der Transistordichte von TSMCs 7nm Prozess wäre der GA102 ("Geforce 3090) statt 628mm² nur ca 400-450mm² groß. AMDs Big Navi soll ~500mm² groß sein, wer weiß vielleicht holen sie aus der selben Chipfläche mehr raus.
Jedenfalls hat es einen Grund, warum Nvidia mit der TDP so hochgefahren ist

Ich lehne mich hier also etwas aus dem Fenster und behaupte, dass AMD sehr wohl in Traditioneller Grafik/Rastern bei 4K über der 3080 rauskommen kann. Vielleicht sogar bei der 3090 - man hat einfach einen riesigen Vorteil was den Prozess betrifft.
Bei Raytracing-Performance glaube ich das nicht. Zumindest nicht, wenn die Spiele die RT Cores und Tensor Cores verwenden. Letztere hat AMD ja wahrscheinlich nicht
 
Zuletzt bearbeitet:
Naja, das ist halt das Problem bei jeder Form der Innovation. Man muss es halt machen um zu schauen ob es was wird. Und in kombination mit Cloud Gaming und NVIDIAs Know How in dem Bereich, könnte ich mir das sehr gut vorstellen. Und selbst wenn nicht, wird es Auswirkungen auf die Gaming-Industrie haben. Denn egal wer es am Ende macht, sinnvoll ist es alle mal! :daumen:

Alles richtig. Ich persönlich bezahle einen Aufpreis zu anderen Lösungen aber erst, wenn ich sicher bin, dass ich dafür etwas bekomme. Den early adopter habe ich inzwischen oft genug gemacht und brauche das inzwischen nicht mehr so. Games wegen gerade angehypter Grafikfeatures anzuspielen ist mir die Zeit inzwischen auch zu schade.
DLSS bleibt für mich so ein Zünglein an der Waage - mitnehmen ja, bezahlen nein. Wenn's bis Hopper Standard geworden ist und keine Alternativen gibt kommt's dann auf die Must-have-Liste.
 
Zuletzt bearbeitet:
Wenn man Igor in seinen letzten Videos richtig zugehört hat kann Ampere so etwas wie AMDs FX werden weil die " gedoppelkten " Cu nur in speziellen Fällen schneller sind als die CUs von Turing . Die Spiele die DF zeigen durfte sind das Best Case Szenario und erst wenn Raff und alle anderen tester richtige Test machen wird sich zeigen wie schnell Ampere im worst Case ist. Die 350W Brechstange kommt nicht von ungefähr.

Möglich. Aber Nvidia weiß in der Regel schon ganz genau was sie machen wollen und wie sie das am besten Umsetzen können. Die haben auch das nötige Budget um das zu stemmen.

Genaueres wird man in Tests sehen oder möglich das erst in 1 - 2 Jahren der große Sprung kommt. Meistens ist es ja so, das neuere Karten sich erst im Laufe der Zeit etwas mehr absetzen können. Das hängt wohl auch vom Game Code ab.
 
Nvidia stellt im Gegensatz zu AMD & Intel keine Prozessoren her und deren Idee ist auf Dauer CPU's und GPU's zu verbinden. Wenn dies in Zukunft dazu ausreicht einen großen Teil der Arbeiten zu erledigen ohne eine dedizierte Grafikkarte zu nutzen bricht der Markt für Nvidia gehörig ein. Dementsprechend bringt man neue Features und pusht R&D um Grafikkarten weitere Existenzgründe zu geben abseits von den aktuell bestehenden.

Das sehe ich komplett anders. NVIDIA wird schon wissen das man mit Grafikkarten für Gamer mittelfristig nix mehr reißen wird. Eben weil es diese irgendwann, so ungerne wir das hören wollen, nicht mehr in der Form geben wird!

Und CPUs und GPUs zu verbinden (von dem was es aktuell schon gibt mal abgesehen) halte ich auch nicht für wirklich logisch. Außer wenn man immer noch in lokaler Hardware denkt. Das macht aber bei kommendem Cloud Gaming, Cloud Windows etc... mittel bis langfristig keinen Sinn. Zudem sind CPUs, anders als GPUs schon seit ein paar Jahren an ihrer gewissen "Obergrenze" angelangt (moore's law). GPUs haben da viel mehr Potential was NVIDIA ja nun schon seit längerer Zeit sehr effektiv nutzt. Und da spreche ich nicht von GPUs für uns Gamer sondern von deren GPU Clustern für Rechenzentren.

Nvidia muss sich in Zukunft breiter Aufstellen und deshalb sehen wir Investitionen in Data-Center, Deep Learning, Autos und viele weitere Bereiche.

NVIDIA ist doch schon seit längerer Zeit breit aufgestellt und investiert in die besagten Bereich nicht erst seit gestern. Zudem das Know How im Software Bereich. Genau das finden die Aktionäre schon seit längerem sehr interessant an NVIDIA. Und der Kurs bestätigt das ja. Wirklich interessant wird, wenn NVIDIA ARM kaufen sollte. :daumen:

Und nun frag ich dich, wo ist AMD und Intel? Was machen die denn außer Hardware zu bauen? Kauft NVIDIA ARM und das nicht nur um Lizenzgebühren einzusacken sondern um selbst zu produzieren und diese dann zu verkaufen dann wird es nicht für NVIDIA eng sondern für Intel und AMD. Intel bekommt ja jetzt schon das Schwitzen wo Apple seine ganze Hardware auf ARM Chips umzieht.

Es wird spannend, mal sehen...
 
Zuletzt bearbeitet:
Zurück