• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

News zu Big Navi? "Morgen geht die Sonne auf" in mysteriösem AMD-Tweet

Kondar

BIOS-Overclocker(in)
Laut AMD soll RDNA2 ggü. RDNA(1) um 50% effizienter werden.
50% effizienter heist aber nicht 50% schneller; habe das Gefühl das der ein oder andere da was verwechselt.
 

dynastes

Software-Overclocker(in)
50% effizienter heist aber nicht 50% schneller; habe das Gefühl das der ein oder andere da was verwechselt.

Theoretisch *könnte* es das heißen :D

Ich bin in jedem Fall gespannt, was AMD morgen ankündigt. Wenigstens darf man sich einigermaßen sicher sein, *dass* etwas kommen wird, denn alles andere wäre marketingtechnisch ein ziemliches Eigentor - und auch, wenn AMDs Grafiksparte dafür recht bekannt ist, gehe ich angesichts ihrer generellen aktuellen Haltung schon davon aus, dass man aus der Vergangenheit gelernt hat. Bei Zen, Zen+ und Zen 2 fuhr man ja beispielsweise sehr wahrheitsnahes Marketing, bei RDNA1 meiner Erinnerung nach ebenfalls. Waren ja auch gute Produkte, warum also nicht ... hoffentlich wird für RDNA2 dasselbe gelten.
 

projectneo

Software-Overclocker(in)
Wie schon von vielen 100 mal geschrieben würde es reichen wenn AMD Infos zu BigNavi rausrückt und auch schon eine erste halb wegs valide Performanceeinordnung. Dann reicht es auch wenn AMD erst im Oktober released, warten kann man ja. Aber wenn keine Infos kommen warte ich nicht auf den Weihnachtsmann.
 

I3uschi

Software-Overclocker(in)
Kaufentscheidungen können lange vorher getroffen werden. Ich habe mich auch bereits entschieden. Nvidia wird eine enorme RT Power bieten, hat DLSS 2.0 und G-Sync => Es wird wieder Nvidia bei mir.

Eben. Und genau das passiert ja gerade. Ich kenne viele Leute, aber auch Redakteure von z.B. mein MMO haben sich schon so ziemlich festgelegt.
3070 und 3080 erfreuen sich großer Beliebtheit und die nVidia Präsentation hat auch dazu beigetragen, die war nämlich ziemlich gut gemacht. (Für Corona-Zeiten sowieso)
Die Zeit läuft gegen AMD. Besser gestern hätten sie schon Infos raushauen sollen.
Und wer dann schon eine 3000er Karte hat, der wird die wohl nicht wieder umtauschen.

Vor allem die, die noch Karten vor der 2000er Serie haben werden ja einen krassen Sprung machen und sitzen bestimmt schon lechzend in den Startlöchern. (Verständlich)

Also, hopp hopp AMD :daumen:
 

mannefix

Software-Overclocker(in)
Morgen geht die Sonne auf? Hat er zu viel gekifft? Entweder er liefert morgen richtig oder er ist falsch am Platz.
Denke eher er liefert nicht die Flasche.
 

geist4711

Software-Overclocker(in)
Hochmut kommt vor dem Fail.
naja, da man nicht abschätzen kann, was da von AMD jetzt kommt, also, heute wo ampere ja auf den markt kommt, kann man nichts sagen ob die nicht evtl doch glück haben und der spruch stimmt.
ich glaube das allerdings nicht und fand den ganzen kram mit poor volta damals auch dämlich.
sowas hat, egal welcher hersteller nicht nötig sich solch eine blösse zu geben..
 

mannefix

Software-Overclocker(in)
Eben. Und genau das passiert ja gerade. Ich kenne viele Leute, aber auch Redakteure von z.B. mein MMO haben sich schon so ziemlich festgelegt.
3070 und 3080 erfreuen sich großer Beliebtheit und die nVidia Präsentation hat auch dazu beigetragen, die war nämlich ziemlich gut gemacht. (Für Corona-Zeiten sowieso)
Die Zeit läuft gegen AMD. Besser gestern hätten sie schon Infos raushauen sollen.
Und wer dann schon eine 3000er Karte hat, der wird die wohl nicht wieder umtauschen.

Vor allem die, die noch Karten vor der 2000er Serie haben werden ja einen krassen Sprung machen und sitzen bestimmt schon lechzend in den Startlöchern. (Verständlich)

Also, hopp hopp AMD :daumen:
Also ich habe ne GTX 1070. Bin nicht begeistert von Nvidia. 10 GByte ist ne Frechheit. 8 Gbyte habe ich ja schon seit 3-4 Jahren). RTX 3000 ist nicht extrem gut, denke ich. AMD hat was! Sonst geht Nvidia nicht auf 699 Dollar runter.
Mein Gefühl ist aber eher Magenkrampf. Bitte, bitte AMD.
 

paladin60

Freizeitschrauber(in)
Wo kommen eigentlich die ganzen NV Trolle her, mittlerweile ist es echt wieder schlimm wie die alle Threads mit ihren geistigen Abfall verseuchen.
Nachdem sie den Friedensvertrag nicht bekommen haben sind die ganzen Attila und Xavier Anhänger anscheinend wieder hier gelandet um sich wichtig zu machen.


Wär doch ironisch, wenn AMD dann Zen3 anteasert: "Die beste CPU-Plattform von AMD, mit PCIe4.0 perfekt für Ampere gerüstet." :-D
Wäre lustig, dann kommt noch ein Tweet von NV das es ein Kommunikationsproblem bei den Preisen für Ampere gab, die sind eigentlich höher. :haha:

Hoffe mal das AMD eine DLSS Alternative anbieten kann, für mich ist die Technik auf jeden Fall eine Voraussetzung für den nächsten Kauf, sind zwar noch gut 2 Jahre bis meine 1080ti ersetzt wird aber es wär schon gut wenn sie mit Big Navi auch was in der Richtung vorstellen werden.
Von der Leistung her sollte AMD mindestens eine Karte auf 3080 Niveau haben, was noch schlimmeres als Vega kann gar nicht rauskommen und selbst die konnte noch irgendwie mit der 1080 mithalten, da sollte es für die 3080 locker reichen.
 

Nordbadener

PC-Selbstbauer(in)
Gscheiter Mann. Bei mir geht die Sonne morgen um 6:52 Uhr auf...

Hoffentlich hat AMD was Anständiges zu präsentieren. Plusminus 3080-Leistung mit 16GB Ram für 600-650 Euro wäre mal eine Ansage.
 

weisserteufel

Freizeitschrauber(in)
AMD soll diesmal die markigen Sprüche weglassen und Leistung zeigen.

Können wir uns darauf einigen, dass bitte beide nicht dämlich lügen sollen?


Die RTX3080 Performance wird mit jedem geleakten Test schlechter...
 

weisserteufel

Freizeitschrauber(in)
Es bleibt trotzdem eine Herausforderung bei einem verdoppelten Chip die doppelte Leistung zu erhalten.


Die brauchen ja nur 40-45% um eine 2080ti zu erreichen. ;-) 75% für eine 3080.
Wenn man also nicht von 100% ausgeht, sondern von 75% und mit der Effizienzsteigerung hinsichtlich der Leistungsaufnahme rechnet, dann könnte es was im Bereich 3080 geben. Relativ problemlos, wie ich finde.

Aber wir kommen auch von einem 7nm Prozess in einen 7+ Prozess.
Zur Erinnerung: " TSMC bewirbt N7+ mit einer Verbesserung der Transistordichte um 15 bis 20 Prozent gegenüber N7. Parallel soll die Leistung bei gleicher Leistungsaufnahme um bis zu 10 Prozent steigen; alternativ nehme die Leistungsaufnahme bei gleicher Leistung um etwa 15 Prozent ab."
Da ist in die Effizienzsteigerung natürlich schon einkalkuliert. Zeigt aber auch, dass man keine doppelte Chipgröße benötigt, da man eben mehr Transistoren unterbringen kann. Wenn man jedoch die gleiche Chipgröße fährt, könnten entweder mehr "Dual CUs" Platz haben oder eben zusätzliche Funktionen implementiert sein.
Ich habe ja schon einmal in einem anderen Thread erwähnt, dass ich nicht glaube, dass man von Navi 2x ausgehen sollte, sondern von einer skalierten PS5/XBox Series X Architektur.

Genaueres werden wir hoffentlich bald wissen, denn leider entpuppt sich die 3000er RTX Serie langsam als doch nicht so toll, wie wir alle erwartet haben.
 

Knochey

Freizeitschrauber(in)
Sicher schaut es gut aus. Das wäre ja auch schlimm wenn nicht. Trotzdem ist es nur ein Gimmick. Warum bedarf es da eine fette Serverfarm, warum kann die Hardware das nicht von sich aus. Ich meine Upscaler gibt es ja nicht erst seit gestern.

Von den 3 genannten Spielen werde ich nur eines irgendwann mal zocken und dafür soll ich mir jetzt eine Nvidia Karte kaufen ? Sry aber solange nicht die Masse an Games unterstützt wird, ist das ganze eine Lachnummer. Wie gesagt ich hätte mir da einen besseren Weg gewünscht, aber so ist Nvidia halt. Schön ihre exklusiven Dinger drehen.

Weil Machine Learning eben extrem Rechenintensiv ist. Der Algorithmus benötigt Millionen/Milliarden von Iterationen bis er die Genauigkeit erreicht die wir verlangen und dementsprechend kann das eben eine einzelne Grafikkarte nicht außer du magst beim einschalten von DLSS ein paar Monate erst das AI Model berechnen lassen.
 

Knochey

Freizeitschrauber(in)
Können wir uns darauf einigen, dass bitte beide nicht dämlich lügen sollen?


Die RTX3080 Performance wird mit jedem geleakten Test schlechter...
Würde mich mal interessieren wie er auf +56% mehr Leistung in Borderlands 3 kommt. Das SUPER Modell an sich ist eigentlich nicht so viel stärker als das standard Modell und DigitalFoundry hat um die +80% herausgefunden soweit ich das gesehen hab.

Falls diese Benchmarks wirklich stimmen würden, dann ist für mich die Glaubwürdigkeit von DigitalFoundry extrem beschädigt worden. Das man gute Ergebnisse zeigt? Das kann ich verstehen. Das man falsche Ergebnisse zeigt? Das wiederum gar nicht.

Videocardz hat allerdings auch einen disclaimer drunter gehauen, dass der Leaker wohl schon häufiger falsche Informationen in Umlauf gebracht hat also gebe ich hier DigitalFoundry erstmal den Vorrang.

Videcardz:
It is worth noting that this channel has already been caught using fake review samples and publishing a review earlier (they hid the name of the Ryzen processor). This time leakers do not show any review sample, so we cannot confirm if they really tested the card. Either way, take the results with a grain of salt.
 

GC-FILTER

PC-Selbstbauer(in)
Ein gutes Feature, klar. Imho aber nur, wenn es out of the box zuverlässig bei sagen wir mal >50% zumindest der neu rauskommenden Games funktioniert und nicht nur Nische bleibt.

Naja, das ist halt das Problem bei jeder Form der Innovation. Man muss es halt machen um zu schauen ob es was wird. Und in kombination mit Cloud Gaming und NVIDIAs Know How in dem Bereich, könnte ich mir das sehr gut vorstellen. Und selbst wenn nicht, wird es Auswirkungen auf die Gaming-Industrie haben. Denn egal wer es am Ende macht, sinnvoll ist es alle mal! :daumen:
 

Snowhack

BIOS-Overclocker(in)
Kaufentscheidungen können lange vorher getroffen werden. Ich habe mich auch bereits entschieden. Nvidia wird eine enorme RT Power bieten, hat DLSS 2.0 und G-Sync => Es wird wieder Nvidia bei mir.

was hat jetzt deine Aussage mit Seiner zu tun ?

Das wird auch Zeit, mit jedem Tag der vergeht verliert AMD Kunden an nVidia.

Deine Kaufentscheidung würde sich genau so schnell änderten, wenn AMD jetzt genau mit deinen Anforderungen um die Ecke kommen und es besser machen für weniger.
Daher ist deine Aussage in Kontext zu Seiner genau so Schwachsinn.
 
Zuletzt bearbeitet:

4thVariety

Software-Overclocker(in)
Hier ist was morgen passieren wird:

(1) AMD wird so knapp übert der 3070 liegen, sofern der Preis gut ist, soll das ja kein Nachteil sein.
(2) Dann wird AMD zeigen müssen was ihr Raytracing kann, sonst rennt jeder zu Nvidia. Es wird besser sein müssen als das was wir auf Crysis Konsole gesehen haben, wo es eine zweite versteckte Voxelgemoetrie gibt mit der das berechnet wird und wegen der Objekte auf dem Fußboden schon mal keine Reflektion haben. Immo wird das nicht passieren, Schach Matt AMD die erste.
(3) Dann wird AMD zeigen müssen wieviel besser ein Spiel mit 16GB RAM aussieht. Tun sie das nicht kauft jeder doch wieder die 3080, so muss Nvidia wenigstens mit einer 20GB Version nachlegen. Ich glaube AMD wird das nicht machen, Schach Matt die Zweite.

So irgendwie enttäuscht aber mit zu viel Kohle in der Tasche wird sich dann entschlossen eine 3080 zu kaufen. Nur dass die nicht verfügbar ist, weil Crypto-Miner (Ethereum im Speziellen) gemerkt haben, dass die Karte 3x schneller schürft als eine 2080 (Int32 Cores lassen grüßen) und gerade dabei sind die Karte überall bei Distributoren aufzukaufen, bevor auch nur sonst jemand (z.B. Computerladen an der Ecke) in Deutschland eine Vorbestellung dafür abgeben kann.

Pech gehabt, nun musste AMD kaufen und mit ansehen wie Cryptominer die 3000er Serie in den Augen von Gamern vernichten werden.
 

Knochey

Freizeitschrauber(in)
Hier ist was morgen passieren wird:

(1) AMD wird so knapp übert der 3070 liegen, sofern der Preis gut ist, soll das ja kein Nachteil sein.
(2) Dann wird AMD zeigen müssen was ihr Raytracing kann, sonst rennt jeder zu Nvidia. Es wird besser sein müssen als das was wir auf Crysis Konsole gesehen haben, wo es eine zweite versteckte Voxelgemoetrie gibt mit der das berechnet wird und wegen der Objekte auf dem Fußboden schon mal keine Reflektion haben. Immo wird das nicht passieren, Schach Matt AMD die erste.
(3) Dann wird AMD zeigen müssen wieviel besser ein Spiel mit 16GB RAM aussieht. Tun sie das nicht kauft jeder doch wieder die 3080, so muss Nvidia wenigstens mit einer 20GB Version nachlegen. Ich glaube AMD wird das nicht machen, Schach Matt die Zweite.

So irgendwie enttäuscht aber mit zu viel Kohle in der Tasche wird sich dann entschlossen eine 3080 zu kaufen. Nur dass die nicht verfügbar ist, weil Crypto-Miner (Ethereum im Speziellen) gemerkt haben, dass die Karte 3x schneller schürft als eine 2080 (Int32 Cores lassen grüßen) und gerade dabei sind die Karte überall bei Distributoren aufzukaufen, bevor auch nur sonst jemand (z.B. Computerladen an der Ecke) in Deutschland eine Vorbestellung dafür abgeben kann.

Pech gehabt, nun musste AMD kaufen und mit ansehen wie Cryptominer die 3000er Serie in den Augen von Gamern vernichten werden.

  1. Kann gut möglich sein
  2. Realtime Raytracing basiert immer auf einer BVH Struktur. Also eine eigene Instanz in der das Raytracing berechnet wird. In diesem BVH Bereich ist die Welt deutlich simpler gezeichnet und einige Objekte auch gar nicht vorhanden. Das ist Entscheidung des Entwicklers.
  3. AMD wird sehr wahrscheinlich mit 16GB VRAM daher kommen. Mehr VRAM als die Konkurrenz war schon immer eins von AMDs Standbeinen.

Das mit deinen Crypto-Minern etc. Kannst du eigentlich auch für dich behalten weil es absolute Spekulation ist was du da angibst.
 

defender2409

PC-Selbstbauer(in)
Wenn man Igor in seinen letzten Videos richtig zugehört hat kann Ampere so etwas wie AMDs FX werden weil die " gedoppelkten " Cu nur in speziellen Fällen schneller sind als die CUs von Turing . Die Spiele die DF zeigen durfte sind das Best Case Szenario und erst wenn Raff und alle anderen tester richtige Test machen wird sich zeigen wie schnell Ampere im worst Case ist. Die 350W Brechstange kommt nicht von ungefähr.
 

Technologie_Texter

BIOS-Overclocker(in)
BigNavi wurde angesichts von Ampere wohl eingestampft und man möchte jetzt was anderes verkaufen und die Leute wieder an die frische Luft und an die Sonne (sun) bringen.

Anhang anzeigen 1332286
Der Artikel ist Unsinn, AMD verkauft keine Fahrräder!
 

XXTREME

Lötkolbengott/-göttin
AMD wird sehr wahrscheinlich auch nicht an die 3090 rankommen. Aber die dürfte für 95% des Marktes eh nicht interessant sein.

Da Nvidia zwischen der 3080 und der 3090 eine so auffällig große Lücke lässt, kann man vermuten dass Nvidia hier Platz für einen Konter gegen AMD frei lässt. Nvidia lag hier schön früher oft richtig. Daher vermute ich, dass AMD die 3080 durchaus in Bedrängnis bringen kann und dazu sehr wahrscheinlich noch 16 GByte RAM haben dürfte. Der Konter dürfte dann in Form einer 3080ti mit 20 GByte RAM kommen.
Exakt so wird das sein :daumen:
 

Rollora

Kokü-Junkie (m/w)
So wie sie dicht gehalten haben kann ich mir vorstellen dass sie etwas ganz unerwartetes (positives) im Angebot haben.
Von Luftnummer bis 3090 Killer ist alles drin, am wahrscheinlichsten wohl die Mitte.
Bin gespannt und hoffe dass die Gerüchte dann endlich aufhören.
Meine größte Hoffnung liegt im Verwendeten Prozess:
Nvidias verwendeter Samsung 8nm ist TSMCs 7nm Prozess DEUTLICH unterlegen was Transistordichte und Verbrauch betrifft. Das sieht man auch, wenn man GA100 und GA102 vergleicht:

Nvidia könnte also, wenn sie TSMCs 7nm Prozess verwendet hätten nochmal deutlich schneller sein (30% +/-), aber man ist es halt nicht - hier hat AMD also noch Spielraum. Denn anders ausgedrückt: bei der Transistordichte von TSMCs 7nm Prozess wäre der GA102 ("Geforce 3090) statt 628mm² nur ca 400-450mm² groß. AMDs Big Navi soll ~500mm² groß sein, wer weiß vielleicht holen sie aus der selben Chipfläche mehr raus.
Jedenfalls hat es einen Grund, warum Nvidia mit der TDP so hochgefahren ist

Ich lehne mich hier also etwas aus dem Fenster und behaupte, dass AMD sehr wohl in Traditioneller Grafik/Rastern bei 4K über der 3080 rauskommen kann. Vielleicht sogar bei der 3090 - man hat einfach einen riesigen Vorteil was den Prozess betrifft.
Bei Raytracing-Performance glaube ich das nicht. Zumindest nicht, wenn die Spiele die RT Cores und Tensor Cores verwenden. Letztere hat AMD ja wahrscheinlich nicht
 
Zuletzt bearbeitet:

Illithide

Freizeitschrauber(in)
Naja, das ist halt das Problem bei jeder Form der Innovation. Man muss es halt machen um zu schauen ob es was wird. Und in kombination mit Cloud Gaming und NVIDIAs Know How in dem Bereich, könnte ich mir das sehr gut vorstellen. Und selbst wenn nicht, wird es Auswirkungen auf die Gaming-Industrie haben. Denn egal wer es am Ende macht, sinnvoll ist es alle mal! :daumen:

Alles richtig. Ich persönlich bezahle einen Aufpreis zu anderen Lösungen aber erst, wenn ich sicher bin, dass ich dafür etwas bekomme. Den early adopter habe ich inzwischen oft genug gemacht und brauche das inzwischen nicht mehr so. Games wegen gerade angehypter Grafikfeatures anzuspielen ist mir die Zeit inzwischen auch zu schade.
DLSS bleibt für mich so ein Zünglein an der Waage - mitnehmen ja, bezahlen nein. Wenn's bis Hopper Standard geworden ist und keine Alternativen gibt kommt's dann auf die Must-have-Liste.
 
Zuletzt bearbeitet:

IronAngel

BIOS-Overclocker(in)
Wenn man Igor in seinen letzten Videos richtig zugehört hat kann Ampere so etwas wie AMDs FX werden weil die " gedoppelkten " Cu nur in speziellen Fällen schneller sind als die CUs von Turing . Die Spiele die DF zeigen durfte sind das Best Case Szenario und erst wenn Raff und alle anderen tester richtige Test machen wird sich zeigen wie schnell Ampere im worst Case ist. Die 350W Brechstange kommt nicht von ungefähr.

Möglich. Aber Nvidia weiß in der Regel schon ganz genau was sie machen wollen und wie sie das am besten Umsetzen können. Die haben auch das nötige Budget um das zu stemmen.

Genaueres wird man in Tests sehen oder möglich das erst in 1 - 2 Jahren der große Sprung kommt. Meistens ist es ja so, das neuere Karten sich erst im Laufe der Zeit etwas mehr absetzen können. Das hängt wohl auch vom Game Code ab.
 

GC-FILTER

PC-Selbstbauer(in)
Nvidia stellt im Gegensatz zu AMD & Intel keine Prozessoren her und deren Idee ist auf Dauer CPU's und GPU's zu verbinden. Wenn dies in Zukunft dazu ausreicht einen großen Teil der Arbeiten zu erledigen ohne eine dedizierte Grafikkarte zu nutzen bricht der Markt für Nvidia gehörig ein. Dementsprechend bringt man neue Features und pusht R&D um Grafikkarten weitere Existenzgründe zu geben abseits von den aktuell bestehenden.

Das sehe ich komplett anders. NVIDIA wird schon wissen das man mit Grafikkarten für Gamer mittelfristig nix mehr reißen wird. Eben weil es diese irgendwann, so ungerne wir das hören wollen, nicht mehr in der Form geben wird!

Und CPUs und GPUs zu verbinden (von dem was es aktuell schon gibt mal abgesehen) halte ich auch nicht für wirklich logisch. Außer wenn man immer noch in lokaler Hardware denkt. Das macht aber bei kommendem Cloud Gaming, Cloud Windows etc... mittel bis langfristig keinen Sinn. Zudem sind CPUs, anders als GPUs schon seit ein paar Jahren an ihrer gewissen "Obergrenze" angelangt (moore's law). GPUs haben da viel mehr Potential was NVIDIA ja nun schon seit längerer Zeit sehr effektiv nutzt. Und da spreche ich nicht von GPUs für uns Gamer sondern von deren GPU Clustern für Rechenzentren.

Nvidia muss sich in Zukunft breiter Aufstellen und deshalb sehen wir Investitionen in Data-Center, Deep Learning, Autos und viele weitere Bereiche.

NVIDIA ist doch schon seit längerer Zeit breit aufgestellt und investiert in die besagten Bereich nicht erst seit gestern. Zudem das Know How im Software Bereich. Genau das finden die Aktionäre schon seit längerem sehr interessant an NVIDIA. Und der Kurs bestätigt das ja. Wirklich interessant wird, wenn NVIDIA ARM kaufen sollte. :daumen:

Und nun frag ich dich, wo ist AMD und Intel? Was machen die denn außer Hardware zu bauen? Kauft NVIDIA ARM und das nicht nur um Lizenzgebühren einzusacken sondern um selbst zu produzieren und diese dann zu verkaufen dann wird es nicht für NVIDIA eng sondern für Intel und AMD. Intel bekommt ja jetzt schon das Schwitzen wo Apple seine ganze Hardware auf ARM Chips umzieht.

Es wird spannend, mal sehen...
 
Zuletzt bearbeitet:
Oben Unten