News zu Big Navi? "Morgen geht die Sonne auf" in mysteriösem AMD-Tweet

Wenn man Igor in seinen letzten Videos richtig zugehört hat kann Ampere so etwas wie AMDs FX werden weil die " gedoppelkten " Cu nur in speziellen Fällen schneller sind als die CUs von Turing . Die Spiele die DF zeigen durfte sind das Best Case Szenario und erst wenn Raff und alle anderen tester richtige Test machen wird sich zeigen wie schnell Ampere im worst Case ist. Die 350W Brechstange kommt nicht von ungefähr.
Wie kann Borderlands 3 Best Case Scenario sein?!
 
Das mit deinen Crypto-Minern etc. Kannst du eigentlich auch für dich behalten weil es absolute Spekulation ist was du da angibst.

absolut nicht, ich setz noch einen drauf und verlink dir einen Artikel dazu

Es ist leider ein Fakt, dass Cryptomining sehr Integerlastig ist, deswegen hatte AMD ja die Nase zunächst vorne. Nvidia hat aber gut aufgeholt und gerade in dem Bereich die 3000er Serie mit einem großen Upgrade versehen.
 
Alles richtig. Ich persönlich bezahle einen Aufpreis zu anderen Lösungen aber erst, wenn ich sicher bin, dass ich dafür etwas bekomme.

Alles richtig! Darum habe ich ja auch den 2000er Raytracing Testflug nicht mitgemacht und meine 1080TI behalten. Aber so langsam geht es da und auch bei DLSS richtig los und da kann man für den Preis und bei der Leistung durchaus einsteigen. Bei den 2000er Modell habe ich das, auch wegen dem Preis, noch ganz anders gesehen. Und wenn dann noch 1080TI > 30% > 2080TI > 30% > 3080 für 699 Euro + dem oben gesagten, hört es sich für mich nach einem interessanten Deal an. Abwarten auf AMD natürlich selbstverständlich. Alleine schon um ggf. noch günstiger an die 3080 oder eine TI zu kommen. ;)
 
Theoretisch *könnte* es das heißen :D

Ich bin in jedem Fall gespannt, was AMD morgen ankündigt. Wenigstens darf man sich einigermaßen sicher sein, *dass* etwas kommen wird, denn alles andere wäre marketingtechnisch ein ziemliches Eigentor - und auch, wenn AMDs Grafiksparte dafür recht bekannt ist, gehe ich angesichts ihrer generellen aktuellen Haltung schon davon aus, dass man aus der Vergangenheit gelernt hat. Bei Zen, Zen+ und Zen 2 fuhr man ja beispielsweise sehr wahrheitsnahes Marketing, bei RDNA1 meiner Erinnerung nach ebenfalls. Waren ja auch gute Produkte, warum also nicht ... hoffentlich wird für RDNA2 dasselbe gelten.

Weder Du noch da-obst waren ja direkt gemeint.
Ich kann (heute) einfach das rummosern/rumgeheule nicht ab wenn es bald im Forum heist:
a.) Haha waren doch keine 50% Ihr dummen Fanboys
(als ob jeder der Marke Xyz kauft gleich ein Fanboy ist.... :-S )
b.) Hat AMD doch nicht geschafft die versprochen 50% mehr FPS zu liefern
(neutraler als A,) aber immer noch falsch)
c.) Toll ~50% effektiver aber denoch zu lahm
d.).....?

@ Dein Post
Stimmt & hoffen wir!

Auch wenn ich mit der Vega 56 (zocke in 1440p) eigendlich noch zufrieden bin und laut 3dCenter 4K Index
schon zur RTX 2080s greifen könnte um meine erwünschte +50% mehr FPS zu kriegen warte ich doch noch was ab.
Grund ist neben meinem störigen Freesync TFT (nicht von NV freigegeben) auch das idR. besser P/L Verhältniss. der AMD Karten.

Übrigens:
Gibt es so eine Liste auch von der PCG-H?
Ich fand nichts. Wenn nein wäre jezt ein guter Zeitpunkt um z.B. die RTX 2080 ti als 100% zu fixieren.
Hat Ralf doch gerade nichts zu tun oder :D
 
absolut nicht, ich setz noch einen drauf und verlink dir einen Artikel dazu

Na dann "nimm das"


;)

Oder was von PCGH selbst

 
Zuletzt bearbeitet:
Alles richtig! Darum habe ich ja auch den 2000er Raytracing Testflug nicht mitgemacht und meine 1080TI behalten. Aber so langsam geht es da und auch bei DLSS richtig los und da kann man für den Preis und bei der Leistung durchaus einsteigen. Bei den 2000er Modell habe ich das, auch wegen dem Preis, noch ganz anders gesehen. Und wenn dann noch 1080TI > 30% > 2080TI > 30% > 3080 für 699 Euro + dem oben gesagten, hört es sich für mich nach einem interessanten Deal an. Abwarten auf AMD natürlich selbstverständlich. Alleine schon um ggf. noch günstiger an die 3080 oder eine TI zu kommen. ;)

Bei der 3080Ti, wenn sie erscheint, rechne ich mit über 800 ,00€.
Wenn man mit mehr Rechenleistung und mit mehr Speicher kalkulieren könnte, wäre das für mich die neue Karte. Also eine akzeptabele Investition.
 
Lustig fände ich, wenn AMD, MS und Sony auf eine andere Implementierung von Ray-Schattengeschwubbel setzen,und in alle neuen und alten Spiel automatisch integrieren würde.
Vielleicht ergeht´s dann den Tensor(Was auch immer)-Kernen wie dem ganzen Pysicsgedöhns...nice..aber fort!
Natürlich schickt dann Nvidia wie auch jetzt noch ein zwei Jahre ihre Heerscharen an Helferlein zu den geneigten Spieleentwicklern....und dann wird umgeschwenkt, wie bei den Bildschirmen auch.
Gruß Yojinbo
 
Meinet wegen müssen die nur die RTX3080 schlagen können.

Würde nicht zu viel Energy verschwenden um auch die RTX3090 ein zu holen. Jedoch erwarte ich anständige Speicherausstattung!
 
Vielleicht ergeht´s dann den Tensor(Was auch immer)-Kernen wie dem ganzen Pysicsgedöhns...nice..aber fort!

Die Tensor-Kernen sind aber nicht nur für dedizierte Grafikkarten in unseren PCs interessant. Selbst wenn sie da irgendwann keine Anwendung mehr finden sollten so machen sie ihre Arbeit in anderen Bereiche (HPC und KI) sehr gut!
 
RT will ich ja garnicht so unbedingt, lieber wäre mir die Performance der 3080 auf sagen wir 500Euro.
Beides für den Preis nehme ich auch.

Lol, warum nicht gleich für umsonst? War AMD nicht die Wohlfahrt?
Du kannst dir an zwei Fingern ausrechen, dass wenn nVidia eine 3080 mit 10 GiB ab 700 € anbietet, und AMD dieses Leistungsniveau auch anbieten kann und dann noch die 16 GiB draufpackt, du diese Karte zweifelsfrei nicht einmal für einen Preis nahe der 500 € erhalten wirst, denn bei AMD sitzen ebensowenig Idioten wie bei nVidia (oder Intel).
 
Die Tensor-Kernen sind aber nicht nur für dedizierte Grafikkarten in unseren PCs interessant. Selbst wenn sie da irgendwann keine Anwendung mehr finden sollten so machen sie ihre Arbeit in anderen Bereiche (HPC und KI) sehr gut!
This! Und deshalb sollen die HPC- und KI-Anwender auch erst mal die Entwicklungskosten dafür abbezahlen. :-)
 
This! Und deshalb sollen die HPC- und KI-Anwender auch erst mal die Entwicklungskosten dafür abbezahlen. :-)

Tun sie doch schon mit den Titan's und Quadro's ;-)
Die Unterschiede zwischen bspw. der Referenzplatine der RTX 2080 Ti und der Titan RTX sind gering, im Wesentlichen kommt hier zum Tragen, dass die Titan 16Gb-BGAs verwendet und die Titan verwendet sogar das gleiche PCB der Quadro RTX 6000. Dennoch zahlst du für erstere aktuell 2750 € und für letztere zahltest du nahezu 6000 € und jetzt immer noch um die 4800 €.
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

:-)

Edit: to late...
 
Zurück