Geforce RTX 3000: Analyst will Ampere-Termine kennen, Nvidia hat keine Eile

Hab kein Stress wenn die 3080TI biss Herbst 2020 erscheint leicht genug ideal mit dem Release der neuen Konsolen...somit hat man wenn die Leistung dann auch stimmt wieder den selben Zyklus wie biss her der Konsolen nutzen können um die meiste zeit keinerlei Probleme bei spielen zu haben ...Herbst 2020 wird meine 1080 Ti dann cr 4 Jahre das Passt!
 
Die gleiche Einstellung hatte Intel auch in den letzten Jahren... :ugly:

Kompletter Unsinn. Das kann man doch gar nicht vergleichen. Intel haben echte -und zwar massive- Probleme mit ihrer Fertigung, weswegen sie nicht aus dem Quark kommen. Bei nVidia dagegen sind es rein wirtschaftliche Gründe. Bei entsprechendem Konkurrenzdruck hätte nVidia längst eine 7nm Consumer-Karte am Markt. Der Grund, warum sie 7nm bisher ausgelassen haben, sind ihre heiligen Gewinnmargen. Warum auch teure 7nm Chips herstellen (die großen 12nm Turings sind nun auch nicht gerade günstig in der Herstellung... und im Laden auch nicht...), wenn man nicht muss? Der Unterschied zu Intel dürfte klar sein. Intel kann momentan wirklich nicht schneller. nVidia könnte, aber will (noch) nicht.
 
ich freu mich auf 4900x und 3070 im nächsten jahr und jahr darauf dann auf 5900x mit 3070ti/s

nimm das kapitalismus!
 
Genau, im Vergleich zur PC Fassung deutlich niedrigere Settings (am Bsp von RDR2 sogar teilweise unter low), oft/meist kein natives 4k sondern Checkerboard-Rotze und so gut wie immer 30fps lock... All das ist also kein deut schlechter als high-ultra, echtes 4k und 60fps?
Wenn es durch deutlich, deutlich ...deutlich bessere Darstellung auf einem UHD HDR TV subjektiv besser ausschaut und um die zu zitieren - in "RDR2" macht es absolut den Kohl nicht fett auf 30FPS zu spielen - dann ist das keinen Deut schlechter als "echtes 4k@60FPS" das dank Stillstand in der Monitorsparte aussieht als würde ich mit einem Beamer auf ein Bettlaken projizieren statt auf eine Leinwand. Und gerade RDR2 sieht in "schlecht" auf der OneX fantastisch aufm LG OLED aus...auf 400€ Hardware die man bestenfalls noch in Waschmaschinen verbaut ;) Ich will mir gar nicht ausmalen was die aus ner Ryzen Navi Kombo rausholen.

Am PC wird meine RTX2070 OC wohl noch etwas halten müssen - bisher hat auch noch nix gezuckt, wird wohl mit dem neuen 34" Monitor von UWFHD auf UWQHD bissl zu tun bekommen. Wahrscheinlich noch Wasser auf die GPU dann wird das reichen müssen...erstmal.
 
Zuletzt bearbeitet:
Die gleiche Einstellung hatte Intel auch in den letzten Jahren... :ugly:


Ich hoffe, dass AMD auch NVidia mal einen vor den Latz haut, wird Zeit, dass NV vom hohen Ross wieder runter kommt.
Sooo berauschend ist deren aktuelle Technik auch nicht mehr, die letzten Jahre ist da auch nicht viel passiert.
Und Raytracing steckt auch bei denen noch in den Kinderschuhen, da ist noch sehr viel Luft nach oben, seeeehr viel sogar!

Der einzige Grund weshalb AMD aufholen konnte war, dass 10nm viele Jahre zu spät kommt.Nvidia hat diese Probleme nicht und hat noch dazu die weit überlegene Architektur.
 
Naja, Nvidia braucht sich im Segment ab 2080 nicht wirklich zu beeilen.
Bis Amd da einen Konkurenz aufstellen kann, wird es bestimmt noch 1-2 Jahre dauern.
Aber natürlich sollte Nvidia schon etwas in der Hinterhand haben, damit es ihnen nicht wie Intel ergeht.

Hast du die ganzen Ankündigungen zu AMD Big Navi verpasst?
Mitte 2020 gehts rund, Intel kommt auch dazu.
Warum sonst will NVidia zum gleichen Zeitpunkt mit Ampere kontern?
Wenn Big Navi auch nur rund 4000 Shader statt die 2500 bisherigen liefert, kann man sich die theoretische Benchmarkwerte ja schon ausrechnen.
Natürlich könenn udn werden vermutlich andere Funktionseinheiten da irgndwo was limitieren, oder einfach nur der ggf. geringere Takt.
Aber eine 2080 Ti sollte jedenfalsl locker rückwärts drin sein, daher kann NVidia nicht wie Intel warten und Daumen (dagegen) drücken.
Und am Ende überrascht uns gar eine "Poor Volta 2.0" Karte von Intel. ;-)
 
Nvidia hat diese Probleme nicht und hat noch dazu die weit überlegene Architektur.

Naja so weit erscheint die Überlegenheit seit RDNA auch nicht mehr: AMD Radeon RX 5700 und RX 5700 XT im Test: Architektur-Vergleich, Preis-Leistung, Custom Designs (Update) - ComputerBase

navi-vs-turing-png.1068845


Computrebase schrieb:
Da staunt man nicht schlecht: Obwohl Nvidia mit Maxwell und Turing große Leistungssprünge pro Shadereinheit gemacht hat, schafft es AMD mit RDNA im Durchschnitt gar ein Prozent besser abzuschneiden – der Satz ist dementsprechend riesig und beeindruckend.

RDNA 2.0 dürfte wie auch Ampere eine Schippe drauflegen, die Frage ist nur wer mehr gegenüber der eigenen Vorgängergeneration drauflegt, Nvidia (Turing -> Ampere) oder AMD (RDNA -> RDNA2.0)?
 

Anhänge

  • Navi vs. Turing.png
    Navi vs. Turing.png
    14,1 KB · Aufrufe: 349

Wenn dem so wäre wieso hauen sie nicht so bald wie möglich einen 6000 Shader Chip raus und stampfen den TU-102 in den Boden? Ganz einfach weil sie es nicht können, mit einer Menge Glück wird Big Navi irgendwo in die Nähe einer 2080 Ti kommen, während der große Ampere Chip die Big Navi mithilfe von 7nm in den Boden stampfen wird, wie schon seit Jahren, seit der 290x ist AMD im High End Bereich nicht mal mehr im Ansatz konkurrenzfähig, es wird von Generation zu Generation schlimmer für AMD, mit der Fury X und der Vega 64 gab es immerhin noch das Ziel die großen Nvidia Chips zu erreichen, mit dem sind sie bekannterweise kläglich gescheitert, bei der 7ner konnten sie es trotz 7nm nicht mal mehr versuchen, weil sie bereits so weit hintendran sind, Big Navi wird im Vergleich noch schlechter abschneiden.
 
es geht wohl eher darum do einen großen chip in 7 nm zu fertigen ist wohl zum jetzigen Zeitpunkt zu teuer da immer noch Risikoproduktion .
würde AMD nen doppelten RDNA RX 5700XT chip fertigen lassen kann NV im Rasterisirungsbereich einpacken und hat nur noch RT auf der haben seite. AMD wäre aber besser beraten BIG Navi erst mit Navi 2 rauszubringen mit RT Funktion .
 
Sehr gut zu sehen was man an Immersion hinzugewinnt. Das Ultradetails unter 1080p immer das bessere Ergebnis liefern, hat Nvidia mit RTX manifestiert und brennt sich langsam in die Köpfe ein.

Eine 1080ti kann noch lange genug eine verdammt gute Karte sein, einfach mal die Regler nach links schieben und die Möglichkeit nutzen die höhere Auflösung zu genießen wenn man kann.

ich frag mich was jetzt daran verkehrt ist wenn ich das ganze bei 4K Auflösung haben will.... die Argumente von Hisn machen 0 Sinn.

Ich will/brauche eine Grafikkarte die 4K 60FPS@Ultra Settings schafft, diese gibt es bisher nicht also wo ist das Problem....? bei RDR2 oder anderen neuen AAA Titeln oder Shadow of the Tomb Raider und und und....am besten noch mit RTX Effekten bei 4K
 
So, ich dachte man nutzt den Prozess von Samsung und nicht von TSMC?
Quellen dazu, dass man sich hinten anstellen muss?

Sollte Nvidia die neue Generation schon in rund nem halben Jahr auf den Markt werfen, dürfte AMD wieder keine Chance haben.
Rechnet man mal +50% mehr Performance und auch etwa 50% mehr Effizienz als Erwartunshaltung ein, dann ist Big Navi, wenn er denn mal herauskommt, schon bei Launch weit unterlegen. Big Navi dürfte es schwer haben an einer 2080 Ti vorbeizukommen und wird hinsichtlich Effizienz und Leistung im besten Fall nur auf Augenhöhe mit der alten Nvidia Generation mitspielen können. Eine 5700XT + 50% Leistung dürfte alleine schon aufgrund des Stromverbrauches sehr knapp werden.



AMD wird bei den GPU´s 2020 keine Chance haben und nur über den Preis verkaufen können, das ist so sicher wie das Amen in der Kirche.
Aber der Kunde hat natürlich nichts davon, wenn Big Navi dann mit einer 3060 kämpfen muss.

:wall::wall::wall:
 
Wenn dem so wäre wieso hauen sie nicht so bald wie möglich einen 6000 Shader Chip raus und stampfen den TU-102 in den Boden?

Wird sicher vielfältige Gründe dafür geben, Zeit/Ressourcen(Geld/Personal)-Mangel und Unwirtschaftlichkeit (Preis und Ausbeute der 7nm Fertigung) dürfte allem voran stehen. Es dreht sich bei AMD auch nicht die ganze Welt um (Spiele)GPUs. Die CPU- und Semi-Custom-Sparte hat nunmal Priorität. Notfalls werden die eigenen GPU-SKUs etwas zurückgestellt, aber Sonys und Microsofts APUs bestehend aus Zen 2 und Navi inkl. RT muss rechtzeitig fertig werden. Sicherlich wäre die 300W TDP Grenze auch ein Faktor, vermutlich wird AMD dem wieder mit einem HBM-Interface begegnen und wahrscheinlich auf die 7nm+ Fertigung warten.
 
Damit schießt du den Bock ab!

Er rechnet die Effizienz halt nicht mit Leistung/Watt aus sondern mit Lederjacken/Kühen. Sonst wüsste er ja wohl, dass die Effizienz steigt, wenn die Leistung steigt und die Leistungsaufnahme (nicht Strombedarf) gleicht bleibt.

Aber ich glaube PolySchaffe hat's nicht so mit Zahlen. Die tanzt er sich wahrscheinlich immer zusammen... la di da...:lol:
 
Wenn dem so wäre wieso hauen sie nicht so bald wie möglich einen 6000 Shader Chip raus und stampfen den TU-102 in den Boden? Ganz einfach weil sie es nicht können, mit einer Menge Glück wird Big Navi irgendwo in die Nähe einer 2080 Ti kommen, während der große Ampere Chip die Big Navi mithilfe von 7nm in den Boden stampfen wird, wie schon seit Jahren, seit der 290x ist AMD im High End Bereich nicht mal mehr im Ansatz konkurrenzfähig, es wird von Generation zu Generation schlimmer für AMD, mit der Fury X und der Vega 64 gab es immerhin noch das Ziel die großen Nvidia Chips zu erreichen, mit dem sind sie bekannterweise kläglich gescheitert, bei der 7ner konnten sie es trotz 7nm nicht mal mehr versuchen, weil sie bereits so weit hintendran sind, Big Navi wird im Vergleich noch schlechter abschneiden.

Was wenn AMD ein Chipletdesign anstrebt? Dann kann man kleine günstige Chiplets fertigen und zu einem großen Package per IF zusammenbauen. Dann skalieren die 6000er Karten mit der Anzahl der Chiplets und den defekten Shaderclustern darauf.

Eventuell wirst du dann nicht nur eine >5k Shader GPU sehen sondern eventuell auch eine >7,5k Shader GPU mit RDNA 2.0.
Wenn so eine kommen sollte, dann wird selbst eine 3080Ti ziemlich klein dagegen aussehen.

Aber ja... ich träum weiter... :D
 
Er rechnet die Effizienz halt nicht mit Leistung/Watt aus...

50% mehr Effizienz sowie 50% mehr Leistung gegenüber TU102 ergeben nunmal nicht 100% mehr Leistung., weiß nicht wo da der Bock sein soll.:schief:

sondern mit Lederjacken/Kühen. Sonst wüsste er ja wohl, dass die Effizienz steigt, wenn die Leistung steigt
und die Leistungsaufnahme (nicht Strombedarf) gleicht bleibt.

So, wo steht denn was gegenteiliges?

Wenn so eine kommen sollte, dann wird selbst eine 3080Ti ziemlich klein dagegen aussehen.

Man muss kein Prophet sein, um zu sehen, dass AMD´s Big Navi sich eher mit der 2080s als Salvage SKU und mit der 2080 Ti als Vollausbau herumschlagen wird.
Dafür müssten die Verbesserungen von RDNA2 extrem groß sein, womit eher nicht zu rechnen sein wird.
Die Verbesserungen von 7nm+ sind minimal. +50% auf eine 5700XT mit dem RT Klimbim dabei, sind schon eine großzügige Erwartung und damit würde man sich genau bei der 2080 Ti einsortieren.
 
Spekulationen über Spekulationen. Es ist immer wieder hier schön mit zu verfolgen, wie man sich hier zerfleischt.
Obwohl es noch überhaupt keine konkreten Fakten gibt zu der neuen Grafikkartengeneration von Nividia.
 
Zurück