Nvidia Ampere: GA102 für Geforce RTX 3080, RTX 390 und Titan?

Zwecks Speicherausstattung find ich das Gerücht bzgl. des NVCache ´s nicht abwegig.
Aus 10GB würden 14GB und aus 12GB dann 16GB VRAM.
Im groben kann man es sich wohl wie eine Kopie von AMD´s mit Vega10 eingeführtem HighBandwithCacheController vorstellen, der in abgewandelter Form scheinbar ja auch in den NextGen-Konsolen vertreten ist.
Sortiert entspannt den VRAM Inhalt, lagert weniger "wichtige" Daten in den RAM oder Festspeicher des Systems aus, und schafft es so den VRAM um effektiv 30-40% zu vergrößern.

Der HBCC wurde zu Beginn meiner Meinung nach falsch interpretiert. Es ging hier immer weniger darum dadurch ein Performanceplus zu erzielen, sondern viel eher ohne Performanceeinbußen den VRAM effektiv erweitern zu könnnen.
Dass dies Situationsbedingt auch in einem Performanceplus (bessere Min-FPS) resultieren kann ist logisch, setzt aber eben voraus, dass wir eine Situation haben in der der physisch vorhandene VRAM überfüllt ist.

Persönlich habe ich null Zweifel, dass dieser Technologische Ansatz funktioniert. Hab es mit meinen Vega-Karten schon öfter getestet.

Nvidia hätte entsprechend den großen Vorteil weniger VRAM-Steine verbauen zu müssen und Marketingtechnisch kriegen die Ihren Jüngern ja eh alles verkauft. Selbst so Rotz wie DLSS..
 
100% sicher sein kann man nicht, aber gemeinhin geht man davon aus, dass die kleineren Karten (<= GA102) über kein HBM-Interface verfügen werden (so zumin. dieses Jahr/in dieser Generation bei nVidia).
Der Grund ist relativ einfach: Die Fertigung wird teuerer, die Marge sinkt und die Speichermenge wird im Mainstream schlicht auch nicht benötigt. Hierbei darf man nicht vergessen, dass es sich um ein Massenprodukt handelt. Wenn da einzelnen bspw. in Foren lautstark mehr VRAM verlagen, dann interessiert das wenig in Bezug auf das Design eines solchen Produktes und darüber hinaus ist es ja auch nicht so als wenn nVidia darüber nichts mehr anzubieten hätte. Das ist letzten Endes nur eine Frage des Geldes. ;-)

Sag das nicht, das VRam nicht nötig wäre, oder dass diese Forderung nicht seinen Platz hätte, PCGH hat in den letzten Jahren immer wieder Fine Wine Tests gemacht, wie gut Hardware altert. Und grade bei GPUs war VRam der Knackpunkt.
Eine 980, damals immerhin auch eine 500€ GPU altert wesentlich schlechter als die 390 von AMD, auch dank deren 8Gb VRam.
Nur weil man heute nur mit Biegen und Brechen den VRam vollgekleistert bekommt heißt das nicht, dass das in 3-4 Jahren genauso sein muss. Es hat schon seinen Grund warum das nicht nur "in Foren" angekreidet wurde, sondern durch die komplette Testerriege hinweg, grade Karten ín gewissen Preisbereichen wie die 2060 und die 2080. Hatte ja seinen Grund warum die 2060S auf einmal 8 GB VRam bekommen hat.


Beispielsweise auf Steam spielen zurzeit 71,5 - 74,5 % mit <= 6 GiB VRAM und weitere 20,9 % sind mit 8 GiB VRAM unterwegs, d. h. bestenfalls 7,6 % nutzen über 8 GiB VRAM, ein für den Massenmarkt sehr geringer Anteil. Und da bereits weitere 4,1 % auf die nVidia-typischen 11 GiB entfallen, bleibt eine relativ irrelevante Zahl an Systemen mit mehr VRAM (so bspw. die Radeon VII's und die diversen Titan's, etc.).
Vor dem Hintergrund fällt es leicht eine denkbare Kalkulation von nVidia nachzuvollziehen, die zu dem Schluss gekommen sein könnte, dass 384 Bit mit vollen 12 GiB GDDR6 das derzeit sinnvolle Maximum darstellen. Das mag dem Einzelnen nicht immer passen, jedoch fertigt nVidia keine Individualprodukte und von daher ist das auch wenig relevant für sie.

Man hat sich die Latte halt selbst vorgelegt über die man springen musste indem man der 1080ti 11 GB VRam verpasst hat, zu einem für heutige Verhältnisse günstigen Preis.
Es wurde eine Erwartungshaltung geweckt und dann nicht bedient, obwohl Nvidia wissen musste dass z.b. eine 2080 mit mehr VRam eine tolle 4K Karte wäre (falls man das anzweifelt, bitte das PCGH Review zur 2080 lesen bevor man mich flamt, danke).

Und ich würds anders ausdrücken, ~55% der User aus dem letzten Steam Survey spielen mit weniger als 6GB VRam. So wird das ein wenig deutlicher, v.a. wenn man bedenkt wie groß der Anteil an 1GB & 2GB Karten in diesem Survey ist.
Nvidia würde seinen Kunden was gutes tun wenn man mehr Vram draufpacken würde. Nicht mehr als 12 GB, da hast du nicht Unrecht, aber Karten für 350$ MSRP auf den Markt werfen in 2018 und 6Gb reinstecken ist nicht zeitgemäß.
 
freue mich auf die Karten. bin mal gespannt, was die 3090 und Titan letztendlich kosten werden, meine Vermutung
ist genau soviel wie die aktuelle Reihe
 
Mir wird gerade klar, dass wir hier - so die News wahr ist - wahrscheinlich einen ziemlichen Hammer-Chip sehen.

Dass der (Ti-)TopDog und sogar die Titan kein Spezial-Chip ist wie in den Generationen zuvor (TU102, GP102, GM200), verspricht zwei Dinge:

a) Der Abstand Titan/3080Ti(3090)/3080 wird so gering wie keine Generation vorher
b) Der GA102 ist nen ziemlicher Hammer :D
[...]

Ich möchte deinen Enthusiasmus ja nicht in Abrede stellen, aber diese Ableitungsversuche sind unsinnig.
Der Artikel und der dahinterstehende Leak liefern keinerlei technische Details, sodass nur Spekulationen bleiben und entsprechend der Präferenzen wird es bei nVidia-Fans gar ganz toll und bei AMD-Fans ist es ein Anzeichen für was ganz übeles bei nVidia. ;-)

Alles was bleibt ist, dass man aufgrund des bisherigen Namensschemas annehmen kann, dass der GA102 der größte Consumer-Chip sein wird. Wie konkret der ausgestattet sein wird, ist vollkommen unklar, es ist unklar ob das Gerücht überhaupt zutrifft und ein möglicher RTX 3080 überhaupt auf diesem basieren wird und es ist unklar wie stark der Chip beschnitten sein wird, wenn er in der 3080 verwendet wird.
Was man zumindest als gesichert annehmen kann, ist, dass selbst wenn tatsächlich die drei Top-Karten RTX 3080, 3090 (= ehemalige Ti?) und Titan sowie eine etwaige Quadro alle auf diesem Chip basieren, dass bestenfalls die beiden letztgenannten den Vollausbau nutzen werden. Bereits der 3090 wird auf einige SMs verzichten müssen und eine RTX 3080 noch einmal auf einige mehr, was schlicht das Marketing vorgibt, da man diese Produkte ansonsten nicht sinnvoll im Markt platzieren könnte.
Unterm Strich kann es einem Konsumenten vollkommen egal sein, wie nVidia die angepeilte Leistung zuwege bringt, denn hier ist die Ausgangsbasis bzw. das Ziel Produkt X für Kosten Y zu Preis Z in dem Marktsegment A. Ob eine 3080 nun Leistungsniveau X' mittels eines GA104 im Vollausbau erreicht oder mittels eines deutlich runtergestrippten GA102 ist vollkommen egal, weil es schlicht auf Leistungsniveau X' hinausläuft. ;-)

Hier wird nichts leistungstechnisch zusammenrücken, das ist Konsumentenwunschdenken und hat nichts mit nVidia's marktwirtschaftlicher Realität zu tun. Die Produkte werden unterschiedliche (Preis)Segmente abdecken und entsprechend müssen diese sich auch mit klar differenzierten Leistungsunterschieden voneinander abgrenzen.

Welche Überlegung man jedoch anstellen könnte:
Der GA100 hat 128 SMs auf dem Die, von denen derzeit nur 108 freigeschaltet werden, was schlicht dem komplizierten Fertigungsprozess dieses großen Chips geschuldet sein wird. Abgesehen davon, dass es später vielleicht auch noch so etwas wie möglicherweise eine A101-Karte geben wird, die vielleicht 116 SMs freigeschaltet haben wird, könnte man sich überlegen, dass man mit grob ähnlichen Defektraten bei dem größten Consumer-Chip GA102 zu kämpfen hat und dementsprechend teilt man diesen nun auf drei Produktsegmente auf. Bei Turing hatte die RTX 2080 Ti gerade mal 4 SMs weniger als die Titan RTX/Quadro RTX 6000/8000 und darüber hinaus gab es keine weitere Verwendung des Chips, d. h. die Ausbeute musste hier grundsätzlich recht gut sein, denn Fehler konnten nur von Ti-Produkten mitverwertet werden.
Wenn die Fehlertoleranz für den GA102 deutlich größer ausfällt als noch beim TU102, dann werden zu viele Chips anfallen, die selbst nicht mehr einer RTX 3090 (Ti?) genügen, sodass man auch den 3080 über dieses Die implementiert, da seine Spezifikation (SMs und SI) noch einmal deutlich niedriger aufgehängt wird, sodass er die meisten Defekte abfangen können wird. Damit wird die Fertigung rentabel und effizient. Das hat aber nichts damit zu tun, wie weit oder nahe beieinander die Produkte liegen werden; das bestimmen schlicht Marketing und Vertrieb (wie bereits oben dargestellt).
 
Zuletzt bearbeitet:
Was ich bisher so gesehen hab ist die R9 390 noch immer, je nach Spiel, auf +- 10% zur GTX 970 - deutlich anderer bereich als eine Gtx 980.

https://www.pcgameshardware.de/Graf...s/Rangliste-GPU-Grafikchip-Benchmark-1174201/
Im PCGH Index 2018 war die 970 noch vor der 390, im aktuellen Index liegt die 390 vor der 970. Die 980 ist nochmal was anderes, hat mehr Power, aber sobald 4 GB Vram nichtmehr ausreichen...
Ob das für Fine Wine reicht, keine Ahnung, das war eben mal ein Aufhänger in der PCGH, es zeigt aber schön über die Zeit hinweg wie sich solche Karten entwickeln.


Gut - man kann auch die Einstellungen so wählen das die eine oder andere GPU einknickt. Wenn man mit einer 970 auf 4K mit alles Speicehrlastige maxed spieled dann ist sie grottig und eine 8GB R9 390 ist um vieles besser. Oder man stellt Partikle und Tesselation hoch und die 970 zieht davon.

Das ist auch klar, deswegen hatte ich mich auf den PCGH Test / den GPU Index bezogen.
 
Keine Ahnung woher du solche Infos haben willst - wahrscheinlich nur ausgedacht, denn ein Link fehlt ja völlig. Ich habe hier z.B. mal einen Vergleich von Gamestar aus 2019 gefunden:
Radeon R9 390X - Doppelter Speicher, sonst nix

Ich weiß nicht wie ich Dir das schonend beibringen soll, aber der Test den du verlinkt hast, der ist von 2015... Mit Spielen wie Battlefield 4, Anno 2070 und nicht zu vergessen Metro... Last Light.
Netter Versuch, aber halt kompletter Fail. Was es Dir bringt zu behaupten der Test sei von letztem Jahr obwohl jeder der sich das Ding mal anschaut sofort erkennt dass es nicht stimmt :ka:


Die 980, auf die du dich beziehst, fehlt in dem Ranking - wie kannst du dann wissen, wie sie sich entwickelt? :ugly:
Wieder mal typischer hoffgang Fail :lol:

Oh ich hab mir den 2018er Vergleich angesehen, dort ist die 980 3% vor der 390. Da Spiele immer mehr Vram fordern kannste Dir ausrechnen wo das mit 4GB hingeht...
Ist halt schwierig wenn man selbst Links postet die von 2015 sind und behauptet die seien von letzem Jahr. Da kann man soviel Querdenken nicht erwarten.
 
Zuletzt bearbeitet:
Fall das stimmen sollte, das es sich beim GA102-200 (3080-320bit-10GiB) nur um einen Salvage Chip des GA102 Vollausbau handelt, wäre dies eine total Bankrotterklärung seitens NVIDIA.
Laut den Spezifikationen von Kopite7kimi sieht dieser ja so aus:
(68SM, 4352) Geruechtekueche: nVidias GA102-Chip im Einsatz fuer neue Titan-Karte sowie GeForce RTX 3080 & 3090 | 3DCenter.org

Ich mein der Vollausbau bzw. Salvage des GA102 wird wohl unabhängig ob der jetzt in 7 oder 8nm gefertigt wird, im Bereich von 550 - 600mm2 angesiedelt sein (7nm = Doppelte Kosten pro Die Fläche!)

Selbst wenn der mit 2 - 2.2GHz getaktet wäre, würde er sich wohl nur marginal von einem NAVI22 (AMD's kommende Mittelklasse!) , 64CU (4096) mit 340mm2, der sich wohl ebenfalls in diesem Taktbereich bewegt absetzten können.

Habt ihr das mal zusammengerechnet AMD könnte ihre GPU wohl für die Hälfte verkaufen und würde immer noch gleich viel Gewinn machen.

Aus einem 300mm Wafer lassen sich Pi mal Daumen ca. 2 bis 2 1/2 Mal so viele 340mm2 Die's im Vergleich zu 550 -600mm2 gewinnen.

Sorry das ist einfach gerade in der heutigen Zeit einfach nicht mehr konkurrenzfähig.

 
Zuletzt bearbeitet:
Na doch. Bisher gab es im HighEnd zwei Chips [...]

Zweifelsfrei wird es auch einen GA104 geben, vielleicht auch einen GA106 oder auch einen dazwischenliegenden GA105, wie auch immer. Wie die Chips heißen, spielt keine Rolle. Die RTX 2070 Super wird auch nicht plötzlich HighEnd, weil sie auf den TU104 verlagert wurde. Das war schlicht notwendig, weil man auf dem TU106 keine nennenswerten Reserven mehr hatte, um das Produkt für das Segment A um ein paar wenige Prozentpunkte nach oben zu rücken, damit man eine 5700XT in Schach halten konnte. Die alte RTX 2070 nutzt den TU106, die neue den TU104, jedoch massiv runtergestrippt auf nur noch 40 SMs. Hierbei geht es nur darum, welches Leistungsniveau nVidia erreichen möchte und welche "Bausteine" man zur Realisierung zur Verfügung hat.
Konkret hat man bspw. den Boardpartnern verboten schnelleren GDDR6 für die 2070 Super zu verbauen, denn der neue TU104 kann auch 16Gbps-Bausteine ansteuern, was jedoch der RTX 2080 Super vorbehalten bleibt. Mit zusätzlich noch schnellerem Speicher würde eine 2070 Super noch näher an eine 2080 Super heranrücken und das will nVidia partout vermeiden und daher ist es den Boardpartner nicht erlaubt schnelleren Speicher zu verbauen, schlicht weil nVidia hier die Segmente A und B klar vorneinander trennen will und da spielt es keine Rolle, dass beide über den gleichen Chip (nur in unterschiedlicher Güte) realisiert werden. Das ist schlussendlich einfach ein Mechanismus, der nVidia hilft die Fertigungskosten in Grenzen zu halten und seine Marge zu optimieren.

Und das was da in Tabellenform gegossen wurde, ist nur eine andere Darstellungsweise für verschiedene Gerüchte. Das kann so kommen, ist jedoch weiterhin rein spekulativ. Immerhin ist der Bereich von um die 80 - 88 SMs für einen GA102 nicht unrealistisch.
Und wie du auch dort siehst, haben die Kollegen von 3dcenter die potentielle 3080 massiv beschnitten (die RTX 3090 hat 21 % mehr SMs, die Titan hat 24 % mehr SMs).
Dass alles schneller werden wird und nach oben rückt ist ja absehbar (ansonsten bräuchte man keine Nachfolgegeneration) aber es schiebt sich nur nach oben und es wird klare Preis- und Leistungsgrenzen zwischen den Modellen geben.
(Beispielsweise ohne den typischen Betriebstakt kann man hier noch wenig sagen. Dass die 68 SMs ggü den 82 SMs erst mal ganz gut aussehen, mag ja sein, wenn aber erstere Karte mit bspw. 1,8 GHz taktet, während letztere 1,9 GHz erreichen kann, rückt die effektive Leistung erneut auseinander ... hier wird man sich wohl oder übel weiterhin in Geduld üben müssen.)

Und abschließend kommt dann auch immer noch die Frage zum Preis ins Spiel. Man kann davon ausgehen, dass AMDs Wiedereintritt in das HighEnd-Segment sicherlich einen Effekt haben wird und man wird (bei AMD sowiso) bei nVidia nun auch in den etwas höheren Segmenten etwas "angepasstere" Preise antreffen könne. Wie sehr sich jedoch nVidia da gezwungen fühlen wird anzupassen, wird man abwarten müssen und das könnte durchaus unmittelbar von AMDs Preisgestaltung abhängen. Als Marktführer kann es sich nVidia weiterhin erlauben etwas teuerer zu sein ... man darf auf jeden Fall gespannt sein und was man wohl zweifelsfrei jetzt schon sagen kann: Es wird mehr Leistung und auch mehr Raytracing fürs gleiche Geld geben, als noch in 2018 (aber dazu bedarf es keiner prophetischen Kräfte ;-)).
 
Zuletzt bearbeitet:
Hierbei geht es nur darum, welches Leistungsniveau nVidia erreichen möchte und welche "Bausteine" man zur Realisierung zur Verfügung hat.
So sehe ich das auch! Eine 3080 bis Titan auf Basis des GA102 kann höchstens 20% auseinander liegen, oder man beschneidet sie wie den GT104 künstlich. Man hörte von bis zu 21Gpbs, was jedoch bisher keiner der Hersteller listet.

Die Frage wird sein was das kostet. Zudem könnte die 3080 für weniger verkauft werden, ähnlich wie die 2070s. Halt mit 16Gbps.

Wie sehr sich jedoch nVidia da gezwungen fühlen wird anzupassen, wird man abwarten müssen und das könnte durchaus unmittelbar von AMDs Preisgestaltung abhängen.
Das man AMD eine 1k Euro Karte abkauft ist eher undenkbar, sie wird darunter liegen. Vllt. sogar deutlicher (700-800). Da wäre Nv mit einem 320bit GA102 mit geringerer Bandbreite preislich sicher gut aufgestellt. Unklar ist, ob bei AMD tatsächlich HBM2 mit dabei ist.
 
So, und gleich kommt ein Moderator und räumt auf?

Ist ja schön wenn ihr selbst merkt dass das nötig ist.
Ich mach dann mal und putz hier durch. Bis dahin ist kurz zu.


EDIT: So, nachdem ein Drittel des Threads nun ins unsichtbare Archiv gewandert ist weil es Offtopic/Spam und teilweise sehr hart an der Grenze zur Beleidigung war hier die Ansage für alle:

- Verlagert eure persönlichen Differenzen bitte auf Private Nachrichten.
- Es geht im Thread um den GA102. Nicht um Mindestlöhne oder sonstwas.
- Jeder weitere Verstoß bzw Spampost oder beleidigende Post ab hier wird bepunktet.


Alle wieder auf los, zweiter Versuch.
 
Zuletzt bearbeitet:
Ich verstehe die ganze Aufregung nicht.... da kommt wieder nen "Leak" irgendwoher, der nicht belegt werden kann, da es scheinbar nur eine "ominöse" Quelle gibt...

Klar klnnte nvidia den Schritt gehen und erst einmal die 3080Ti zurückhalten, da die nicht genau wissen, was AMD bringt, klingt auch logisch, aber das sind nir Vermutungen.

Bisher war es doch eigentlich (ausgenommen die RTX Serie), dass die Titan erst kam und dann die Ti als Ableger und das alles deutlich später als die 80er.
Ich bitte um Korrektur, wenn ich das falsch in Erinnerung habe.

Zu letzt kann man als Consumer eh nir abwarten was genau kommt und da reicht ja schon die offizielle Ankündigung von nvidia aus und die wird zwangsläufig kommen, genauso wie die von AMD und da wird nicht viel Zeit zwischen sein....

Und eigentlich kann sich keiner wirklich beklagen, der eine 1070 oder besser drin hat, es läuft doch alles, man muss nur zur Not die Regler richtig bedienen können.
Und ich kenne jetzt in meinem Umfeld keinen, der das nicht kann oder tut, es zockt auch keiner unter einer 1080 mit mehr als WQHD in meinem Umfeld...

Also gaaanz entspannt abwarten - nur die eiligen oder denen die GPU verreckt, tun mir gerade wirklich leid....
Hoffe immer nur, das meine nie kurz vor einer neuen Generation schlapp macht, weil dann muss man irgendwas kaufen...
 
@eclipso: Ja, bei den 21 Gbps kam ich auch etwas ins Stocken. Aktuell sind regulär bestenfalls 18 Gbps und zu denen hieß es noch vor zwei, drei Monaten, dass die kaum Verfügbar sind. In Verbindung mit höheren Datenraten war bei den Speicherherstellern bisher eigentlich nur in Verbindung mit OC die Rede und so etwas wird nVidia nicht in eine reguläre Karte einbauen, erst recht nicht in eine (semi)professionelle Karte wie eine Titan oder Quadro.
Man wird sehen, bereits mit 18 Gbps und 384 Bit hätte nVidia bei einer Ti bzw. 3090 bereits einen beträchtlichen Bandbreitenzugewinn erzielt.

Ergänzung: Da Igor nun auch von (vorläufig) bereits um die 20 Gbps sprach, wird an der höheren Pro-Pin-Bandbreite wohl doch etwas dran sein und es wird speichertechnisch tatsächlich gar noch deutlich schneller werden ... was auch das notwendige Backdrill-Verfahren erklärt.

Zum AMD-Preis: Die könnten durchaus auch 1000 € verlangen, wenn sie eine entsprechende Leistung bieten. Als Underdog müssen sie lediglich nVidia's Preis (bei vergleichbarer Leistung) etwas unterbieten. Zu weit runter können sie zweifelsfrei nicht gehen, weil ihnen das weh tun wird, da sie dennoch die ganze Chip-Entwicklung und Fertigung am Hals haben, jedoch beim kleineren Marktanteil. Beispielsweise könnte ich mir vorstellen, dass wenn ein Ti/3090-Äquivalent Leistungsniveau X erreicht und von nVidia erneut mit 1200 € angesetzt wird, dass AMD mit um die 1000 € kontern könnte, möglicherweise gar mit so was pseudo-psychologischem wie 998 €, aber sie werden so eine Leistung X keinesfalls für 800 € auf den Markt werfen, denn ein derartiges Preisdumping kann nicht in ihrem Interesse sein (und wahrscheinlich könnten sie sich das betriebswirtschaftlich auch nicht leisten).

@Doraleous: "Was da auch noch auffällt: Die Nutzung des TopDog Chips in der xx80-Karten der Generation sprechen für eine hohe Anzahl von GA102 Chips mit entsprechend hoher Yield. Ansonsten hätte man dort lieber den kleineren Chip für eine höher Marge wie in den Generationen vorher genutzt."
Das ist ein Trugschluss. Wie ich schon erklärte, würde es eher in die andere Richtung weisen. Auch wäre schlicht möglich, dass nVidia ggf. weniger Chips entwickeln und fertigen will, sodass man hier Kartenmodelle auf ein Die zusammenschiebt, aber für einen hohen Yield spricht das nicht, eher im Gegenteil. Die Erklärung ist auch relativ trivial:
Wäre der Yield bei einem GA102 derart hoch, dass der überwiegend einwandfreie Chips auswirft, dann würde man die möglichst alle als hochpreisige 3090- oder gar Titan-Karten verkaufen wollen, bei denen die Marge weitaus höher ist. Alles andere wäre rausgeworfenes Geld, weil es die Fertigung verteuert und damit unnötigerweise die Marge senkt. Würde die 3080 auch noch das Die verwenden, würde das bedeuten, dass man hier (aufgrund des hohen Yields) fast durchgehend eine große Zahl an voll funktionsfähigen SMs (und Speichercontrollern) deaktiviert, nur um das kleinere 3080er-Modell zu realisieren, das weniger Umsatz und Marge bringt, was wirtschaftlich schlicht unsinnig wäre, weil es Wafer-Fläche verschwendet. Gerade in diesem Fall würde man den 3080er eher auf ein kleineres Die verlagern, auf dem dieser möglicherweise den Vollausbau repräsentiert, wenn doch der Yield so gut wäre.

Beim GA100 auf der A100 sind derzeit immerhin 16 % der SMs sowie zwei Speichercontroller deaktiviert. Das wird nVidia wohl nicht zum Spaß machen. Die hätten auch kein Problem damit gehabt direkt ein noch leistungsfähigeres 450 W-Modell für einen noch etwas höheren Preis auf den Markt zu bringen; den würde man ihnen dennoch abkaufen. Dass die das dennoch so gemacht haben bei der A100 wird schlicht fertigungstechnische Gründe haben. Der Prozess gibt derzeit (im Mittel) nicht mehr her, was bei der Chipgröße auch nicht überrascht. Erst im nächsten Jahr, wenn der Prozess weiter eingefahren ist, wird es ein Update der DXG sowie der Karten geben und dann werden wohl 450 W-Modelle mit noch mehr freigeschalteten SMs und möglicherweise auch mit sechs aktiven HBM-Stacks folgen.
 
Zuletzt bearbeitet:
Zum AMD-Preis: Die könnten durchaus auch 1000 € verlangen, wenn sie eine entsprechende Leistung bieten. Als Underdog müssen sie lediglich nVidia's Preis (bei vergleichbarer Leistung) etwas unterbieten. Zu weit runter können sie zweifelsfrei nicht gehen, weil ihnen das weh tun wird, da sie dennoch die ganze Chip-Entwicklung und Fertigung am Hals haben, jedoch beim kleineren Marktanteil. Beispielsweise könnte ich mir vorstellen, dass wenn ein Ti/3090-Äquivalent Leistungsniveau X erreicht und von nVidia erneut mit 1200 € angesetzt wird, dass AMD mit um die 1000 € kontern könnte, möglicherweise gar mit so was pseudo-psychologischem wie 998 €, aber sie werden so eine Leistung X keinesfalls für 800 € auf den Markt werfen, denn ein derartiges Preisdumping kann nicht in ihrem Interesse sein (und wahrscheinlich könnten sie sich das betriebswirtschaftlich auch nicht leisten).

Richtig. Zudem haben AMD als eines ihrer Zukunftsziele eine "margin expansion" angegeben. Die wollen ihre derzeitige Marge von knapp über 40% auf jenseits der 50% pushen. Das geht nur über genau zwei Stellschrauben. Kosten und Preis. Und ich sehe bei den Kosten keinen Spielraum. TSMC ist nicht die Wohlfahrt und AMD haben ihrerseits im R&D Bereich, so wie alle anderen Chipfertiger auch, nur stetig steigende Kosten. Bleibt also der Preis. Wer höhere Margen will, muss höhere Preise aufrufen. Insofern ist absehbar, dass AMD sicherlich nicht mit Kampfpreisen gegen nVidia antreten werden.
 
Richtig. Zudem haben AMD als eines ihrer Zukunftsziele eine "margin expansion" angegeben. Die wollen ihre derzeitige Marge von knapp über 40% auf jenseits der 50% pushen. Das geht nur über genau zwei Stellschrauben. Kosten und Preis. Und ich sehe bei den Kosten keinen Spielraum. TSMC ist nicht die Wohlfahrt und AMD haben ihrerseits im R&D Bereich, so wie alle anderen Chipfertiger auch, nur stetig steigende Kosten. Bleibt also der Preis. Wer höhere Margen will, muss höhere Preise aufrufen. Insofern ist absehbar, dass AMD sicherlich nicht mit Kampfpreisen gegen nVidia antreten werden.

Quelle das AMD die Marge puschen will?
 
Im PCGH Index 2018 war die 970 noch vor der 390, im aktuellen Index liegt die 390 vor der 970. Die 980 ist nochmal was anderes, hat mehr Power, aber sobald 4 GB Vram nichtmehr ausreichen....

Da wartet man also 4 bis 6 Jahre bis die Karte mit dem geringeren Speicher um ein paar Prozent zurückfällt, obwohl man gleichzeitig Regler bedienen könnte und keult sich einen auf den glorreichen Stromfresser Hawai ab.
Ob das nun unbedingt erwähnenswert ist, also bei mir löst das innerliche Lachkrämpfe aus.

a) Der Abstand Titan/3080Ti(3090)/3080 wird so gering wie keine Generation vorher
b) Der GA102 ist nen ziemlicher Hammer :D

Bei den paar mehr SM, wird das kein Hammer, sondern ein ziemlicher Reinfall.
Am Ende muss es IPC und die Taktrate reißen und da kommt nicht besonders viel.
Nvidia ist einfach die letzte Generation bereits zu stark gewesen um jetzt noch viel draufsatteln zu können.

Und grade bei GPUs war VRam der Knackpunkt.
Eine 980, damals immerhin auch eine 500€ GPU altert wesentlich schlechter als die 390 von AMD, auch dank deren 8Gb VRam.
Nur weil man heute nur mit Biegen und Brechen den VRam vollgekleistert bekommt heißt das nicht, dass das in 3-4 Jahren genauso sein muss.

Wo liegt der Benefit viel Speicher zu verbauen, Energie und Ressourcen zu verschwenden, damit nach einer halben Ewigkeit die Speicherlimitierung in Ultrasettings abgeschwächt wird?
Gibt es da nicht wichtigeres wie Features der Karte, oder die Leistung selbst?

Und grade bei GPUs war VRam der Knackpunkt.
Man hat sich die Latte halt selbst vorgelegt über die man springen musste indem man der 1080ti 11 GB VRam verpasst hat, zu einem für heutige Verhältnisse günstigen Preis.


Was haben dir denn die 11 Gigabyte bis heute groß gebracht?
Wenn man sich in diesem Thread die Kommentare durchließt kann man prima in AMD und Nvidia Fan einteilen.
 
Zuletzt bearbeitet:
Eigentlich hast du es für jedes Mal falsch.

2080/2080Ti war zeitgleich, Titan kam erst ~3 Monate später.
1080 kam zuerst (Mai), danach die Titan (August) und dann im März die Ti.
980 kam zuerst (Sept), danach kam die Titan (März), dann im Juni die Ti.

Naja, du bestätigst eigentlich meine Aussage, ich hätte es nur anders schreiben sollen xD

Die Ausnahme war dann bis jetzt die RTX-Serie, Rest lief dann immer nach dem selben Schema ab:
x60 bis x80 zu erst, dann der "super duper" Highendchip als Titan und daraus dann der x80Ti-Ableger.

Sollte sich nvidia wirklich nen Chip zwischen der xx80 und der xx80Ti frei halten, dann können wir uns auf spannende Preiae gefasst machen....
Meine Vermutung wäre dann, dass nvidia nicht genau einschätzen kann, wie leistungsstark die RDNA2 genau wird und dass man sich einen entsprechenden Konter freihalten möchte, in Form einer xx90 oder wieder der "Super-"Serie.

Scheinbar hatte nvidia ja auch nicht wirklich mit der Leistung der RX 5xxx gerechnet, sonst wäre die besagte "Super" wohl nicht erschienen...?

Aber warten wir es einfach ab, ist die beste Möglichkeit und mutmaßlich (wenn die Händler es weiter geben), können wir dsnn ja zumindest 3% sparen und je teurer die Anschaffung, desto mehr können wir ja sparen xD
 
Zurück