Nvidia Ampere: GA102 für Geforce RTX 3080, RTX 390 und Titan?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia Ampere: GA102 für Geforce RTX 3080, RTX 390 und Titan?

Laut einem Gerücht könnte der GA102 aus der Ampere-Generation für die Geforce RTX 3080, RTX 390 und Titan zum Einsatz kommen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Nvidia Ampere: GA102 für Geforce RTX 3080, RTX 390 und Titan?
 
PCGH News schrieb:
Nvidia Ampere: GA102 für Geforce RTX 3080, RTX 390 und Titan?
Bitte 390 auf 3090 abändern!:D

Würde erstmal von ner 3080/3080Ti/Titan ausgehen, als von ner 3090.
TI stand ja schon für "Titanium", also Titan und ti macht eigentlich keinen Sinn.

Dann wird es vermutlich keinen 103, sondern einen abgespeckten 102 geben ala 320bit (oder mehr?). Vermutlich ist AMD schneller als alle glauben oder man will wegen RT Zeichen setzen.
 
Zuletzt bearbeitet von einem Moderator:
Also die eigentliche News sind die wenigen 5500 Shader für den GA102 NICHT der Name :lol:
Wenn das so kommt könnte AMD echt dicht an die 3080ti/3090 rannkommen ;-)

Vielleicht geht Nvidea ja auf 2,5 Ghz zu dann wäre die Shaderzahl ja vertretbar
 
Also die eigentliche News sind die wenigen 5500 Shader für den GA102 NICHT der Name :lol:
Vermutl. Fertigungsprobleme und hohe Kostenentwicklung, daher auch zig (teildeaktivierte) Varianten. Ein 103 Node lohnt dann nicht, weil man den Vollausbau nie hinbekäme.
 
Vermutl. Fertigungsprobleme, daher auch zig (teildeaktivierte) Varianten. Ein 103 Node lohnt dann nicht.

Ja das sieht man ja auch am GA100 wo sie fast 1/8 deaktivieren mussten aber der ist halt auch riesig.
Ich wäre bei der Titan schon von 6144 Shadern ausgegangen.

Mal sehen was kommt :ka:
 

Neuesten Meldungen aus der Gerüchteküche zu Ampere folgend

Laut Twitter-Nutzer Kopite7kimi

Generell muss man natürlich an alles erst einmal ein großes Fragezeichen machen

Oder umdeklariert wird. Jedenfalls ist man sich wohl einigermaßen sicher

Wenn man ganz wild spekuliert

aber das wäre im Moment wohl zu viel des Guten

Über die Leistungsdaten kann man nur spekulieren

Ist das eigentlich noch News oder schon Satire?
 
Ja das sieht man ja auch am GA100 wo sie fast 1/8 deaktivieren mussten aber der ist halt auch riesig.
Ich wäre bei der Titan schon von 6144 Shadern ausgegangen.

Mal sehen was kommt :ka:
12 GiB VRAM für die breite Masse an Early Adopter, ob das reicht? Ohje...

Siehe:
GA102-400 (Titan-384bit-24GiB)
GA102-300 (3090-384bit-12GiB)
GA102-200 (3080-320bit-10GiB)

Da dürften Träume zerplatzen.

Dann dürfte die 3080 kaum schneller werden als eine 2080ti. Da man dort statt dem GA104 nun den GA102 verwurstet wirds vermutlich teurer und AMD kann mit Navi23 schneller sein. Umsonst wird Nv nicht so zuordnen.
 
Was noch keiner weiß und wirklich streng vertraulich ist.

Diese News darf auf keinen Fall diesen Thread verlassen

Der GA102 wird bei keiner GPU mechanisch beschnitten und kann durch das Bios einer Titan problemlos geupdatet werden alle Komponenten sind ebenfalls verbaut die benötig werden. (Ist für Nvidia einfacher nur eine GPU zu bauen und Sie per Software zu beschneiden)

Würde schon von einem Freund meines Schwager, bestätigt der mit einem Mitarbeiter von Nvidia Großväterlicherseits verwandt ist.
 
Ist doch gut so, wenn man bei 1,5k Anschaffungskosten einsteigt.:D

Die Proleten sollen gefälligst den GA107 kaufen, für 400+.
 
Vor allem bedeutet eine höhere Versionsnummer "immer" deutlich mehr Leistung, weiß doch jeder.

Wundere mich das sie nicht 1Mio RTX heißt, wenns dann so kommt. Wäre ja gerechtfertigt bei 70% Leistungssteigerung, auch 70 Versionsnummern zu überspringen.

Nun heißt sie nur 3090 versus 2080ti, was ist das denn bitte?:D
 
joa 2080 Ti ~ 3080 also alles wie gehabt....und von mir vermutet
Die oft Fantastalösen bis zu 75% Leistungssteigerung sind meines erachtens wenn überhaupt inclusive Ray Tracing gedöns. Wenn überhaupt real zutreffend, die Steigerung!

50%+ nur Raytracing. 25% nützliche Leistungssteigerung! Ausgehend von den ominösen "bis 75%". Wir können aus meiner Theorie ja auch ne News machen^^!
Wenn die Ti Modelle sowiso später kommen "sollten" und Ich nicht mal weiß, wann und ob es tatsächlich noch ein Leistungsfähigeres Modell als den zuerst veröffentlichten Spitzenreiter gibt/geben wird kaufe ich sowiso erst richtung Ende der Generation.

Ich hoffe zwar AMD und Nvidia bringen, oder mindestens kommunizieren gleich zu beginn den Spitzenreiter der jeweiligen Line ups. Obwohl AMD ja scheinbar auch bei ihren CPU´s die lächerliche häppchen Methode fahren

Und 12GB sind für eine UHD Karte zwar nicht wenig, aber doch ziemlich knapp. Meine 11GiB bekomme ich schon in WQHD in manchen Titeln nahzu und knapp voll. Ich brauche auch keine UHD 60fps Karte in aktuellen Titeln wenn der Speicher rumkrücken "sollte"
 
Was soll man mal dazu sagen? Es ist eh Parasitentum, das ergibt sich aus der verfehlten Preisgestaltung der letzten, sagen wir 10, eventuell etwas mehr Jahre.

Früher hast dir so das Highendsegment angesehen und dir gedacht, also so ne 500 Euro Highendkarte, das ist schon n Knaller, kauf ich mir irgendwann, aber eigentlich braucht es das ja nicht. :D Weder entwicklungstechnisch, noch kostentechnisch fürs Material, noch für sonstwas ist diese Preissteigerung gerechtfertig, außer für eines, zum Abzocken. Und solange halt die geistig weich gehalten Konsumschafe da das Maul nicht aufmachen, wird das nicht besser. Ganz im Ernst, so schaut es aus!

Mittlerweile zahle ich halt für ne Mittelklassekarte, die noch ne Weile heben soll, auch schon Mitte 400 Euronen und das wird so schnell wohl nicht besser. Allein ich tröste mich darüber hinweg, da das Plastikeck etwas größer geworden ist, die Vergrößerung steht in keiner Relation zur Preissteigerung, aber egal und ich habe nun einen viel dickeren Kühler oben drauf, der macht sogar buntes Licht! Das erklärt ja dann, wo meine hunderte Euronen hin sind! Nichtwahr! :D
 
Wenn das so kommen sollte, kann NV sich die Karte da hinstecken, wo kein Licht hinscheint.
Man könnte ja mit der Bandbreite spielen und PCIe 4.0 mal unterstützen. Hat wohl den Anschein das der Großteil der Fläche für RT draufgeht, wie schon unter Turing.

Was soll man mal dazu sagen? Es ist eh Parasitentum, das ergibt sich aus der verfehlten Preisgestaltung der letzten, sagen wir 10, eventuell etwas mehr Jahre.
Wenn ich danach schreie bekomme ich es, dass ein GA102 billig wird glaube ich persönlich nicht. Teildeakviert bedeutet ja nicht = gesparte Waferfläche. Für mich persönlich ergab der 103 als Teilsegment sogar Sinn, denn die Spanne zwischen TU104 und TU102 ist riesig, nicht nur was die Leistung angeht.

Ich vermute AMD hat da Nv einen Strich durch die Rechnung gemacht, wenn es so kommt. Das man gleich mit dem 102 kommt und eine 3080 auf GA102 Level verschiebt, deutet schon irgendwie darauf hin.
 
Zuletzt bearbeitet von einem Moderator:
Vielleicht will Nvidia das Ti ja auch einfach endgültig loswerden. Das momentane Durcheinander von regulären, Super- und Ti-Karten ist ja nun wirklich alles andere als übersichtlich.

Insbesondere mutet es seltsam an, dass einerseits die Mehrleistung der 2080(S) gegenüber der 2070(S) sehr überschaubar ist, die 2080 aber trotzdem ein eigenes Modell ist, während andererseits Mehrpreis und Mehrleistung (inklusive Speicherausbau) der 2080Ti gegenüber der 2080(S) deutlich größer ausfallen, die 2080Ti aber trotzdem keine eigene Modellnummer, sondern lediglich das Anhängsel Ti verpasst bekommt. Systematisch sieht anders aus.

Diese ganzen Kaffeesatzartikel bei PCGH und Co. könnte man sich trotzdem sparen. Führen in der Regel nur dazu, dass sich die Leute völlig unnötig echauffieren, obwohl's am Ende dann doch ganz anders kommt ...
 
Was soll man mal dazu sagen? Es ist eh Parasitentum, das ergibt sich aus der verfehlten Preisgestaltung der letzten, sagen wir 10, eventuell etwas mehr Jahre.
Naja, ganz so alt dürfte dieses Phänomen noch nicht sein. Meinen derzeitigen PC (den ich in den nächsten 6 bis 12 Monaten wohl endlich in seine wohlverdiente Rente schicken werde) habe ich im Herbst 2012 gekauft, also vor nicht mal acht Jahren. Wenn ich mich recht erinnere (man korrigiere mich, falls ich falsch liegen sollte), hat meine GTX670 damals so um die 350 Euro gekostet, während man das (von der Quasi-SLI-GTX690 mal abgesehen) Spitzenmodell GTX680 für recht schlanke 500 Euro bekam. Sehe da jetzt noch keine großartig verfehlte Preisgestaltung.
 
Und wenn sie alle 20€ eine karte bieten - für uns nur besser so.
Die Frage ist letztlich wie es mit Preis/Leistung aussieht.

Eine 3090 Dual-Chip wäre sicher was lustiges, aber die highend-Preise sind duetlich zu hoch - die Karte wäre dann vom Preis her noch mal deutlich über dem was eine RTX Titan ist - selbst den hartgesottenen dürfte das zu teuer sein.

Naja, aus der 3xxx Reihe hol ich mir sowieso keine Karte - meine jetzige läuft und reicht aus.



Wie war das ?
RX Fury - 4.096 Shader - 2015
RX Vega 56 - 3.584 Shader - Released 2017
RX 5700 XT - 2560 Shader - Release 2019

jaja, shader-anzahl ist sicher alles.....


Auch immer wieder lustig - also 10/12 GB sind bei Nvidia zu wenig, aber 8GB bei AMDs Highend sind so grooßzügig? :D

Die haben aber 16GiB HBM2 wie jeder weiß, ala RVII oder denkst du Navi 10 ist Highend, was Fury klar war? Navi ist RDNA nicht mehr GCN! Welchen Umbruch in der Architektur gibt es bei Nv, keinen?

Für mich sieht das aus wie Turing, in kleiner bei höherer Density in 7nm (irgendetwas Nv angepasstes), daher auch GA102 in voller Bandbreite um überhaupt deutlichere Leistungsteigerungen in Einzelsegmenten zu suggerieren.

Auch von 70% spricht da keiner mehr, eher 30. Das wäre dann eher dem Fertigungssprung geschuldet.
 
Zuletzt bearbeitet von einem Moderator:
Zurück