Nvidia Ampere: Geforce RTX 3080 mit 10 und 20 GiB? RTX 3090 für 2.000 USD?

Ich bin ja mal gespannt was da kommt, mir scheint das alles irgendwie keine Runde Sache zu werden mit den neuen Gens. Vom GDDR6 hab ich schon wenig gehalten, beim X bin ich noch skeptischer. Mal gespannt ob NV Sensoren mitliefert.

Preisfragen mal hin oder her, scheint n' brachiales Stück Technik zu werden wenn NV sich sogar mit den Customs hinsetzt um die Platinen und Spannungsversorgung abzustimmen und zu tunen...

Hauptsache keine zweite GTX 480...:ugly:
 
Zuletzt bearbeitet:
Falsch, primär hat das was mit der größten Anzahl an Transistoren zu tun. Und auch heute wird die gleiche Anzahl an Transistoren immer noch mit jedem neuen Prozess billiger. Was es halt nicht mehr gibt, ist dass es mehr Transistoren für weniger Geld gibt. Das haben alle Foundries aber für die Prozesse kleiner 16nm schon lange so gesagt.

Entschuldige, DU sagst mir nicht wie ICH einen Begriff in MEINEM Posting definiere, ok? Ich finde diese Topmodell-Begriffsdefinition zum kotzen, dass immer wieder irgendwelche Leute sagen "uh, des is abba ein Salvagechip" oder "ey, da kommt doch noch die Ti version...." - das ist mir alles egal, wenn heute einer die schnellste Mainstream Karte kaufen will, und das zur Zeit halt ein "xx80" Modell sein sollte, dann IST das nun mal das zu dem Zeitpunkt schnellste Exemplar. PUNKT.
 
Wenn man denn ne' 700€ teure 2080 als Mainstream bezeichnen möchte... :hmm:

Irgendwie hab ich das Gefühl, dass die meisten Menschen das anders sehen. - Ich inklusive.
 
Topmodell ist *mein* Begriff für das zu einem Zeitpunkt gerade verfügbare Topmodell im Mainstream Bereich (also ohne Titans und Profi-Karten). Das hat nichts mit dem Chip, der Chipnummer, der Speicherbitbreite oder dem Anteil an aktiven Funktionseinheiten zu tun. Sondern nur mit dem, was zum Zeitpunkt x am Markt erhältlich ist.

O.k. dann weiß ich zumindest wie das du meinst. Nur lässt sich anhand dieser persönlichen Definition schlecht nachvollziehen, welche Kosten Nvidia dabei tatsächlich entstehen, denn letztlich sind das alles teildeaktivierte Chips, vllt. sogar defekte, die eigentlich gar nichts einbringen würden. Man also sogar Profikarten damit im Preis quersubvensionieren könnte (Yieldrate steigern, Stückzahl pro Wafer).

Übrigens wird das wieder ziemlich hitzig bei euch...macht keinen Sinn.:D
 
Preisfragen mal hin oder her, scheint n' brachiales Stück Technik zu werden wenn NV sich sogar mit den Customs hinsetzt um die Platinen und Spannungsversorgung abzustimmen und zu tunen...

Hauptsache keine zweite GTX 480...:ugly:

Kann gut sein, bin mal gespannt wo die kolportierte Mehrleistung herkommt am Ende, wenn die überhaupt in der Form kommt.
Der Preis ist am Ende eigentlich egal, ich bin nicht bereit tausende von € in eine GraKa zu investieren, wenn der Markt das annimmt dann bitte.

Ich hätte zumindest bei einem Hersteller HBM erwartet und bin ein wenig enttäuscht.
 
Was nur 2000 Dollar für eine RTX 3090, also bitte, das Konsumvieh trägt noch eine schwerere Last! Angeheizt durch Pöbeltrolle in PR Firmen und Direktmarketing, z.B. in Foren.

Gebt dem Gesindel mehr! 2099 USD ist auf jedenfall die untere Obergrenze!

Wir alle machen mit! Käufer, Tester, Magazine! Wir sind Fans der Lederjacke und dessen Chefes, den Mehranteilsinhaberzecken von Nivida! An EUCH führt KEIN Weg vorbei! Denn AMD ist mit euch!

Ich schwimme im Glück, hier und heute mit euch dabei zu sein! :D :D :D
 
NVIDIA-GeForce-RTX-3090-1-1.jpg

NVIDIA GeForce RTX 3090 graphics card pictured - VideoCardz.com

Will jetzt noch wer die von igor genannten 350W anzweifeln? :D Alter, ist das Ding monströs.
 
Und jetzt wissen wir auch WIE man soviel Wärmeleistung abführt... :what:

Meine fresse - wie soll man son' Ding bitte in SLI betreiben? Da passt ja nix anderes mehr in den Rechner... :ugly:

Ohne nen Fullcover von EK wird das bei mir wohl ehr nichts...


Aber hmm... sie ist nicht silber... :hmm:

Das scheint mir, als würde Nvidia mit ihrem Umbau des Ulta-High-End Segmentes weitermachen... Ehr Ne "Sonderklasse" a la "Nvidia RTX 3090 Ultra".
Quasi n' TITAN Ersatz, nachdem die ins "Semi Pro" Segment abgewandert ist.
 
Ach du.... ich glaube das Teil passt bei mir nicht mal rein.... da müssten ja meine Front Lüfter weichen ��
 
Die 350W stimmen schon, würden jetzt von Igor mehrmals genannt und vorgerechnet.
Wow. Nvidia macht es wie Intel,einfach bis auf das letzte Ausquetschen.

Anscheinend ist Big Navi doch nicht so langsam sonst würde Nvidia nicht so die Brechstange auspacken.

Gut das ich warte bis zu beiden Lager ordentliche Reviews da sind.



Gesendet von meinem D6603 mit Tapatalk
 
Noch nie hat sich warten so gelohnt wie bei den kommenden RTX 30XX Karten kann man da nur sagen.

Am Ende wird es wohl in etwa so aussehen, das die 3090 zwar 10-15% schneller als die 6900XT (Falls nur ca. 428mm2) ist.

Erkaufen tut sie sich das allerdings mit:
- Exorbitanten Herstellungskosten (Wie viel wird wohl so ein riesen Die: 630mm2??? egal ob in 7 oder 8nm gefertigt in der Herstellung kosten?
- Mit +50-100W Leistungsaufnahme und einer entsprechend teuren, klobigen, alle Dimensionen sprengenden Kühllösung.

Beim Speicher wird bei der Sparvariante 1400-1500€ (11-12GB)? natürlich gespart und bei den nachträglich erscheinenden Varianten der Board Partner
die wohl gleich mit (22-24GB) ausgestattet sein werden entsprechend abkassiert (2000€.?)

Lohnt es sich da nicht etwas zu warten auf einen z.B.: Falls Gerücht 2 zutrifft 80CU, 428mm2 grossen, 16GB fassenden nicht ganz so Big Navi wie zuerst angenommen,
der zwar etwas langsamer, aber dafür das deutlich bessere Preis/Leisungsverhälniss liefern wird.

Falls Gerücht 1 zutrifft und er doch 505mm2 gross werden sollte, hat er entweder deutlich mehr als 80CU ergo mindestens 3090 Performance, oder der Chip mit seinen in etwa 80CU's ist so aufgepumpt und auf Steroiden das NVIDIA beim Armdrücken schon beide Hände gleichzeitig zur Hilfe nehmen muss, um da noch etwas reißen zu können. (Variante 2 wäre aber wohl auch eine mindestens 1000€ Karte aber immer noch der deutlich bessere Deal)
 
Nvidia’s 400w Triple Slot RTX 3090: AMD should take the Efficiency Crown! - YouTube

-12 Pin Anschluss scheint real zu sein, es soll ein Adapter von 3 x 8 Pin -> 1 x 12 Pin mitgeliefert werden.
-mindestens 330 Watt (bis hin zu 390 Watt bei den Topmodellen)
-40 % schneller in 4K Rasterisierung als 2080ti
-Raytracing um ein vielfaches schneller

-RDNA2 effizienter
-Navi 22 (obere Mittelklasse) soll im Herbst erscheinen
-Navi 21 (High End) etwas später November-Dezember


Ich verfolge den Kerl schon etwas länger, liegt oft richtig.
 
Anhang anzeigen 1098658

NVIDIA GeForce RTX 3090 graphics card pictured - VideoCardz.com

Will jetzt noch wer die von igor genannten 350W anzweifeln? :D Alter, ist das Ding monströs.

Ziemlich monströs. Hab noch nie so eine große Grafikkarte besessen. Die bricht mir doch mein Mainboard in zwei Teile. Gab es nicht bei Igor eine Gewichtschätzung von 1,5 - 1,7 kg (das wäre 3,5 Packungen Hackfleisch, welche da auf der GPU liegen)?
Hat die GPU dann irgendwie einen Standfuß dabei? :-P

Noch nie hat sich warten so gelohnt wie bei den kommenden RTX 30XX Karten kann man da nur sagen.

Am Ende wird es wohl in etwa so aussehen, das die 3090 zwar 10-15% schneller als die 6900XT (Falls nur ca. 428mm2) ist.

Erkaufen tut sie sich das allerdings mit:
- Exorbitanten Herstellungskosten (Wie viel wird wohl so ein riesen Die: 630mm2??? egal ob in 7 oder 8nm gefertigt in der Herstellung kosten?
- Mit +50-100W Leistungsaufnahme und einer entsprechend teuren, klobigen, alle Dimensionen sprengenden Kühllösung.

....

Also ich für meinen Teil werde nun auch erstmal warten. Ich kann mich noch bei meiner GTX 1080 von EVGA direkt nach Release erinnern, das die auch viele RMAs hatten, weil was mit der Kühlung nicht stimmte. Man konnte sich dann Wärmeleitpads zuschicken lassen, um die selber zu installieren.

Für mich ist der Preis, die Leistung, aber auch der Stromverbrauch und dazugehörige Temperatur-Entwicklungen wichtig. Undervolte meist bei möglichst höchst verfügbaren Takt. OC von Takt und Speicher bis ans Limit nach oben spielt bei mir keine Rolle.
Irgendwie scheinen mir die Ampere-Karten irgendwie aus der Reihe zu tanzen.

Die Größe der Kühler, die enorme Verbrauch, 750 € für ne 3070er? (also nein, nicht mit mir)
Vielleicht werde ich doch noch 1 Jahr warten und vielleicht kommt dann nochmal eine Art von Refresh mit etwas mehr "Feinschliff".

Bis jetzt sind die Karten aber ja noch nicht erschienen und ich freue mich sehr auf die Tests von PCGH, Raff und co. zu den neuen RTX.
 
Zuletzt bearbeitet:
Zurück