• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Nvidia Ampere: Geforce RTX 3080 mit 10 und 20 GiB? RTX 3090 für 2.000 USD?

DragonX1979

PC-Selbstbauer(in)
Ich bin ja mal gespannt was da kommt, mir scheint das alles irgendwie keine Runde Sache zu werden mit den neuen Gens. Vom GDDR6 hab ich schon wenig gehalten, beim X bin ich noch skeptischer. Mal gespannt ob NV Sensoren mitliefert.

Preisfragen mal hin oder her, scheint n' brachiales Stück Technik zu werden wenn NV sich sogar mit den Customs hinsetzt um die Platinen und Spannungsversorgung abzustimmen und zu tunen...

Hauptsache keine zweite GTX 480...:ugly:
 
Zuletzt bearbeitet:
G

Grestorn

Guest
Falsch, primär hat das was mit der größten Anzahl an Transistoren zu tun. Und auch heute wird die gleiche Anzahl an Transistoren immer noch mit jedem neuen Prozess billiger. Was es halt nicht mehr gibt, ist dass es mehr Transistoren für weniger Geld gibt. Das haben alle Foundries aber für die Prozesse kleiner 16nm schon lange so gesagt.

Entschuldige, DU sagst mir nicht wie ICH einen Begriff in MEINEM Posting definiere, ok? Ich finde diese Topmodell-Begriffsdefinition zum kotzen, dass immer wieder irgendwelche Leute sagen "uh, des is abba ein Salvagechip" oder "ey, da kommt doch noch die Ti version...." - das ist mir alles egal, wenn heute einer die schnellste Mainstream Karte kaufen will, und das zur Zeit halt ein "xx80" Modell sein sollte, dann IST das nun mal das zu dem Zeitpunkt schnellste Exemplar. PUNKT.
 

DragonX1979

PC-Selbstbauer(in)
Wenn man denn ne' 700€ teure 2080 als Mainstream bezeichnen möchte... :hmm:

Irgendwie hab ich das Gefühl, dass die meisten Menschen das anders sehen. - Ich inklusive.
 
E

eclipso

Guest
Topmodell ist *mein* Begriff für das zu einem Zeitpunkt gerade verfügbare Topmodell im Mainstream Bereich (also ohne Titans und Profi-Karten). Das hat nichts mit dem Chip, der Chipnummer, der Speicherbitbreite oder dem Anteil an aktiven Funktionseinheiten zu tun. Sondern nur mit dem, was zum Zeitpunkt x am Markt erhältlich ist.

O.k. dann weiß ich zumindest wie das du meinst. Nur lässt sich anhand dieser persönlichen Definition schlecht nachvollziehen, welche Kosten Nvidia dabei tatsächlich entstehen, denn letztlich sind das alles teildeaktivierte Chips, vllt. sogar defekte, die eigentlich gar nichts einbringen würden. Man also sogar Profikarten damit im Preis quersubvensionieren könnte (Yieldrate steigern, Stückzahl pro Wafer).

Übrigens wird das wieder ziemlich hitzig bei euch...macht keinen Sinn.:D
 

Gurdi

Kokü-Junkie (m/w)
Preisfragen mal hin oder her, scheint n' brachiales Stück Technik zu werden wenn NV sich sogar mit den Customs hinsetzt um die Platinen und Spannungsversorgung abzustimmen und zu tunen...

Hauptsache keine zweite GTX 480...:ugly:

Kann gut sein, bin mal gespannt wo die kolportierte Mehrleistung herkommt am Ende, wenn die überhaupt in der Form kommt.
Der Preis ist am Ende eigentlich egal, ich bin nicht bereit tausende von € in eine GraKa zu investieren, wenn der Markt das annimmt dann bitte.

Ich hätte zumindest bei einem Hersteller HBM erwartet und bin ein wenig enttäuscht.
 

Basileukum

Software-Overclocker(in)
Was nur 2000 Dollar für eine RTX 3090, also bitte, das Konsumvieh trägt noch eine schwerere Last! Angeheizt durch Pöbeltrolle in PR Firmen und Direktmarketing, z.B. in Foren.

Gebt dem Gesindel mehr! 2099 USD ist auf jedenfall die untere Obergrenze!

Wir alle machen mit! Käufer, Tester, Magazine! Wir sind Fans der Lederjacke und dessen Chefes, den Mehranteilsinhaberzecken von Nivida! An EUCH führt KEIN Weg vorbei! Denn AMD ist mit euch!

Ich schwimme im Glück, hier und heute mit euch dabei zu sein! :D :D :D
 

Linmoum

Freizeitschrauber(in)
NVIDIA-GeForce-RTX-3090-1-1.jpg

NVIDIA GeForce RTX 3090 graphics card pictured - VideoCardz.com

Will jetzt noch wer die von igor genannten 350W anzweifeln? :D Alter, ist das Ding monströs.
 

DragonX1979

PC-Selbstbauer(in)
Und jetzt wissen wir auch WIE man soviel Wärmeleistung abführt... :what:

Meine fresse - wie soll man son' Ding bitte in SLI betreiben? Da passt ja nix anderes mehr in den Rechner... :ugly:

Ohne nen Fullcover von EK wird das bei mir wohl ehr nichts...


Aber hmm... sie ist nicht silber... :hmm:

Das scheint mir, als würde Nvidia mit ihrem Umbau des Ulta-High-End Segmentes weitermachen... Ehr Ne "Sonderklasse" a la "Nvidia RTX 3090 Ultra".
Quasi n' TITAN Ersatz, nachdem die ins "Semi Pro" Segment abgewandert ist.
 

Adamska88

Komplett-PC-Aufrüster(in)
Ach du.... ich glaube das Teil passt bei mir nicht mal rein.... da müssten ja meine Front Lüfter weichen ��
 

Dragon AMD

Volt-Modder(in)
Die 350W stimmen schon, würden jetzt von Igor mehrmals genannt und vorgerechnet.
Wow. Nvidia macht es wie Intel,einfach bis auf das letzte Ausquetschen.

Anscheinend ist Big Navi doch nicht so langsam sonst würde Nvidia nicht so die Brechstange auspacken.

Gut das ich warte bis zu beiden Lager ordentliche Reviews da sind.



Gesendet von meinem D6603 mit Tapatalk
 

sandworm

Freizeitschrauber(in)
Noch nie hat sich warten so gelohnt wie bei den kommenden RTX 30XX Karten kann man da nur sagen.

Am Ende wird es wohl in etwa so aussehen, das die 3090 zwar 10-15% schneller als die 6900XT (Falls nur ca. 428mm2) ist.

Erkaufen tut sie sich das allerdings mit:
- Exorbitanten Herstellungskosten (Wie viel wird wohl so ein riesen Die: 630mm2??? egal ob in 7 oder 8nm gefertigt in der Herstellung kosten?
- Mit +50-100W Leistungsaufnahme und einer entsprechend teuren, klobigen, alle Dimensionen sprengenden Kühllösung.

Beim Speicher wird bei der Sparvariante 1400-1500€ (11-12GB)? natürlich gespart und bei den nachträglich erscheinenden Varianten der Board Partner
die wohl gleich mit (22-24GB) ausgestattet sein werden entsprechend abkassiert (2000€.?)

Lohnt es sich da nicht etwas zu warten auf einen z.B.: Falls Gerücht 2 zutrifft 80CU, 428mm2 grossen, 16GB fassenden nicht ganz so Big Navi wie zuerst angenommen,
der zwar etwas langsamer, aber dafür das deutlich bessere Preis/Leisungsverhälniss liefern wird.

Falls Gerücht 1 zutrifft und er doch 505mm2 gross werden sollte, hat er entweder deutlich mehr als 80CU ergo mindestens 3090 Performance, oder der Chip mit seinen in etwa 80CU's ist so aufgepumpt und auf Steroiden das NVIDIA beim Armdrücken schon beide Hände gleichzeitig zur Hilfe nehmen muss, um da noch etwas reißen zu können. (Variante 2 wäre aber wohl auch eine mindestens 1000€ Karte aber immer noch der deutlich bessere Deal)
 

wtfNow

Software-Overclocker(in)
Nvidia’s 400w Triple Slot RTX 3090: AMD should take the Efficiency Crown! - YouTube

-12 Pin Anschluss scheint real zu sein, es soll ein Adapter von 3 x 8 Pin -> 1 x 12 Pin mitgeliefert werden.
-mindestens 330 Watt (bis hin zu 390 Watt bei den Topmodellen)
-40 % schneller in 4K Rasterisierung als 2080ti
-Raytracing um ein vielfaches schneller

-RDNA2 effizienter
-Navi 22 (obere Mittelklasse) soll im Herbst erscheinen
-Navi 21 (High End) etwas später November-Dezember


Ich verfolge den Kerl schon etwas länger, liegt oft richtig.
 

C_17

Freizeitschrauber(in)
Anhang anzeigen 1098658

NVIDIA GeForce RTX 3090 graphics card pictured - VideoCardz.com

Will jetzt noch wer die von igor genannten 350W anzweifeln? :D Alter, ist das Ding monströs.

Ziemlich monströs. Hab noch nie so eine große Grafikkarte besessen. Die bricht mir doch mein Mainboard in zwei Teile. Gab es nicht bei Igor eine Gewichtschätzung von 1,5 - 1,7 kg (das wäre 3,5 Packungen Hackfleisch, welche da auf der GPU liegen)?
Hat die GPU dann irgendwie einen Standfuß dabei? :-P

Noch nie hat sich warten so gelohnt wie bei den kommenden RTX 30XX Karten kann man da nur sagen.

Am Ende wird es wohl in etwa so aussehen, das die 3090 zwar 10-15% schneller als die 6900XT (Falls nur ca. 428mm2) ist.

Erkaufen tut sie sich das allerdings mit:
- Exorbitanten Herstellungskosten (Wie viel wird wohl so ein riesen Die: 630mm2??? egal ob in 7 oder 8nm gefertigt in der Herstellung kosten?
- Mit +50-100W Leistungsaufnahme und einer entsprechend teuren, klobigen, alle Dimensionen sprengenden Kühllösung.

....

Also ich für meinen Teil werde nun auch erstmal warten. Ich kann mich noch bei meiner GTX 1080 von EVGA direkt nach Release erinnern, das die auch viele RMAs hatten, weil was mit der Kühlung nicht stimmte. Man konnte sich dann Wärmeleitpads zuschicken lassen, um die selber zu installieren.

Für mich ist der Preis, die Leistung, aber auch der Stromverbrauch und dazugehörige Temperatur-Entwicklungen wichtig. Undervolte meist bei möglichst höchst verfügbaren Takt. OC von Takt und Speicher bis ans Limit nach oben spielt bei mir keine Rolle.
Irgendwie scheinen mir die Ampere-Karten irgendwie aus der Reihe zu tanzen.

Die Größe der Kühler, die enorme Verbrauch, 750 € für ne 3070er? (also nein, nicht mit mir)
Vielleicht werde ich doch noch 1 Jahr warten und vielleicht kommt dann nochmal eine Art von Refresh mit etwas mehr "Feinschliff".

Bis jetzt sind die Karten aber ja noch nicht erschienen und ich freue mich sehr auf die Tests von PCGH, Raff und co. zu den neuen RTX.
 
Zuletzt bearbeitet:

shaboo

Freizeitschrauber(in)
Die Größe der Kühler, die enorme Verbrauch, 750 € für ne 3070er? (also nein, nicht mit mir).
Mein Gott, jetzt wartet's doch einfach mal ab!

Immer diese frei erfundenen Preise, deren Glaubwürdigkeit alleine darauf beruht, dass irgendjemand anders zufällig genau dieselben Preise frei erfunden hat ... :rollen:

Und die Hitzeprobleme betreffen zunächst mal in allererster Linie die 3090, die sich - selbst hier - nur die Allerwenigsten kaufen werden. Alle Modelle darunter werden weniger und eventuell auch niedriger getakteten Speicher haben, so dass dieses Problem dort auch nur in abgeschwächter Form auftreten wird.
 

IguanaGaming

Komplett-PC-Aufrüster(in)
Ihr braucht euch doch nur mal die Preissteigerung seit Maxwell anschauen, da muss man kein Hellseher für sein wo diese mit Ampere als nächstes landen werden. Sprechen uns dann nochmal in 4 Wochen, während ihr alle am abkotzen seid ... die 1400-2000$ hier im PCGH Beitrag kommen ja auch net von ungefähr und wenn man noch die Steuern bei uns drauf schlägt, dann werden wir bei diesen Preisen am Ende ankommen.
 

TrueRomance

Lötkolbengott/-göttin
Ihr braucht euch doch nur mal die Preissteigerung seit Maxwell anschauen, da muss man kein Hellseher für sein wo diese mit Ampere als nächstes landen werden. Sprechen uns dann nochmal in 4 Wochen, während ihr alle am abkotzen seid ... die 1400-2000$ hier im PCGH Beitrag kommen ja auch net von ungefähr und wenn man noch die Steuern bei uns drauf schlägt, dann werden wir bei diesen Preisen am Ende ankommen.

Es gibt aber auch GPUs unterhalb einer 3090.
Wie oft denn noch?
Wichtig ist für mich nur, wie viel Mehrleistung bekomme ich für 500 bis 600 Taler.
Meine 1080 + 50%? Dann ist doch alles schick. Bekomm ich das erst ab 750? Wird nicht gekauft.
Die größte Preissprung kam mit Turing und dementsprechend eine preis/Leistungsstillstand.
Jetzt sitzen noch die Konsolen im Nacken. Ich denke nicht, dass Nvidia so blöde ist und wieder selbe Leistung fürs selbe Geld verkaufen wird.
 

Oi!Olli

Software-Overclocker(in)
Du bist lustig. Nur weil man etwas will muss es noch lange nicht realistisch sein. Ich habe Dir aufgezeigt, wie ein Preis zustande kommt, und dass da kein "Evil Intend" dahinter ist. Der einzige Weg, dass der Preis ein wenig(!) sinkt und auch nur im aboluten Top-Range wäre eine gleichwertige Konkurrenz.

Hab ich auch nie behauptet. Das war deswegen ja auch eine Modellrechnung. Du hast versucht meine Beispielzahlen zu widerlegen, was sowieso am Sinn meines Postings vorbei geht, und ich habe nur einen offensichtlichen Fehler in Deiner Argumentation aufgezeigt.



Die 2080Ti soll nicht der Erfolgträger sein. Ich denke, der meiste Gewinn wird mit der 2070S gemacht. Was auch der Grund ist, warum sich AMD auf dieses Segment konzentriert. Aber dadurch eben Nachteile in Kauf nimmt. Die Top-Range ist nie das, wo man den großen Gewinn macht, aber man kann dort Synergie-Effekte nutzen, Techniken etablieren, und natürlich einen Ruf aufbauen. Das alles hat AMD verkannt.
Soso verkannt haben sie das. Dafür dss du Nvidia so lebst hast wohl die Zahlen von AMD in den letzten Jahren vergessen. Und das sie ihre Topklasse verschleudert haben. Und der Chip war wirklich riesig und HBM nicht billig.
 
G

Grestorn

Guest
Soso verkannt haben sie das. Dafür dss du Nvidia so lebst hast wohl die Zahlen von AMD in den letzten Jahren vergessen. Und das sie ihre Topklasse verschleudert haben. Und der Chip war wirklich riesig und HBM nicht billig.

Ich liebe NVidia nicht, warum sollte ich auch. Das ist ein Aktien-Konzern der existiert, um Geld zu verdienen. Ich schätze ihn, weil er es mir ermöglicht am PC geile Games zu zocken. Ebenso schätze ich AMD und viele andere Firmen. Noch viel mehr schätze ich die Studios, die gute Spiele prodzieren.

Was ich halt generell nicht mag sind unsachliche und in meinen Augen ziemlich emotionale und ... wie sag ichs ... absurde Attacken, die ganz offensichtlich einer Mixtur aus Frust, Neid und Missgunst entspringen.
 

defender2409

PC-Selbstbauer(in)
Die schlimmsten Preissteigerung fand in der Mittelklasse statt . Eine GTX 460 hat bei Release ca. 200 € gekostet eine 2060 400€ und die 460 war damals im Leistungsvergleich mit den grossen Karten sogar deutlich besser dabei als die 2060 .
Wenn die Preise stimmen sollten dann lasst die Karten im Regal bis AMD mit was neuem kommt und dann die Preise anders ausehen werden.
Ich habe mir immer Hardware von dem Hersteller geholt wo die PreisLeistung am besten war.
 

Birdy84

Volt-Modder(in)
@hoffgang: Zunächst: Eine Chipgeneration wird nicht in EINEM Jahr entwickelt, sie haben normalerweise eine Lebensdauer von etwa ZWEI Jahren.
Etwa 5 Jahre dauert es, vom Design bis zur Aulieferung einer GPU. Übrigens wissen wir von nVidia, dass sie bei Turing über 60% Marge haben.
Entschuldige, DU sagst mir nicht wie ICH einen Begriff in MEINEM Posting definiere, ok? Ich finde diese Topmodell-Begriffsdefinition zum kotzen, dass immer wieder irgendwelche Leute sagen "uh, des is abba ein Salvagechip" oder "ey, da kommt doch noch die Ti version...." - das ist mir alles egal, wenn heute einer die schnellste Mainstream Karte kaufen will, und das zur Zeit halt ein "xx80" Modell sein sollte, dann IST das nun mal das zu dem Zeitpunkt schnellste Exemplar. PUNKT.
Dann bist du auch einer, der sich einen 330 zum Preis eines M3 andrehen lassen würde.
 

Oi!Olli

Software-Overclocker(in)
Ich liebe NVidia nicht, warum sollte ich auch. Das ist ein Aktien-Konzern der existiert, um Geld zu verdienen. Ich schätze ihn, weil er es mir ermöglicht am PC geile Games zu zocken. Ebenso schätze ich AMD und viele andere Firmen. Noch viel mehr schätze ich die Studios, die gute Spiele prodzieren.

Was ich halt generell nicht mag sind unsachliche und in meinen Augen ziemlich emotionale und ... wie sag ichs ... absurde Attacken, die ganz offensichtlich einer Mixtur aus Frust, Neid und Missgunst entspringen.
Ich sagte lobst nicht liebst. Was missgönne ich dir denn? Ich kenn dich nicht und du bist mir als Person egal.

Deine Argumente sind nur sehr schwach.
 

Tengri86

BIOS-Overclocker(in)
Die schlimmsten Preissteigerung fand in der Mittelklasse statt . Eine GTX 460 hat bei Release ca. 200 € gekostet eine 2060 400€ und die 460 war damals im Leistungsvergleich mit den grossen Karten sogar deutlich besser dabei als die 2060 .
Wenn die Preise stimmen sollten dann lasst die Karten im Regal bis AMD mit was neuem kommt und dann die Preise anders ausehen werden.
Ich habe mir immer Hardware von dem Hersteller geholt wo die PreisLeistung am besten war.


Ich habe damals die Gigabyte GTX 460 OC 1GB RAM für 189 Euro gekauft, hab die 5+ Jahre benutzt.
Gigabyte GeForce GTX 460 OC, 1GB GDDR5 | Preisvergleich Geizhals Deutschland
 
G

Grestorn

Guest
Ich sagte lobst nicht liebst. Was missgönne ich dir denn? Ich kenn dich nicht und du bist mir als Person egal.

Um genau zu sein schriebst Du, dass Du sie "lebst". Ich nahm an, dass das ein Typo war und Du "liebst" meintest. Sorry wenn ich falsch geraten habe.

Deine Argumente sind nur sehr schwach.

Stimmt, Deine umfassenden und schlagenden Gegenargumente stellen meine ja absolut und massiv in den Schatten... Moment.. Oh.
 

Oi!Olli

Software-Overclocker(in)
Deine letzten Argumente betreff AMD waren sehr dünn. AMD hatte kein Geld. AMD hat mit seinen letzten Ressourcen 2 große Chips rausgebracht Fiji und Vega. Beides Monster in Sachen (theoretischer) Rechenleistung und Speicherbandbreite. Beide extrem teuer und Beide nicht wirklich erfolgreich.

Und dann wirfst ihnen vor, dass von AMD kein Highendchip kommt während alle Welt Nvidia gekauft hat. (wobei man fair sein muss und sich fragt, wieso Vega überhaupt so lange produziert wurde, Möglichkeit 1. langfristige Lieferverträge, Möglichkeit 2 es hat sich trotzdem egrechnet oder Möglichkiet 3, ein bisschen von Beidem (Möglichkeit 2 würde dann Nvidia richtig schlecht dastehen lassen))

Statt dessen verteidigst du noch die Preispolitik von Nvidia, die wesentlich billigere Chips wesentlich teurer verkauft haben.
 
G

Grestorn

Guest
Welche Argumente betreff AMD? Ich hab doch gar nichts zu AMD geschrieben, außer dass ich sie sehr schätze?

Ich habe ihnen die Tatsache, dass sie keine HighEnd Chips haben nicht vorgeworfen sondern nur die Folgen für sie selbst und für die allgemeine Kostenstruktur beschrieben. Und Du magst gerne anderer Meinung sein, nur solltest Du das dann auch begründen.

Auch habe ich die Preispolitik von Nvidia nicht verteidigt sondern nur klar gemacht, dass sie eigentlich nur wirtschaftlich sinnvoll handeln und dass Eure Emotionalität einfach unangebracht ist. Soll denn Nvidia Deiner Meinung nach einfach Geld wegschmeißen weil sie so liebe Leute sind? Ich verstehe Deinen Standpunkt nicht.

Und Du siehst weiterhin nur den Preis der Chips und nutzt das als einzige Basis für die gesamte Karte. Außerdem prüfst Du nicht, wie teuer ein einzelne GPU Chip in den 2000ern war, um dessen Preisentwicklung zu den heutigen GPUs zu sehen.
 

IguanaGaming

Komplett-PC-Aufrüster(in)
Vor nem Jahr warst du noch nicht mal hier angemeldet,wie hast du das gemacht?:schief:

ich merk schon, bist'n ganz schlauer, ne ? vielleicht mit nem anderen ACC hier mal angemeldet gewesen ? bin schon solang auf PCGH aktiv, fast solang wie es das Board gibt und nein ich bin nicht Schaffe !
 
Zuletzt bearbeitet:
Oben Unten