• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

RTX 3080 mit 20 GiB und 3070 mit 16 GiB: Release noch dieses Jahr?

Tiavor

Komplett-PC-Aufrüster(in)
man benötigt ja nicht einmal neue Spiele um über 10GB VRAM Auslastung zu kommen. Man nehme Skyrim und packe ein paar Grafik Mods drauf, mit den Richtigen Mods sind 10-12GB bestimmt kein Problem.

selbst in ihr handgepicktes Beispiel vom ersten Benchmark mit dem Spiel Battlefield5 wurden 9GB benutzt. Gerade so dass es über der Kapazität der 2080 lag aber unter der 3080. Wenn man da alles auf max stellt, kommt man bestimmt auch über 10GB.

Wenn man natürlich nur Fortnite spielt, stimmt die Aussage ...
 

-ElCritico-

Freizeitschrauber(in)
Ja, dann hätte der Eine die 10GB nehmen können, für WQHD und der Andere halt die 20GB für UHD.
Aber im Grunde kommt es ja auch bald so. Halt nur nicht direkt zum Start.
Aber es dauert ja meist etwas, bis die ganze Reihe released is. So ungewöhnlich is das ja nicht.
Die 60er kommen ja auch noch.
Es geht um die adäquate Speicherbestücking im Verhältnis zur Leistung und ums Futureproofing. Der VRAM-Verbrauch steigt nachgewiesermaßen jedes Mal mit der Veröffentlichung einer neuen Konsolengeneration. RTX 3080 und 3090 sind highend, man zahlt dafür Highendpreise, um die Highendleistung zu erhalten. 10GB sind nicht angemessen, 24GB sind zu viel, da die Karte zu teuer ist. Dann kommt die RTX 3070. An sich eine sehr gelungene Karte, wenn sie das tut, was sie verspricht (nahezu RTX 2080 Ti Leistung für 499$). 8GB sind da aber auch zu wenig für einen Neukauf.
Die Aussagen entwerten nicht eine GTX 1060 6GB oder RX 580 8GB. Die Frage ist: Würdest du neu eine 6GB-Karte für WQHD kaufen?
Ich definitiv nicht, 10GB müssten es schon sein.
 

Aerni

Software-Overclocker(in)
ach, ich behalt einfach meine 2080 und warte ab. ich werd sicher nicht 1000€ für ne 3080 ausgeben. die 10gb version als custom kostet ja schon 800€+. nvidia wär ja schön blöd wenn die nicht da ordentlich was draufpacken.
selbst 800€ wär mir zuviel für 20gb ram, und die werden sicher mehr kosten.
 

gerX7a

Software-Overclocker(in)
Die 3080 20GB wird dann sicher ab 1000€ aufwärts kosten. Schnapper :ugly: Tja, Big Navi sollte gelingen. Lasst die Speicher-Spiele (und hoffentlich vor allem den Konkurrenzkampf zugunsten günstigerer Preise) beginnen...

Das "sicher" ist hier vollkommen fehl am Platze. Die Positionierung hängt klar von dem Zusammenspiel zwischen AMD und nVidia ab. Würde bspw. AMD sein 16 GiB-Topmodell bei 799 € platzieren und das wäre gar noch (wie von vielen erhofft) ein paar Prozentpunkte schneller als die 3080, dann kann nVidia nicht über 1000 € für das 20 GiB-Modell verlangen. Mit "nVidia/Marktführer-Bonus" wäre da wohl eher nur 899 € bis bestenfalls 949 € sinnvoll möglich und das auch nur, wenn die RDNA2-Karte nur geringfügig schneller wäre. Mehr Leistung bei AMD würde gar noch weiter auf den nVidia-Preis drücken.
 

-Shorty-

Volt-Modder(in)
Das "sicher" ist hier vollkommen fehl am Platze. Die Positionierung hängt klar von dem Zusammenspiel zwischen AMD und nVidia ab. Würde bspw. AMD sein 16 GiB-Topmodell bei 799 € platzieren und das wäre gar noch (wie von vielen erhofft) ein paar Prozentpunkte schneller als die 3080, kann kann nVidia nicht über 1000 € für das 20 GiB-Modell verlangen. Mit nVidia-Bonus wäre da wohl eher nur 899 - 949 € sinnvoll möglich und das auch nur, wenn die RDNA2-Karte nur geringfügig schneller wäre. Mehr Leistung bei AMD würde gar noch weiter auf den nVidia-Preis drücken.
Stimmt, die 1000€ Grenze fällt ja schon bei den 10GB Modellen, also kann man nur eins sicher sagen, die 3080 20GB wird günstiger als eine 3090. Alles andere wäre Spekulation. ;)

ach, ich behalt einfach meine 2080 und warte ab. ich werd sicher nicht 1000€ für ne 3080 ausgeben. die 10gb version als custom kostet ja schon 800€+. nvidia wär ja schön blöd wenn die nicht da ordentlich was draufpacken.
selbst 800€ wär mir zuviel für 20gb ram, und die werden sicher mehr kosten.

Seh ich auch so. Zock fast nur Rennspiele, dort gehts dann um 130 Fps mit der 2080 oder für 1500€ mehr nachher um 190 Fps. Dafür kauf ich mir nachher lieber ein mobiles Upgrade und verfluche weniger die Zeit, in der ich Zwecks Abwesenheit meine 1500€ Karte gar nicht nutzen kann.

Zumal erst noch ein neues Netzteil und ein neuer WaKü-Block notwendig würde, entferne ich mich innerlich immer weiter davon das wirklich umzusetzen.

Ich hoffe eigentlich, dass mich Spiele irgendwann mal wieder dazu nötigen ein Upgrade umzusetzen und nicht nur meine Faszination an neuer Hardware. Spiele die einem wie zu Wing Commander Zeiten dazu nötigen Geld in die Hand zu nehmen um die volle "Grafikpracht flüssig" darzustellen und so das Spielerlebnis verbessern. Ebenso die ersten 3D Beschleuniger. Aber jetzt von 130Fps auf 190 Fps zu steigern ist das Geld nicht wert.
Darum hoffe ich insgeheim noch, dass Raytracing diesen Gamechanger noch bietet und meine Faszination erneut weckt.
 
Zuletzt bearbeitet:

Bright0001

Komplett-PC-Aufrüster(in)
Das wäre ein Tritt ins Gesicht für alle 3080 käufer/vorbesteller/besitzer........
Na klar, weil die 3080 hatte vorher ja 10GB, also 100%, aber jetzt kommt die 3080 mit 20GB, also neu 100%! Und jetzt der Super-Hammer!: Jetzt hat die alte 3080 mit 10GB nur noch 50%!1! Obwohl man für 100% bezahlt hat!! Frechheit!1 Verbraucherschutz! Betrug!

Ich verstehe es halt echt nicht, auch schon bei 3080 Vorstellung nicht ("die armen 2080Ti-Käufer"). Die Karten werden dadurch nicht schlechter, und die konsequente Verbesserung der Preis/Leistung im Hardware-Bereich eigentlich eine Gesetzmäßigkeit, sprich keine große Überraschung.

Zumal das 20GB-Modell schon lange vor Release in Leaks Erwähnung fand.
 

Bevier

Volt-Modder(in)
Jetzt brüllen alle nach den Karten mit mehr Speicher aber bei AMD ist ein gleich großes Speicherinterface zu schmal? Ja, Logik und Hardware-Enthusiasten passen irgendwie einfache nicht zusammen...
 

gerX7a

Software-Overclocker(in)
Was schreibst du für einen Unsinn? Geht man von der Richtigkeit der Gerüchte aus, dann wird AMD maximal mit 256 Bit aufwarten. Deine Aussage ist also Unsinn.
Ebenso unsinnig sind aber auch entsprechende "Beschwerden", denn der InfinityCache dient genau dazu diesen Si-Engpass zu kompensieren.

Stimmt, die 1000€ Grenze fällt ja schon bei den 10GB Modellen [...]

Naja, wer so dumm ist nicht ein wenig warten zu können, bis die Kartenvielfalt am Markt steigt und den Händlern jeden Preis zahlt, der hat es auch nicht anders verdient. Die offizielle Preisangabe liegt für eine 3080 bei 699 € inkl. MwSt und die günstigeren Custom-Modelle liegen nur wenig darüber. Wer da jetzt meint den Zwischenhändlern ihre feuchten Träume erfüllen zu müssen ... bitteschön :-D
 

ChrisMK72

PCGH-Community-Veteran(in)
Jetzt brüllen alle nach den Karten mit mehr Speicher

Also ich werd' mich freuen, über eine starke Karte, wie der 3080 10GB.

Meine 1080Ti hatte zwar sagenhafte 1GB mehr(sind natürlich Welten Unterschied ! ;) ), aber an die Leistung der 3080 kommt die halt nicht ran und da lohnt für mich das Aufrüsten.
Zumal ich Richtung Raytracing und DLSS noch gar nix testen konnte und das auch gern mal antesten würde.
Selbst wenn's mal nicht "ultra" is. Aber da sterb' ich nicht von, wenn ich nur auf "hoch" zocke. :)
 

Govego

Software-Overclocker(in)
Tja, 8GB VRAM sind halt FHD Karten. 10GB reichen für WQHD und ab 4k sind 12 -16GB recht zukunftssicher.
20GB? Wer es brauch! Scheint so, als sei die 3070 mit 16GB das bessere Angebot als die 3080 mit 10GB, genau wie die 3060TI das bessere Angebot zu sein scheint als die 3070 mit 8GB. Würde mich nicht wundern, wenn die Karten dann irgendwann EOL gehen werden. Naja, zumindest wenn die Preise passen.
 

mylka

Komplett-PC-Aufrüster(in)
warum nicht einfach ein kompromiss?
die 70er mit 10-12GB
die 80er mit 16GB
und dafür keine anderen karten mehr. verschiedene versionen, der ansonsten gleichen karte nervt einfach nur
 

Bevier

Volt-Modder(in)
Was schreibst du für einen Unsinn? Geht man von der Richtigkeit der Gerüchte aus, dann wird AMD maximal mit 256 Bit aufwarten. Deine Aussage ist also Unsinn.
Ebenso unsinnig sind aber auch entsprechende "Beschwerden", denn der InfinityCache dient genau dazu diesen Si-Engpass zu kompensieren.



Naja, wer so dumm ist nicht ein wenig warten zu können, bis die Kartenvielfalt am Markt steigt und den Händlern jeden Preis zahlt, der hat es auch nicht anders verdient. Die offizielle Preisangabe liegt für eine 3080 bei 699 € inkl. MwSt und die günstigeren Custom-Modelle liegen nur wenig darüber. Wer da jetzt meint den Zwischenhändlern ihre feuchten Träume erfüllen zu müssen ... bitteschön :-D
So ein Unsinn, wie du ihn die ganze Zeit verzapfst? Rechne mal nach, wenn du überhaupt dazu in der Lage bist 1+1 zu addieren: Wie groß wäre bei Ampere mit doppelter Speicherbestückung das SI pro GB? Eben, genauso groß, wie bei den Ach so miesen Big Navis... -.-
Aber dass du eh ein extremistischer Markenanhänger bist, hast du schon oft genug bewiesen. Du tarnst es nur etwas besser, als die anderen, immer wieder gebannten (Ex-)Forenmitglieder.
 

C_17

Freizeitschrauber(in)
Wer früh genug bestellt hat, bekam eine RTX 3080 für 699 - 750 €.

Ich hab auch eine Asus RTX 3080 TUF OC bestellt für 749 €. Wer jetzt storniert, verliert also womöglich einen Preis, den ihr nicht mehr so schnell seht. Ich denke auch 10 GB reichen wunderbar, auch in Anbetracht das die kleineren Modelle noch weniger haben. Und die Entwickler kennen teils die Hardware der Kundschaft. Dumm sind die auch nicht.

Wer denkt er bekäme eine RTX 3080 20GB für unter 900 € der wird mit Sicherheit enttäuscht werden. Wenn eine RTX 3090 mit 24GB rund 1500 €+ kosten, werden die 20 GB mit min. 1000€ anbieten. Und das sind dann Summen, wo viele schon dankend abwinken, ich inklusive. Mein Limit war 700-750 € und dafür hab ich die 10GB version geschossen.
 
Zuletzt bearbeitet:

Basileukum

Software-Overclocker(in)
Ich freu mich schon auf die Panikverkäufe der 3080 10GB Besitzer :D
Ich sitz das alles mal schön bis nächstes Jahr aus.

Ja, wird besser sein. Dann hat AMD schon mal wieder was an der CPU Front nachgeschoben, eventuell dann Intel im nächsten Jahr auch. Big Navi ist dann da, Intel schiebt eventuell auch was auf den GPU Markt. Nvidia hat dann sein Amperesortiment sinnvoll erweitert und den Krampfstart hinter sich gelassen. Vielleicht geht da was mit DDR5 im neuen Sys.

Scheint eigentlich kein gutes Jahr derzeit für großartige Upgrades gewesen zu sein.
 

4thVariety

Software-Overclocker(in)
16GB für die 3070 sollen zu viel sein? Ich erinnere mal an die Polaris 580, wahlweise mit 4GB oder 8GB. Waren da 8GB auch zu viel, oder sagt man das jetzt nur, weil man weiß, dass Nvidia für mehr Speicher locker 200€ verlangen wird, wohingegen die 580 mit 8GB lächerliche $30 teurer war. Einfach mal die Kunden mit dem Speicher nicht über den Tisch ziehen hätte ich gesagt. Einfach mal suggested Retail verlangen und nicht 200€ auf Nvidia Preise draufschlagen liebe OEMs. Nvidia verhält sich derzeit wie der Krug der zum Brunnen geht bis er bricht.

Man darf auch nicht vergessen, dass wenn die Spiel wirklich die Details und das Raytracing hochdrehen, dann sind wir selbst mit der 3080 ganz schnell wieder bei 1440p@60fps und nicht bei irgendwelchen 4k@120fps Luftschlössern.
 

PHuV

Komplett-PC-Aufrüster(in)
Bislang gibt es keine Berichte über Engpässe bei GDDR6X und die Fertigung einer 20-GiB-Karte sollte nicht anders ablaufen als die des 10-GiB-Modells. (Ich persönlich erwarte sogar, dass man auf 2-GiB-Chips setzen möchte, die einfach die bisherigen 1-GiBler ersetzen.) Also sollten auch nach Einführung des neuen Modells insgesamt genauso viele 3080 verfügbar sein, wie heute. Ob das dann "genug" für die Nachfrage ist, hat AMD in der Hand. :-)
Hier gabs doch von Micron eine Meldung, das diese erst ab 2021 in entsprechenden Stückzahlen verfügbar werden?
 

Pu244

Lötkolbengott/-göttin
Je früher die Karten rauskommen, umso eher hat sich dann auch das Angebot stabilisiert. Da ich mit ca. 3 Monaten rechne, wird das schon etwas knapp, mit meinem Wunschtermin (18.2.2021).

Ich persönlich schätze die 3070 wiederum für zu schwach ein, um 16 GiB jemals auszureizen – das wäre die Klasse, in der man mit 10 bis 12 GiB ausgesorgt hätte.

Größere Texturen benötigen eigentlich wenig zusätzliche GPU Leistung. Zumal die RTX 3070 auch noch sehr schnell ist, wir reden von einer Karte, die sich irgendwo um die RTX 2080Ti einordnen wird. Selbst die alte Vega FE dürfte wohl langfristig von ihren 16GB profitieren, bei der mehr als doppelt so schnellen RTX 3070 sollte das "ob" keine Frage sein.
 

Xzellenz

Software-Overclocker(in)
Am Ampere-Launch sieht man schön wo Hype hinführt. AMD, der Underdog, kann dieses Jahr die beiden Goliaths in ihren Branchen übertrumpfen. Bei den CPUs ganz sicher und so wie es aussieht auch bei den GPUs. Endlich kommt mal wieder etwas Schwung in den Markt. Das kommt uns Konsumenten nur zugute. Nächstes Jahr positioniert sich Intel auch mal wieder mit GPUs am Markt, zumindest laut Planung. Dafür hat NVIDIA etwa keine Konter in petto? :ugly:
 

Blackout27

Volt-Modder(in)
Ich konnte am Wochenende ausführlich eine RTX390 Founders Edition testen und kann nur sagen "großartige Karte".
Gerade in Verbindung mit UV bin ich schwach geworden :sabber:

Daher begrüße ich die Entscheidung auch den kleineren karten mehr Speicher zu spendieren. Im Verhältnis zu den kommenden Konsolen sollten alle Ampere Karten ab 3070 genüg Leistung bieten um die kommende Next Gen Generation zu begleiten. Gut möglich das in 2-3 Jahren dann 8/10GB eng werden könnten.

Gerade die RTX3070 mit 16GB sind sicher für die Mehrheit (welche die Karte eben 4-6 Jahre behalten wollen) ein tolles Produkt. Auch die Leistungsaufnahme des 8GB Modells soll ja "nur" bei 220 Watt liegen.

Ich bin wirklich heiß was AMD zeigt und wie Nvidia reagiert. Für uns Käufer sehe ich da nur Vorteile und fairere Preise :)
 

razrone12

Komplett-PC-Aufrüster(in)
Irgendwie witzlos wenn man die beiden Aussagen gegenüberstellt:

"Voraussichtlich wird die 3080 nicht flächendeckend in 2020 verfügbar sein"

"wir bringen im Dezember eine 3080 20gb und 3070 16gb"

Klar ist das zweite aktuell noch ein Gerücht, aber man muss es doch auch verkaufen können wenn man ein Produkt als Antwort auf die Konkurrenz in den Markt schickt 😄
 

Incredible Alk

Moderator
Teammitglied
Wer denkt er bekäme eine RTX 3080 20GB für unter 900 € der wird mit Sicherheit enttäuscht werden. Wenn eine RTX 3090 mit 24GB rund 1500 €+ kosten, werden die 20 GB mit min. 1000€ anbieten.
Prinzipiell schon - wenn AMD nicht ausreichend Druck ausüben kann.
Wenn sie das dagegen können/tun können solche Preiuse schneller und weiter fallen als man es die letzten Jahre (wo AMD nicht konnte...) so gesehen hat.

Angenommen (illusorischer Extremfall): Eine 6900XT mit 16GB ist so schnell wie eine RTX3090, verbraucht dabei 50W weniger und AMD ruft 600$ auf.
Wenn das passiert kostet eine RTX3080 mit 10GB nächstes Jahr 499€ und die 20GB-Version 599€ - und die 3090er unter 1000.

All das gabs schon mal bei Fermi - da hat NVidia auch den dicksten Chip im Vollausbau (!) für unter 500€ verkaufen müssen (GTX580) da sie eben hart unter Druck standen. Nochmal: Technisch gesehen war die GTX580 das, was heute eine imaginäre RTX3090SUPER wäre - für 480€ UVP.

Natürlich ist das eher nicht so zu erwarten und überzeichnet, aber selbst wenn man realistischer rangeht und sagt Navi21 kommt etwa on par mit ner 3080er raus: Wenn AMD da 6GB mehr und 20W weniger für 100-200$ weniger UVP hinstellt hat NVidia ein ziemliches Problem. Dann können sie keine 20GB-3080er für 1000€ hinstellen.
 

majinvegeta20

Lötkolbengott/-göttin
@pcgh eventuell könntet ihr ja mal einen Artikel machen zu der tatsächlichen vram auslastung bei Spielen? Hab da nichts gefunden und das Thema ist ja heiß diskutiert. Seit Sept 2020 gibt es mit hwinfo und mis wohl die Möglichkeit den "dedicated vram usage" anzeigen zu lassen hnd nicht nur das was reserviert wird. 😇
Das gab es schon des Öfteren. Einfach mal zumindest ab und zu das Heft kaufen. ^^
z.B. hier auf 14! Seiten verteilt.
20201008_155530.jpg
20201008_155327.jpg
20201008_155502.jpg


Hierzu wurde beispielsweise eine RTX Titan mit 24 GB genutzt, auf der ein gewisser Teil des Speichers vor belegt wurde, um auszuloten ab welcher Speichermenge das jeweilige Spiel einbricht bzw. ob spürbare frametime Ruckler auftreten.

Ansonsten jetzt das aktuelle Heft in der DVD Variante kaufen. Dann hast du gleich sämtliche Ausgaben der letzten 20 Jahre drin, worunter auch der genannte Artikel fällt. ;)
 
Zuletzt bearbeitet:

Pu244

Lötkolbengott/-göttin
All das gabs schon mal bei Fermi - da hat NVidia auch den dicksten Chip im Vollausbau (!) für unter 500€ verkaufen müssen (GTX580) da sie eben hart unter Druck standen.

Man muß dazu sagen, dass das damals üblich war. Man denke an die GTX 280/285 oder die 8800GTX/Ultra.

Die Unsitte, die mittleren Karten für 500€ zu verkaufen, kam erst mit der GeForce 600.
 

gerX7a

Software-Overclocker(in)
So ein Unsinn, wie du ihn die ganze Zeit verzapfst? Rechne mal nach, wenn du überhaupt dazu in der Lage bist 1+1 zu addieren: Wie groß wäre bei Ampere mit doppelter Speicherbestückung das SI pro GB? Eben, genauso groß, wie bei den Ach so miesen Big Navis... -.-
Aber dass du eh ein extremistischer Markenanhänger bist, hast du schon oft genug bewiesen. Du tarnst es nur etwas besser, als die anderen, immer wieder gebannten (Ex-)Forenmitglieder.

Stellst du dich nur Dumm oder ...? Für AMD geistern zurzeit 256 Bit (zzgl. InfinityCache) durch die Gerüchteküche. Ampere hat 384 bzw. 320 Bit, d. h. egal ob mit einfachem oder doppeltem Speicherausbau wird die Bandbreite unverändert hoch und in beiden Fällen gar deutlich höher liegen als bei AMD und genau deswegen ist AMD bei den RDNA2-GPUs auf den InfinityCache angewiesen.
Du hast ursprünglich geschrieben "aber bei AMD ist ein gleich großes Speicherinterface zu schmal?". AMD hat kein gleich großes SI.
Und deine Rechenkünste im kleinen Ein-mal-Eins können anscheinend deine Logikschwächen auch nicht kompensieren, denn (so hoffen zumindest alle Fans) das große 80 CU-Design wird eine RTX 3080 überbieten oder gar mit einer RTX 3090 konkurrieren können, d. h. hier hat man einen extrem bandbreitenfordernden, großen Chip mit einem sehr kleinen Interface. Bei den Ampere-Modellen mit mehr Speicher dagegen ändern sich die Anforderungen des Chips nicht, denn mindestens bei der größeren RTX 3080 kann man davon ausgehen, dass die performancetechnisch nicht nennenswert zulegen wird und daher gibt es hier auch keine zusätzlichen Bandbreitenanforderungen beim SI.
Wenn du Rummeckern willst, dann lies dir vielleicht zuvor noch einmal durch, was du selbst geschrieben hast bevor du auf Abesenden/Antworten klickst, denn das war und ist Unsinn, da nach aktuellem Stand AMD kein gleich großes SI besitzt, konkret noch nicht eimal relativ/im Verhältnis gesehen.
Aber wie schon erklärt ist die technische Sachlage auch nicht das Problem, denn dafür gibt es den InfinityCache; das Problem war lediglich deine Formulierung.
 

Incredible Alk

Moderator
Teammitglied
Man muß dazu sagen, dass das damals üblich war. Man denke an die GTX 280/285 oder die 8800GTX/Ultra.
Stimmt. Das war aber das Ergebnis eines viele Jahre andauernden Kampfes zwischen NV, AMD (damals ATi), davor noch 3dfx usw. - sowohl in Preis als auch Performance. NOCH weiter vorher in der "Frühzeit" des PCs ware Hardware ja noch viel teurer als heute, der erbitterte Kampf der hersteller um Marktanteile danach führte aber eben dazu dass fette Chips im 500€-Bereich verkauft wurden mit kaum Gewinn. Erst seitdem es praktisch nur noch zwei Hersteller gibt und der eine den anderen seit langer Zeit dominiert sind die Preise in die heute bekannten Regionen gestiegen (ja, ich weiß komplexer, Inflation, blabla - das ist alles nur ein kleiner Teil). Wenn es tatsächlich wieder so kommen sollte, dass zwei Hersteller etwa gleichauf sind werden die Preise im neuen Kampf auch wieder fallen und das weiter als sich das viele vorstellen können die diese Zeiten eben nicht mehr kannten.
Klar wird man heute keine 600mm^2-GPU für unter 500€ mehr verkaufen können (ohne dass die Firma drauflegt...) aber wenn ernste Konkurrenz da ist werden solche High-End Karten auch nicht mehr in vierstellige Bereiche gehen (und sich Aktienkurse verzehnfachen vom Gewinn...).
 

gerX7a

Software-Overclocker(in)
Hier gabs doch von Micron eine Meldung, das diese erst ab 2021 in entsprechenden Stückzahlen verfügbar werden?

Die Karte wird doppelseitig mit 8Gb-OC-BGAs bestückt, wie auch die 3090.
Igor hatte das doch bereits bestätigt, da er die PCBs schon frühzeitig über seine Bordpartnerkontakte kannte.

Wird es, keine Angst. Die Platinen sind final und die Lötaugen für die Module auf der Rückseite sind sicher nicht zum Spaß drauf :P

Du darfst mich im September gern drauf festnageln oder Dich entschuldigen :)
 

Optiki

Freizeitschrauber(in)
Sorry, aber allen Leuten, die sich auf das Abenteuer "early adopter" einlassen und ungeduldig Produkte kaufen ohne abzuwarten etc., sollte dieses Szenario bewusst sein. Ansonsten malt man sich die Welt schön... Ist eigentlich schon immer so gewesen.

Also schlechte Verfügbarkeit, Probleme mit Treibern oder mit der Hardware würde ich da eher einordnen.

Wenn man sich die 3090 anschaut, klingt der Release einer 3080 mit 20 GB irgendwie total unrealistisch. Hätte ich die Gerüchte hier im Forum nicht gehört, hätte ich wohl nicht so schnell mit dem Release einer solchen Karte gerechnet.
 

ChrisMK72

PCGH-Community-Veteran(in)
Nein, diese 80er ist bis auf 15% am Top Modell dran. Das ist nicht vergleichbar mit den anderen Gx104 80ern.

Is die 90er etwa vergleichbar mit Turing Karten ?

Ne 80er is ne 80er. Feddich.
Das passt doch auch von Preis(siehe Launchpreise 1080) und Speicherbestückung(weniger als 2080Ti).

Also kann man die 80er nicht mit der 80Ti von Turing vergleichen, sondern mit der 80er Turing(und davor 80er Pascal).
 
Oben Unten