Geforce RTX 3080 12GB: Release angeblich am 11. Januar - mehr Shader und höhere TDP

Ich erinnere mich an die 10GB Diskussion bei Release....und wie diese hier im Forum als ausreichend verteidigt wurden....mehr als 10GB brauch man nicht, wirds nie geben usw..

Bin auf die Tests gespannt.
Gebraucht hab ich mehr als 10GB tatsächlich noch nie, auch nicht in CP2077 WQHD + RT Psycho + max Details, selbst ohne DLSS nicht. Es gibt bisher nicht mal mehr als 3-4 Spiele die auf 4K mehr benötigen bei allen Reglern nach rechts (Mods schliesse ich hier mal aus).

Wird es nie geben hat doch niemand behauptet soweit ich mich erinnere, es war ja bereits am Anfang von einer 3080 20GB die Rede.


Werden wieder viele auf der F5 Taste Penn zum Dienstag. Na mal sehen ob eine abfällt zur uvp :ugly:

Schade wer jetzt schon ne 3080 10g für 1300€ gekauft hat. :P :lol:

Ob Geduld belohnt wird, zeigt sich Diensta. Ich rechne mit höhen Preisen ab 1200€.
Tatsächlich hab ich meine 3080 kurz nach Release für ~900€ gekauft und fühle mich nicht von NV verarscht. Hatte viel Spaß mit der Karte seit Kauf und sehe mich auch nicht upgraden. Wenn Lovelace oder RDNA3 natürlich der Oberknaller wird, dann wird getauscht, ansonsten wird wie immer eine Gen übersprungen.
 
Ich erinnere mich an die 10GB Diskussion bei Release....und wie diese hier im Forum als ausreichend verteidigt wurden....mehr als 10GB brauch man nicht, wirds nie geben usw..

Bin auf die Tests gespannt.
Und ich bleib dabei. 10 GB sind sehr sehr knapp und nicht zeitgemäß. Aber mir ist der VRam noch nicht ausgegangen. Weder in FC6, noch in Horizon Dawn. Ich zocke nicht in 4k. Damit so what…

Die ganzen Möchtegern Vram Fresser (2-3) die in dieser Diskussion immer vorgeschoben wurden haben sich nach dem 2. bzw. 3. Patch als Handzahm und verbuggt herausgestellt, FC6 z.B. Übrigens waren das AMD supportete Games, ein Schelm wer dabei böses denkt…
Wenn die Neue mindestens 300€ billiger ist und man bis UWQHD kaum nen Unterschied merkt, lohnt sich Das bestimmt.
(man darf net vergessen, das die Ti mit den 12GB in den RT-Parts net so schnell im Bottleneck war, das hatte sich schon ggü. 10GB bemerkbar gemacht)

(ruhig mal den Text lesen, was Wolfgang so schreibt)
Seit den Patches ist das Passe! Das ist halt wie mit FC6. Im Release Zustand voll mit Bugs, die dem einen Lager als Munition nur recht rein passte.
Leider gibts so gut wie keine Nachtest um mit den Märchen reine zu machen. Mittlerweile läuft DL 1a, sowie FC6 und Horizon Zero Dawn. Dann steht da noch die Tatsache im Raum das alle diese Titel von AMD unterstützt wurden, was durchaus auch seltsam ist, wenn genau diese solche zufälligen Marketingtauglichen Rückschlüsse erlauben.
Soll nicht über den knausrigen Umgang seitens NV mit Vram hinwegtäuschen, aber ganz so wie es teils kommuniziert wird, ist es halt auch nicht!

In dem Artikel ist auch keine Rede davon, dass selbst 16 GB überlaufen worden sind, erst bei 20 GB wars gut. Damit war die 3090 die einzige brauchbare Karte für 4k @RT!
 
Zuletzt bearbeitet:
Werden wieder viele auf der F5 Taste Penn zum Dienstag. Na mal sehen ob eine abfällt zur uvp :ugly:

Schade wer jetzt schon ne 3080 10g für 1300€ gekauft hat. :P :lol:

Ob Geduld belohnt wird, zeigt sich Diensta. Ich rechne mit höhen Preisen ab 1200€.
Oder man hat schon seit fast 1,5 Jahren Spaß mit Ampere. Nicht jeder ist auf Transferleistungen angewiesen. Auch wenn das einen nicht in die (eigene) Welt passt.

Ich kann auch nicht klagen? Warum?


img_20005ffjbk1hrj11.png


;)
 
Wenn ich es richtig gelesen habe, wollte Nvidia wohl die 3080 mit 12GB vor dem fixen Release am kommenden Dienstag ankündigen, tat es aber dennoch nicht.

Wollte Nvidia mit dem besseren und vor allem von Gamern geforderten Speicher bei selbigen anbiedern, hätten sie die Graphikkarte wohl großspurig angekündigt!

Was ich nur sehe: Der Ethereumkurs war die Tage stets am Sinken, die GPU-Preise zeigen nach unten. Eine 3080 mit 12GB hätte uns sehr glücklich gemacht. Doch der Kurs steigt wieder. Konami hat vorgestern angekündigt, dass es nun NFTs für Castlevania geben soll; bezahlbar nur via Ethereum. Als wäre der Euro abgeschafft. Ein Konzern der Kryptos für digitale Pixelskins haben will.

Der Etherkurs steigt wieder. Die Miner wollen nun die 3080@12GB jetzt doch dringender. Somit geht die PCI-Erweiterungskarte an die Goldschürfer aus dem Wilden Westen/sonstwo auf der Welt.
Der Gamer soll sich net aufregen, also erscheint die Karte unter'm Radar in Farmen.
 
Sagt genau der richtige. Unter nahezu jeder Intel/Nvidia News liest man dein geflame.
Unter nahezu jedem Intel/Nvidia-Hate-Post ist dein like.
Schade, dann kennst aber NICHT alle meine Post´s !
Denn lobe stets INTEL´s Bemühungen im GraKa Markt Fuß zufassen und werde auch eine für meinen 2. Automat holen, sowie nVidias Engagement auf dem Software Sektor.
Nun ja, aber ein jeder sieht halt nur was er sehen will ... %-)

MfG Föhn.
 
Mal gucken, in welchem Rahmen sich das Teil preislich bewegen wird. Frage mich aber ernsthaft, welchen Zweck das Ding verfolgt. Zwischen der 3080 und 3080Ti liegen gerade mal rund 10% Leistungsunterschied.
 
@MarcHammel
Das ist quasi eine 3080 Ti mit mehr deaktivierten Shadern. Wäre sie günstiger als diese, könnte man von einem guten Angebot ausgehen.
Ich denke Nvidia will hier einfach die Speicherlücke zu 3060 / 3080 Ti und zur Konkurrenz etwas schließen, auch weil im Laptop-Segment 16 GiB Modelle kommen werden. Die 10 GiB ernteten ja auch zu Release und bei den Preisen nicht nur Lob.
Dabei geht es nicht unbedingt darum wie viel Speicher man braucht, sondern um Marketing und auch Zukunftsfähigkeit.
 
Zuletzt bearbeitet:
Kommt da n Papiertiger um die Ecke? :D

Die sollen doch mal ihre aktuellen Modelle in solcher Anzahl auf die Straße bringen, daß man die zu normalen Preisen kaufen kann .... solche Noobs. :D :D :D

Aber 12 gig Vram ist schon mal für ne 3080 gaaaanz toolll. Die hat meine kleine 6700XT auch dabei.
 
Ganz stimmen deine Preise nicht. Ampere ist teilweise billiger als Pascal und wie Turing sowieso.

GTX 1070 FE...499€...9. Juni 2016
RTX 2070 FE...629€...16. Oktober 2018
RTX 3070 FE...499€...27. Oktober 2020

GTX 1080 FE...789€...17. Mai 2016
RTX 2080 FE...849€...19. September 2018
RTX 3080 FE...699€...17. September 2020

Der einzige und zugleich wichtigste Aspekt...Pascal und Turing konnte man schon kurz nach Release billiger erwerben, während es bei Ampere nur den preislichen Weg nach oben gab.
Die Gründe sind aber hinlänglich bekannt.

Also meine KFA2 1080 OC läuft mit 2Ghz bei Luft und hat in der ersten Mining-Blase nur 489 Euro im Deal bei Mindfactory gekostet.
Nach einem Jahr gibt es nämlich üblicherweise Preissenkungen.
Die Entwicklungskosten sind abgeschrieben, die Fertigung wird günstiger durch optimierte und verbesserte Fertigungen (weniger Ausschuss, neu eingeführte Technologien wie z.B. Speicher wird günstiger, etc.)
Die hat NVidia zuletzt jedoch unter den Tisch fallen lassen.
Stattdessen wirft man einfach immer "neue" Produkte auf den Markt, die der Kunde aber schon von Anfang an erwartet hatte.
Wenn also eine 3080 irgendwas jetzt nach über einem Jahr auf den Markt kommt, dann erwarte ich als Kunde einen niedrigeren Preis.
Ganz einfach.
Alles andere ist gegensätzlich zu allem, was man kennt.
Wer ist auch so blöd und bezahlt nun für einen viel kürzeren Zeitraum bis zum bereits bekannten Nachfolgeprodukt vielleicht sogar noch mehr Geld als vorher?
Solche Menschen müssen Schläge in den Nacken dazu bekommen, die das mit sich machen lassen.
Bei allen anderen Sachen ist man so pingelig und geizig, aber bei solchen Dingen wie Grafikkarten gilt das dann plötzlich nicht mehr?
Ich möchte die Leute mal bei Media Markt und Co stehen sehen, wenn deren Fernseher kurz vor der anstehenden Messe mit Veröffentlichung/Ankündigung der nächsten Generation nicht mehr wie gewohnt zum halben Preis verramscht werden, sondern nun mit Aufpreis verkauft werden, weil der Hersteller sich gedacht hat, er bringt noch mal eben eine Super Version mit einer neuen Firmware und 100mhz mehr ARM CPU Takt und einem Softwareupdate mit neuer Androidoberfläche raus.
Oder schaut euch die Amazon Sticks an, die werden durch klein wenig verbesserte Versionen ersetzt.
Das bleibt dann aber für gewöhlich beim gleichen Preis und die alten Teile gehen dann im Angebot für die Hälfte weg.
Also ich gehe mal nicht davon aus, dass wir am Ende des Jahres 3080er für 400 Euro im Abverkauf sehen werden, oder?
 
Also meine KFA2 1080 OC läuft mit 2Ghz bei Luft und hat in der ersten Mining-Blase nur 489 Euro im Deal bei Mindfactory gekostet.
Nach einem Jahr gibt es nämlich üblicherweise Preissenkungen........................................
Jo bei Ampre war das diesesmal anders...da wurden dieses mal nicht die Early Adopter gerupft, sondern die Zauderer. Da musste man schnell sein um einigermaßen günstig auzurüsten.
Ausgehend von der GTX 1080 über die RTX 2070 super (200€ Aufpreis) auf die RTX 3070 (Aufpreis 189€) hat mich das insgesamt 389€, für über 80% mehr Leistung, gekostet.
Der 1440p Index von CB entspricht im Verhältnis auch ziemlich genau meinem Time Spy Grafik Score.

Das selbe Spielchen bei der GTX 980Ti über die GTX 1080Ti auf die RX 6800...auch wenn es da seit 2015 ein paar Euro mehr waren. Dafür ist der Leisungszuwachs auch um etliches höher ;).

Ich hätte natürlich auch bei der GTX 980Ti/GTX 1080 bleiben und über die heutigen Preise weinen können.
Was macht es da schon aus, daß ich über Jahre weniger Leistung gehabt hätte und ich heute für den selben Performance Schub mal schnell 1000€ mehr berappen soll/muß.

Edit:
Jeder soll machen wie er will...........und deine Aufforderung geht ja mal überhaupt nicht :daumen2:.
 

Anhänge

  • 1080-3070.jpg
    1080-3070.jpg
    82 KB · Aufrufe: 29
  • 1080-3070+.jpg
    1080-3070+.jpg
    209,3 KB · Aufrufe: 22
  • 980Ti-6800.jpg
    980Ti-6800.jpg
    218,4 KB · Aufrufe: 25
Zuletzt bearbeitet:
Die Entscheidung von AMD war die richtige ab der RX 6800 gleich 16 GB zu verbauen. Aber nun gut die Lederjacke hat schon vor dem Release der RTX 3000er Serie einen Plan gehabt, wie man die Kunden wieder früher zur Kasse bittet.

Ich versuche es mal wieder zu erklären.

Es gibt eine Verbindung zwischen Speichermenge und der Bandbreite des Speicherinterface.

Jeder Speicherchip ist mit 32bit an die GPU angebunden - Speicherchips gibt es in 1 oder 2 GiB.

Die RX6800 hat einen 256 Bit Interface - es passen also 8 Speicherchips an das Interface - macht 8 oder 16GiB
GA102 (Vollausbau) hat ein 384 Bit Interface - es passen also 12 Speicherchips an das Interface - macht 12 oder 24GiB
GA102 (3080) hat ein 320 Bit Interface - es passen also 10 Speicherchips an das Interface - macht 10 oder 20 GiB
 
Zuletzt bearbeitet:
Tendenziell kann man sich sagen das der Speicher der Nvidia Karten langsamer vollaufen wird da dieser die Daten schneller abarbeiten kann gddr6x vs ggdr6

Trotzdem kommt auch hinzu wie das Spiel programmiert ist
Auch die Entwickler tragen viel dazu wie viel vRAM benötigt wird
 
Ganz einfach.
Alles andere ist gegensätzlich zu allem, was man kennt.
Wer ist auch so blöd und bezahlt nun für einen viel kürzeren Zeitraum bis zum bereits bekannten Nachfolgeprodukt vielleicht sogar noch mehr Geld als vorher?
Solche Menschen müssen Schläge in den Nacken dazu bekommen, die das mit sich machen lassen.
Bei allen anderen Sachen ist man so pingelig und geizig, aber bei solchen Dingen wie Grafikkarten gilt das dann plötzlich nicht mehr?
Ich möchte die Leute mal bei Media Markt und Co stehen sehen, wenn deren Fernseher kurz vor der anstehenden Messe mit Veröffentlichung/Ankündigung der nächsten Generation nicht mehr wie gewohnt zum halben Preis verramscht werden
Angebot und Nachfrage regulieren hier maßgeblich den Preis
Wenig Grakas aufm Markt(Chipmangel) und dazu ne ordentliche Prise Nachfrage(Gaming boomt / Mining ...)
Lernt man glaub ich in jeder kfm. Ausbildung im 1 Lehrjahr :D (ist so ein hübsches Diagramm ;) )

Wäre bei Fernsehern kaum anders, wenn´s die nicht dauernd beim Discounter ums Eck für gefühlt nen Fuffi geben würde. Hier überwiegt einfach das Angebot.


Naja egal.
BTT
Genau wie alle anderen Karten zur Zeit hat man entweder Glück und kriegt eine zur UVP oder man muss deutlich tiefer in die Tasche greifen.
 
Zurück