Grafikkarten-Gerüchte: Geforce RTX 3050 und Radeon RX 6500 XT ab Januar

Eine x5xx oder xx50 schön und gut. Normalerweise kaufe ich sowas nicht, aber die 1060 meiner Frau, 5 Jahre alt, stämmt an und für sich noch alles was sie so spielt, aber sie geht wohl dem Ende zu. Ich würde sie gerne ersetzen, aber ich zahl nicht MEHR für nur vergleichbare Performance 5 Jahre später. Habe damals einen guten Deal mit 220€ geschossen (2016) und das bei knapp nur 100W Verbrauch, da erwarte ich schon deutlich was besseres heuer.
 
Häufigste Aufllösung 1080p
Häufigste Refresh Rate 60Hz
Meist gespielte Titel auf Steam: überwiegend olle Kamellen.

So eine 3050 hat schon ihren Markt. Aber 4GB, DLSS und RTX sind schon eine arg seltsame Kombi.
 
Dann waren die mal kurzeitig so günstig. Die Regel war das aber nicht.
Es gab immer Karten in diesem Preisbereich! Da brauchst du dir nur die "historisches" Tests bei Computerbase anschauen. 200 Euro und mehr waren immer gehobene Mittelklasse oder mehr. Jetzt durch die Wucherpreise wird so getan als wäre es die untere Einstiegsklasse. Eine progressive Entwicklung darf man auch erwarten.

 
Das finde ich bei Nvidia allerdings auch lustig, ist aber zum Teil auch den Umständen geschuldet.
Tja, welche Umstände?
Dass man sich bei der Konstruktions völlig verkalkuliert hatte, dass 8GB eben doch nicht mal mehr heute fürs Gaming mit Raytracing reicht?
Man muss es ganz klar sagen, die Firmenspitze wollte viel Geld sparen, indem man weniger GDDR6X Speicher einkauft und verlötet hat.
Oder es gab ein Lieferproblem und hat dann kurzerhand gestrichen, aber nicht von der Fertigungsmenge.
Und damit der dumme Käufer nichts merkt, sagt man einfach 6 GB reicht für alles.
Gleich im ersten Spiel merkte die Presse aber, dass 8GB für FullHD gerade noch ausreichend sind, und dass man für UHD mindestens 12GB RAM braucht, um damit Spaß zu haben, jetzt, später wird auch das eng werden.
Tja, Pech NVidia, die Taktik ging nicht auf.
Also geht man jetzt dazu über und verlötet auf den kleinsten Karten besonders viel RAM, um die kläffenden Hunde milde zu stimmen.
Dass man damit aber die eigenen Käufer der höherpreisigen Karten ebenfalls verstimmt und ans Bein pinkelt, die sich die Ohren zugehalten und trotzdem gekauft haben, tja, war das nicht eher das zweite Eigentor?
Und das dritte Eigentor ist, die 3060 und vor allem die 2060 sind keine Raytracing Karten, die benötigen keine 12GB Ram, auch weil die Leistung für maximal FHD ausreichend ist, wenn man denn nun wirklich mal etwas anspruchsvollere Titel anstellen will, die es aktuell gibt, die auch RAM benötigen könnten.
Klar gibt es DSLL, dreht man einfach alles runter, damits auch in FHD oder gar WQHD einigermaßen läuft, aber dann ist es wieder eine (viel) geringere Auflösung und braucht auch weniger RAM.
Also eine weitere Fehlkonstruktion.
3 dicke Dinger am Stück inenrhalb einer einzigen Generation.
Zählt man noch dazu, dass Miner durch den vielen Speicher auf den Karten angelockt werden (könnten), was die eh zu zahlenden Mehrkosten dafür nochmal ums zigfache auf den Endpreis aufschlagen lassen könnten, tja dann zähle ich schon 4 Gründe, warum das ein Griff ins Klo war.
Respekt NVidia, das schafft so schnell Niemand.
 
Anstatt ständig neue Varianten raus zu bringen ,sollten sie lieber die Verfügbarkeit der aktuellen Grafikkarten verbessern.
Das würde trotzdem an der Situation rein gar nichts ändern. Denn wenn auch mehr der bisherigen Karten verfügbar sein würden, würde man als Gamers/0815 Privatkunde trotzdem die Mondpreise bezahlen. Die würden kein Deut sinken. Zumal man an die Karten zu den UVP Preisen weiter kaum Chancen haben wird, da die Autobots der Miner und Scalper vorher zuschlagen. Darüber ist ja ein schöner Artikel hier Online.

Zu der 3050 ist zu sagen, das die Karte zu normalen Zeiten wohl zu Preisen zwischen 150 und 200€ über den T=isch gehen würde. Aber da ja nichts mehr Normal ist derzeit, dürfte für die Karte locker 400€ aufwärts aufgerufen werden. Völlig gaga ....

Die RX 6500 disqualifiziert sich alleine schon wegen den kümmerlichen 4 GB VRAM und den 64bit Speicherinterface von alleine für Gamer. Das ist dann ne reine Office oder HTPC Karte. Wobei da eigentlich insbesondere für Office die APUs völlig ausreichend sind. Da frage ich mich, wen AMD mit so einem Speicher und Interface Krüppel ansprechen will ?
 
Tja, welche Umstände?
Dass man sich bei der Konstruktions völlig verkalkuliert hatte, dass 8GB eben doch nicht mal mehr heute fürs Gaming mit Raytracing reicht?
Man muss es ganz klar sagen, die Firmenspitze wollte viel Geld sparen, indem man weniger GDDR6X Speicher einkauft und verlötet hat.
Oder es gab ein Lieferproblem und hat dann kurzerhand gestrichen, aber nicht von der Fertigungsmenge.
Und damit der dumme Käufer nichts merkt, sagt man einfach 6 GB reicht für alles.
Gleich im ersten Spiel merkte die Presse aber, dass 8GB für FullHD gerade noch ausreichend sind, und dass man für UHD mindestens 12GB RAM braucht, um damit Spaß zu haben, jetzt, später wird auch das eng werden.
Tja, Pech NVidia, die Taktik ging nicht auf.
Also geht man jetzt dazu über und verlötet auf den kleinsten Karten besonders viel RAM, um die kläffenden Hunde milde zu stimmen.
Dass man damit aber die eigenen Käufer der höherpreisigen Karten ebenfalls verstimmt und ans Bein pinkelt, die sich die Ohren zugehalten und trotzdem gekauft haben, tja, war das nicht eher das zweite Eigentor?
Und das dritte Eigentor ist, die 3060 und vor allem die 2060 sind keine Raytracing Karten, die benötigen keine 12GB Ram, auch weil die Leistung für maximal FHD ausreichend ist, wenn man denn nun wirklich mal etwas anspruchsvollere Titel anstellen will, die es aktuell gibt, die auch RAM benötigen könnten.
Klar gibt es DSLL, dreht man einfach alles runter, damits auch in FHD oder gar WQHD einigermaßen läuft, aber dann ist es wieder eine (viel) geringere Auflösung und braucht auch weniger RAM.
Also eine weitere Fehlkonstruktion.
3 dicke Dinger am Stück inenrhalb einer einzigen Generation.
Zählt man noch dazu, dass Miner durch den vielen Speicher auf den Karten angelockt werden (könnten), was die eh zu zahlenden Mehrkosten dafür nochmal ums zigfache auf den Endpreis aufschlagen lassen könnten, tja dann zähle ich schon 4 Gründe, warum das ein Griff ins Klo war.
Respekt NVidia, das schafft so schnell Niemand.
Das die 3060 12GB hat, liegt an die Art und Weise wie halt der VRAM angebunden ist. Die GPU ist so aufgebaut, das biszu 6 Chips eingebaut werden können. Weniger Chips = weniger Bandbreite = weniger Leistung. Man die Auswahl von Chips mit 1,2,3 oder 4GB pro Stück. Mixen geht nicht. Also 6GB, 12GB, 18GB oder 24GB. Und 6GB reicht halt nicht mehr.
Es waren BESTIMMT 6GB geplant, aber dann kam AMD mit dem Lowend, welche mehr VRAM hatten.

8GB VRAM ist bis 1440p ansich OK. RT braucht aber noch ca. 2GB mehr. Von daher ist erst die 3080 eine 1440p RT Karte in meinen Augen.
Alles unter der 3080 müsste 1080p mit RT laufen lassen, wegen der Leistung. Dann sind die 8GB wieder ok für die kleineren.

Die erste Karte, bei der sich 4k erst lohnt von der Leistung ist die 3080Ti. Die hat die vollen 12GB. Hier 12x1GB Chips.
Obwohl man sagen kann das 4k mehr als 12GB brauchen würde...sind Spiele einfach nicht auf eine solch riesige Menge an VRAM ausgelegt.
Selbst meine 3090 mit 24Gb hat meist nur <12GB VRAM Nutzung bei 4k.

Die 3080 hat 10GB, weil der Chip um fast 20% "abgeschaltet" ist für eine größere Ausbeute. Dazu zählt auch ein Teil der RAM-Anbindung.
Deswegen hat die 3080 10 von 12 Chips verbaut. Die 3080Ti hat einen volle RAM-Anbindung und daher 12GB.

Die 3090 ist ein Sonderfall. Es sollte eine Arbeitskarte werden die man für gewisse Arbeiten nutzen kann die keine Quaddro brauchen. wie z.b. Videoediting. Eigentlich also eine Titan, man wollte aber diese als "Gaming" vermarkten, damit mehr Kunden angesprochen werden.
Daher sollte sie 2GB Chips bekommen...leider sind diese nicht verfügbar. Die 2GB Chips waren danach Anfang 2021 angekündigt...kommen aber MÖGLICHERWEISE erst Anfang 2022 raus (3090Ti könnte 12x2GB Chips haben) möglicherweise wegen Corona und Lieferschwierigkeiten.
Und darum wurde 12GB noch auf der Rückseite verwurschtelt. Indem man die Chips parallel angeschlossen hat.
Das bringt natürlich Nachteile: 1. GDDR6X ist schon heißer stromhungriger VRAM...und jetzt hat man doppelt soviele.
Die Rückseite aktiv zu kühlen ist bei PCI-E nicht vorgesehen...Deswegen musste der Kühler so Massiv sein, damit quasi DURCHS PCB die Rückseite mitgekühlt wird.

Wenn die 3090TI dann 2GB Chips bekommt, dann hat die so oder so schon mehr Leistung als eine normale 3090, weil die GPU mehr Strom, auch bei 350W, bekommen kann.
Ich HOFFE für alle Gamer, das die 3090TI eine LHR Bremse hat...

Wenn die 3090TIFE tatsächlich denselben Kühler als die 3090 hat, 12x2GB VRAM und 450W....dann würde ich die möglicherweise kaufen und meine 3090FE verkaufen. Die würde dann mit UV und Powerlimit bei mir laufen, damit die nicht die volle 450W zieht XD.

Achja DLSS ist tatsächlich eher eine Notlösung, die aber relativ gut funktioniert, damit das hungrige RT auch mit kleineren Karten läuft.
Und selbst ohne RT kann DLSS oftmals AA ablösen und mehr FPS geben. JA DLSS hat noch Fehler. Aber 99% der Fehler von DLSS sehe ich im normalen Gameplay nicht. Für mich sieht in vielen Fällen ein Spiel mit DLSS Qualität besser aus als ohne, unabhängig der FPS.

In Sachen RT ist bis heute auch nur die Spitze des Eisberges angeschnitten worden. Es kann soviel mehr, aber kostet dementsprechend DEUTLICH mehr Leistung, als irgendeine Karte es heute vernünftig liefern kann. Es wird sich aber in den nächsten Generationen langsam immer mehr etablieren und komplexer werden. Warum es also so früh rausbringen? Weil es wie ALLE neuen Grafiktechniken reifen muss.
Auch Entwickler müssen den Umgang damit neu lernen.
Engines zu bauen kostet auch viele Jahre Zeit. Auch wenn RT schon seit 2-3 Jahren "raus" ist, gibt es noch keine Engine die es nativ kann. Bisher ist RT nichts weiter als ein Plugin in Engines...Eben weil große Engines NOCH mehr Zeit brauchen zum entwickeln. Native RT sieht man vielleicht in UE6/UE7 oder Unity2 XD. Ich würde sagen 2025...
Z.b. eines der ersten RT-Titel: Battlefield V...die aktuelle Frostbite 3 Engine ist schon über 8!!! Jahre alt (Entwicklung startete sogar 2011).
Schon damals war die Engine nicht der Hit :P und bei BFV wurde dann auf biegen und brechen RT hinzugefügt.
Das Alter der Frostbite 3 sieht man an BF2042...anderen Firmen geht es ähnlich...

Tl;dr
Nvidia versucht was sie können, Corona hat vieles auf dem Markt durcheinander gebracht. Manchmal können sie nur noch reagieren.

@BxBender
Guck dir mal die Steam Hardware Survey an. 2/3 aller Spieler nutzen noch 1080p. 1440p macht nur 9% aus...
9,5% haben 1GB VRAM, 10% haben 2GB VRAM, 17% haben 4GB VRAM und 22,5% haben 6GB VRAM.
Erst vor kurzen hat 8GB VRAM mit 23,4% die 6GB als größter Vertreter abgelöst.
Und bevor du sagst, die meisten kommen eh aus China/Asien...China/Asien ist für Nvidia immernoch der größte Markt.
Dort spielen viele Kompetitiv und das braucht nicht viel Leistung.

Das Highend, das viele hier nutzen ist leider nur ein kleiner elitärer Teil der großen Gamer Gemeinde.
Die Demografie auf PCGH entspricht halt nicht dem Durchschnitt :P
Aber ja ich selber würde auch nie ein Spiel auf Low spielen wollen XD.#

P.S.
Das was News erfahren und was WIRKLICH bei Nvidia vorgeht sind 2 paar Schuhe. Das macht es ja so spannend...
 
Letzten Endes ist die RTX 3070 zwar gut, geht aber zwischen 3060 und 3080 fast unter.
Echt? Die RTX 3060 ist doch meilenweit von der RTX 3070 entfernt.

Dass man sich bei der Konstruktions völlig verkalkuliert hatte, dass 8GB eben doch nicht mal mehr heute fürs Gaming mit Raytracing reicht?
Schon probiert, oder bist Du nur einfach frustriert weil Du keine neue Karte bekommen hast? Wenn die Leistung nicht da ist nützt auch mehr VRam nichts.
RT Index.jpg


Ich hab auch noch nirgends gelesen, daß Raytracing Pflicht ist. Bei AMD ist das komisch kein Thema.

Ohne Raytracing macht der VRam Krüppel weiterhin eine gute Figur.

CB Index.jpg


Ich bin jedenfalls froh meinen Performance Krüppel gegen den VRam Krüppel getauscht zu haben. Und das für 189€...da könnt ihr noch so haten...ich lach mir eins.
Vergleich.jpg


Alles niederschreiben, was mir meine beiden kleinen boshaften Teufel

Evil.jpg


zu solchen ( immer wiederkehrenden Posts) ins Ohr flüstern, kann ich leider nicht ohne eine Sperre zu riskieren.
 
Zuletzt bearbeitet:
Die derzeitigen abstände der rtx30 gpu
GA106 276mm² 179chips aus einen wafer 60% yield
rtx3050 8tf 100% uvp vermutet 279€ realistisch herzustellen ohne bundle vram von nvidia 379€
rtx3060 9,3tf 112% uvp 329€ realistisch herzustellen 449-499€

ga104 392mm² 90chips aus eine wafer 50% yield
rtx3060ti 12tf 137% uvp 419€ mögliche realistische uvp 499€
rtx3070 15tf 160% uvp 519€ realistisch herzustellen 569€

was auffällt das der ga106 kaum vom endkundenpreis sich von dem größeren ga104 unterscheidet
Der Grund dafür ist vram preis aktuell bei 13$ pro GB und das ist klar dem chipmangel zuzuschreiben nicht den scalpern und minern
Die kommen oben drauf.

Ich gehe von einer rtx3050ti benennung aus da es keine Sinn macht 10-15% unter der rtx3060 eine karte zu platzieren

Und es noch nen rtx3050 mit 18sm kommen wird ga107
Diese wiederum würde in Größe auf 175mm² kommen maxed 25$ kosten und 4gb mit 52$ Endkunden preis bei 279€
Die performance wär bei 6,2tf etwa auf level der gtx1660ti etwa 50% langsamer als die rtx3060
Das würde eher passen als einen beschnittenen ga106 zu nehmen da amd mit n24 und nur 16cu etwa gleich schnell wäre
 
@DaHell63
Ja, die 3060 ist meilenweit von der RTX 3070 entfernt, aber unter normalen Umständen hätte ich mich im mittleren Segment für die 6700 XT entschieden. Letzten Endes ist die 3070 kein so rundes Produkt, wenn die 3060 entsprechend günstiger ist und eine 6800 XT vernünftig verfügbar wäre.
 
Zuletzt bearbeitet:
Letzten Endes ist die 3070 kein so rundes Produkt,
Besser gehts immer, keine Frage. Mehr VRam hätte ich sicher nicht abgelehnt.
Meine RTX 3070 (639€) hat mich nach verkauf der GTX 1080Ti (450€) eigentlich wenig Aufpreis gekostet. Seit über einem Jahr habe ich also eine Karte mit neuer Garantie und teilweise über 50% mehr Performance. RT/DLSS mal aussen vor. Für die paar Euro kann ich damit leben, daß die Karte wohl ein wenig eher aufgerüstet werden muß als eine vergleichbare Karte mit mehr VRam.
Heute bekommt man kaum eine RTX 3060 für das Geld.
Man kann nicht immer alles haben...zumindest nicht für diesen Preis ;).

Bis jetzt habe ich Spielemäßig auch keine Nachteile gegenüber meiner RX 6800, eher ein paar Vortele. Nicht das sie jetzt mehr FPS machen würde...jetzt kommt das große aber...in raytracing Spielen hat man, in gewissen Spielen, durch DLSS doch erhebliche Vorteile die oft über spielbar und unspielsbar entscheiden.
 
Zuletzt bearbeitet:
Ja, stimmt, vor allem unter den jetzigen, nochmals verschärften Weihnachtsbedingungen war das ein guter Preis.
Ich wurde am Anfang auch ausgelacht, weil ich im Juni eine RTX 3060 für 500€ gekauft habe (UVP 330€ ohne Märchensteuer). Mittlerweile liegen die zwischen 630€ und 750€, wenn man überhaupt eine erwischt. :ugly:
Und da könnte ich noch eine meiner alten Karten gut verkaufen - eine 1070 Strix im Wohnzimmer-PC (muss bleiben) oder eine gut gealterte Sapphire RX 470 8 GB Nitro aus der Ersatz-Halde.
 
Wie man nachträglich sieht... alles richtig gemacht :daumen:

Leider bemerkt man als Gamer immer mehr, wer beim Spielehersteller vorstellig war.
Angefangen von Cyberpunk (Nvidia) über Valhalla (AMD) bis zu den kürzlich erschienenen Spielen wie AOE und Hallo.
Die Unterschiede sind mit der generellen Leistung der Karten nicht mehr plausibel.
H+AOE.jpg
 
Zuletzt bearbeitet:
Wie man nachträglich sieht... alles richtig gemacht :daumen:

Leider bemerkt man als Gamer immer mehr, wer beim Spielehersteller vorstellig war.
Angefangen von Cyberpunk (Nvidia) über Valhalla (AMD) bis zu den kürzlich erschienenen Spielen wie AOE und Hallo.
Die Unterschiede sind mit der generellen Leistung der Karten nicht mehr plausibel.
Anhang anzeigen 1381080
Die grünen Scheinchen machens halt möglich. Einfach eine Frage der softwareseitigen "Liebe" die da noch nachträglich reingesteckt wird....
 
Zurück