Geforce RTX 2060 (Super): 12-GB-Modelle mit 2.176 Shadern und erhöhter TDP

Völlig unausgewogenes Produkt, ist wie wenn AMD eine RX480 mit 16 GB bringen würde.
Was sich Nividia dabei gedacht hat, werden wir wohl nie erfahren. /:

Bist wohl neidisch, dass Nvidia da das deutlich rundere Produkt abgeliefert hat, während AMD, mit der RX 6600(XT) einen "PCIe-, Speicher- und Raytracingkrüppel" abgeliefert hat.

Krüppel ist ja auch das Lieblingswort der behindertenfeindlichen AMD Fanboys.

Wenn Nvidia mal mit VRAM gegeizt hat, dann ist es ein "Speicherkrüppel", wenn Nvidia mal etwas großzügiger war, dann ist es den AMD Fans und Fanboys auch nicht recht.

Mal zur Einordnung: bei der RX 480 hat die AMD Fraktion, zu recht, über die großzügigen 8GB VRAM gejubelt und bei der RX 6800 waren die 16GB auch nicht verkehrt. Die Karte liegt leistungsmäßig dazwischen und wird sich, dnk DLSS und höher Raytracingleistung, wohl deutlich besser halten.

Aber manche haben eben ihre dunklrote AMD Fanbrille auf.
 
Naja, man bekommt damit halt die Mittelklasse der letzten Generation zu Ladenpreisen, zu denen man bei der vorletzten Generation noch Oberklasse bekam. In meinen Augen ist das genau so traurig wie es klingt. In wenigen Wochen haben wir 2022 und wir reden hier über Raytracing mit einer 2060. Ernsthaft?
 
Eben, Nvidia schießt sich, was die Akzeptanz von RT angeht hier selber hart ins Bein.
Die Gamer sind denen völlig egal, man versucht lieber die Situation aus zu nutzen und noch eine schnelle Mark zu machen mit Althardware. /:
 
Zuletzt bearbeitet:
Das mit den 12GB Vram ist doch mehr Marketing als alles andere.
Leute die keine Ahnung haben denken das wäre besonders toll und kaufen dann die Karte ( zu überteuerten Preisen).
Und RT ist bei solchen Karten ohne großen Nutzen. Dafür sind sie zu schwach.
 
Bist wohl neidisch, dass Nvidia da das deutlich rundere Produkt abgeliefert hat, während AMD, mit der RX 6600(XT) einen "PCIe-, Speicher- und Raytracingkrüppel" abgeliefert hat.

Krüppel ist ja auch das Lieblingswort der behindertenfeindlichen AMD Fanboys.

Wenn Nvidia mal mit VRAM gegeizt hat, dann ist es ein "Speicherkrüppel", wenn Nvidia mal etwas großzügiger war, dann ist es den AMD Fans und Fanboys auch nicht recht.

Mal zur Einordnung: bei der RX 480 hat die AMD Fraktion, zu recht, über die großzügigen 8GB VRAM gejubelt und bei der RX 6800 waren die 16GB auch nicht verkehrt. Die Karte liegt leistungsmäßig dazwischen und wird sich, dnk DLSS und höher Raytracingleistung, wohl deutlich besser halten.

Aber manche haben eben ihre dunklrote AMD Fanbrille auf.

Na, na, na, deine Ausdrucksweise ist aber auch nicht besser, wenn du das Wort "behindert" verwendest.
Fanboy ist übrigens ebenfalls negativ behaftet.
Nur mal so, der Korrektheit wegen, wenn man es denn unbedingt so genau nehmen will.

Zudem liegt AMD mit ihren Karten bezüglich Raytracing auf dem Niveau der RTX 2000 Generation von NVidia.
Demnach hat die nun neu aufgelegte 2060 dort also gar keinen Vorteil, wenn man die 6600(XT) als Gegner nimmt.
Und da eine 2060 bereits schlechter als eine 5600(XT) ist, und ein ganzes Stück langsamer als eine 3060(Ti) ist, befinden wir uns also ganz unten am Ende der Spielbarkeit.
12GB RAM sind für diese Karte also fast schon überdimensioniert.
Raytracing ist eigentlich ein No-Go, auch schon damals mit 6GB, weil die Leistung fehlt.
Und für FHD ohne RT sollten 8GB eigentlich auch noch genug sein.
Im Umkehrschluss stimme ich dir aber zu, dass man eine 6600(XT) nicht für Raytracing in voller Grafikpracht kaufen sollte, da dann die 8GB auf jeden Fall zu wenig sind.
Das PCI-E Dilemma mit dieser Karte kennen wir auch dank der PCGH Tests.
Käufer, die sich günstige Karten kaufen, haben oft noch gar kein Mainboard mit PCI-E 4.0 Steckplatz darauf zur Verfügung.
Diese Art der Limitierung ist also sehr unglücklich gewählt.
Warum das so sein soll oder vielleicht muss, weiß nur AMD, vielleicht hat das technische Gründe beim Chipzusammenschnibbeln.
Es wäre zumindest sinnvoll, dass noch offensichtlicher dem Käufer klarzumachen.
Ich habe hier gerade die PCGH Ausgabe 10/21 vorliegen.
Demnach hat man im besten Fall gar keine Einschränkungen, oder nur maximal 5% schlechtere Framerates.
Lediglich bei Raytracing würde diese Karte (derzeit) einbrechen, wegen der Überschreitung des 8GB RAM-Limits.
Dann wird die Speicheraustauschbandbreite über den Slot wichtig, und da halbieren sich die Bildraten dann bei DOOM mit RT sogar, bei voller Grafikpracht wohlgemerkt.
Man muss sich bei Einsteigerkarten - udn das ist eine 6600 ja - halt immer darüber bewusst sein, dass man die Grafik runterdrehen muss, oder halt nicht alle features nutzen kann oder sollte.
Also wenn man Raytracing mit reduzierten Details etc nutzt, werden womöglich auch bei DOOM keine nennenswerten Unterschiede feststellbar sein.
Demnach ist also alles in Butter, wenn man das Einsatzgebiet so einer Karte nicht absichtlich selber überreizt.
Wer sich jetzt eine Einsteigerkarte kauft, sollte sich natürlich zu jeder Zeit darüber im Klaren sein, dass er niemals damit in 3 Jahren noch Megablockbuster in Schön zocken können wird.
Da ist es dann völlig egal, ob da nun 8 oder 12GB RAm verbaut sind, oder ob da x8 oder x16 Lanes angebunden sind.
Es wird dann also nur noch darum gehen, wie man mit den vorhandenen Ressourcen haushalten muss, um eben jene Limits nicht zu überschreiten.
Natürlich altert eine 2060 mit 12GB wesentlich besser als die alte Variante mit 6GB, wenn man z.B. zumindest die Texturen voll aufdrehen möchte.
Ich würde so eine Karte aber trotzdem nicht mehr kaufen wollen, weil wie gesagt, die Raytracing Leistung ist einfach zu schlecht.
Und ich würde zumindest aktuelle Titel dann damit in Schön daddeln wollen, wenn ich schon 500 Euro oder mehr dafür ausgeben muss.
 
Laut Gerüchten auf Tom's Hardware, hat die 2060-12GB eine Hashrate von 33 MH, was ein Drittel weniger sein soll als eine 3060. Stimmt, wenn man ein Nicht-LHR Modell annimmt.

Andere Modelle mit 33MH Hashrate sind die 6600XT für aktuell schlappe 750€ und die 3060LHR für lockere 940€. Also nicht diese 850€ Einzelstück Lockvögel auf Geizhals, sondern der echte Preis, wenn ein Lieferant auch 20 Stück für die Miningfabrik liefern könnte. (Jacob Elektornik *hust)
Danke. Mein Tag ist nun ruiniert.
 
Und das glaubst Du wirklich? ETH mining skaliert ziemlich gut mit Memory Bandbreite. Das ist auch der Grund warum eine CMP170HX mit HBM2 Speicher in Sachen Effizienz eine 3090 völlig alt aussehen lässt. Pro Watt hat die ca. die doppelte Leistung beim ETH mining.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
RAM verbraucht so gut wie keine Leistung! Deshalb sind es eher die Cores die zählen beim mining.
Ob man nun 6GB oder 12GB hat, dürfte am Ende 15W ausmachen.
 
Das mit den 12GB Vram ist doch mehr Marketing als alles andere.
Leute die keine Ahnung haben denken das wäre besonders toll und kaufen dann die Karte ( zu überteuerten Preisen).
Und RT ist bei solchen Karten ohne großen Nutzen. Dafür sind sie zu schwach.
Der zweite und zudem größere Brüller ist jedoch, dass die viel schnelleren Karten 3070 und 3080 dadurch richtig schlecht da stehen.
NVidia bringt sich also selbst in absolute Erklärungsnot, was den Sinn einer angemessenen Speichermenge für den Kunden betrifft.
Entweder hier oder dort wird man als Kunde von der Firma ganz toll verarscht.
Danke. Mein Tag ist nun ruiniert.
Nun ja, eine 2060 ist nun auch kein Upgrade für deine 1070.
Was die für die Karte verlangen ist also völlig Wumpe.
Es geht nur um die Gesamtverfügbarkeit.
Steigt der Lagerbestand durch Mehrproduktion oder durch Nichtkäufe, erst dann sinken die Preise auch für den Endkunden.
Blödsinn!

1: Die Karte kann auch 4K darstellen.
2: Auch in Full HD braucht man ordentlich VRAM, wenn man die Details nicht runterschrauben möchte. Man spart sich eben nur etwas, gegenüber der höheren Auflösung.

Für neue Spiele, die in 4K 12GB benötigen ist die Karte eigentlich zu langsam.
Ältere Spiele oder Indie Games laufen natürlich super, aber dazu braucht man aber nicht so viel RAM.
Man muss sich also wirklich die Frage stellen, warum man da 4GB Ram verschwendet.
Überall auf dem Weltmarkt wird rumgejammert, dass die Komonenten so schwer zu beschaffen sind.
Aber hier wird geklotzt und nicht gekleckert, so wie bei der 3070 und 3080, und der 2060 mit nur 6GB vorher?
Hatte man nur die Möglichkeit, diese Varainte der alten Grafikkartengeneration neu aufzulegen, und man hat sich dann für 12GB statt 6GB ausgesprochen, um zumindest FullHD spielbar zu machen und die Minimalanforderungen von Wolfenstein und DOOM zu erfüllen?
Ich denke, das Kind wurde aus der Not heraus geboren, und/oder aber man wollte sich den erneuten Ärger der Presse ersparen, und/oder man wollte marketingträchtig auf die Kacke hauen, um die 12GB fett auf der Verpackung anzudrucken, um somit Käufer gegenüber anderen (besseren) Karten "umzustimmen" und "abzuwerben".
Vermutlich irgendwie alles zusammen. ^^
 
Zuletzt bearbeitet:
Was ich nicht verstehe ist, dass die Liefermängel ja (laut Nvidia und AMD) nichts mit den GPUs sondern mit vielen "sekundären Schaltkreisen" zu tun haben sollen (Analogbauteile von TI u.a.)

Haben die Kartenhersteller leere 2060 auf Halde liegen, die dann nur bestückt werden müssen oder sind die 2060 Super dann genau so sch...ön lieferbar wie die aktuellen Grafikkarten?
 
Danke. Mein Tag ist nun ruiniert.

Hast du Vorrat für den Rest der Woche, oder willst du noch wissen wie Chinesische Reiche Krypto benutzen, um ihr Vermögen in Ausland zu schaffen und dabei auch Verluste in Kauf nehmen, denn wenn von 1000€ nur 600€ am Ende draußen ankommen sind das 800€ mehr als sie normalerweise außer Landes bringen könnten? Kasachstan will denen sogar ein neues AKW bauen, weil da auch inzwischen der Strom zusammenbricht.
 
Hast du Vorrat für den Rest der Woche, oder willst du noch wissen wie Chinesische Reiche Krypto benutzen, um ihr Vermögen in Ausland zu schaffen und dabei auch Verluste in Kauf nehmen, denn wenn von 1000€ nur 600€ am Ende draußen ankommen sind das 800€ mehr als sie normalerweise außer Landes bringen könnten? Kasachstan will denen sogar ein neues AKW bauen, weil da auch inzwischen der Strom zusammenbricht.
Ok, jetzt hab ich genug um mich den Rest der Woche auch noch aufzuregen. :fresse:

@BxBender es ging mir eher darum, dass nun auch solche Notnägel als Miner herhalten werden. Das verknappt den Markt und ich bekomme nie mein Upgrade zu einem bezahltbaren Preis. Die 1070 ist nur eine gebrauchte Übergangskarte...
 
Ich frag mich ja wem eine 12gb Version der Karte was bringen soll.
Die Preise werden dadurch wahrscheinlich auch nicht besser werden (auch wenn man sich's natürlich wünscht).

Ich bleib auf meiner 970 hocken bis es etwas zum guten Preis gibt.
Und wenns dann schon 2026 ist, die RTX 6xxx heraussen sind und ich dann gebraucht etwas kaufe.
Keine Macht den Scalpern, Basta!
 
Der zweite und zudem größere Brüller ist jedoch, dass die viel schnelleren Karten 3070 und 3080 dadurch richtig schlecht da stehen.
Ich möchte eher den Brüller sehen wie Du meine Frau davon überzeugen willst, daß die RTX 3070 dadurch schlecht dasteht.

Also ich hätte da eine gewisse Erklärungsnot Ihr eine 90% langsamere Karte schmackhaft zu machen nur weil sie sinnloserweise 12 GB VRam hat. Das die RTX 3070 auch noch billiger war als der wahrscheinlich aufgerufene Strassenpreis der RTX 2060 tut sein übriges.
Nun ja, eine 2060 ist nun auch kein Upgrade für deine 1070.
Aber mit einer RTX 3070/RTX 3080 steht man schlecht da :lol:
 
Also ich hätte da eine gewisse Erklärungsnot Ihr eine 90% langsamere Karte schmackhaft zu machen nur weil sie sinnloserweise 12 GB VRam hat. Das die RTX 3070 auch noch billiger war als der wahrscheinlich aufgerufene Strassenpreis der RTX 2060 tut sein übriges.
Dass 12 GB für eine 2060 möglicherweise Overkill sind, ändert doch nichts daran, dass 3070 und 3080 von mehr als 8 bzw. 10 GB profitieren würden - jetzt, wie vereinzelte Tests schon zeigen, und erst recht in der Zukunft.

Ich persönlich bin sehr anspruchlos und hätte vermutlich auch keine Probleme, mit einer 3070 oder 3080 fünf Jahre ganz wunderbar über die Runden zu kommen, aber trotzdem gibt es an diesem verbumsten, unausgewogenen und chaotischen Nvidia-Lineup nichts, aber auch gar nichts zu verteidigen.
 
Ist doch eine schöne FullHD Karte.
FullHD ? Ist ne 4K Karte, kommt darauf an was du damit spielst, generell sollte sogar bei neueren Spielen 1440p möglich sein. Ist immer noch eine gute Karte. Zocke selber fast nur RTS Spiele, diese Karte wäre selbst für mich noch mehr als ausreichend und ja ich besitze einen 4K Monitor und einen 21:9/1440p. Für AoE4 in 4K absolut in Ordnung :)
 
Dass 12 GB für eine 2060 möglicherweise Overkill sind, ändert doch nichts daran, dass 3070 und 3080 von mehr als 8 bzw. 10 GB profitieren würden - jetzt, wie vereinzelte Tests schon zeigen, und erst recht in der Zukunft.
Wo liest Du in meinem Post, daß ich die 8/10 GB einer RTX 3070/80 gut finde. Ich finde sie ausreichend.
Die zwei/drei Spiele im Jahr (die ich vielleicht nicht überhaupt spiele) können mich sicher nicht dazu bewegen eine langsamere Karte gut zu finden nur weil sie in 0.01% der im Jahr erscheinenden Spiele einen Vorteil hat.
 
Zurück