Nvidia Geforce RTX 3060 12GB im Test: Perfekte Mittelklasse-Grafikkarte oder Speicherblender?

Naja vielleicht so 150-200euro
Aber von der Leistung her wäre es kein downgrade?

Je nach Game wahrscheinlich in der Theorie schon. Aber wird nicht sonderlich ausschlaggebend sein bei Flight Simulator und Gelegenheitsshootern. Einfach kaufen, für deine Games testen und evtl. mit Gewinn wieder verscherbeln oder halt die 5700xt mit noch mehr Gewinn raushauen. Win Win, solang du vorher testen kannst.
 
Hallo zusammen,

hab in meinem pc eine 5700xt und könnte diese teurer verkaufen, als eine 3060 zu kaufen. Macht das von der Leistung her Sinn? Spiele meist flight Simulator oder ab und zu mal ein ego shooter
Was soll das für einen Sinn machen ? Die XT 5700 ist in den meisten Spielen schneller unterwegs also bis auf das fehlende Raytracing die bessere Karte. Ausserdem wirst du eine 3060 nicht unter 500 Euro bekommen. Meiner Meinung nach solltest du die 5700XT noch mindestens solange im Rechner behalten bis sich die Preise normalisiert haben und dann auf eine (deutlich) bessere Karte wechseln (3080, 6800)
 
Weiß nicht, selbst für die UVP finde ich die Karte jetzt nicht so dolle und für den aktuellen Preis schon erst Recht nicht, aber das ist ja ein allgemeines Problem im Moment.
 
Leider ist aber beides durchaus zutreffend. Dass die Generation schwach ausfällt, ändert nichts an den aktuellen Umständen.
...und die aktuellen Umstände ändern nichts daran, dass die Generation schwach ausfällt (und die "Budget"-Klasse über die letzten Jahre stagniert ist). Das Hobby wird schon Abseits der derzeitigen Lage mehr und mehr zum Luxus und Karten wie die hier helfen da nicht. Schade, dass PCGH das nicht kritischer sieht.
 
Ich bin auch gerade herbe enttäuscht. Normalerweise bietet eine neue Generation bessere Leistung wie die nächst höhere Stufe des Vorgängers – und Ampere war da bislang keine Ausnahme, sondern eher noch eine Steigerung. Die 3070 liegt nicht nur klar vor der 2080, sondern auf Augenhöhe mit der 2080 Ti. Die 3060 Ti schlägt die 2080 S. Und jetzt liegt die 3060 in den für sie relevanten Auflösungen beinahe näher an der 2060 denn an der 2070, die sie eigentlich überholen sollte? Mau, sehr Mau.
Treffend formuliert; der Test ist gut geschrieben, aber das Fazit leider viel zu unkritisch.

30% Leistungsunterschied zwischen einem Non-Ti- und einem Ti-Modell ist schon außergewöhnlich viel, auch wenn man das mit Pärchen aus der Vergangenheit vergleicht. Hätte man die Karte 10 bis 15 Prozent schneller gemacht, wäre sie zumindest gleichauf mit 2070S und 1080Ti, aber nicht mal dazu hat's gereicht. Das ist schon ziemlich lausig.

Dann auch noch ausgerechnet bei diesem leistungsschwächelnden Modell mehr Speicher zu verbauen als bei den ungleich stärkeren 3060Ti/3070/3080, setzt den albernen Speicherkapriolen der Vergangenheit endgültig die Krone auf. Ja, wir alle kennen - zumindest teilweise - die technischen Gründe hierfür, aber das macht es nicht besser. Dann muss das Drecksspeicherinterface halt mal angepasst werden, Gott noch eins! Blickt man einfach nur auf die Leistungsdaten und den Speicherausbau des aktuellen Ampere-Line Ups, muss man da wirklich einen psychisch Auffälligen am Werke wähnen. Und das zu den aktuellen Preisen! :-$:-$:-$
 
Absolute Entäuschung und es zeigt das die Ampere Arch nur für 4K taugt denn nach unten skallieren konnte ja Vega fast besser . Die 3080/90 und auch die 3070 sind noch OK für die UVP aber die 3060 ist ja wohl eher eine FHD Karte für die Aktuellen Spiele und schon bei WQHD wirds bei aktuellen spielen schon eng. Für 250 - 300 € wäre sie Ok aber keinen Cent mehr.
 
Sehe ich auch so. AMD hatte 2+ Jahre Zeit dafür dieses extrem wichtige Killer-Feature zu kontern, aber scheinbar sind sie dazu einfach nicht in der Lage. Keine Ahnung wie AMD sich überhaupt trauen kann ähnlich viel Geld zu nehmen wenn man so ein wichtiges Feature nicht anbieten kann.

Andererseits kriegt man bei Nvidia oberhalb der Mittelklasse zu wenig VRAM, also hat man diese Generation mal wieder die Wahl zwischen Pest und Cholera, nur das beides diesmal ein Vermögen kostet.. :kotz:

Meine (wenn überhaupt) minimal langsamere 2070 verbraucht @stock auch nur 175W, und undervoltet 130-140W. Daran sieht man (mal wieder) was für eine heiße Luftnummer Ampere ist. Wo genau ist da der Fortschritt?
Naja Killerfeature ist vielleicht etwas hoch gegriffen, da die Verbreitung von DLSS eben immer noch sehr lückenhaft ist. Dennoch ist der grundlegende Ansatz von DLSS aus meiner Sicht zukunftsweisend, besonders auch im Bereich von Energieeffiziens wird es aus meiner Sicht zukünftig mehr an Bedeutung gewinnen.
Aber das steht eben auch derzeit alles noch ein wenig in der Zukunft, dennoch ist DLSS schon jetzt ein sinnvolles und nützliches Feature.
Da AMD dieses Feature nun aber derzeit noch fehlt wäre es realistischer/besser gewesen den Preis um 100-150€, je nach Modell, gegenüber Nvidia zu senken. Ein anderer guter Ansatz wäre den Preis zu übernehmen, aber 10-15% Mehrleistung bei klassischer Rastarisierung zu bieten, ergo eine 6800 zum gleichen Preis wie die 3070.

Aber nun ist es wie es ist und der Markt akzeptiert es aufgrund von dem gestiegenen Bedarf durch Corona und neuen Mining Hype...
Ich werde mich wohl gedulden bis zur nächsten Generation, oder einem erneuten Platzen der Mining Blase. Ich denke innerhalb der nächsten 2 Jahre werden wir alle nochmal die Chance auf ein gutes und günstiges Upgrade bekommen :)
 
Sehe ich auch so. AMD hatte 2+ Jahre Zeit dafür dieses extrem wichtige Killer-Feature zu kontern, aber scheinbar sind sie dazu einfach nicht in der Lage. Keine Ahnung wie AMD sich überhaupt trauen kann ähnlich viel Geld zu nehmen wenn man so ein wichtiges Feature nicht anbieten kann. (...)
Naja, DLSS 1.0 war ja meist eher eine Lachnummer als ein Killerfeature. Erst mit dem 2.0-Update wurde es dieser Bezeichnung würdig. Und im nächsten Monat feiert DLSS 2.0 erst sein einjähriges Jubiläum...
...entsprechend weniger kann man AMDs Radeon-Team vorwerfen, die Hände in den Schoß gelegt zu haben.
 
Eine GPU die ausschließlich für Full HD Gaming ausgelegt ist und das bei einem Straßenpreis von +/-600Euro aktuell?
Das ist doch ein Witz ,oder?Von Preis/Leistung her wäre das die schlechteste GPU trotz 12 GB Speicher,die ich je gesehen habe.
 
Komplett verpennt den Release und Test der Karte, ein kurzer Blick genügte und mein Fazit stand: KRÜCKE!
Nichts geht über eine saftige AMD Karte derzeit, hier mit nicht sonderlich viel mehr Verbrauch :D

ts tuning max score.png


Sollten ca max 215W TBP sein und hier mal um die Performance einzuordnen:
(RTX 3080 338W hier nehme ich an)


Screenshot_62.png


Es hat sich ausampered!
Man sind die schlecht, meine Karte mit 180W TGP satte 106% über der 3060...
 
Zuletzt bearbeitet:
Gibts überhaupt Spiele, die "voll auf RT" gehen?
Minecraft RTX.
Naja Killerfeature ist vielleicht etwas hoch gegriffen, da die Verbreitung von DLSS eben immer noch sehr lückenhaft ist.
Ja, die schlicht ungenügende Verbreitung ist das Hauptproblem. Aber ein Killerfeature ist es für mich definitiv jetzt schon, denn in unterstützten Spielen kann ich praktisch mit Grafiksettings spielen die eigentlich 1-2 Leistungsklassen über meiner Karte liegen, und das erspart mir unter Umständen die Not aufzurüsten, was grade jetzt enorm geil ist.

Ich finde DLSS auf jeden Fall weitaus interessanter als RT zur Zeit. Und ich bin überrascht das eine "Grafikhure" wie ich, die seit einem Jahrzehnt ausnahmslos jedes Spiel mit ReShade & Co. nachschärft, keine großen Einbußen bei der Bildqualität mit DLSS (Quality) feststellen kann, während andere es verteufeln. :)
Naja, DLSS 1.0 war ja meist eher eine Lachnummer als ein Killerfeature. Erst mit dem 2.0-Update wurde es dieser Bezeichnung würdig. Und im nächsten Monat feiert DLSS 2.0 erst sein einjähriges Jubiläum...
...entsprechend weniger kann man AMDs Radeon-Team vorwerfen, die Hände in den Schoß gelegt zu haben.
Grundsätzlich stimmt das, aber ich könnte auch sagen es ist um so peinlicher das Nvidia schon zwei Versionen durch hat und AMD noch nicht mal ein Releasedatum für die erste Version..
 
(...) Ich finde DLSS auf jeden Fall weitaus interessanter als RT zur Zeit. Und ich bin überrascht das eine "Grafikhure" wie ich, die seit einem Jahrzehnt ausnahmslos jedes Spiel mit ReShade & Co. nachschärft, keine großen Einbußen bei der Bildqualität mit DLSS (Quality) feststellen kann, während andere es verteufeln. :) (...)
Das lässt sich ganz leicht erklären: Du interessierst dich tatsächlich für Bildqualität, entsprechend achtest du genau auf die praktische Bildqualität und erkennst deshalb, dass DLSS einen geilen Deal darstellt. Andere interessieren sich nicht für Bildqualität und verteufeln es, weil sie von sonst wem aufgeschnappt haben, dass es schlecht sein soll. (wahrscheinlich basierten die Infos dieser anderen Person noch auf dem ursprünglichen DLSS)
 
Da ging heute voll an mir vorbei, naja hab auch nichts verpasst. Ich bin jetzt gespannt, ob NV bei der schwierigen Konkurrenz ihre UVP für die 3050Ti mit 20GB bei 299€ halten kann oder eine GT1030 doch immer noch rockt.
 
Das lässt sich ganz leicht erklären: Du interessierst dich tatsächlich für Bildqualität, entsprechend achtest du genau auf die praktische Bildqualität und erkennst deshalb, dass DLSS einen geilen Deal darstellt. Andere interessieren sich nicht für Bildqualität und verteufeln es, weil sie von sonst wem aufgeschnappt haben, dass es schlecht sein soll. (wahrscheinlich basierten die Infos dieser anderen Person noch auf dem ursprünglichen DLSS)


Oder man ist gebrandmarkt, wenn man bei CP das erste mal mit DLSS in Berührung kam. Shit in shit out...
Ich für meinen Teil werde DLSS weiterhin für mich selbst als qualitativ unzureichend einstufen, solang mich ein Spiel (welches mich auch interessiert) eines Besseren belehrt.
 
Zurück