Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Ich habe mir im Sommer auch ne GTX 1060 gegönnt. Gut für 180 € gebraucht war sie nicht ganz günstig gewesen aber sie macht ihre Arbeit super. Mir würde die rtx 2060 keine Mehrleistung bieten. Warum weil ich raytracing nie nutzen werde und das andere future aufgrund von weil ich zwar ein und Bildschirm habe aber aufgrund weil alles auf dem 24 " zu klein wird auf 2560*1440 runtergestellt. Darum nutze ich nur noch diese auflösung. Und da dieses future mit der Auflösung noch nicht unterstützt wird und nur unter Windows 10 läuft und ich bei Windows 7 bleiben will. Somit kann ich alle beiden Futures ja auch in Zukunft vergessen. Was bleibt von der nachfolgenden 60er am Ende noch übrig.ja nix mehr. Betreibe supersampling SGssaa auch genannt. Da dies mit den neuer shader nicht besser läuft ist dies auch kein Vorteil. 6 GB laufen bei mir auch nie voll. Selbst wenn ich nun crysis und crysis wahrhead mit Textur pack 2018er mit Grafikmodus und 2560*1440 kombinieren werde ich noch immer keine 6 GB vram voll kriegen. Wie es mit der Leistung aus schaut da weis ich es nicht weil noch nie ausprobiert habe.

Ich denke mal die neuen rtx Karten werden mir da auch noch nicht wirklich weiterhelfen können. Achja neue Videospiele kommen bei mir seid Jahren keine mehr rein. Ich finde irgendwie keine guten spiele mehr und das neue battlefield sagt mir null zu. Bin gespannt was ich in Zukunft für ne Grafikkarte reinstecken werden. Sparsamere Grafikkarte als die GTX 1060 wird es so schnell nimmer geben. GTX 1050 ti zählt nicht weil ja Leistungstungstechnisch um einiges schwächer als die GTX 1060.
 
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Das Preis- und VRAM-Debakel ;)

Ging mir ähnlich, ich hatte halt maximal 400€.. dafür kriegste nichmal ne 1070Ti. Das heißt, im Prinzip hatte ich dann die Wahl zwischen Vega 56 und GTX 1070 - da wurde es dann klipp und klar die Vega.
 
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Sparsamere Grafikkarte als die GTX 1060 wird es so schnell nimmer geben. GTX 1050 ti zählt nicht weil ja Leistungstungstechnisch um einiges schwächer als die GTX 1060.

Ich persönlich fand nur die 1050ti sparsam, dann erst wieder die 1070 1080 - die 1060 zieht wie die 1070ti im Verhältnis zur nächsten Karte zuviel bei zu hohem Fps Verlust.
 
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Du hälst mit der Argumentation die Zielgruppen für noch dämlicher als es Nvidia tut (RTX 2060 Käufer@UHD mit DLSS und RTX 2080Ti Käufer@FHD mit RTX Ultra).

das habt ihr roten Heuler ja bereits bei RT bewiesen ,wie "korrekt" eure Prognosen bezüglich Nvidia immer sind , von daher mache ich mir bei DLSS da auch keine Sorgen ,das ihr wieder auf das lose Mundwerk fallen werdet;)

Bzw CB hat das Ganze ja schon voraus genommen mit der Leistungsskallierung

@DLSS

Die GeForce RTX 2070
profitiert erneut um 40 Prozent und lässt so die GeForce GTX 1080 Ti und die GeForce RTX 2080 hinter sich


Ich habs mal etwas größer gemacht da ihr ja so schwach seit bei Dingen die ihr nicht lesen wollt. Ist schon blöd wenn dann selbst ne RTX 2060 bei nen drittel Stromverbrauch mit DLSS am Vega Hochofen vorbei zieht ,und auch noch günstiger wird mit dem ganzen neuen Featureset, ich versteh euch schon das euch das wurmt
;)



 
Zuletzt bearbeitet:
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Aber ohne Raytracing. Ohne RT kann mit der 2070 man sogar besser in 1440p zocken, als mit jeder Vega. ;)

An alle, warum ist Turing so teuer? Weil AMD keine Konkurrenz seit Jahren liefern kann. Sollte man, wie die AMD Fan bei den CPUs jetzt sagen "danke, AMD"?
Wohl eher nicht.
Eine RTX2070 ist schneller, neuer, sparsamer und bietet für interessierte, mit RT auch neue Features. Warum sollte die Karte nicht teurer sein. Dazu ist Nvidia, durch die Marktsituation eh teurer.
In dem Zusammenhang, muss man ja schon fast sagen, das es verwunderlich ist, das der Unterschied gerade mal um 50 Euro liegt.



Welches Debakel

Vega 56 399 Euro Mindfactory. RTX 2070 600-700 Euro.
Vega richtig eingestellt, Stromverbrauch quasi identisch mit einer 1070.
2070 hat zwar mehr Leistung, verbraucht aber auch mehr Strom.
Effizienz ist also nur etwas besser und kein Kaufgrund, da man eh kein Geld spart.
Und wer mit Vsync spielt bekomtm mit Vega 56 sogar die Effizienzstärkste Karte.
Wer also kein FullHD mehr spielt, oder kein RTX nutzen kann oder will, der ist mit einer Vega derzeit deutlich preislich besser bedient.
In 2-3 Jahren ist RTX evtl. ein Thema, dann kann man schauen, was die Grafikkartenherstelelr so zu bieten haben.
Dann werden sicherlich auch die hohen Preise bei NVidia etwas sinken müssen, wenn AMD gut aufgestellt ist.
 
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Wieder künstlich beschnitten durch 6GB VRAM.
Absolut lächerlicher Dreck.

Vega 2 oder Navi, was auch immer es denn sein wird, kann nicht früh genug kommen.

Turing ist doch mehr sowas wie Far Cry Blood Dragon oder?

Dann müsste Turing aber die beste Geforce sein, die es je gab mit grandiosem Preis-Leistungsverhältnis.
Und nichts könnte ferner der Realität sein.
 
Zuletzt bearbeitet:
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z


Verlogenes Marketing-Lieferschwierigkeiten-VRAM-PREIS-und-dann-noch-ewig-gedauert-bis-ein-Spiel-mit-wenigstem-einem-Feature-kam-ups-wir-müssen-"optimieren"-d.h.-ca-50%-der-RT-Features-wieder-rausnehmen-Debakel. Was ja einzeln für sich alles sein kann, aber der Eimer der da zusammenkommt, der stinkt schon gewaltig. Man kann sich da noch so gerne verbeißen, ich will auch kein Fangirl belehren, aber "Potential" sieht für mich anders aus.

Und jetzt kommt die 2060 also auch als RTX. Die 6GB finde ich gar nicht so schlimm, selbst wenn die 2060 in der regulären Leistung auf Niveau der 1070 spielt, für NV ist die 2060 eine FHD Karte. Und das die 6GB noch reichen, das kann man aufgrund des Stillstands der sonstigen Grafikentwicklung ja sehen; allerdings soll Fritzchen ja auch in spätestens 2 Jahren ne neue Karte kaufen, da kann muss man hier rotstiften. Da sie RTX heißt, wird sie auch vergoldet, ich spekuliere auf einen Einstandspreis von +/- 399 USD/EUR whatever. Aufgrund der Werbung, Subventionierung und des Marktanteils wird sich das Ding ja dann trotzdem verkaufen. Für die HWFreaks hier macht das Ding keinen Sinn (außer Fanatiker im Verteidungsmodus).

Was ich an NVs stelle gemacht hätte, wenn ich so ein cooles neues Feature wie RT habe und weiß, dass das leistungstechnisch schon nicht einfach an den Mann zu bringen ist, weshalb muss man dieses Feature denn dann zeitgleich zu RAM/Bandbreite/CUDA auch beschneiden? Hätten 2080/70/60 die gleiche Anzahl RT Cores gäbe es halb soviel zu meckern. Dasselbe mit dem DLSS, da warte ich trotz allem mit Spannung drauf. HWUnboxed hat sich ja mal spekulativ an dem Feature versucht, mit Hilfe der verfügbaren Demos. Dabei haben die beiden für sich raus gefunden, das es ungefähr dem Effekt entspricht, wie wenn man ne 1800er Auflösung reinmacht, im Vergleich zu 2160p. Ansonsten hätte ich auch irgendwo erwartet, das DLSS da was bringt, wo RT bremst. Aber dann sind wir wieder bei einer RTX2060 mit vllt 30 RT Cores und keinem DLSS auf FHD also hm...
 
Zuletzt bearbeitet:
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Vega 2 oder Navi, was auch immer es denn sein wird, kann nicht früh genug kommen.
.

Richtig wir haben bei Vega 20 ja schon einmal gut gelacht, bezüglich der überzogenen Erwartungen an das Ding .

Wollte man mit Vega nicht Volta schon "nass machen" u packt es mit Vega 20 in 7nm wieder nicht;)

Das wird bei Navi u Vega 2 GCN Clonen dann gewiss der Brüller, und Nvidia bereitet ebenfalls 7nm vor um nachzulegen...

#gesehen,gelacht,gestrichen

AMD hat im nächsten Jahr nicht im entferntesten was um Nvidia Paroli zu bieten, und ob es 2020 (noch) was wird ,weiss nichtmal der Lügenbaron Koothrappali ,der den Navi Brei hier mit angerührt hat:D
 
Zuletzt bearbeitet:
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Das Preis- und VRAM-Debakel ;)

Welches Debakel

Preis ist klar nachvollziehbar, auch wenn wir das gerne anders hätten und der VRam, bis 2020 werden die 8GB reichen, sowie die 11GB.
Auch hier wäre mehr schön gewesen. Zu erst müssen wir mal abwarten, was AMD 2019 bringt. Man will ja eigentlich, nach aktuellen Informationen kein High End liefern. Deswegen ist davon aus zu gehen, das AMD auch bei 8GB bleiben wird.

Demnach kann es kein Debakel geben ;)
 
Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

bis 2020 werden die 8GB reichen, sowie die 11GB.

Die Vergangenheit hat immer wieder gezeigt, dass das Thema „reichen“ beim VRAM immer so eine Sache ist. Denn erstens hängt es von jedem selber ab, was reicht und was nicht reicht. Und zweitens stellte sich immer wieder heraus, dass VRAM der laut PCGHX Usern für die nächsten Jahre reichen sollte (ich selber nehme mich da nicht aus), eben dann doch nicht mittel- bis langfristig gereicht hat.
Von daher lässt sich das letztlich, anders als du es tust, weder pauschalisieren, noch prognostizieren, wie lange VRAM reicht. Bei VRAM gilt eigentlich immer: mehr ist besser, gerade bei exorbitant teuren Karten, wie der 2080 Ti.
 
Zuletzt bearbeitet:
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

das habt ihr roten Heuler ja bereits bei RT bewiesen ,wie "korrekt" eure Prognosen bezüglich Nvidia immer sind , von daher mache ich mir bei DLSS da auch keine Sorgen ,das ihr wieder auf das lose Mundwerk fallen werdet;)

Bzw CB hat das Ganze ja schon voraus genommen mit der Leistungsskallierung

@DLSS

Die GeForce RTX 2070
profitiert erneut um 40 Prozent und lässt so die GeForce GTX 1080 Ti und die GeForce RTX 2080 hinter sich


Ich habs mal etwas größer gemacht da ihr ja so schwach seit bei Dingen die ihr nicht lesen wollt. Ist schon blöd wenn dann selbst ne RTX 2060 bei nen drittel Stromverbrauch mit DLSS am Vega Hochofen vorbei zieht ,und auch noch günstiger wird mit dem ganzen neuen Featureset, ich versteh euch schon das euch das wurmt
;)




Kann noch so schöne Zahlen raushauen, das sagt noch gar nichts über die (Bild-)Qualität aus...kann mich da an gewisse Treiber erinnern, die das auch schon mal versucht haben... ;)

Und DLSS ist für mich "Fake", wie ein hochgerechnetes SD-Bild, welches als (Ultra-)HD verkauft wird...und der ständige "Online-Zwang", damit es auch funktioniert geht (für mich) schon mal überhaupt nicht.

mfg
 
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Richtig wir haben bei Vega 20 ja schon einmal gut gelacht, bezüglich der überzogenen Erwartungen an das Ding .

Wollte man mit Vega nicht Volta schon "nass machen" u packt es mit Vega 20 in 7nm wieder nicht;)

Das wird bei Navi u Vega 2 GCN Clonen dann gewiss der Brüller, und Nvidia bereitet ebenfalls 7nm vor um nachzulegen...
Vega macht Volta doch in bestimmten Bereichen nass und wieso vergleichst du eine HPC GPU die bis zu 450W schlucken darf, mit Vega10 Desktop? Die Dinger kosten ein paar tausend Euro.

Vega 2 kann lediglich Mobile sein, weil es dort ganz sicher Langzeitverträge mit Intel gibt, bis die ihre eigenen dGPU am Laufen haben. Dort gibt es immerhin Vega 8; 10; 11. Das würde auch dazu passen das nV erst mal nur eine mobile RTX launcht.

Überzogene Erwartungen haben andere auch geschürt und zwar mit Raytracing. Wo sie jetzt gerade landen wird eben erst klar. Mehr Hybrid SSR als Echtzeit. Gleiche Leistung für mehr Geld und ohne höheren VRAM Ausbau.

Es gibt also auch dort genug zu kritisieren.

da gibts keinen Online Zwang

wer hat das eig überhaupt erfunden?
Wie bitte schön lädt ein Treiber die notwendigen KI Rutinen nach? Sie werden nicht mit dem Treiber ausgeliefert. Der Treiber enthält eine .dll die zu NGX gehört, erst wenn diese angesprochen wird werden die notwendigen Daten nachgeladen. Wie geht das ohne angemeldet oder online zu sein?

Ja es gibt keinen Zwang, nur dann gibt es auch kein DLSS! Zumal das nur für UHD gilt.

*edit: ...und die scully...Verblödung nehme ihren Lauf. Man spart am Bildinhalt (Pixelmenge) und Geometrie, wobei man schneller ist, welche Erkenntnis! Das gabs schon vor 10 Jahren. Das nannte man früher "Treiber cheaten"!

Dann kann man Generationen auch nicht hausintern vergleichen, die müssen nämlich viel mehr darstellen, wenn das nur für die RTX Serie gilt!
 
Zuletzt bearbeitet:
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Nvidia muss eine RTX 2060 nachschieben und keine GTX 2060!
Warum?
Weil die Absatzzahlen und der Preis der größeren Karten nicht stimmt.

Die RTX 2060 ist ein (letzter?) Versuch RT doch noch im Markt zu etablieren, weil eben relativ wenige Leute gibt, die Karten für über 500€ kaufen, auch wenn dies einige hier im Forum nicht glauben mögen... ;)
Auch waren die 6GB zu erwarten/befürchten, da man sich von einer 2080 mit nur 8GB absetzen muss...

Die Karte hat eigentlich damit lediglich eine "Alibi-Funktion" bzgl. RT, und versucht die 350-400 € Klasse zu bedienen, obwohl damit auch mit noch so tollen "Optimierungen", wenig zu reißen sein wird bei so einer beschnittenen GPU...
Jedenfalls nicht, ohne gewaltige Einbußen in der Bildqualität.

mfg
 
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

Wie bitte schön lädt ein Treiber die notwendigen KI Rutinen nach? Sie werden nicht mit dem Treiber ausgeliefert. Der Treiber enthält eine .dll die zu NGX gehört, erst wenn diese angesprochen wird werden die notwendigen Daten nachgeladen. Wie geht das ohne angemeldet oder online zu sein?

Ja es gibt keinen Zwang, nur dann gibt es auch kein DLSS! Zumal das nur für UHD gilt.

das Model wird wird auf den NV Servern Trainiert und dann in die Spiele Dateien integriert

also entweder gleich am Anfang oder mal als Patch

danach wird alles lokal berechnet

hast du etwas noch nie eines deiner Spiele gepatched oder was?
 
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

das Model wird wird auf den NV Servern Trainiert und dann in die Spiele Dateien integriert

also entweder gleich am Anfang oder mal als Patch

danach wird alles lokal berechnet

hast du etwas noch nie eines deiner Spiele gepatched oder was?

"Das Inferencing findet dann auf der Turing-Hardware im Gaming-Rechner statt und wird durch die Tensor Cores unterstützt. Die dazu notwendigen Daten werden per GeForce Experience an den Rechner übertragen und sind nur wenige Megabyte groß. Allerdings würde damit auch die Installation der GeForce Experience zusätzlich zum Treiber notwendig und zudem verlangt dieser nach einem Login und kann nicht mehr einfach so betrieben werden."
GeForce-RTX-20-Serie: Neuer AA-Modi DLSS erlaeutert und erste Leistungsdaten - Hardwareluxx

Auch wenn der Treiber die "Pakete" nur einmal runterlädt (Aktualisierungen immer mal wieder ausgenommen ;) ), über GeForce Experience, bist du praktisch auf Dauer verbunden, incl Idendify-LogIn! :ugly:

mfg
 
AW: Nvidia Geforce RTX 2060: Spezifikationen in Benchmark-Datenbank, Gigabyte-Custom-Design & GPU-Z

das Model wird wird auf den NV Servern Trainiert und dann in die Spiele Dateien integriert

also entweder gleich am Anfang oder mal als Patch

danach wird alles lokal berechnet

hast du etwas noch nie eines deiner Spiele gepatched oder was?
Das stimmt nicht. Bitte einen Link zu deiner Aussage!

Das DLSS ist ein reiner Vorgang der bei nV verbleibt. Das hat mit der Spieleentwicklung überhaupt nichts zu tun. Die KI muss anhand von Nutzerkonfigurationen einen Abgleich der Bilddaten vornehmen.

Eine Auslieferung mit dem Treiber oder Spielen im Vorfeld wurde von nV verneint. Das Inferencing findet dann auf dem jeweiligen Rechner statt. Die dazu notwendigen Rutinen werden per Experience an den Rechner übertragen. Dazu braucht es eine Installation von Experience und dieser verlangt dann ein Login (siehe DarkWing13 Post #79-Erläuertungen von HWL oben).

Was du glaubt oder denkst zu glauben ist dabei völlig irrrelevant.

Das Herunterladen der Daten ist nur notwendig, wenn NGX per .dll auch angesprochen wird, sonst wäre es völlig sinnlos. Heisst die Cores müssen da sein und diese Variante auch unterstützen. DLSS passt nicht zu allen Spieleengines. Das war schon im Vorfeld klar. Zum Beispiel nutzen einige Engine bereits Skalierungsformen und Kantenglättungsmodi (sie erzwingen sie regelrecht). Das kann DLSS nicht so einfach ersetzen.

edit:...um das Modell mal zu erläutern. Auf dem Inference Server (Zugang per Experience) wird ein Clientprofil angelegt. Das erkennt den jeweiligen RTX Rechner und hält die Bibliotheken dann bereit. Die koppeln sich imo an eine nVidia Cloud basierende Struktur. Was anderes kann ich mir jedenfalls nicht vorstellen.
 
Zuletzt bearbeitet:
Zurück