Nvidia Turing: Geforce RTX 2070 im ersten Test

TU102 und TU104 erscheinen nicht vollständig aktiviert für Gamer, aber der Ausdruck Abfall wegen einigen deaktivierten Einheiten ist herrlich übertrieben.

Dann will ich mal ganz fraulich mit Pascal vergleichen, wo die Ti eine gute positive Resteverwertung der Titan ist. Und auch den passenden Preis hat.
Mal von dem sinnlosen Überfrachten des Chips abgesehen entsteht auch ein Problem für Aufrüster.
Sli wird u.U. too much für viele NT.

Und der 380W - Bug ist auch net ohne. Würde ja Lachen, wenn TH das Ganze damals mit der 480 auch so leicht genommen hätte.
(mehr A am PCiE als zulässig)
 
Was stellt bei einer 1080Ti eine positive Restverwertung dar, was bei der 2080Ti im Vergleich fehlt?

Es konnten alle Nützlichen Dinge weiterverwendet werden.
RT = heutzutage schon nützlich = eher für 99% der Consumer nicht.
Zugunsten der Umwelt bitte DEAKTIVIEREN.

Vom Grundsatz her fragt NV doch schon lange nicht mehr die Consumer, was gewünscht wird, sondern erzeugt künstlich den Zwang nach PhysX+Tess+RT und whatever nochso schönes in der Pipeline ist.

Schau Dir mal FarCry an , Vorgänger von Crysis, was da noch mit schmaler Hardware möglich war.
Diese auftragsgemäße Überfrachtung der Spiele mit sinnlosen Sachen und jetzt noch in der Hardware muss mal vom Consumer abgelehnt werden.
 
Zuletzt bearbeitet:
Es konnten alle Nützlichen Dinge weiterverwendet werden.
RT = heutzutage schon nützlich = eher für 99% der Consumer nicht.
Zugunsten der Umwelt bitte DEAKTIVIEREN.

Vom Grundsatz her fragt NV doch schon lange nicht mehr die Consumer, was gewünscht wird, sondern erzeugt künstlich den Zwang nach PhysX+Tess+RT und whatever nochso schönes in der Pipeline ist.

Schau Dir mal FarCry an , Vorgänger von Crysis, was da noch mit schmaler Hardware möglich war.
Diese auftragsgemäße Überfrachtung der Spiele mit sinnlosen Sachen und jetzt noch in der Hardware muss mal vom Consumer abgelehnt werden.

Wann wurde denn jemals eine Grafikkarte nach den Wünschen der Consumer hergestellt? Oder wann auch nicht? Die Erwartungen sind doch Jahr ein Jahr aus, immer die selben. Schneller, größer, neuere Features. Kommen die nicht, wird gemeckert. Kommen sie, wird auch gemeckert.

Genauso wie die Games immer aufwendiger werden sollen. Irgendwann wird’s halt schwer, die neuesten Sachen mit alter Hardware zu zocken. Dort ist es doch das gleiche. Man wünscht sich möglichst fotorealistische Grafik, möchte aber nicht die nötige Hardware kaufen. Ja, was denn nun?!? Man muss sich auch mal entscheiden.

Wenn ich mir die Star Wars Szene anschaue, find ich RT übrigens gar nicht so sinnlos. Ich freue mich stattdessen auf das kommende. Aber das ist natürlich nur meine Meinung und kann jeder so sehen, wie er will.
Evtl. auf Konsole umsteigen, da braucht man nicht aufrüsten.
 
Zuletzt bearbeitet:
Habe mal zu Gamestar rübergeäugt, da wurde der Test auch schon von den Usern zerrissen. Vor allem die Lobpreisungen über die 2070 (eigentlich ne 2060, da nochmals kleinerer Chip, zum Preis einer 2080) sind ja sowas von lächerlich.
Ich warte lieber auf vernünftige Tests von Raff. :cool::daumen::nicken:
Der Test wurde also nicht wirklich wegen Objektiven Kriterien zerrissen, sondern nur weil den Usern die Preisgestaltung nicht passt. Und wegen eines einzelnen Arguments den ganzen Test zu "verreißen" ist halt schwach.

Und das was du als "eigentlich eine 2060" meinst, ist dann wohl eher sowas hier, ohne Tensor Cores, ohne RT Cores (oder zumindest ohne deren Aktivierung)
Turing-basierter Midrange-Grafikchip zeigt sich in nVidias Automobil-Loesung "Drive AGX Pegasus" | 3DCenter.org

Man was für ein grotesker Scheiß, da verschwende ich auch nicht weiter Zeit damit.
Buahaha einer der wenigen Momente wo es Locuza reicht :D
Schau Dir mal FarCry an , Vorgänger von Crysis, was da noch mit schmaler Hardware möglich war.
Diese auftragsgemäße Überfrachtung der Spiele mit sinnlosen Sachen und jetzt noch in der Hardware muss mal vom Consumer abgelehnt werden.
Die Gründe, warum die Hardware heute mehr Leisten muss für weniger Effekte ist, weil wir ein gewisses Effizienzmaximum überschritten haben. Früher war es einfach mit verdoppelter Leistung deutlich schönere Grafik hinzuzaubern, weil man doppelte Objektdetails (Polygone, Texturauflösung etc) sofort gesehen hat. Aber bei den heutigen Objektdetails fallen doppelt so viel Polygone einfach nicht mehr auf.

Carmack hat das 2001 mal so formuliert "vor wenigen Jahren waren wir noch froh über 3 Polygone für eine Nase". Mit 20 wiederum ist da schon viel passiert und selbst eine verzehnfachung würde wenig optischen Vorteil bringen.

Der aktuelle Status der Grafik ist nunmal schon "gut", und um noch den letzten Rest des Fotorealismus rauszuholen braucht es leider sehr viel mehr Leistung und auch andere Methoden. Raytracing zum Beispiel.
 
Zuletzt bearbeitet:
Der aktuelle Status der Grafik ist nunmal schon "gut", und um noch den letzten Rest des Fotorealismus rauszuholen braucht es leider sehr viel mehr Leistung und auch andere Methoden. Raytracing zum Beispiel.

RT ist nun Das Letzte, was gerade ansteht.

4k-HDR8+FRC@min62fps für Alle (RX56+) ist viel sinnvoller. (auch ältere TV`s mit Enhanced Sync nutzen)
Meine Hoffnung : AMD verbessert das CheckerboardUpscaling und bringt Das im Wattman als Option. (als Alternative zu DLSS)
 
RT ist nun Das Letzte, was gerade ansteht.

4k-HDR8+FRC@min62fps für Alle (RX56+) ist viel sinnvoller. (auch ältere TV`s mit Enhanced Sync nutzen)
Meine Hoffnung : AMD verbessert das CheckerboardUpscaling und bringt Das im Wattman als Option. (als Alternative zu DLSS)

Wieso sollte auf 4K die Priorität liegen, wenn die meisten immer noch in 1080p zocken?
 
RT ist nun Das Letzte, was gerade ansteht.[...]

Nö, ist schon sinnvoll, dass man sich mal Gedanken über Raytracing macht. Raytracing löst halt viele aktuelle Probleme der Rastergrafik (wir bekommen es nicht hin, einen universell funktionierenden Ambient Occlusion-Filter zu implementieren und jeder komplexere Filter kostet uns Unmengen an Leistung mehr; wir bekommen es nicht hin, eine universell funktionierende globale Beleuchtung mit Schattenwurf zu simulieren; wir bekommen es nicht hin, universell glaubhafte Spiegelungen zu erzeugen; ...) aus dem Stehgreif, einfach, weil es Raytracing ist. Das ist nicht nur für Nutzer interessant, sondern eben auch hauptsächlich für die Entwickler, die keine Arbeit mehr darin investieren müssen, Grafikeffekte zu tweaken - einfach, weil mit Raytracing alles aus dem Stehgreif funktioniert. Das ist auch das, was Nvidias CEO Huang mit "It just works" gemeint hat.
Jedes zusätzliche Prozent, welches wir dem Fotorealismus näher kommen, wird mit Rasterisierung immer teurer erkauft werden, aus dem einfachen Grund, weil wir immer raffiniertere und komplexere Methoden finden müssen, damit wir in der Rasterisierung Effekte hinbescheißen können, welche Rasterisierung konzeptbedingt nicht berechnen kann. Raytracing hingegen macht all diese Dinge automatisch richtig, weil es eben von vorn herein die Lichtausbreitung auf makroskopischer Ebene simuliert.
Auf der einen Seite wollen wir immer detailreichere Grafik, auf der anderen Seite beschweren wir uns darüber, dass diese Grafik mehr und mehr Leistung braucht. Was wollen wir denn jetzt eigentlich? Die Arme verschränken und "Raytracing ist unnötig" plärren kann Jeder. Nur ist das eben keine Lösung.
gRU?; cAPS
 
Wieso sollte auf 4K die Priorität liegen, wenn die meisten immer noch in 1080p zocken?

Die dt. Meisten haben noch nicht mal das Rad erfunden.

Die Anderen Meisten sind Asiaten+Amis und spielen am TV.
Die Japaner wollen 2020 Olympia in 8k austrahlen.
RTX ist sogar HDR-8k -Ausgabefähig , aber nur in YUV.
 
Zuletzt bearbeitet:
Was wollen wir denn jetzt eigentlich? Die Arme verschränken und "Raytracing ist unnötig" plärren kann Jeder. Nur ist das eben keine Lösung.

Ich glaube, die Mehrheit hier ist nicht gegen Raytracing.
Nur dagegen wie Nvidia das einführt.

Es scheint einfach zu früh, zu schlecht, zu teuer.

Anstatt den Launch von Raytracing+passender hardware, super vorzubereiten und zu planen und auch dann erst auszuführen, wenn das für die Masse ersichtlich gut und finanzierbar ist, ballern sie statt dessen einen haufen Energie in das Marketing, mit riesen TammTamm und dann kommt ... ... eben das, was wir gerade haben.

Raytracing zum abgewöhnen inkl. schöner Preiserhöhung.

Ich finde das ist eher kontraproduktiv und Nvidia leistet der Technik, wie nennt man das ?, "einen Bärendienst".

So hat das Ganze für mich zumindest schon mal einen negativen Beigeschmack, dem man skeptisch gegenüber steht.
Hätte man sicher anders, besser und vielleicht auch später machen können.


Der Grundidee von Raytracing in Spielen stehe ich ja positiv gegenüber.
Aber halt nicht dem Turing Launch allgemein.

An Raytracing wird ja schon lange gearbeitet(nicht nur von Nvidia).
Ich weiß nicht, ob Nvidia der ganzen Sache gerade gut tut.

Wozu führt das ?
Es werden schon Rufe laut, die fordern, dass AMD hoffentlich bald neue Karten ohne Raytracing Unterstützung herausbringt, einfach mit mehr Leistung, ohne Zusatzschnickschnack, den man momentan noch gar nicht richtig nutzen kann.


Nur mal dazu, warum wegen Raytracing "geplärrt" wird.

Just my 2 cents.
 
Ich würde eher sagen die Leute sind sauer weil sie dafür zahlen sollen das Nvidia das proprietär einführt. Neue Techs pusht man nicht auf dem Rücken der Kunden.
 
Am Ende entscheiden die Verkaufszahlen. Alles andere spielt keine Rolle. Ob die Endkunden heulen oder nicht, ob es ihnen im PCGH zu teuer ist oder nicht, oder ob im China ein Sack Reis umfällt....alles ist genauso wichtig, nämlich gar nicht. So lange genügend Einheiten verkauft werden, ist alles in Butter. Brechen die Verkäufe ein, wird auf der Jahreshauptversammlung dem Vorstand auf die Finger geklopft. Sind die Zahlen okay, ist es okay. So einfach ist das. NVIDIA ist nicht gerade in der Position, unbedingt etwas liefern zu müssen. Ich bin mir nicht sicher, ob NVIDIA tatsächlich auf die Gamer angewiesen ist und wir hier uns nicht imaginär wichtiger nehmen, als wir sind. Diskutieren kann man ja gern, aber was hier teilweise abgeht, ist fern der Realität
 
und wir hier uns nicht imaginär wichtiger nehmen, als wir sind.

Naja, wenn man das so sieht, kann man gleich morgen sein Auto verkaufen, seinen Job kündigen und sonst was machen, da wir realistisch betrachtet, alle unsichtbare Staubkörner auf einer winzigen, blauen Kugel sind, die durch's All treibt.
Das ist die Realität.

Aber die meisten kriegen glaube ich Kopfschmerzen, wenn sie darüber nachdenken. ;-)

Also lasst uns lieber wichtiger nehmen, als wir realistisch betrachtet sind und über Preise, Nvidia, oder das Wetter aufregen. :D
Die Alternative wäre etwas ... naja. Sucht euch selbst ein Wort dafür aus. ;-)
 
Am Ende entscheiden die Verkaufszahlen. Alles andere spielt keine Rolle. Ob die Endkunden heulen oder nicht, ob es ihnen im PCGH zu teuer ist oder nicht, oder ob im China ein Sack Reis umfällt....alles ist genauso wichtig, nämlich gar nicht. So lange genügend Einheiten verkauft werden, ist alles in Butter. Brechen die Verkäufe ein, wird auf der Jahreshauptversammlung dem Vorstand auf die Finger geklopft. Sind die Zahlen okay, ist es okay. So einfach ist das. NVIDIA ist nicht gerade in der Position, unbedingt etwas liefern zu müssen. Ich bin mir nicht sicher, ob NVIDIA tatsächlich auf die Gamer angewiesen ist und wir hier uns nicht imaginär wichtiger nehmen, als wir sind. Diskutieren kann man ja gern, aber was hier teilweise abgeht, ist fern der Realität

Gaming ist ganz klar das Hauptgeschäft und der Imageträger, selbstverständlich ist Nvidia auf diese angewiesen. Das wäre in etwa so wie wenn Daimler auf seine PKW´s verzichten würde....
 
Mir gehts mehr darum, dass sich die Leute unglaublich aufregen und ständig am meckern sind, sich teils persönlich angreifen. Da sieht man regelrechte Grabenkämpfe und wofür? Für ein Stück Silizium. Keiner wird gezwungen das neue Produkt zu kaufen. Hätte ich ne 1080 (Ti), würde ich nicht mal im Ansatz darüber nachdenken die aktuelle Generation zu kaufen. Also bräuchte ich mich auch nicht so aufzuregen. Aber, jeder wie er meint.
 
Eigentlich muss man über die Preise froh sein. So haben die AMD Karten noch eine Position am Markt. Hätte NV die 20er Serie exakt auf den Preispunkt der 10er gesetzt, wäre es für AMD nur schlimmer. So können wir alle warten bis NAVI den GPU Markt ebenso aufrollt wie Ryzen den CPU Markt.
 
Eigentlich muss man über die Preise froh sein. So haben die AMD Karten noch eine Position am Markt. Hätte NV die 20er Serie exakt auf den Preispunkt der 10er gesetzt, wäre es für AMD nur schlimmer. So können wir alle warten bis NAVI den GPU Markt ebenso aufrollt wie Ryzen den CPU Markt.

Da ist tatsächlich was dran, ich wünsche AMD den Erfolg, denn was sie mit Ryzen mit dem Rücken an der Wand geschafft haben, gehört belohnt. Ob sich das auch in der GPU Sparte niederschlägt, kann ich nicht beurteilen. Fakt ist, ich wäre geneigt, nächstes Jahr im April meine 980TI in Rente zu schicken. Im Moment spiele ich nur alte Kamellen, da reicht sie für 1440p, trotzdem finde ich es ne harte Nummer, trotz zwei neuerer Generationen für ein Step-Up nicht im gleichen Preisbereich bleiben zu können...
 
Es scheint einfach zu früh, zu schlecht, zu teuer.

Anstatt den Launch von Raytracing+passender hardware, super vorzubereiten und zu planen und auch dann erst auszuführen, wenn das für die Masse ersichtlich gut und finanzierbar ist, ballern sie statt dessen einen haufen Energie in das Marketing, mit riesen TammTamm und dann kommt ... ... eben das, was wir gerade haben.

Raytracing zum abgewöhnen inkl. schöner Preiserhöhung.

Ich finde das ist eher kontraproduktiv und Nvidia leistet der Technik, wie nennt man das ?, "einen Bärendienst".

So hat das Ganze für mich zumindest schon mal einen negativen Beigeschmack, dem man skeptisch gegenüber steht.
Hätte man sicher anders, besser und vielleicht auch später machen können.
Ich halte RayTracing für sehr gut bezahlbar. Es geht so ab 500€ los, für 550€ bekommt man ne ziemlich gute Custom-2070.

Es ist ziemlich komisch, warum auf NVIDIA so herum gehackt wird, während sich über die Vega-Preise z.B. gar niemand aufregt. Dabei waren die Vega-Karten schon ab Release völlig überteuert, das wusste sogar AMD, deshalb hatte man ja auch beim UVP kräftig geschummelt und 100US$ weggelogen:
AMD's RX Vega 64's $499 MSRP Was 'Launch Only' Introductory Offer By The Company - OC UK Reports

Es ist schon sehr merkwürdig. Monatelang wird herum geheult, wie jetzt wieder nur "Pascal 2.0" kommt und als "neu" verkauft wird, wie NVIDIA ja gar nichts innovatives macht und nur die Kunden melkt - und nun sind sie Innovativ und bringen etwas komplett Neues - und wieder ist es verkehrt.

Gäbe es Pascal 2.0 - also einen vergrößerten, verbesserten Pascal-Chip - würdest du doch jetzt genauso herum heulen, warum NVIDIA so dreist ist einen Refresh so teuer zu verkaufen.

Kurz: Vielen geht es nur um das Bashing von NVIDIA, mit der Faktenlage hat das nichts zu tun.

Eigentlich muss man über die Preise froh sein. So haben die AMD Karten noch eine Position am Markt. Hätte NV die 20er Serie exakt auf den Preispunkt der 10er gesetzt, wäre es für AMD nur schlimmer. So können wir alle warten bis NAVI den GPU Markt ebenso aufrollt wie Ryzen den CPU Markt.
Gerade AMD sollte - was Preisgestaltung angeht - den Ball flach halten. Dass Navi der größe Überflieger wird, muss sich auch erstmal zeigen. Polaris und Vega waren ziemlich Flops gegenüber den NVIDIA-Karten.
 
Zurück