Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Wir gehen mit?
Du bist den Mist mitgegangen und hast zu viel für zu wenig gezahlt....und das, wo es dir sogar noch bewusst ist.....und nur weil du mal wieder Lust auf was "neues" hattest.....
Unbegreiflich sowas, bitte nicht alle anderen über einen Kamm mit dir scheren.

der typ ist doch eh nicht ernst zu nehmen....wie du richtig erkannt hast, ist er jemand der Wasser predigt aber Wein trinkt....
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Der Funktionsumfang hat gar nichts mit der Performance vom Treiber zu tun.
Nvidia gewinnt in mehreren Fällen, weil ihr Treiber die Verwaltung von den Ressourcen besser hinbekommt und bei einigen Spielen auch multithreaded Command-Lists unterstützt, als einziger Hersteller, der Rest hat sich die Investition gespart, weil es keine triviale Sache ist das performant hinzubekommen.
Andere Eckstellen betreffen die Befehlsumsetzungen für die entsprechenden Architekturen, wo je nach Architektur gewisse Dinge vom Treiber festgelegt und optimiert werden, während bei einer anderen Architektur das die mit minimalen setup Hardware selber erledigt.

Ja , AMDs (GPU) Hardware scheint, trotz aller theoretischer Potenz (meist etwas höher) immer ein wenig schlechter auf die tatsächlichen Anwendungsanforderungen zurecht geschnitten zu sein. Dass mag an der geringern Man Power auf der Treiberseite liegen, an der geringeren Möglichkeit, Drittsoftware an die eigenen Eigenheiten anpassen (Gameworks) zu können und insgesamt den Markt Bedarf weniger lenken zu können. So gesehen, da alles genannte faktisch und großzügig mit reinspielt, ist es doch sehr wunderlich, dass eine 580 mit einer 1060 noch mithalten kann...
 
Zuletzt bearbeitet:
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Das sehe ich anders. Die Eingriffe vom Treiber bei AMD sind eben nicht mal gerade so umzusetzen, ein OSD/Monitoring kostet schnell mal Leistung je nach Engine, das einblendbare OSD ist ebenfalls nicht so einfach umzusetzen, schon gar nicht wenn der Treiber dann on the Fly das FPS Limit, die Kontrast und Farbdarstellung sowie via Chill auch noch den Energieverbrauch/Takt absenkt bei keiner Eingabe des Nutzers. Aufnahmefunktion inklusive für alle Spiele verfügbar und nutzbar. Das bläht den Treiber zusätzlich auf, hinzu kommen die Eingriffe in die Tesselation und noch viele, viele weitere Dinge auf der Microebene.

Nvidia ist doch nicht unfähig den Treiber zu pimpen und aufzuhübschen, das kriegt jeder Referent auf die Kette wenn er denn soll. Das alles sind auch gründe warum der Experience vom eigentlich Treiber entkoppelt ist und vernünftige Hardwaremags ohne den Einfluss andere Faktoren wie Tools, Treiberzusätze etc. benchen.
Das der Nvidia Treiber hervorragend optimiert ist, stelle ich nicht infrage.Ich stelle lediglich klar warum er so ist wie er ist.Deine Antwort geht a Thema vorbei.
[...]
Der Logik nach müsste der AMD-Treiber über die Zeit gesehen ja immer langsamer geworden sein und das ist er nicht.
Weil das optionale Funktionen sind und stocksimpel einfache Parameter ändern/anzeigen oder intensiver eingreifen , aber wer die Funktionen nicht verwendet, der bezahlt bei einer gescheiten Implementierung auch nichts dafür und dank Benchmarks sieht man auch das die Treiber nicht langsamer geworden sind.

Weiß der Teufel wieso Nvidia so gammlig bei der UI priorisiert, bei AMD hat es früher auch Jahre gedauert, bis da mal was Gutes dastand und dann hat es auch nichts mit zusätzlichen Funktionen allgemein verlangsamt.
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Der Logik nach müsste der AMD-Treiber über die Zeit gesehen ja immer langsamer geworden sein und das ist er nicht.
Weil das optionale Funktionen sind und stocksimpel einfache Parameter ändern/anzeigen oder intensiver eingreifen , aber wer die Funktionen nicht verwendet, der bezahlt bei einer gescheiten Implementierung auch nichts dafür und dank Benchmarks sieht man auch das die Treiber nicht langsamer geworden sind.

Weiß der Teufel wieso Nvidia so gammlig bei der UI priorisiert, bei AMD hat es früher auch Jahre gedauert, bis da mal was Gutes dastand und dann hat es auch nichts mit zusätzlichen Funktionen allgemein verlangsamt.

Ich hab es selbst getestet indem ich den Treiber zusammen gestutzt habe, konnte ich den Overhead entscheidend verringern. Ein weiterer entscheidender Punkt ist das der AMD Treiber nicht so priorisiert wird wie der Nvidia Treiber und deutlich anfälliger auf Hintergrundanwendungen reagiert. Das habe ich ebenfalls manuell gefixt in der Registry.
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Dann wird eben gekauft, wenn Navi die gleiche Leistung für unter 300€ bringt ;)

Dieses sowieso total ineffiziente Rebrand kommt nicht ansatzweise an die Power von Turing heran, geschweige denn an Pascal vorbei, ich wette nicht mal auf Parität von Pascal, dagegen steht sogar Vega im besseren Rampenlicht, versprochen.
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Bei Treiber muss ich auch sagen, Nvidia wann gibts mal ein neues Overlay. Alles wird schick gemacht und der Treiber wirkt wie WinXP mit Classic Menüs. Das kann Amd wirklich grad besser, aber sei es drum...

Jo, ich hatte auch gehofft, dass mit der neuen 400er Version ein überarbeitetes, benutzerfreundliches Layout und die Zusammenlegung von Systemsteuerung und Experience kommt - aber Fehlanzeige. Naja, vielleicht ja in den nächsten Monaten, man darf ja noch träumen :D
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Ich hab es selbst getestet indem ich den Treiber zusammen gestutzt habe, konnte ich den Overhead entscheidend verringern. Ein weiterer entscheidender Punkt ist das der AMD Treiber nicht so priorisiert wird wie der Nvidia Treiber und deutlich anfälliger auf Hintergrundanwendungen reagiert. Das habe ich ebenfalls manuell gefixt in der Registry.

An welchem Schlüssel muss man denn drehen, um die Priorisierung zu korrigieren?
Ich hab die Registry schon ewig nicht mehr angepackt.

Edit:
Dieses sowieso total ineffiziente Rebrand kommt nicht ansatzweise an die Power von Turing heran, geschweige denn an Pascal vorbei, ich wette nicht mal auf Parität von Pascal, dagegen steht sogar Vega im besseren Rampenlicht, versprochen.

Das Flame Baiting kannst du aber besser.
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Das sehe ich anders. Die Eingriffe vom Treiber bei AMD sind eben nicht mal gerade so umzusetzen, ein OSD/Monitoring kostet schnell mal Leistung je nach Engine, das einblendbare OSD ist ebenfalls nicht so einfach umzusetzen, schon gar nicht wenn der Treiber dann on the Fly das FPS Limit, die Kontrast und Farbdarstellung sowie via Chill auch noch den Energieverbrauch/Takt absenkt bei keiner Eingabe des Nutzers. Aufnahmefunktion inklusive für alle Spiele verfügbar und nutzbar. Das bläht den Treiber zusätzlich auf, hinzu kommen die Eingriffe in die Tesselation und noch viele, viele weitere Dinge auf der Microebene.
Ich muss da mal widersprechen. Bei ordentlichem, objektorientierten Programmieren heißt mehr Funktionen absolut nicht, dass auch die Performance sinkt. Denn eigentlihc sollten immer nur die verwendeten Funktionen, und nicht alle derzeit abgeschalteten oder nicht verwendeten Funktionen Threads belegen.
AMDs scheinbar größerer Umfang - der früher auch nicht da war und trotzdem war man langsamer/hatte mehr Overhead- hat keinen bis kaum Einfluss. Nvidia hat einfach einen wesentlich schlankeren (damit ist nicht der Funktionsumfang, sondern eine sauberere Programmierung gemeint; direkter, ohne Ausnahmen und sonderregeln wenn man so will).
Du kannst ein PRogramm (oder eine Engine, einen Treiber oder auch sonstwas)etwa ständig um Funktionen erweitern und wenn Bugs auftreten diese mit einer Error Exception auffangen und du wirst den Code aufblähen und die Geschwindigkeit verlangsamt sich.
Du kannst dir aber auch die Zeit nehmen, Teile des Programms immer generell neu zu schreiben, sodass die Fehler gleich gar nicht auftreten, Funktionen und Features zusammengefasst sind usw usf. Das ergibt ein schlankes, stets leicht wartbares und stabiles Programm. Kostet aber ungleich mehr Geld es immer wieder teilweise neu zu entwickeln. Und ersteres ist wohl bei AMD der Fall, letzteres bei Nvidia.
Das der Nvidia Treiber hervorragend optimiert ist, stelle ich nicht infrage.Ich stelle lediglich klar warum er so ist wie er ist.Deine Antwort geht a Thema vorbei.
Deine Einschätzung entspricht nur igendwie nicht dem, was ich aus 10 Jahren Softwareprojektmanagement, aus den Erfahrugnen mit den Treibern von Nvidia und auch dem Treiberteam sehe.
Ja , AMDs (GPU) Hardware scheint, trotz aller theoretischer Potenz (meist etwas höher) immer ein wenig schlechter auf die tatsächlichen Anwendungsanforderungen zurecht geschnitten zu sein. Das mag an der geringern Man Power auf der Treiberseite liegen, an der geringeren Möglichkeit, Drittsoftware an die eigenen Eigenheiten anpassen (Gameworks) zu können und insgesamt den Markt Bedarf weniger lenken zu können. So gesehen, da alles genannte faktisch und großzügig mit reinspielt, ist es doch sehr wunderlich, dass eine 580 mit einer 1060 noch mithalten kann...
Bis auf den letzen Punkt stimmt alles. Aber der letzte Punkt vergleicht halt einfach nur zwei gleich schnelle Karten. Die Frage "um welchen Preis" (fast doppelter Energieverbrauch) darf ja durchaus auch gestellt werden. Die 1060 ist bei 120W, die 580 bei knappen 200W

Ich hab es selbst getestet indem ich den Treiber zusammen gestutzt habe, konnte ich den Overhead entscheidend verringern. Ein weiterer entscheidender Punkt ist das der AMD Treiber nicht so priorisiert wird wie der Nvidia Treiber und deutlich anfälliger auf Hintergrundanwendungen reagiert. Das habe ich ebenfalls manuell gefixt in der Registry.
Da bin ich jetzt aber gespannt:
Wie hast du zurechtgestutzt?
Welche Tests und Ergebnisse?
Bitte Treiberpaket hier zum Download anbieten, dann kann ich das auch überprüfen.

Wäre dem so, wären AMD Treiberentwickler absolute Flaschen die ständig im Hintergrund die CPU mit hohen Lasten beschäftigen mit Funktionen die eigentlich grad gar nicht gebraucht werden. Sorry das ist so ca 3. Semester Software Engineering/ OOP.
 
Zuletzt bearbeitet:
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

An welchem Schlüssel muss man denn drehen, um die Priorisierung zu korrigieren?
Ich hab die Registry schon ewig nicht mehr angepackt.

Edit:


Das Flame Baiting kannst du aber besser.

Hmm, weiß net ob das in nem Forum so ne gute Idee ist. Aber naja. Schau mal hier, da sind die entscheidenden Einstellungen.
HINWEIS:NICHTS ABÄNDERN WENN KEINEN PLAN!WENN PLAN, DANN VORHER BACKUP ODER SYSTEM ZURÜCKSTELLUNGSPUNKT DEFINIEREN!
Computer\HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows NT\CurrentVersion\Multimedia\SystemProfile\Tasks\Games
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Dieses sowieso total ineffiziente Rebrand kommt nicht ansatzweise an die Power von Turing heran, geschweige denn an Pascal vorbei, ich wette nicht mal auf Parität von Pascal, dagegen steht sogar Vega im besseren Rampenlicht, versprochen.

Ui, absolut keine Ahnung von der Materie haben, aber zuerst mal ordentlich grenzdebil rumflamen. Grandios.

Navi hat nichts mit dem möglichen Polaris in 12nm zu tun, den du meinst.

Das sehe ich anders.

Das klingt für mich klar nach einer Fehleinschätzung.
Als Entwickler bin ich da eindeutig Locuzas Meinung.
 
Zuletzt bearbeitet:
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Dieses sowieso total ineffiziente Rebrand kommt nicht ansatzweise an die Power von Turing heran, geschweige denn an Pascal vorbei, ich wette nicht mal auf Parität von Pascal, dagegen steht sogar Vega im besseren Rampenlicht, versprochen.
Unwahrscheinlich. Mit 7nm wäre Polaris 10 in 100mm² oder gar darunter möglich, bei höherer Schaltgeschwindigkeit. Und eben ein weiterer Vega Shrink, der grob auch mit knappen 240mm² auskäme (sogar darunter). Oder man entscheidet sich doch größere Chips zu brauen, dann landet man halt über der Vega (und somit 1080, 2070 und vielleicht sogar in 1080 Ti, 2080 + Gefielden, je nach Anzahl der HW Einheiten).

Eigentlich sinds sogar 70% best case und die erreichbare Transistoremenge (16 vs 7nm TSMC) ist 233%. Das ist also auch so ziemlich der best case theoretische Outcome bei der Performance (bei ähnlichem Strombedarf).
Navi wird auf jeden Fall nicht ein "ineffizienter Rebrand" werden...

Hmm, weiß net ob das in nem Forum so ne gute Idee ist. Aber naja. Schau mal hier, da sind die entscheidenden Einstellungen.
HINWEIS:NICHTS ABÄNDERN WENN KEINEN PLAN!WENN PLAN, DANN VORHER BACKUP ODER SYSTEM ZURÜCKSTELLUNGSPUNKT DEFINIEREN!
Computer\HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows NT\CurrentVersion\Multimedia\SystemProfile\Tasks\Games
Und was genau hast du alles geändert, damit du nun solch Overhead-Werte hast wie bei Nvidia?
Und in welchen Test hast du es dann festgestellt?
Bitte um Details, ausführlicher.
Nicht einfach "auf www. google.com hab ich das gefunden"

Ach und das zusammengestutzte Treiberpaket bitte zum Download. Ich hab morgen in der Arbeit im Labor Zeit das mal durchlaufen zu lassen.

Ich versuchs in 720P und 1080P Tests, in Overhead Tests ( Benchmark: Neue 3DMark-Szene testet API-Overhead - Golem.de ) sowie diverse andere Tests.
Jeweils mit einer undervolteten, underclockten CPU, damit die CPU stärker als Limit rauskommen.
Oder mitm Pentium D sowie Athlon 64 X2. Haben wir alles rumstehen.


Leider finde ich den Test grad nicht mehr (Techpowerup? Techspot? Computerbase?) aber würde mir im Falle natürlich weitere Inspirationen suchen.

Auch, dass es mit den zusätzlichen Funktionen zusammenhängt ist wohl klar zu verneinen. Das Overhead-Problem existiert bei AMD schon wirklich lange, man hat es dann mit Mantle versucht zum umgehen. Lange bevor es die Crimson Treiber gab.
Gibt hier ja sogar einige Threads zum Thema
AMD DX11 Treiber Overhead - Endlich Licht am Ende des Tunnels ?
 
Zuletzt bearbeitet:
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Danke für den Test, Schade das Raff im Urlaub ist. Ihr macht aber trotzdem eine sehr gute Vertretung.

Die Benchmarks sind so wie man sie vorher schon erwartet hat. Also etwas über einer GTX 1080 fe. Mit dicken Custom Designs, also die auch auf knapp 2 GHZ Boosten, wird es die GTX 2070 schwer haben. Da wird kaum Mehrleistung bei herum kommen. Gut die GTX 1080 gibt es kaum noch neu zu kaufen. Also muss man für ein Oc Modell nunmal satte 600 Euro + hinlegen, kluger Schachtzug von Nvidia.:) Aber das Armor Modell scheint zumindenst noch etwas zu taugen, wobei ich es entweder nicht gelesen habe, aber die Lautstärke der Karte habt ihr schon gemessen?

Ansonsten ist es schon beeindruckend, wie Nvidia ihre Archiktektur etwas an AMD annähern, aber trotzdem noch den Stromverbrauch im Griff haben.

Freesync fehlt leider immernoch, einer der Gründe warum ich mir nun doch eine Vega Karte zugelegt habe. Klar der Stock Stromverbrauch kann ins unermässliche steigen, Undervoltet mit vernünftigen Taktraten, allerdings für mich im Rahmen. Ich konnte einfach das geruckele bei meiner GTX 1070 nicht mehr ertragen, sobald man mal unter die 60 FPS Grenze gefallen ist. Ohne Vsync kann man nunmal nicht zocken. Da habe ich nur die Wahl zwischen Pest und Cholera. Also entweder Tearing oder halt nicht. Dafür halt Ruckeln. In Pubg war es sogar so schlimm, das ich Adativ Sync anmachen mussen. Weil der Lag nunmal extrem war. So das ist alles Geschichte mit Freesync ! Ich Spiele in 4k mit etwas Upsamling, d.h in der Regel ist die Graka immer Vollausgelastet. Klar gibt es Games wo es nicht so ist, aber trotzdem selbst da gibt es ja Situationen wo die Graka mal an ihre Grenzen stosst. Daher Freesync -> all.

Sry ich bin nicht bereit fürs Gaming Erlebniss 800 Euro auf den Tisch zulegen, wenn eigentlich auch 400 reichen.:)
 
Zuletzt bearbeitet:
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Unwahrscheinlich. Mit 7nm wäre Polaris 10 in 100mm² oder gar darunter möglich, bei höherer Schaltgeschwindigkeit. Und eben ein weiterer Vega Shrink, der grob auch mit knappen 240mm² auskäme (sogar darunter). Oder man entscheidet sich doch größere Chips zu brauen, dann landet man halt über der Vega (und somit 1080, 2070 und vielleicht sogar in 1080 Ti, 2080 + Gefielden, je nach Anzahl der HW Einheiten).

Eigentlich sinds sogar 70% best case und die erreichbare Transistoremenge (16 vs 7nm TSMC) ist 233%. Das ist also auch so ziemlich der best case theoretische Outcome bei der Performance (bei ähnlichem Strombedarf).
Navi wird auf jeden Fall nicht ein "ineffizienter Rebrand" werden...

Und was genau hast du alles geändert, damit du nun solch Overhead-Werte hast wie bei Nvidia?
Und in welchen Test hast du es dann festgestellt?
Bitte um Details, ausführlicher.
Nicht einfach "auf www. google.com hab ich das gefunden"

Ach und das zusammengestutzte Treiberpaket bitte zum Download. Ich hab morgen in der Arbeit im Labor Zeit das mal durchlaufen zu lassen.

Ich versuchs in 720P und 1080P Tests, in Overhead Tests ( Benchmark: Neue 3DMark-Szene testet API-Overhead - Golem.de ) sowie diverse andere Tests.
Jeweils mit einer undervolteten, underclockten CPU, damit die CPU stärker als Limit rauskommen.
Oder mitm Pentium D sowie Athlon 64 X2. Haben wir alles rumstehen.

Ich hab ehrlich gesagt keine Lust auf so einen Kindergarten.
Ein Beispiel habe ich im CPU Thread zu den Kommentaren von der CB Berichtigung des Prozessortest auf Seite 4 aufgeführt.

Ich habe weder meinen Treiber auf Nvidia Performance gebügelt noch sonst irgendwas behauptet was Ihr euch hier zusammen reimt, sondern den Overhead vom AMD Treiber reduziert in dem Beispiel und damit identische Performance zum Nvidiasystem gehabt mit dem Prozessor. Diverse Einstellungen im AMD Treiber erzeugen einen zusätzlichen Overhead, das ist so.
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Bis auf den letzen Punkt stimmt alles. Aber der letzte Punkt vergleicht halt einfach nur zwei gleich schnelle Karten. Die Frage "um welchen Preis" (fast doppelter Energieverbrauch) darf ja durchaus auch gestellt werden. Die 1060 ist bei 120W, die 580 bei knappen 200W

Jetzt Vergleichst du verschiedene Arch philosophien in verschiedenen Fertigungsverfahren. Nvidia ist ohne Frage effizienter - die Chips lassen fraglos höhere Taktraten zu... (und wenn du einen Miner fragst, haben sie weniger Leistung per watt…)

Die Frage ist die sich mir stellt - könnte Nvidias Treiber Team, mit ihren Möglichkeiten, nicht noch mehr aus der AMD Arch heraus holen - die messbare Mehrleistung auch sinnvoll in Spielen umsetzten und geht "nur" deswegen nicht diesen Weg, weil sie ihre Umgebung auf die eigenen, günstig produzierbaren Bedürfnisse angepasst haben - einen Weg, der möglichst kontrair zu dem, des Kontrahenten ist?

Nicht falsch verstehen, nur eine eigene These: Nvidia ist net böse (gedanklich bin ich noch bei der 1060 und co. Pascall) aber investiert einen nennenswerten Teil der eigenen Energie nicht etwa in die Produktverbesserung, sondern in darin, den Markt so zu formen, dass der Kontrahent schlechter dasteht, als er sonst würde...



Wenn man die letzte Generation als Vorbild nimmt, ist Turing enttäuschend. Beim Vergleich Pascal zu Maxwell hat die GTX 1070 noch die 980 Ti geschlagen. In diesem Jahr reicht es gerade mal für die 1080. Das fällt mMn. besonders negativ ins Gewicht, da die 2070 quasi genau so viel kostet wie eine 1080 damals.

Aber auch wenn mich manche für verrückt halten: Ich glaube nach wie vor, dass Turing nicht gemacht ist um in hohen Stückzahlen verkauft zu werden oder lange am Markt bleiben wird. Turing ist mMn. sowas wie der Schnulli für nVidia-Fans und Leute, die jetzt unbedingt von einer 1080 Ti aufrüsten wollen, quasi um was Neues in der Hand zu haben als Überbrückung bis zu den 7nm-GPUs. Und da glaube ich, dass wir die schon Ende 2019 von nVidia sehen werden.
Ich gehe so weit und behaupte Turing, so wie es jetzt ist war anders geplant. Ursprünglich, mit kleinerer Fertigung und dann den erwünschten performance Sprung geplant, wurde daraus noch ein schneller Lückenfüller - dank RTX noch vermarktbar und nur eine Brücke zum echtem Turing samt shrink...

Der jetztige Turing soll neben neuen Maßeinheiten (gigarays) damit kein Vergleich mehr drin ist, vor allem die alten Pascall verkaufen.
Obwohl Pascall schon nennenswert teurer war - eine neue Preisregion aufstieß, erscheint eine 1080ti plötzlich als das Angebot gegen eine 2080...
Dank Turing bezahlt man für Pascall wieder wirklich zu viel und immer mehr - und dennoch schwindet der große Restbestand beachtlich - was sagt uns das über Turing? Selbst wenn ich komplett im unrecht bin, sprechen die Verkaufszahlen von zumindest sehr glücklichen Umständen.
 
Zuletzt bearbeitet:
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Die 2070 ersetzt die 1080. Sehe das Problem nicht. Der Preis der 1080 war doch anfangs auch höher als er jetzt ist. Ist doch klar, dass nvidia (amd würde das auch) die Preise dort ansetzt wo Käufer sind und Customhersteller machen das auch so. Die neue Karte gilt als zu teuer und eine alte Karte für unter 500€ sieht man als Schnäppchen. Das soll mal einer verstehen. Das Problem ist, dass weniger Leute 500€ als 300€ über haben. Hab selbst auch keine 1000€ für eine Grafikkarte, aber was juckt es mich, ob die Karte jetzt 200 oder 300 kostet, wenn ich das bekomme was mir reicht? So ist das eben. Für andere ist das aber sehr wohl von Bedeutung, ob das 200 oder 300€ sind. Das größte Problem ist, dass sich die Preise und Verfügbarkeit einfach zu schnell ändern, dazu kommen Fantasiepreise von Händler die nur das Geld von den Kunden wollen und damit bischen wirtschaften, Gewinn erzielen und wenn 3 Wochen nicht geliefert werden kann gibt es eben das Geld zurück.

Die Tests (überall) werden auch immer komplizierter. Taktraten springen hin und her, mal nutzt man den minimalen Takt, mal den durschnittlen Takt, jetzt sind die 0,1% auf einmal super wichtig Immer wieder neue Treiber und auf einmal ganz andere fps, also auch mehr oder weniger Leistung fürs Geld. Wer soll denn nach noch nachkommen?
Was mich derzeit sowieso sowas von aufregt sind die Preisunterschiede zwischen Deutschland und Österreich. Da könnt ihr noch so viele Vergleiche zu Preis und Leistung machen, euch an 5fps oder 12% aufhängen, da kann man einfach nicht normal vergleichen. Jetzt kostet die Karte hier statt 468€ nun 512€ kostet und ich steh da wie der letzte Depp, weil die 4 Tage lange Recherche im Forum für die Karte mit dem besten P/L eigentlich gar nicht für mich zutrifft.

So harte Zahlen sind zwar oft der einzige Weg, um einen fairen Vergleich zu schaffen, aber hier wird derzeit wegen allem so ein Fass aufgemacht, unglaublich. Wo sind denn die ganzen User mit den neuen Karten? Ich würde so gerne mal zu Beginn eine neue Karten haben und dann selbst testen was geht...
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Ich hab ehrlich gesagt keine Lust auf so einen Kindergarten.
Es ist jetzt also ein Kindergarten, wenn ich für deine Treiberentwicklung belege sehen möchte oder dies gar überprüfen möchte?
Aber echt jetzt, wo kommen wir da hin, dass ich als einer der im Bereich der Forschung arbeitet tatsächlich Quellen für sowas sehen möchte..
Ich habe weder meinen Treiber auf Nvidia Performance gebügelt noch sonst irgendwas behauptet was Ihr euch hier zusammen reimt, sondern den Overhead vom AMD Treiber reduziert in dem Beispiel und damit identische Performance zum Nvidiasystem gehabt mit dem Prozessor.
Wenn du idente Performance hast in durch ansonsten Overhead limitierte Settings hast du ja sehr wohl das Overhead bei den Draw Calls auf Nvidia Niveau hingebracht. Und genau das schrieb ich.
Diverse Einstellungen im AMD Treiber erzeugen einen zusätzlichen Overhead, das ist so.
Wenns so einfach ist reicht es doch 2-3 benchmarks zu machen und das zu belegen ?
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Schlecht sind die RTX Karten nicht. Im Schnitt 30% Mehrleistung gegenüber den direkten Pascal Vorgängern und das, obwohl sich Nvidia quasi auf dem selben Node bewegt.
Aber hier liegt auch das Problem, die RTX sind wahre Monsterchips. Die Karten auf die viele warten /gewartet haben kommen erst mit der nächsten Generation, in der es einen
richtigen shrink geben wird. Da wird die 3070 auch wieder die 2080ti wegfegen wenn alles glatt läuft.

Spannend ist nach wie vor die Raytracing Performance und die Frage, an wen sich der Spaß richten soll. Auf jeden Fall eine nette Dreingabe für Singleplayer Games, aber gerade in
Spielen wie BF habe ich so meine Zweifel da man hier doch eher die Leistung der Optik vorziehen sollte. Und in diesem Fall zahlt man unnötigerweise die riesige Chipfläche mit.
Noch kann man auf eine 1080ti ausweichen...noch. Aber mal schauen, wenn es denn endlich mal die ersten Tests dazu gibt, und DLSS ist ja auch noch da.

Zum Thema AMD/Nvidia, es ist auf jeden Fall krass, was Optimierungen alles ausmachen, zuletzt zu sehen bei Black Ops 4 oder auch Forza, wo die Vegas echt gut performen.
Ob Nvidia sich die Landschaft so gestaltet hat, wie es ihnen lieb ist, oder ob AMD es trotz absoluter Konsolenvorherrschaft nicht auf die Kette bekommt...man weiß es nicht, ich tippe aber auf letzteres.
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Nope. Nvidia sieht selbst die 2080 als 1080 Nachfolger. Die 2070 ist der Nachfolger der 1070.

Ist schon klar, dass das kein Nachfolger ist, die Zahlen muss man in dem Fall nicht erklären, aber Leistung und Preis liegen her sehr eng zusammen und warum sollte man morgen eine 1080 vorziehen? Wer bis heute eine 1080 wollte, nimmt morgen eine 2070 und nicht den Nachfolger. So meinte ich das. Im Test steht der Vergleich auch weit vorne. Die 1080 wird es nicht mehr lange geben zum selben Preis, die muss günstiger werden und eröffnet dann einen neuen Bereich. Zieht sich nach unten durch. (Wäre der Idealfall für Käufer)
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Dieses sowieso total ineffiziente Rebrand kommt nicht ansatzweise an die Power von Turing heran, geschweige denn an Pascal vorbei, ich wette nicht mal auf Parität von Pascal, dagegen steht sogar Vega im besseren Rampenlicht, versprochen.

Kennst du den Film dumm und dümmer :D ??
 
Zurück