AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?
Leider weiterhin kompletter Stillstand. Dieselbe Leistung gibt es seit zwei Jahren für diesen Preis zu kaufen.
Nun das habe ich schon voriges Jahr prophezeit als klar wurde, dass AMD keine Konkurrenz bringt vor Navi und als klar war, dass Nvidia den 12nm Prozess verwendet.
Wartet einfach auf 7nm, das wird ordentlich mehr Performance bringen. Von einer knappen verdoppelung geh ich aus, 3dcenter prognostiziert sogar BIS ZU (achtung, best case) 200% bei ähnlicher Chipfläche und Stromverbrauch.
Was kann nVidias Ampere-Generation mit der 12nm-, 10nm- oder 7nm-Fertigung von TSMC erreichen? | 3DCenter.org
Macht den Test etwas "mühselig" zu lesen, weil Full-HD nach wie vor als Standardauflösung drin ist und man jedes Mal erst umschalten muss, um aussagekräftige Ergebnisse zu sehen.
F-HD hat imo in einem Grafikkartentest dieser Leistungsklasse nichts mehr verloren... und wenns genug Leser wünschen, dann wenigstens bitte nicht
als Default.
Sorry, aber das ist stumpfisnniges, elitäres Denken. 1080P ist mit großem Abstand (und wird es auch noch Jahre bleiben) die meistgenutzte Auflösung. Ist also heute noch am Wichtigsten und wenn du in 2-3 Jahren gebrauchte GPUs kaufst auch noch (oder neue).
Mich interessieren 1080P Tests, weil mir schöne Grafik und Features wichtiger sind als nicht-so-schöne-Grafik in hoher Auflösung (und logischerweise ist ersteres eher möglich, wenn man nur ein Viertel der Pixel darstellen muss).
Mir sind hohe FPS (144hz, 200hz) bei 1080P wichtiger, wenn ich Quake Champions oder andere schnelle Shooter spiele nunmal mehr als 4K
Mich interessiert VR.
Und für all diese Dinge brauch ich derzeit eher 1080P als 4K Tests.
Und ja, dafür kaufe ich auch eine 1080 oder Vega. Und nicht für 4K.
Wichtig ist da etwa auch die Frametims bei hohen FPS. Was interessieren mich in VR hohe FPS, wenn sie aufgrund irgendwelcher Umstände nicht stabil sind und ich FPS Drops/hohe Frametimes hab?
Weck mich auf, wenn wir 8-10x die Leistung von heute haben, Code besser optimiert ist, sodass es keine Performance-Hiccups mehr gibt in 1080 P.
Vorallem aber, wenn 4K Monitore mit hohen FPS, HDR und Freesync billig geworden sind, wenn VR Headsets hohe Auflösungen haben und diese in solchen Auflösungen stabil befeuert werden können von der GPU (derzeit noch nicht) Erst dann wird für für mich der Wechsel zu 4K interessant.
Mhm, Gameworks kann sicher RPM.
Klatsch-aufs-Hirn: das habe ich gar nicht gemeint. Wenn du auf der einen Seite exklusive AMD Features ins Spiel bringst, musst du auf der anderen Seite nicht so tun als gäbs sowas nicht.
Im Rechner meiner Verlobten war lange Zeit eine 970... Die ist jetzt zugunsten meiner alten Fury rausgeflogen weil der scheiß Treiber permanent Probleme gemacht hat. Die momentanen Nvidia-Treiber sinf für manche(!!!) sind die reinste Odyssey des Grauens... Beide Hersteller haben Phasen in denen es mal nicht läuft. Meine Vega läuft wunderbar ich hab keinen Ärger. Mein Bruder hat mit seiner immer mal Stress...
Natürlich hast du im Einzelfall immer wieder mal Probleme.
Ich kaufe ständig (privat) AMD und habe deshalb schon eine lange Liste die bis zur Hardwareunbrauchbarkeit geführt haben in 2 Fällen (780G Causa, Ilano und 3D BD Betrieb).
Aber zu 90% konnte ich die Treiberprobleme lösen oder umgehen.
Wir haben in der Arbeit hunderte Rechner und da seh ich einen gewissen Durchschnitt.
Und der OEM für den ich früher betrachtet hat, führt auch gewisse Helpdesk-Statistiken. Da treten bei im Alltagsbetrieb leider wesentlich mehr Vorfälle auf, also sonstwo. Aber bei Spielen sind die Treiber vergleichbar.
Beide Hersteller haben regelmäßig unbehobene Probleme. Nvidia hat z.B. schon seit längerem immer mal wieder Ärger mit G-Sync oder wahllosen Rucklern... Bei mir waren in allen meinen Builds bis jetzt AMD-Karten komplett stressfrei. Was sagt das jetzt über die Gesamterfahrung? Richtig. Garnichts. Meine Mum hat ne AMD-Karte drinnen, mein Dad, mein Bruder und ich. von 3 Leuten hat einer immer mal Probleme, bei allen anderen alles kein Stress. Aber auch das ist nicht repräsentativ. Ich weiß nicht wo deine Probleme herkommen. Ungünstige Konfiguration, Schlechte Karte, mangelnde Kompetenz (kein Vorwurf, ich kenn dich nicht, nur auch sowas kann zu Fehlern führen) oder sonst was. Aber von Problemen hört man einfach immer aus beiden Lagern. Dieses "Aber Nvidia hat die besseren Treiber!" ist genauso unsinnig wie dieses "Aber AMD hat die besseren Treiber!". Beide Hersteller haben mal bessere mal schlechtere Treiber. Und sehr oft liegt das Problem auch zwischen PC-Stuhl und Bildschirm.
Es ist natürlich berechtigt, dass man auch mal die Kompetenz des Users in Frage stellt. Ich habe in meiner Zeit im Support gelernt, dass zu 95% Layer 8 die Problemquelle darstellt.
Ich kann dir aber sagen, dass das in meinem Fall meist nicht so ist. Unfehlbar bin ich nicht, aber ich mache auch keine Einzelaussagen (und das sind Einzelaussagen, wenn ich nur meine Karte und die der FAmilien nehmen würde, ich gehe aber von über 800 PCs aus die wir aktuell am Institut haben, Workstations, "Supercomputer" und Server natürlich nicht mitgerechnet).
1. Nvidia wird definitiv die einzelnen Treiber-Segmente nicht jedes mal von 0 neu schreiben. Das wäre blödsinnig und unwirtschaftlich. Gemessen an den Fehlern die bei Nvidia immer aufkommen erweitern die auch nur einen Schweizer Käse um mehr Löcher. Und das ist auch ok solange die ursprüngliche Codebasis nicht komplett beschissen ist.
Nvidia hat das sehr wohl immer wieder so betrieben. Die Frage ist ob wir unter "Treiber Segmente" gerade dasselbe verstehen. Nvidia hat in der Vergangenheit stets einzelne Teile der Treiber völlig überarbeitet (das geht bis auf die Detonator-Serie zurück), bis diese dann eben nicht mehr - wie du sagst "beschissen" waren. Ab einem gewissen Punkt muss man das wohl nicht mehr machen, das ist klar. Nvidia wird das Ressourcen-Handling, Threading und vieles OS Spezifische für Win 7 und 8 (sofern sie da bislang eigenen Code hatten) nicht mehr neu schreiben. Ebensowenig 32 Bit Support wie wir wissen.
Also naja, Funktionen in OOT können durchaus Performance kosten. es ist nur in der Regel ein absolut akzeptabler Handel weil man sich damit bessere Lesbarkeit und Wartbarkeit erkauft. Aber auch die If-Else Blöcke die durch die verschiedenen Konfigurationen entstehen sind ein Albtraum für deine CPU. Vor allem wenn dann auch noch Vererbung dazukommt. Sprich, mehr Konfigurationsmöglichkeiten tun der Performance zumindest nicht unbedingt gut und viele Ausführungspfade erst recht nicht.
Natürlich. Aber es bedarf nunmal wesentlich geringerer Performance-Hits (völlig vernachlässigbar heutzutage) wenn die Objekte einzeln abrufbar sind als wenn die Funktionen ständig mitlaufen, weil sie in einer schlampigen Codewurst drin sind.
Locuza meinte eine schlankere Treiberstruktur bei Nvidia und im prinzip reden wir (du, er, ich) vom selben bzw. ähnlichem. Der Nvidia Treiber ist insgesamt einfach sauberer programmiert, über die Jahre hinweg besser optimiert und gepflegt worden. Das hat natürlich Budgetäre Gründe