Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

für 500€ halbwegs in ordnung ... jezz muss nur DLSS endlch mal ins Rollen kommen
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Dir ist da ein Fehler unterlaufen.


Die Nitro gibts für 500 tacken,ist schneller, hat den besseren Treiber, unterstützt FS, höheres OC Poetential und die Features der Karte kann man im Gegensatz zu Turing wenigstens nutzen anstatt in Techdemos drauf zu glubschen.
Die Devil 56 gibts aktuell für 420 Euro, die Karte lässt sich flashen und übertakten und frisst die Custom 2070 hier aus dem Test zum Frühstück.

Bei CB kann sich das DHE Design mit Mühe und Not im all over gegen die Ref. Pendants durchsetzen, das ist ja wirklich peinlich. Ich hab mit 10%Plus gerechnet zu nem Preis von rund 550 Euro, nichtmal das wurde geliefert. Die Karte ist maximal ne Empfehlung für Leute mit Gsync Panel wert.Alle anderen kaufen besser nichts oder die AMD Karte.

Also das ist eine interessante Theorie ;)
Hier im Test ist die 2070@1755 (durchschnittlicher Takt) MHz im Mittel 1-2% schneller als die Vega 64@1540MHz. Die RTX geht noch, wie Pascal bis 2000+MHz. Das sind +14% mehr Takt. Der Speicher lässt sich auch gut übertakten. Damit kommt nocht gut und gerne 10-12% nach vorn.

Da muss die Nitro erstmal vorbei kommen mit OC, was bei einem guten Modell knapp klappen kann! Aber eine Vega 64, die eine 2070 zum Frühstück verschlingt, die gibt es nicht.

Klar kann man mit einer Vega 56 die sich zur 64 flashen lässt eine P/L Schnapper machen... Aber in Summe aller Eigenschaften dürfte für viele die RTX2070 die bessere Wahl sein, als eine Vega 64. Auch wenn viele nichts vom Energiehunger hören wollen (und es geht immer noch nicht um den Stromverbrauch ;))

ABER
Nvidia GeForce RTX 2070 im Test (Seite 4) - ComputerBase

Vega 64 OC = 445W
RTX 2070 OC = 186W

Das ist eine Tragödie! Noch schlimmer wird es nur noch, wenn Leute glauben, eine Vega 64 kann bei gleichem Preis die bessere Karte sein! Natürlich nur meine Meinung. Nicht falsch verstehen, wenn ich günstig an eine Vega 64 kommen könnte, würde ich auch die nehmen, müsste mir aber nicht einreden, das sei die bessere Karte.

Auch noch für andere, nicht Nvidia fördert die Preistreiberei, sondern schlichtweg das AMD keine Konkurrenz liefern kann. Seit wann reichen NV Mittelklasse Chips nochmal um AMD unter Kontrolle zu halten?

Und AMD Fury und Vega waren teurer als die schnelleren NV Karten. Soviel zur Preistreiberei!

Ich muss auch sagen, ich habe auch etwas mehr, von der 2070 erwartet. 1080TI Leistung für 500 Euro und das als DHE Design, wie es sich für einen Grafikkartenhersteller auch gehört.
 
Zuletzt bearbeitet:
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

der typ ist doch eh nicht ernst zu nehmen....wie du richtig erkannt hast, ist er jemand der Wasser predigt aber Wein trinkt....[/QUOTE
danke sehr nett. geh manl auf die webseite und dann siehst du 2080ti und 2080 ausverkauft und sind genug user im forum. ausserdem hab ich nur die non ti und sonnst auch nichts überteuertes am pc
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Die RTX 2070 ist doch stärker als gedacht. Zwar kommt sie an die GTX 1080 Ti nicht ran, aber ansonsten hält sie alles in Schach was sonst noch so im Angebot ist. Vor allem wenn man den doch niedrigen Takt sieht. Da geht sicher noch mehr.

Welcher niedrige Takt? Mit offenem PT sollte die auch locker die 1900+ knacken wie die 10xx Serie auch. Im Prinzip kann man das Ding auch Custom nennen mit dem 2,5 Slot Kühler wie die neuen Founders ebenfalls.
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Leider weiterhin kompletter Stillstand. Dieselbe Leistung gibt es seit zwei Jahren für diesen Preis zu kaufen.
Das Testfazit ist für mich entsprechend nicht nachvollziehbar; wäre imo klar kritikwürdig.

Ansonsten natürlich nette Karte ohne echte Überraschung, deren Attraktivität (für mich) durch den Preis völlig zunichte gemacht wird.

EDIT:
Hi!
Also habe ich im die Karte im Grunde wie in einem Spiele-Technik-Test behandelt, daher auch die etwas andere Spieleauswahl, da kann ich dann genauso gut auch eine etwas andere Wahl treffen.
Macht den Test etwas "mühselig" zu lesen, weil Full-HD nach wie vor als Standardauflösung drin ist und man jedes Mal erst umschalten muss, um aussagekräftige Ergebnisse zu sehen.
F-HD hat imo in einem Grafikkartentest dieser Leistungsklasse nichts mehr verloren... und wenns genug Leser wünschen, dann wenigstens bitte nicht als Default.
 
Zuletzt bearbeitet:
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

all die Features die du aufzählst hast du auf der anderen Seite auch mit PhysX, Gameworks usw.
Mhm, Gameworks kann sicher RPM.

Und das mit den besseren Treibern ist nunmal nicht korrekt. Sorry. Ich arbeite mit beiden Herstellern, in der Arbeit fluche ich oft...
Zumal "besserer Treiber" recht interessant definiert ist. Größerer Overhead und oft unbehobene Probleme beim AMD Support haben mich dazu entschlossen in manchen Maschinen, die einfach nur "funktionieren" sollen (etwa der HTPC meiner Eltern) nicht mehr auf AMD zu setzen.

Im Rechner meiner Verlobten war lange Zeit eine 970... Die ist jetzt zugunsten meiner alten Fury rausgeflogen weil der scheiß Treiber permanent Probleme gemacht hat. Die momentanen Nvidia-Treiber sinf für manche(!!!) sind die reinste Odyssey des Grauens... Beide Hersteller haben Phasen in denen es mal nicht läuft. Meine Vega läuft wunderbar ich hab keinen Ärger. Mein Bruder hat mit seiner immer mal Stress...

Beide Hersteller haben regelmäßig unbehobene Probleme. Nvidia hat z.B. schon seit längerem immer mal wieder Ärger mit G-Sync oder wahllosen Rucklern... Bei mir waren in allen meinen Builds bis jetzt AMD-Karten komplett stressfrei. Was sagt das jetzt über die Gesamterfahrung? Richtig. Garnichts. Meine Mum hat ne AMD-Karte drinnen, mein Dad, mein Bruder und ich. von 3 Leuten hat einer immer mal Probleme, bei allen anderen alles kein Stress. Aber auch das ist nicht repräsentativ. Ich weiß nicht wo deine Probleme herkommen. Ungünstige Konfiguration, Schlechte Karte, mangelnde Kompetenz (kein Vorwurf, ich kenn dich nicht, nur auch sowas kann zu Fehlern führen) oder sonst was. Aber von Problemen hört man einfach immer aus beiden Lagern. Dieses "Aber Nvidia hat die besseren Treiber!" ist genauso unsinnig wie dieses "Aber AMD hat die besseren Treiber!". Beide Hersteller haben mal bessere mal schlechtere Treiber. Und sehr oft liegt das Problem auch zwischen PC-Stuhl und Bildschirm.

Ich muss da mal widersprechen. Bei ordentlichem, objektorientierten Programmieren heißt mehr Funktionen absolut nicht, dass auch die Performance sinkt. Denn eigentlihc sollten immer nur die verwendeten Funktionen, und nicht alle derzeit abgeschalteten oder nicht verwendeten Funktionen Threads belegen.
AMDs scheinbar größerer Umfang - der früher auch nicht da war und trotzdem war man langsamer/hatte mehr Overhead- hat keinen bis kaum Einfluss. Nvidia hat einfach einen wesentlich schlankeren (damit ist nicht der Funktionsumfang, sondern eine sauberere Programmierung gemeint; direkter, ohne Ausnahmen und sonderregeln wenn man so will).
Du kannst ein PRogramm (oder eine Engine, einen Treiber oder auch sonstwas)etwa ständig um Funktionen erweitern und wenn Bugs auftreten diese mit einer Error Exception auffangen und du wirst den Code aufblähen und die Geschwindigkeit verlangsamt sich.
Du kannst dir aber auch die Zeit nehmen, Teile des Programms immer generell neu zu schreiben, sodass die Fehler gleich gar nicht auftreten, Funktionen und Features zusammengefasst sind usw usf. Das ergibt ein schlankes, stets leicht wartbares und stabiles Programm. Kostet aber ungleich mehr Geld es immer wieder teilweise neu zu entwickeln. Und ersteres ist wohl bei AMD der Fall, letzteres bei Nvidia.

1. Nvidia wird definitiv die einzelnen Treiber-Segmente nicht jedes mal von 0 neu schreiben. Das wäre blödsinnig und unwirtschaftlich. Gemessen an den Fehlern die bei Nvidia immer aufkommen erweitern die auch nur einen Schweizer Käse um mehr Löcher. Und das ist auch ok solange die ursprüngliche Codebasis nicht komplett beschissen ist. Nvidia bekommt's halt nur stellenweise performanter hin als AMD, aber die Bugs sind einfach die gleichen. Treiberentwicklung ist nur eben einfach sau ekelhaft nachdem da Seiteneffekte einfach sehr schwer absehbar sind. Wenn dein Exception-Handling deinen Code aufbläht, dann betreibst du es falsch.

2. Vererbung mit vielen Funktionen zum Beispiel nimmt durchaus Performance nachdem virtuelle Funktionsaufrufe komplexer sind dar zur Laufzeit die Funktionsadresse in einem VTable nachgeschaut werden muss was schon etwas kostet und dir zusätzlich dazu noch die Branchprediction killt und vieles einfach nicht inlined werden kann. Und gerade wenn man etwas konfigurierbar bauen will bietet sich eben ein Interface oder einfach eine abstrakte Klasse mit mehreren verschiedenen Implementierungen an, aber je mehr Implementierungen es für das Interface gibt, desto schlimmer wird's. Da geht dann halt Performance für Abstraktion und für Lesbarkeit drauf.

Also naja, Funktionen in OOT können durchaus Performance kosten. es ist nur in der Regel ein absolut akzeptabler Handel weil man sich damit bessere Lesbarkeit und Wartbarkeit erkauft. Aber auch die If-Else Blöcke die durch die verschiedenen Konfigurationen entstehen sind ein Albtraum für deine CPU. Vor allem wenn dann auch noch Vererbung dazukommt. Sprich, mehr Konfigurationsmöglichkeiten tun der Performance zumindest nicht unbedingt gut und viele Ausführungspfade erst recht nicht.

selbst sowas:

if(featureIsActive)
{
//Process feature
}

ist schon unschön für die Branchprediction. Im Normalfall ist das nur einfach egal, aber es hat halt einfach einen Einfluss. Wenn du das halt jetzt in jeder 2. Funktion hast, dann läppert sich das.
 
Zuletzt bearbeitet von einem Moderator:
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Na ja,
in meinem beliebten WQHD Bereich liegt die RTX 2070 praktisch meist ca. gleichauf mit einer VEGA64 UND der GTX 1080, oder sehe ich das falsch?

Die GTX 1080 werden/sind teurer geworden und nunmehr uninteressant in der Neuanschaffung,
aber wg. wenigen einstelligen Prozentpünktchen macht es m. E. kaum Sinn > 600€ zu zahlen, wenn es wie derzeit die VEGA 64 für unter 500 € auf dem Markt gibt...

Heißt im Umkehrschluss, die RTX 1070 ist dann konkurrenzfähig und eine Empfehlung wert, wenn der VK Preis deutlich unter 500 € fällt - so einfach ist das...
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Da frage ich mich was für Dilettanten bei der Vega am übertakten waren? Wahrscheinlich haben sie die ohnehin schon werkseitig zu hohe Spannung noch weiter erhöht. :stupid:

Monatelang wurde in den Kommentaren bei mehreren dt. sprachigen Webseiten gesagt, dass die Redakteure endlich mal Undervolting betreiben sollten bei den Vega Karten.
Wurde aber absichtlich ignoriert. Bei CB wurden die vielen Kommentare (teilweise seitenlang) einfach übersprungen und es wurden andere Kommentare durchaus immer wieder beantwortet.
Da kann man eigentlich nur von Absicht sprechen.

Denn gerade eine Vega 56 mit OC+UV hätte mich am meisten interessiert.
Der Preis hat sie dann leider unattraktiv gemacht.
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Ja GPP und das NDA machen es möglich . Deswegen nehmt keine Test Samples der Hersteller mehr ,dann braucht man keine NDAs und muß sich nicht damit rumärgern das ein großer Teil der leser den Test als gekauft ansieht.
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Monatelang wurde in den Kommentaren bei mehreren dt. sprachigen Webseiten gesagt, dass die Redakteure endlich mal Undervolting betreiben sollten bei den Vega Karten.
Wurde aber absichtlich ignoriert. Bei CB wurden die vielen Kommentare (teilweise seitenlang) einfach übersprungen und es wurden andere Kommentare durchaus immer wieder beantwortet.
Da kann man eigentlich nur von Absicht sprechen.

Denn gerade eine Vega 56 mit OC+UV hätte mich am meisten interessiert.
Der Preis hat sie dann leider unattraktiv gemacht.
Ist ja auch richtig so, sollte auch die Absicht sein, zumindest für einen Grafikkartentest bei Release. UV könnte man sicher als Special oder gesonderten Zusatz bringen, aber sicher nicht als Test, der eruiert, was ich als Käufer erhalte.
AMDs Pech / Unvermögen, wenn sie zu hohe Spannungen geben (wobei die mit einiger Sicherheit sehr gut austariert sind und einfach auf gewisse Varianzen bei der benötigten Spannung schliessen lassen).
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Na ja,
in meinem beliebten WQHD Bereich liegt die RTX 2070 praktisch meist ca. gleichauf mit einer VEGA64 UND der GTX 1080, oder sehe ich das falsch?

Die GTX 1080 werden/sind teurer geworden und nunmehr uninteressant in der Neuanschaffung,
aber wg. wenigen einstelligen Prozentpünktchen macht es m. E. kaum Sinn > 600€ zu zahlen, wenn es wie derzeit die VEGA 64 für unter 500 € auf dem Markt gibt...

Heißt im Umkehrschluss, die RTX 1070 ist dann konkurrenzfähig und eine Empfehlung wert, wenn der VK Preis deutlich unter 500 € fällt - so einfach ist das...

Bei mir werkelt aktuell auch nur eine GTX1070, die aber undervoltet und übertaktet mit 1986MHz Core und 4700MHz Speicher läuft. Damit nur unwesentlich hinter einer GTX1080 liegt, was auch für Vega 64 gilt und auch die 2070 kann sich nicht so absetzen. Mit anderen Worten, seit dem NV Mittelklasse Karten reichen um AMD in Schach zu halten, steigt die Leistung pro Euro nicht mehr...Oder nur noch viel zu langsam...

Ich habe Februar 2014 eine R9 290X für 365 Euro gekauft, die ähnlich schnell ist, wie eine R9 390, RX580
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Ich kann mich immer köstlich darüber amüsieren wie immer die selben Leute Belege verlangen, ich aber noch nie eine untermauerte Aussagen von den betreffenden Personen gesehen habe.
Mein Screenshot Ordner hier bei PCGH quillt über, ich nenne den Verweis in meinem vorigen Beitrag wo die Information zu finden ist und das einzigste was zu zusammen kriegst ist das hier zitierte :hmm:

Hier extra für dich in diesem Beitrag mit Kontext und deinem eigenen Zitat damit du deine Maus nicht über strapazieren musst mit deinem technischen KnowHow:rollen:
Selbes System, selbe Settings, selbe Einstellungen und 8 verschiedene Werte, Angeleihert hat die Debatte DaHell im Vegathread vor einigen Monaten, Anlass waren CPU Tests mit dem Benchmark und die aufkeimende Frage warum der selbe Prozessor(6700k) deutlich schlechtere Ergebnisse abliefert in dem Bench.Nr. 183 ist Beispielhaft Ultra Setting, der Rest ist mit dem CPU Benchsettings erstellt.
1015125-geforce-rtx-2070-im-test-turing-wird-guenstig-muss-sich-amd-fuerchten-screenshot-162-.png
1015126-geforce-rtx-2070-im-test-turing-wird-guenstig-muss-sich-amd-fuerchten-screenshot-163-.png
1015127-geforce-rtx-2070-im-test-turing-wird-guenstig-muss-sich-amd-fuerchten-screenshot-164-.png
1015128-geforce-rtx-2070-im-test-turing-wird-guenstig-muss-sich-amd-fuerchten-screenshot-165-.png
1015129-geforce-rtx-2070-im-test-turing-wird-guenstig-muss-sich-amd-fuerchten-screenshot-168-.png
1015130-geforce-rtx-2070-im-test-turing-wird-guenstig-muss-sich-amd-fuerchten-screenshot-172-.png
1015131-geforce-rtx-2070-im-test-turing-wird-guenstig-muss-sich-amd-fuerchten-screenshot-183-.png


des weiteren Forza Horizon 4, selbes System, selbe Settings. Grundsystem lässt sich nicht modifizieren da 3570nonK auf Board ohne OC Möglichkeit(nein auch kein BLCK)
1015135-geforce-rtx-2070-im-test-turing-wird-guenstig-muss-sich-amd-fuerchten-gamemode-hbcc-run2.png
1015137-geforce-rtx-2070-im-test-turing-wird-guenstig-muss-sich-amd-fuerchten-ohne-hbcc.png
1015138-geforce-rtx-2070-im-test-turing-wird-guenstig-muss-sich-amd-fuerchten-mit-hbcc.png



Zu Schaffe schreib ich einfach gar nichts mehr, da kommen sowieso immer die selben Phrasen. Seine GPU Storys sind sowieso hier im Forum Legendär und Belege wollte er schon immer im in den Threads zum Vega relase, kapiert hat er es bis heute nicht.
1) ich habe belege verlangt. Ich weiß nicht ob du schon mal wissenschafltich gearbeitet hast, aber zu sagen "auf Computerbase findste schon was" ist kein Beleg. Wenn dein Beitrag viel Aussagekraft hat verlink ihn doch direkt
2) Screenshots helfen mir schon, danke
3) Ich bitte dich mal zurückzuziehen, dass ich für Dinge keine Belege bringe. Wenn es eine emotionale Diskussion ist über... keine Ahnung Luft und Liebe, dann bringe ich wohl keine. Wenns um Zahlen und Fakten geht, verlinke ich in hitzigen Diskussionen immer auf die verwendeten Quellen.
4) Mich hätte deshalb dein Treiberpaket interessiert, weil ichs in der Arbeit hätte testen können und deine Aussagen somit, sofern ich das ergebnis reproduzieren kann - auch unterstützen kann. Du darfst mir nicht übel nehmen, dass ich skeptisch bin, dass einzelne Treibereinstellungen plötzlich AMDs Overhead auf Nvidias Niveau runterbringen sollen. Da wären alle bei AMDs Treiberteam dumm.
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

@Gurdi
Stay Cool!
Manche lernen es nie.

Das RTX2070-Review von CB ist ne echt gute Orientierung für den aktuellen Stand von VEGA,
bzw. HBM vs. GDDR

Grund: CB hat zum ersten Mal auch den HBM mit OCed. Das ist aussagekräftiger als Custom@Stock bei pcgh.
Die Frametimes (99P) sind dadurch Spitze. (fehlt nur noch HBCC on + HDR10)

Manko: Die 56oc ist nur bei 1440p und die 64oc nur bei 4k aufgeführt. Die fehlende LC wäre nochmals besser.
(den lnk kann man sich trotzdem abspeichern, um mal schnell zu vergleichen)
Nvidia GeForce RTX 2070 im Test (Seite 3) - ComputerBase
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Gut das ich mir die Vega 64 Nito+ geholt habe mit dem Game Bundle für 500 Ocken, ist das einzige was man aktuell gegen diese Preispolitik machen kann.
 
Schöner Test, ... ohne Raff's Mithilfe aber eben keine Überraschung. FIXED

Jo, sehe ich auch so.
Raff hatte schon beim HDR-Nachtest irgendwelches komisches Zeug eingestellt.

Stimmt Das eigentlich, Das Gsync kein 8bit+FRC kann ?

edit:
Die tendentiöse Artikelüberschrift ist bestimmt auch noch vom Kollegen Fürchtenix.

Die Nitro gibts für 500 tacken,ist schneller, hat den besseren Treiber, unterstützt FS, höheres OC Poetential und die Features der Karte kann man im Gegensatz zu Turing wenigstens nutzen anstatt in Techdemos drauf zu glubschen.
Die Devil 56 gibts aktuell für 420 Euro, die Karte lässt sich flashen und übertakten und frisst die Custom 2070 hier aus dem Test zum Frühstück.

Bei CB kann sich das DHE Design mit Mühe und Not im all over gegen die Ref. Pendants durchsetzen, das ist ja wirklich peinlich. Ich hab mit 10%Plus gerechnet zu nem Preis von rund 550 Euro, nichtmal das wurde geliefert. Die Karte ist maximal ne Empfehlung für Leute mit Gsync Panel wert.Alle anderen kaufen besser nichts oder die AMD Karte.

Jo, mit Flash liegt man nochmal deutlich über dem Ergebnis von CB.

@ PCGH-Redaktion
Wo ist denn wieder der Button, wo man mal nach min fps sortieren kann?

btw.
The Art of State wird wohl Vulkan 1.1
Review ohne Strange Brigade ?
MSI GeForce RTX 2070 Armor 8G review - DX11: Strange Brigade
Übrigens skaliert da Cf very Nice. Sollte man sich mal Ausrechnen.(x1,9)
( ehemalige AAA-Schmieden werden net gekauft, wenn SLI nur per Inspektor und Cf gar net funzt. Cheating-Müll )
 
Zuletzt bearbeitet von einem Moderator:
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Leider weiterhin kompletter Stillstand. Dieselbe Leistung gibt es seit zwei Jahren für diesen Preis zu kaufen.
Nun das habe ich schon voriges Jahr prophezeit als klar wurde, dass AMD keine Konkurrenz bringt vor Navi und als klar war, dass Nvidia den 12nm Prozess verwendet.

Wartet einfach auf 7nm, das wird ordentlich mehr Performance bringen. Von einer knappen verdoppelung geh ich aus, 3dcenter prognostiziert sogar BIS ZU (achtung, best case) 200% bei ähnlicher Chipfläche und Stromverbrauch. Was kann nVidias Ampere-Generation mit der 12nm-, 10nm- oder 7nm-Fertigung von TSMC erreichen? | 3DCenter.org


Macht den Test etwas "mühselig" zu lesen, weil Full-HD nach wie vor als Standardauflösung drin ist und man jedes Mal erst umschalten muss, um aussagekräftige Ergebnisse zu sehen.
F-HD hat imo in einem Grafikkartentest dieser Leistungsklasse nichts mehr verloren... und wenns genug Leser wünschen, dann wenigstens bitte nicht
als Default.
Sorry, aber das ist stumpfisnniges, elitäres Denken. 1080P ist mit großem Abstand (und wird es auch noch Jahre bleiben) die meistgenutzte Auflösung. Ist also heute noch am Wichtigsten und wenn du in 2-3 Jahren gebrauchte GPUs kaufst auch noch (oder neue).

Mich interessieren 1080P Tests, weil mir schöne Grafik und Features wichtiger sind als nicht-so-schöne-Grafik in hoher Auflösung (und logischerweise ist ersteres eher möglich, wenn man nur ein Viertel der Pixel darstellen muss).

Mir sind hohe FPS (144hz, 200hz) bei 1080P wichtiger, wenn ich Quake Champions oder andere schnelle Shooter spiele nunmal mehr als 4K
Mich interessiert VR.
Und für all diese Dinge brauch ich derzeit eher 1080P als 4K Tests.
Und ja, dafür kaufe ich auch eine 1080 oder Vega. Und nicht für 4K.

Wichtig ist da etwa auch die Frametims bei hohen FPS. Was interessieren mich in VR hohe FPS, wenn sie aufgrund irgendwelcher Umstände nicht stabil sind und ich FPS Drops/hohe Frametimes hab?

Weck mich auf, wenn wir 8-10x die Leistung von heute haben, Code besser optimiert ist, sodass es keine Performance-Hiccups mehr gibt in 1080 P.

Vorallem aber, wenn 4K Monitore mit hohen FPS, HDR und Freesync billig geworden sind, wenn VR Headsets hohe Auflösungen haben und diese in solchen Auflösungen stabil befeuert werden können von der GPU (derzeit noch nicht) Erst dann wird für für mich der Wechsel zu 4K interessant.


Mhm, Gameworks kann sicher RPM.
Klatsch-aufs-Hirn: das habe ich gar nicht gemeint. Wenn du auf der einen Seite exklusive AMD Features ins Spiel bringst, musst du auf der anderen Seite nicht so tun als gäbs sowas nicht.



Im Rechner meiner Verlobten war lange Zeit eine 970... Die ist jetzt zugunsten meiner alten Fury rausgeflogen weil der scheiß Treiber permanent Probleme gemacht hat. Die momentanen Nvidia-Treiber sinf für manche(!!!) sind die reinste Odyssey des Grauens... Beide Hersteller haben Phasen in denen es mal nicht läuft. Meine Vega läuft wunderbar ich hab keinen Ärger. Mein Bruder hat mit seiner immer mal Stress...
Natürlich hast du im Einzelfall immer wieder mal Probleme.
Ich kaufe ständig (privat) AMD und habe deshalb schon eine lange Liste die bis zur Hardwareunbrauchbarkeit geführt haben in 2 Fällen (780G Causa, Ilano und 3D BD Betrieb).
Aber zu 90% konnte ich die Treiberprobleme lösen oder umgehen.
Wir haben in der Arbeit hunderte Rechner und da seh ich einen gewissen Durchschnitt.
Und der OEM für den ich früher betrachtet hat, führt auch gewisse Helpdesk-Statistiken. Da treten bei im Alltagsbetrieb leider wesentlich mehr Vorfälle auf, also sonstwo. Aber bei Spielen sind die Treiber vergleichbar.
Beide Hersteller haben regelmäßig unbehobene Probleme. Nvidia hat z.B. schon seit längerem immer mal wieder Ärger mit G-Sync oder wahllosen Rucklern... Bei mir waren in allen meinen Builds bis jetzt AMD-Karten komplett stressfrei. Was sagt das jetzt über die Gesamterfahrung? Richtig. Garnichts. Meine Mum hat ne AMD-Karte drinnen, mein Dad, mein Bruder und ich. von 3 Leuten hat einer immer mal Probleme, bei allen anderen alles kein Stress. Aber auch das ist nicht repräsentativ. Ich weiß nicht wo deine Probleme herkommen. Ungünstige Konfiguration, Schlechte Karte, mangelnde Kompetenz (kein Vorwurf, ich kenn dich nicht, nur auch sowas kann zu Fehlern führen) oder sonst was. Aber von Problemen hört man einfach immer aus beiden Lagern. Dieses "Aber Nvidia hat die besseren Treiber!" ist genauso unsinnig wie dieses "Aber AMD hat die besseren Treiber!". Beide Hersteller haben mal bessere mal schlechtere Treiber. Und sehr oft liegt das Problem auch zwischen PC-Stuhl und Bildschirm.
Es ist natürlich berechtigt, dass man auch mal die Kompetenz des Users in Frage stellt. Ich habe in meiner Zeit im Support gelernt, dass zu 95% Layer 8 die Problemquelle darstellt.
Ich kann dir aber sagen, dass das in meinem Fall meist nicht so ist. Unfehlbar bin ich nicht, aber ich mache auch keine Einzelaussagen (und das sind Einzelaussagen, wenn ich nur meine Karte und die der FAmilien nehmen würde, ich gehe aber von über 800 PCs aus die wir aktuell am Institut haben, Workstations, "Supercomputer" und Server natürlich nicht mitgerechnet).


1. Nvidia wird definitiv die einzelnen Treiber-Segmente nicht jedes mal von 0 neu schreiben. Das wäre blödsinnig und unwirtschaftlich. Gemessen an den Fehlern die bei Nvidia immer aufkommen erweitern die auch nur einen Schweizer Käse um mehr Löcher. Und das ist auch ok solange die ursprüngliche Codebasis nicht komplett beschissen ist.
Nvidia hat das sehr wohl immer wieder so betrieben. Die Frage ist ob wir unter "Treiber Segmente" gerade dasselbe verstehen. Nvidia hat in der Vergangenheit stets einzelne Teile der Treiber völlig überarbeitet (das geht bis auf die Detonator-Serie zurück), bis diese dann eben nicht mehr - wie du sagst "beschissen" waren. Ab einem gewissen Punkt muss man das wohl nicht mehr machen, das ist klar. Nvidia wird das Ressourcen-Handling, Threading und vieles OS Spezifische für Win 7 und 8 (sofern sie da bislang eigenen Code hatten) nicht mehr neu schreiben. Ebensowenig 32 Bit Support wie wir wissen.


Also naja, Funktionen in OOT können durchaus Performance kosten. es ist nur in der Regel ein absolut akzeptabler Handel weil man sich damit bessere Lesbarkeit und Wartbarkeit erkauft. Aber auch die If-Else Blöcke die durch die verschiedenen Konfigurationen entstehen sind ein Albtraum für deine CPU. Vor allem wenn dann auch noch Vererbung dazukommt. Sprich, mehr Konfigurationsmöglichkeiten tun der Performance zumindest nicht unbedingt gut und viele Ausführungspfade erst recht nicht.
Natürlich. Aber es bedarf nunmal wesentlich geringerer Performance-Hits (völlig vernachlässigbar heutzutage) wenn die Objekte einzeln abrufbar sind als wenn die Funktionen ständig mitlaufen, weil sie in einer schlampigen Codewurst drin sind.

Locuza meinte eine schlankere Treiberstruktur bei Nvidia und im prinzip reden wir (du, er, ich) vom selben bzw. ähnlichem. Der Nvidia Treiber ist insgesamt einfach sauberer programmiert, über die Jahre hinweg besser optimiert und gepflegt worden. Das hat natürlich Budgetäre Gründe
 
Zuletzt bearbeitet:
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Ist ja auch richtig so,

Nein, das ist absolut ignorant.
Es wird OC getestet, also soll auch OC mit UV und sonstigen Software-Optimierungen getestet werden. Ein ordentlicher Grafikkarten OC Test holt das stabile Maximum aus einer Karte raus. D.h. da soll nicht nur in irgendeinem Tool eine Mhz Zahl erraten werden und das dann als "OC Test" abgedruckt werden, sondern es soll sich herangetastet werden, was mit der Karte wirklich möglich ist, wenn man Mhz, Spannung, Power Target und Lüfterkurve anpasst.
Bei einem OC Test für CPUs genau so.

Fakt ist, es wurde von vielen Usern gefordert im OC-Test auch UV zu benutzen, aber das wurde geflissentlich ignoriert.
 
Zuletzt bearbeitet:
Zurück