Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Ne oced Custom mit Stock-HBM ist ein Widerspruch in sich.
(da profitiert nur NV mit TBR)

Wer ne Info zum realen Verbrauch und gescheiter Performance mit Vega@UV möchte sollte bei Gurdi reinschauen.
I.d.R. setzt er im Boostbuild die 56 auf max.180W und die 64 auf 235W ASIC.
Und dann ab mit der Luzie. nice Benchmarks #1074 = 64
http://extreme.pcgameshardware.de/o...king-undervolting-thread-108.html#post9549302
http://extreme.pcgameshardware.de/grafikkarten/485138-amd-rx-vega-laberthread-635.html#post9536981
#6346 Da hat er die 56 noch nicht mal geflashed. Er hat angedeutet evtl. das Ganze in seinem Morpheus-Thread einzubringen.
Das wird dann mal ne interessante Lektüre. (fehlt dort noch)
RX Vega 56 / 64 Overclocking & Undervolting Anleitung @ Rajintek Morpheus 2 inkl. Backplate

btw.
Die 2080Ti mit 380W-Bios zieht mehr Strom vom PCiE als erlaubt.
 
Zuletzt bearbeitet:
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Nun das habe ich schon voriges Jahr prophezeit als klar wurde, dass AMD keine Konkurrenz bringt vor Navi und als klar war, dass Nvidia den 12nm Prozess verwendet.

Wartet einfach auf 7nm, das wird ordentlich mehr Performance bringen. Von einer knappen verdoppelung geh ich aus, 3dcenter prognostiziert sogar BIS ZU (achtung, best case) 200% bei ähnlicher Chipfläche und Stromverbrauch. Was kann nVidias Ampere-Generation mit der 12nm-, 10nm- oder 7nm-Fertigung von TSMC erreichen? | 3DCenter.org

Interessanter Link der zwar vom Februar ist bei 3DCenter aber das Resultat heute sieht ja noch schlechter aus da durch Raytracing-Einheiten und Tensorkerne die DIE-Größe ungleich größer ist wie zum Beispiel zwischen der 1070/1080 zur 2070 mit über 40% mehr Chipfläche und zur 2080 sind es um 60% aber fast keine Mehrleistung in Sicht. Ich weiß auch nicht was Nvidia sich dabei gedacht hat aber irgendwann bricht der Krug der zum Brunnen gebracht wird und das ist mit Turing der Fall. Denke nicht das viele Gamer diese Karten kaufen werden.

Da hoffe ich auch auf Navi da AMD die Chance hat den GPU-Markt zu pushen wie sie es mit Ryzen auch getan haben. Die Hoffnung stirbt zuletzt.
Näheres werden wir am 09.01.2019 erfahren denn da wird AMD über den 7nm-Prozess reden über ihre neuen CPU´s und GPU´s.
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Klatsch-aufs-Hirn: das habe ich gar nicht gemeint. Wenn du auf der einen Seite exklusive AMD Features ins Spiel bringst, musst du auf der anderen Seite nicht so tun als gäbs sowas nicht.

Ein bisschen Sarkasmus musst du mir gönnen xD Das waren aber z.B. die Features, die Grudi meinte, deshalb auch die Spitze^^ (mit unter anderem). Es ist mit RTX doch etwas wie mit den Vega Features. Die müssen eben erstmal genutzt werden um ihren Wert zu beweisen. Das war bewusst etwas überspitzt gewählt, war aber nicht böse gemeint...^^ Aber RTX ist halt im Moment noch(!!!) ein Papiertieger.^^ Kann ja sein, dass das noch kommt.

Natürlich hast du im Einzelfall immer wieder mal Probleme.
Ich kaufe ständig (privat) AMD und habe deshalb schon eine lange Liste die bis zur Hardwareunbrauchbarkeit geführt haben in 2 Fällen (780G Causa, Ilano und 3D BD Betrieb).
Aber zu 90% konnte ich die Treiberprobleme lösen oder umgehen.
Wir haben in der Arbeit hunderte Rechner und da seh ich einen gewissen Durchschnitt.
Und der OEM für den ich früher betrachtet hat, führt auch gewisse Helpdesk-Statistiken. Da treten bei im Alltagsbetrieb leider wesentlich mehr Vorfälle auf, also sonstwo. Aber bei Spielen sind die Treiber vergleichbar.
Es ist natürlich berechtigt, dass man auch mal die Kompetenz des Users in Frage stellt. Ich habe in meiner Zeit im Support gelernt, dass zu 95% Layer 8 die Problemquelle darstellt.
Ich kann dir aber sagen, dass das in meinem Fall meist nicht so ist. Unfehlbar bin ich nicht, aber ich mache auch keine Einzelaussagen (und das sind Einzelaussagen, wenn ich nur meine Karte und die der FAmilien nehmen würde, ich gehe aber von über 800 PCs aus die wir aktuell am Institut haben, Workstations, "Supercomputer" und Server natürlich nicht mitgerechnet).

Zu der Statistik kann ich nicht so viel sagen^^ Allerdings hab ich über AMDs Pro-Treiber jetzt nicht so viel schlechtes von den Bekannten gehört die eine AMD-Pro oder Prosumer-Karte haben. (Was natürlich auch mal wieder nicht repräsentativ ist xD) Was deine Kompetenz angeht, wie gesagt, zu der hab ich keine Ahnung^^ Ich kann mir vorstellen, dass du dich mit den Treibern gut auskennst. Ich hab nur eben festgestellt (wie du ja selbst auch) das Leute sich bis weilen anstellen. Vor allem Leute im Internet xD

Nvidia hat das sehr wohl immer wieder so betrieben. Die Frage ist ob wir unter "Treiber Segmente" gerade dasselbe verstehen. Nvidia hat in der Vergangenheit stets einzelne Teile der Treiber völlig überarbeitet (das geht bis auf die Detonator-Serie zurück), bis diese dann eben nicht mehr - wie du sagst "beschissen" waren. Ab einem gewissen Punkt muss man das wohl nicht mehr machen, das ist klar. Nvidia wird das Ressourcen-Handling, Threading und vieles OS Spezifische für Win 7 und 8 (sofern sie da bislang eigenen Code hatten) nicht mehr neu schreiben. Ebensowenig 32 Bit Support wie wir wissen.

Kann sein, dass wir da aneinander vorbei reden^^ So viel ich weiß werden einzelne Features mal neu gemacht, aber größere Segmente eben nicht.

Natürlich. Aber es bedarf nunmal wesentlich geringerer Performance-Hits (völlig vernachlässigbar heutzutage) wenn die Objekte einzeln abrufbar sind als wenn die Funktionen ständig mitlaufen, weil sie in einer schlampigen Codewurst drin sind.

Locuza meinte eine schlankere Treiberstruktur bei Nvidia und im prinzip reden wir (du, er, ich) vom selben bzw. ähnlichem. Der Nvidia Treiber ist insgesamt einfach sauberer programmiert, über die Jahre hinweg besser optimiert und gepflegt worden. Das hat natürlich Budgetäre Gründe

Ja, es ist aber auch vermutlich besser seit AMD das Treiber-Team aufgestockt hat, aber Nvidia hat immer noch deutlich mehr Budget . Aber seit der Treiber mal komplett aufpoliert wurde ist der auch einfach deutlich zuverlässiger als der alte.
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Ganz einfache Lösung für DX11:

Ein stufenloser LOD-Regler für Alle. Sowas gabs früher mal in den Treibern.
Das CPU und DrawCall-Limit wird doch bei vielen Games künstlich herbeigeführt. (Sponsered by..)
Keiner braucht noch mal x-Millionen Polygone im Hintergrund, wenn doch kann Er sich ja die Ti holen.
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

500€?:nene:

Man erinnert sich kaum noch daran als die x70 Varianten mit 300€ auf den Markt kamen (teils sogar darunter).
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Ist ja auch richtig so, sollte auch die Absicht sein, zumindest für einen Grafikkartentest bei Release. UV könnte man sicher als Special oder gesonderten Zusatz bringen, aber sicher nicht als Test, der eruiert, was ich als Käufer erhalte.
AMDs Pech / Unvermögen, wenn sie zu hohe Spannungen geben (wobei die mit einiger Sicherheit sehr gut austariert sind und einfach auf gewisse Varianzen bei der benötigten Spannung schliessen lassen).

Nein das ist ganz und gar nicht richtig so. Wenn man schon einen oc-Test anbietet, dann bitte auch richtig. Stattdessen wurde oft genug nur die Spannung erhöht, um dann im Fazit festzustellen das sich oc nicht lohnt, weil der boost kaum steigt und der Verbrauch explodiert. So zu arbeiten ist entweder Unfähigkeit oder man hat auf das schlechte Ergebnis abgezielt.
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Nun das habe ich schon voriges Jahr prophezeit als klar wurde, dass AMD keine Konkurrenz bringt vor Navi und als klar war, dass Nvidia den 12nm Prozess verwendet.

Wartet einfach auf 7nm, das wird ordentlich mehr Performance bringen. Von einer knappen verdoppelung geh ich aus, 3dcenter prognostiziert sogar BIS ZU (achtung, best case) 200% bei ähnlicher Chipfläche und Stromverbrauch. Was kann nVidias Ampere-Generation mit der 12nm-, 10nm- oder 7nm-Fertigung von TSMC erreichen? | 3DCenter.org
Überraschend ist es leider nicht, ja. :(

Sorry, aber das ist stumpfisnniges, elitäres Denken. 1080P ist mit großem Abstand (und wird es auch noch Jahre bleiben) die meistgenutzte Auflösung. Ist also heute noch am Wichtigsten und wenn du in 2-3 Jahren gebrauchte GPUs kaufst auch noch (oder neue).
Daran ist nichts elitär. Es ist lediglich das Eliminieren von Fremdeinflüssen auf die Messung (wissenschaftliches Arbeiten und so... ;) ).

Was du schreibst, mag alles sein und ist für den Spieler interessant. Das "Grafikkartentest" war deshalb fett in meinem Beitrag, weil ich eben in einem solchen Test die Leistung der Grafikkarte sehen will und keine CPU-Einflüsse darin haben möchte.
Die Betrachtung kann ja im Verbund mit anderen Messungen durchaus auch aufschlussreich sein hinsichtlich Treibereinfluss auf die CPU-Leistung, aber es sollte imo nicht im Vordergrund stehen.

Darum kein F-HD als Default. Dass man auf Grund der nach wie vor hohen Verbreitung nicht darauf verzichten kann, kann ich ja irgendwie noch nachvollziehen.

Nein, das ist absolut ignorant.
Es wird OC getestet, also soll auch OC mit UV und sonstigen Software-Optimierungen getestet werden. Ein ordentlicher Grafikkarten OC Test holt das stabile Maximum aus einer Karte raus. D.h. da soll nicht nur in irgendeinem Tool eine Mhz Zahl erraten werden und das dann als "OC Test" abgedruckt werden, sondern es soll sich herangetastet werden, was mit der Karte wirklich möglich ist, wenn man Mhz, Spannung, Power Target und Lüfterkurve anpasst.
Bei einem OC Test für CPUs genau so.
Ich habe dich womöglich missverstanden. Ich sage ja, im Rahmen eines Specials, OC-Tests, etc. , ist das sicher sinnvoll. Bloss ist die "repräsentative" Kenngrösse nun mal der Auslieferungszustand.
Davon ab meine ich, dass es solche Tests durchaus gab, gerade weil AMD nicht erst seit Vega gerne zu höherer Spannung greift. Zumindest spuckt Google etwas von 3dc und vom Luxx aus.

Nein das ist ganz und gar nicht richtig so. Wenn man schon einen oc-Test anbietet, dann bitte auch richtig. Stattdessen wurde oft genug nur die Spannung erhöht, um dann im Fazit festzustellen das sich oc nicht lohnt, weil der boost kaum steigt und der Verbrauch explodiert. So zu arbeiten ist entweder Unfähigkeit oder man hat auf das schlechte Ergebnis abgezielt.
Siehe oben. Bin da nicht grundsätzlich anderer Meinung. Dass man das zu Release nicht macht, ist schätzungsweise eine Zeitfrage. :ka:
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

AMD muss sich nicht fürchten, denn GTX 1080 ist schon auf dem Niveau von Vega64. Die Karte wird sich preislich eher darüber platzieren.
Und jetzt für AMD Fans: Solange der Preis von Vega64 nicht sinkt, werden GTX 1080 und RTX 2070 genau dort bleiben, wo sie gerade sind.
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Für 519€ ist RTX 2070 klar besser als GTX 1080 oder Vega64 für 489€.
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten? [Update]

Uhhhh sind die billig die taugen sicher nix
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten? [Update]

Uhhhh sind die billig die taugen sicher nix

Nach den Reviews mit den schlechten Frametimes ist sicher die Verunsicherung groß.
Die Hersteller wissen net so recht , Was preislich geht.
Wenn Killer-i.. gleich mal nen Sack voll abnimmt geht der Preis ruckzuck hoch.
(oder Inno hat keine 1080er mehr auf Lager und kann schon die 2070 zum Selbstkostenpreis abgeben)
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Vielleicht bin das nur ich, aber 500€ für die neue (gehobene) Mittelklasse ist mMn nicht günstig, eher im Gegenteil. Vor 10 Jahren haben die High-End Karten die Hälfte gekostet.
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

500+€ für eine Mittelklasse GPU und Günstig im Titel made my day
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

Vielleicht bin das nur ich, aber 500€ für die neue (gehobene) Mittelklasse ist mMn nicht günstig, eher im Gegenteil. Vor 10 Jahren haben die High-End Karten die Hälfte gekostet.

Aha...

Bitte mal die Kirche im Dorf lassen!

Die GTX 280 hatte damals 550€ gekostet.

Die HD4870X2 hatte an die 450€ gekostet.

Gehen wir mal weiter.

Die HD5870 lag bei 450 €

Die 8800 Ultra lag bei aberwitzigen 750 €

Die GTX 780Ti lag bei knapp 600 €

Also längst nicht so günstig, wie du hier am schreiben bist.

Natürlich ist es sehr teuer, aber es zwingt dich ja niemand diese Karten zu kaufen.
 
AW: Geforce RTX 2070 im Test: Turing wird "günstig" - muss sich AMD fürchten?

519 Für den Extremplastikblower mit Chipqualität kurz über Ausschuß-Deal!
Jedes einigermaßen ordendliche Design kostet 600Euro aufwärts.
Gruß Yojinbo
 
Zurück