Nvidia Geforce RTX 3070 Ti im Test: Energischer Angriff auf die Radeon RX 6800

@PCGH_Raff
Wäre ein Test mit normierten Takt einer 70er und Ti Custom möglich im MAG?
Also gemittel auf identische Ausgangswerte bei Takt und Spannung bleiben auf der Ti bei mir lediglich ~5% + hängen.
 
Ob Spiele schöner geworden sind oder nicht, ist irrelevant. Du vermischst persönliche Präferenzen mit tatsächlichen Marktlagen. Worauf ich hinaus wollte, ist die Tatsache, dass 2010 zum einen die gängigste Auflösung noch nicht FHD war, diese heute aber zusehends verdrängt wird. So wie heute keiner mehr in 1680x1050 spielt, geschweige denn GPUs testet. Zumal die Butter und Brot Karten damals nicht bei deinen genannten 390€ lagen, sondern eher bei 280-320€ (was sich bis heute als "Wohlfühlzone" gehalten hat). Deine genannten "1080p@ max = 390 Euro" war damals noch eine Enthusiastenauflösung zu einem etwas gehobeneren Preis als der Sweetspot des Marktes. Und auch recht... optimistisch, ich bezweifle stark, dass das damals im Schnitt der Spiele zu dem Preis gelang. So oder so, das rechtfertigt in keinster Weise die Preise von heute, wo 1080p den Stand von 1050p vor 11 Jahren hat. 530€ Für WQHD/60, klar, geschenkt. Aber nicht für FHD.
Ich sehe nicht wirklich, das diese wirklich verdrängt wird. Ich sehe aber durchaus, das die Grafikkarten deutlich mehr Leisten als früher und die Spiele viel schöner geworden sind. Der Unterschied ist auch größer, als damals der Sprung von 1050p auf 1080p.

Ein, zwei mal habe ich mich geärgert, das ich damals früh auf 1080p umgestiegen bin.

Ach, mit der GTX470 ließ sich schon sehr ordentlich spielen ind 1080p.

Ich vermische auch keine persönlichen vorlieben, sage nur das die Spiele entsprechen schöner geworden sind, natürlich nur meiner Meinung nach.
 
Also die Temps des GDDR6X auf den Karten sind schon wirklich derbe hoch, eine leichte Übertaktung des Ram erzeugt bereits einen Mehrverbrauch von rund 10-15Watt auf den Karten....alter Schwede.
Ich verstehe die Erklärungsversuch der höheren TDP über den GDDR6X nicht. 24GB GDDRX6 verbrauchen rund 60 Watt laut Igor. 8GB verbrauchen dann entsprechend 20 Watt. Selbst wenn der X-VRAM doppelt so viel zieht, sind wir bei einem Plus von 10 Watt. Der erklärt die 70 Watt höhere TDP aber noch lange nicht. Auch der IMC kann das nicht sein. Das sind auch höchstens ein paar Watt.
 
Also ich habe die Karte (70Ti Gamerock) auf das selbe Setting gestellt wie meine "alte" 70er (SuprimX)
900mv/1950 Core, Mem bei beiden +1000

Die Anhebung des Speichertaktes macht selbst bei normaler Auslastung bereits eine Differenz von rund 10-15Watt aus. Ich hab noch nicht richtig zeit gehabt mich da mit allen Facetten zu beschäftigen und die Daten genau auszuwerten, aber grundlegend kann man schon sagen der Vram säuft wie ein Loch.
 
Also ich habe die Karte (70Ti Gamerock) auf das selbe Setting gestellt wie meine "alte" 70er (SuprimX)
900mv/1950 Core, Mem bei beiden +1000
Auch dieselbe CPU, selbes Spiel, selbe Settings? Ich teste das nachher mal mit meiner RTX 3090. Der VRAM kann im Grunde nicht mehr als ein paar Watt ziehen, denn der wird ja bloß mit Pads gekühlt.
 
Auch dieselbe CPU, selbes Spiel, selbe Settings? Ich teste das nachher mal mit meiner RTX 3090. Der VRAM kann im Grunde nicht mehr als ein paar Watt ziehen, denn der wird ja bloß mit Pads gekühlt.
Ja alles gleich. Sogar in etwa selbe TBP. Muss mal schaun ob ich den Vram isoliert irgendwie messen kann.
 
@Gurdi Ich habe das mal mit meiner RTX 3090 getestet. Das sind rund 7 Watt bei +1000MHz Speichertakt. Bei 8GB wären das 2-3 Watt.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Werden bei der 3090 und der 3070 TI die gleichen GDDR6X Chips benutzt? Oder bekommt die 3090 gleich eine Qualitätsstufe höher, als die 3070 TI?
 
Ich verstehe die Erklärungsversuch der höheren TDP über den GDDR6X nicht. 24GB GDDRX6 verbrauchen rund 60 Watt laut Igor. 8GB verbrauchen dann entsprechend 20 Watt. Selbst wenn der X-VRAM doppelt so viel zieht, sind wir bei einem Plus von 10 Watt. Der erklärt die 70 Watt höhere TDP aber noch lange nicht. Auch der IMC kann das nicht sein. Das sind auch höchstens ein paar Watt.
Das der Ram selbst bei OC derart viel mehr verbraucht halte ich auch für ausgeschlossen.
Evtl. spielen hier aber noch andere, ineinandergreifende Effekte eine Rolle.
Höherer Speichertakt -> mehr Verbrauch pro Chip,
Speichercontroller wird stärker belastet -> auch wieder mehr Verbrauch
Höhere Bandbreite -> evtl. bessere Auslastung der hohen Shaderzahlen -> mehr Verbrauch.

Auch spielt die Chiplottereie beim Speichercontroller wieder eine große Rolle.
Vllt. schafft der Controller in Gurdis Karte den höheren Takt nicht so einfach.

Bei meiner 290X/390X damals ist der Verbrauch durch Vram oc auch stärker gestiegen als ich das eigentlich erwartet hätte. Ich habe dazu leider keine Messungen mehr. Bei der Karte hat aber der Speichercontroller selbst schon gesoffen wie ein Loch
 
Eigentlich ist mittlerweile bekannt, woher das Problem kommt. Die Ti benötigt signifikant mehr Spannung, siehe hier und hier. Der GDDR6X spielt da natürlich auch mit rein, aber ich schätze den Einfluss auf um die 10 Watt max.

Marc Sauter von Golem spekuliert, dass das Chips sind, die es von der Güte her nicht als RTX 3080 mobile gepackt haben.
 
Das der Ram selbst bei OC derart viel mehr verbraucht halte ich auch für ausgeschlossen.
Evtl. spielen hier aber noch andere, ineinandergreifende Effekte eine Rolle.
Höherer Speichertakt -> mehr Verbrauch pro Chip,
Speichercontroller wird stärker belastet -> auch wieder mehr Verbrauch
Höhere Bandbreite -> evtl. bessere Auslastung der hohen Shaderzahlen -> mehr Verbrauch.

Auch spielt die Chiplottereie beim Speichercontroller wieder eine große Rolle.
Vllt. schafft der Controller in Gurdis Karte den höheren Takt nicht so einfach.

Bei meiner 290X/390X damals ist der Verbrauch durch Vram oc auch stärker gestiegen als ich das eigentlich erwartet hätte. Ich habe dazu leider keine Messungen mehr. Bei der Karte hat aber der Speichercontroller selbst schon gesoffen wie ein Loch
Das ist sicher so, ich muss mir das wie gesagt auch mal etwas näher anschauen und exakt vergleichen.
Eigentlich ist mittlerweile bekannt, woher das Problem kommt. Die Ti benötigt signifikant mehr Spannung, siehe hier und hier. Der GDDR6X spielt da natürlich auch mit rein, aber ich schätze den Einfluss auf um die 10 Watt max.

Marc Sauter von Golem spekuliert, dass das Chips sind, die es von der Güte her nicht als RTX 3080 mobile gepackt haben.
Hmm CP halte ich jetzt nicht für einen guten Kandidaten für den Vram, Dirt 5 ist ein Kandidat der da sehr empfindlich ist. Die Aussage von Golem kann ich nicht bestätigen, die 70Ti schafft exakt die Spannung Taktraten wie die ganzen 70er die ich hier hatte.
 
Hier mal ein schöner Apple to Apple Vergleich.
3070TI Gamerock OC 1965Mhz Core 900mv Spannung, Mem +1000,offenes Powerlimit, Leistungsaufnahme ~210-220Watt
Time Ex 70TI.png
Time 70TI.png


3070 Suprim X 1965Mhz Core 900mv Spannung, Mem +1000,offenes Powerlimit, Leistungsaufnahme ~195-210Watt
Screenshot (327).png
Screenshot (328).png



Differenz TS Extrem= 4,98%
Differenz TimeSpy=4,28%
Differenz Leistungsaufnahme= 4,87%

Testsystem jeweils identisch, Anschluss via TB an externem Monitor daher nicht 1:1 übertragbar auf einen Dektop,aber naja was sollman dazu sagen....
 
Der Fokus liegt ja auf den Differenzen, nicht auf den absoluten Zahlen. Aus Erfahrung weiß ich das sichd as gut übertragen lässt. Die 70TI zieht schon am TB bis zu 250Watt und das mit 900mv....
 
Fast 300 Watt finde ich schon ein wenig viel. Ich hoffe ja noch auf ein 3070 Super, schön 16 GB Speicher. Vielleicht ein bisschen mehr Takt bei 220 Watt. Das bekommt man ja noch gekühlt.
 
Zurück