Nvidia Geforce RTX 3070 Ti im Test: Energischer Angriff auf die Radeon RX 6800

Oh nein ein unbeschriftetes Diagramm, das ist ja wie in der Alpecin Werbung :D

Und auch diese(r Ausschnitt einer) Grafik entstand unter dem Einfluss von Koffein - allerdings systemisch, nicht nur obenrum. :D Im Artikel ist natürlich alles ordnungsgemäß benannt. Heute sollt ihr raten, was was ist!

MfG
Raff
 
Fazit wäre tatsache, das man für umgerechnet den gleichen Gegenwert von 389€ @ 2010 heute für 539€ eine 3070 bekommen würde, die für 1080p schon sehr gut wäre. Kleine Schippe drauf beim Preis und man bekäme eine 6800 (UVP)
Ich verstehe schon, worauf du hinaus willst. Wenn du aber denkst, dass du heutzutage für 150€ mehr die vergleichsweise gleiche Leistung bekommst wie 2010, inklusive einer neuen Technologie, dann solltest du auch bedenken, dass 2010 FHD noch einen Stand am Markt hatte, wie heutzutage UHD. Wenn ich mir anschaue, was Kunden in meiner alten Firma und jetzt bei mir so kaufen, dann sind wir in der Masse definitiv bei WQHD angelangt, der Teil der noch FHD will, ist etwa gleich groß wie der, der den Rest will (UHD & Breitbildformate).
 
Erstmal, kostet der Kaffee am Automaten bei euch nicht 1,80€ ;)

500 Euro ist Aufgrund der Inflation schon nicht zu haten gewesen. Aber selbst wenn man sagen würde, machen wir aktuell 650 draus. DAnn hätte man immer noch nur die Wahl zwischen knappen VRam (3070(TI)) und schlechterer Leistung wenn alle optisch afwertenden Details aktiviert sind (6800(XT)) (ALLES NUR VON DER UVP AUSGEGANGEN!)

Also Pest gegen Cholera

Ich will mich nicht wirklich beschweren. Für 1080p@ max habe ich vor 11 Jahren schon 390 Euro ausgegeben. Dann Inflation und schwacher Euro, das sind heute schon rund 539 Euro. Dann wäre die 3070 zur UVP schon die richtige Karte mit 519Euro. Ohne das es wirklich teurer geworden wäre. Also für 1080p und mit der höchsten Wahrscheinlichkeit möglichst wenige Details abschalten zu müssen.
Natürlich nur für mich, weil für mich RT im jetzigen Stadium dazu gehört.
Die Rechnung funktioniert nicht, weil Leistung in der Elektronik mit den Jahren deutlich billiger wird.
Oder bekamst du vor 11 Jahren zu irgendeinem Preise einen Desktop 16 Kerner?
Für €389 gibt es aktuell z.B. einen 5800X - 8 Kerne 16 Threads.... vor 11 Jahren undenkbar für einen normalen Desktop.
Damals war das Topmodell der Intel i7-980X EE mit 6 kernen und 12 Threads.
Und das für schlanke $999 UVP

Heutzutage gibt es mit dem 3900X für €435 gleich 12 Kerne mit 24 Threads

Warum soll ich dann bei Grafikkarten einen Preisanstieg von bis zu 85% akzeptieren?

Nochmal zu RT. Ich verstehe die Anti Haltung vieler echt nicht. Viele viele Jahre passiert eigentlich wirklich nichts im Grafikbereich, außer höherer Auflösung. In den allermeisten Fällen sieht man in Spielen den Unterschied zwischen max und der zweithöchsten Stufe nicht. Dann kommt RT, ja am Anfang war der eine, oder andere Titel echt nur lächerlich, aber mittlerweile gibt es Beispiel bei denen es ein echter Mehrwert für die Grafik ist.

Was nun, jetzt will man die erste echte Weiterentwicklung in dem Bereich nicht aktivieren, weil ist ja noch viele Jahre zu früh? Wie denn, wenn es in jetzigen Spielen einen optischen Mehrwert bietet?


Fazit wäre tatsache, das man für umgerechnet den gleichen Gegenwert von 389€ @ 2010 heute für 539€ eine 3070 bekommen würde, die für 1080p schon sehr gut wäre. Kleine Schippe drauf beim Preis und man bekäme eine 6800 (UVP)

Kennt einer Beispiele in 1080p, in denen der 3070 der Speicher ausgeht und ruckelt, bzw. deswegen weiter zurück fällt? Dann bitte her damit (Geht nur um mein Interesse)
RT ist schön und gut, hat aber das Problem von jeder neuen Technik in den Kinderschuhen - sie ist real irrelevant.
Wie lange hat es gedauert, bis Tessellation relevant wurde?
Tessellation gab es als ATI TruForm bereits 2007 in den HD2000 Modellen:
Hat nur kein Schwein interessiert, weil zu leistungshungrig.
Das Zeug wird ja heute noch mit viel zu exzessiven Faktoren betrieben, nur um gewisse Hersteller auszubremsen.
RT muss nun auch noch ein paar Jahre brutzeln, bis es wirklich für den Massenmarkt taugt - Der liegt noch immer bei den Grafikkarten bis €300.
Von denen kann aktuell aber keine auch nur halbwegs vernünftig RT darstellen.
 
Die Rechnung funktioniert nicht, weil Leistung in der Elektronik mit den Jahren deutlich billiger wird.
Oder bekamst du vor 11 Jahren zu irgendeinem Preise einen Desktop 16 Kerner?
Für €389 gibt es aktuell z.B. einen 5800X - 8 Kerne 16 Threads.... vor 11 Jahren undenkbar für einen normalen Desktop.
Damals war das Topmodell der Intel i7-980X EE mit 6 kernen und 12 Threads.
Und das für schlanke $999 UVP

Heutzutage gibt es mit dem 3900X für €435 gleich 12 Kerne mit 24 Threads

Warum soll ich dann bei Grafikkarten einen Preisanstieg von bis zu 85% akzeptieren?


RT ist schön und gut, hat aber das Problem von jeder neuen Technik in den Kinderschuhen - sie ist real irrelevant.
Wie lange hat es gedauert, bis Tessellation relevant wurde?
Tessellation gab es als ATI TruForm bereits 2007 in den HD2000 Modellen:
Hat nur kein Schwein interessiert, weil zu leistungshungrig.
Das Zeug wird ja heute noch mit viel zu exzessiven Faktoren betrieben, nur um gewisse Hersteller auszubremsen.
RT muss nun auch noch ein paar Jahre brutzeln, bis es wirklich für den Massenmarkt taugt - Der liegt noch immer bei den Grafikkarten bis €300.
Von denen kann aktuell aber keine auch nur halbwegs vernünftig RT darstellen.
Der Vergleich zu den CPUs mit der Kernanzahl ist meiner Meinung nach faslch.

Oder glaubst du das ein 4Kerner vor 11 Jahren das gleiche leistet, wie ein 4 Kerner heute?
Du bekommst ja mehr Leistung und kannst ja deswegen mehr Details sehen und auch im hübschere Spiele bestaunen.

Tessalation war direkt relevant (von dem Moment als Spiele das eingesetzt haben und dadurch schöner aussahen. Ist halt Ansichtssache.
Auch damals, wer maximale Grafik wollte, nutzte Tessalation schon sehr früh.

Eine heutige GPU für 539 Euro ist garantiert mehr als 10x so schnell, wie eine 390 Euro Karte von 2010. Das bezahlt man.

Nicht die Erwartungshaltung, das Auflösung xy zum Beispiel dann läuft, oder das einfach plump mehr Kerne da sind. Auch nicht das einfach mehr Speicher verbaut ist.

Das Gruselmärchen der Absicht zum Ausbremsen ist einfach putzig.

Genau genommen ist das Gleichgewicht zu den 389EUro in 2010, heute halt bei 539 Euro. Das ist auch egal, ob die Masse immer noch nur bis 300 Euro ausgibt.

Natürlich alles nur meine Meinung! ;)
 
Zuletzt bearbeitet:
@PCGH_Raff hast Recht.. in der Eile den Wiki Artikel zu schnell überflogen.
Ist von 2001.
Berüchtigt wurde Tessellation dann durch Crysis 2 anno 2011... also immerhin nur 10 Jahre später.

Wenn es also danach geht, haben wir noch einige Jahre RT Irrelevanz vor uns.
 
Ich halte dagegen (und habe eine andere Definition von "irrelevant"). :-) Die Industrie ist sich einig, dass Raytracing the way to go ist, daher wird das schneller gehen.

MfG
Raff
Natürlich ist RT "The way to go".
Nur erreicht man Relevanz nicht, indem man nur Halo Produkte mit genug Leistung hat - und ich gehe auch davon aus, dass es keine 10 Jahre mehr sein werden.

RT ist dann wirklich relevant, wenn es beim Budget der Mehrheit angekommen ist - also im Bereich von bis zu €300.
Und das dann halt nicht mit DLSS low quality, sondern wirklich performant bei guten Bild.

Edit: Wir wissen auch in anderen Bereichen, dass es neue Technologien gibt, die "The way to go" sind... nur muss man sich das dann auch leisten können.
Die meisten Einkommen sind da aktuell schlicht noch raus, was die technologien leider an den Rand der Relevanz bringen.
 
Ich verstehe schon, worauf du hinaus willst. Wenn du aber denkst, dass du heutzutage für 150€ mehr die vergleichsweise gleiche Leistung bekommst wie 2010, inklusive einer neuen Technologie, dann solltest du auch bedenken, dass 2010 FHD noch einen Stand am Markt hatte, wie heutzutage UHD. Wenn ich mir anschaue, was Kunden in meiner alten Firma und jetzt bei mir so kaufen, dann sind wir in der Masse definitiv bei WQHD angelangt, der Teil der noch FHD will, ist etwa gleich groß wie der, der den Rest will (UHD & Breitbildformate).
Sind die Spiele schöner geworden, in 1080p? Das hat ja nichts mit der Auflösung direkt zu tun.
Mir persönlich ist rt wichtiger, als 1440p. AUch 1440p mit RT wäre mri wichtiger, als 4k ohne. Das eine bringt mir mehr Nutzen (für mich)

Wer meint er bekommt keine Mehrleistung, der soll doch mal eine alte Karte einbauen und schauen wie gut die noch läuft mit max Details.

Wenn die Masse Grafikkarten für 300 Euro kauft, dann nicht für 1440p.
 
Der Vergleich zu den CPUs mit der Kernanzahl ist meiner Meinung nach faslch.

Oder glaubst du das ein 4Kerner vor 11 Jahren das gleiche leistet, wie ein 4 Kerner heute?
Du bekommst ja mehr Leistung und kannst ja deswegen mehr Details sehen und auch im hübschere Spiele bestaunen.

Tessalation war direkt relevant (von dem Moment als Spiele das eingesetzt haben und dadurch schöner aussahen. Ist halt Ansichtssache.
Auch damals, wer maximale Grafik wollte, nutzte Tessalation schon sehr früh.

Eine heutige GPU für 539 Euro ist garantiert mehr als 10x so schnell, wie eine 390 Euro Karte von 2010. Das bezahlt man.

Nicht die Erwartungshaltung, das Auflösung xy zum Beispiel dann läuft, oder das einfach plump mehr Kerne da sind. Auch nicht das einfach mehr Speicher verbaut ist.

Das Gruselmärchen der Absicht zum Ausbremsen ist einfach putzig.

Genau genommen ist das Gleichgewicht zu den 389EUro in 2010, heute halt bei 539 Euro. Das ist auch egal, ob die Masse immer noch nur bis 300 Euro ausgibt.

Natürlich alles nur meine Meinung! ;)
Puh.. nicht alles, was hinkt, ist ein Vergleich...
Natürlich leisten die Grafikkarten deutlich mehr, als die vor 10 Jahren.
Das gilt aber auch für das Jahrzehnt davor und dennoch gab es zwischen 2001 und 2011 keinen Preisanstieg um 85%.
Und natürlich leistet ein heutiger 4-Kerner mehr, als einer vor 10 Jahren - ist der deshalb teurer geworden?
Eher im Gegenteil.
Um mal noch etwas weiter zurück zu gehen:
Anfang der 90er gab es die ersten Computer in unserem Familienbetrieb. Der leistungsstärkste Rechner war ein 386SX für einen fünfstelligen Betrag.
Nur ein paar Jahre später gab es ein Vielfaches der Leistung mit einem Vielfachen der Speicherkapazität für nicht mal 10% des Preises.

Mir fehlt schlicht die Logik hinter dem Argument: Mehr Leistung ist nach 10 Jahren 85% teurer...

Edit:
Wir können auch die PC Welt verlassen.
Vor 10 Jahren waren 3D Drucker prinzipiell extrem teuer und für den "Hausgebrauch" unerschwinglich.
Aktuell stehen in einem Nebenzimmer gleich 3 Resin (SLA) Drucker mit UHD Displayauflösung (auf 10"), die unendlich detaillierter drucken können, als die Teile vor 10 Jahren auch nur davon träumen konnten.

Es bleibt dabei, dass Leistung in Elektronik.. und eigentlich generell immer billiger wird - sonst würden wir bei der Entwicklung ja auch auf der Stelle treten, wenn sich immer nur 5-10% die Neuerungen leisten könnten und diese dann nicht günstiger würden.
 
Kommen wir nochmal kurz auf die 300 Euro zurück.

Der Arbeiter der sich 2010 eine 300 Euro Karte leisten konnte, kann sich heute für die selbe Kaufkraft, gemessen an seinem Einkommen, heute eine rund 416 Euro Karte leisten. Die Zahlen sind höher, aber der Wert nicht.

Ist ja nicht teurer (außer die höheren Zahlen) 389 entspricht heute 539.

Wir hatten wirklich ein paar Jahre, wo die Leistung kaum stieg und Preis dennoch stieg.

Aber aktuell sehe ich das nicht so. Wenn man sich anschaut, wie sehr die RT Leistung von Turing zu AMpere gestiegen ist.

Auch auf einer RTX2060TI, sowie aktuell einer 3060 ist RT doch nutzbar in 1080p ist doch eigentlich alles top, wenn man die Preise an die Gehälter von heute anpasst (ein schwacher Euro ist traurig, aber da kann keiner von uns etwas dran ändern und ein Hersteller nichts dafür).

Einziges Problem das ich sehe, das man diese nicht kaufen kann. Ein großer Haufen ist das... Siliziummangel, Mining, was auch immer, das sind die Probleme, die wir gerade haben.
 
Sind die Spiele schöner geworden, in 1080p? Das hat ja nichts mit der Auflösung direkt zu tun.
Mir persönlich ist rt wichtiger, als 1440p. AUch 1440p mit RT wäre mri wichtiger, als 4k ohne. Das eine bringt mir mehr Nutzen (für mich)

Wer meint er bekommt keine Mehrleistung, der soll doch mal eine alte Karte einbauen und schauen wie gut die noch läuft mit max Details.

Wenn die Masse Grafikkarten für 300 Euro kauft, dann nicht für 1440p.
Ob Spiele schöner geworden sind oder nicht, ist irrelevant. Du vermischst persönliche Präferenzen mit tatsächlichen Marktlagen. Worauf ich hinaus wollte, ist die Tatsache, dass 2010 zum einen die gängigste Auflösung noch nicht FHD war, diese heute aber zusehends verdrängt wird. So wie heute keiner mehr in 1680x1050 spielt, geschweige denn GPUs testet. Zumal die Butter und Brot Karten damals nicht bei deinen genannten 390€ lagen, sondern eher bei 280-320€ (was sich bis heute als "Wohlfühlzone" gehalten hat). Deine genannten "1080p@ max = 390 Euro" war damals noch eine Enthusiastenauflösung zu einem etwas gehobeneren Preis als der Sweetspot des Marktes. Und auch recht... optimistisch, ich bezweifle stark, dass das damals im Schnitt der Spiele zu dem Preis gelang. So oder so, das rechtfertigt in keinster Weise die Preise von heute, wo 1080p den Stand von 1050p vor 11 Jahren hat. 530€ Für WQHD/60, klar, geschenkt. Aber nicht für FHD.
 
Zuletzt bearbeitet:
Kommen wir nochmal kurz auf die 300 Euro zurück.

Der Arbeiter der sich 2010 eine 300 Euro Karte leisten konnte, kann sich heute für die selbe Kaufkraft, gemessen an seinem Einkommen, heute eine rund 416 Euro Karte leisten. Die Zahlen sind höher, aber der Wert nicht.
Da hab ich andere Lebenserfahrung... aber ich maße mir hier kein Allgemeinwissen an - nur Rückschlüsse aus den genutzten Grafikkarten.
Die Verteilung der GPUs sagt halt, dass der Bereich unter €300 noch immer der mit weitem Abstand größte Bereich ist.
 
Irgendwie finde ich die ganzen Tests zu 3080Ti und 3070Ti häufig total am Punkt vorbei.

Die Hauptkonkurrenten der 3070Ti liegen doch in der 3070 und der 3080 aus eigenem Hause und nicht in irgendwelchen AMD-Karten. Von daher glaube ich nicht, dass es irgendjemanden interessiert, ob nun eine 6800 zwei FPS mehr oder weniger als eine 3070Ti produziert. Das wird niemanden zum Nvidia- oder AMD-Käufer machen, der es - aus ganz individuellen Gründen - nicht schon vorher war.

Einzig relevanter Punkt ist doch im Prinzip, dass die beiden Ti-Karten innerhalb des Nvidia-Portfolios verdammt alt aussehen und im Vergleich mit 3070/3080/3090 eigentlich niemandem ans Herz gelegt werden können. Als ob angesichts dieses Umstands Duelle mit AMD noch großartig interessieren würden ...
 

Energetischer Angriff auf die Radeon RX 6800​

Es ist mir schon des öfteren aufgefallen, das die Qualität eurere Artikel zwar sehr gut ist, aber die Titelzeilen doch des öfteren zu wünschen übrig lassen.

Daher würde ich mich, unentgeltlich dazu bereit erklären dies für euch zu übernehmen.
Falls dabei am Ende des Jahres, als materielle Entlohnung eine gebraucht Grafikkarte für mich rausspringen sollte, würde ich natürlich nicht nein sagen, außer es handelt sich um eine 3070ti. Die Säuft mir mit ihren 300W nämlich zu viel und verursacht mit ihren 8GB bei mir Kopfschmerzen (ihr wisst schon verschwommene Texturen und so zeug)
Aber eine 6800 hingegen würde ich natürlich mit Handkuss nehmen.
 
Zuletzt bearbeitet:
Also die Temps des GDDR6X auf den Karten sind schon wirklich derbe hoch, eine leichte Übertaktung des Ram erzeugt bereits einen Mehrverbrauch von rund 10-15Watt auf den Karten....alter Schwede.

Ob das Alles so schlau konzipiert ist auf Dauer da mach ich mal ein dickes Fragezeichen dran, wenn das mal nicht ne Gen wird die nach 2-3Jahren reihenweise das Nirvana sieht.
 
Zurück