• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Nvidia Geforce RTX 3070 Ti im Test: Energischer Angriff auf die Radeon RX 6800

Khabarak

BIOS-Overclocker(in)
Beim lesen hat man hier schon das Gefühl, dass die Nerven ganz schön blank liegen. :wow:
Ich glaube bei keinem von uns gibt es diese Steigerungen im Gehaltsgefüge. Aber es gibt auch keine Verpflichtung seitens der Hersteller eine Graka passend zu diesem bereitzustellen, wir dürfen nicht vergessen das es hier um Börsennotierte Unternehmen geht, die sind in erster Linie sich selbst und Ihren Aktionären verpflichtet.
Und eine Situation wie es sie zur Zeit gibt mit, Mining, großer Nachfrage, Lieferengpässe auf den Transportwegen, etc. ist doch wie ein 6er im Lotto für die Unternehmen.
Man muss sich da vielleicht nicht an jeder spitzen Formulierung hochzuziehen.:daumen:
MfG
Du kannst dir gern mal die Steam Hardwareliste zu Gemüte führen.
Da sind die 970 und 1060 noch immer sehr verbreitet - die 1060 noch immer bei knapp 10%.
Alle Karten ab 1070 aufwärts machen nochmal 8-10% aus. Der Rest liegt entweder gleichauf mit der 1060 (AMD äquivalent), oder ist eben älter, oder darunter zu finden.
Das allein sagt doch, wie der Markt wirklich aussieht.
Lediglich das Mining befeuert den Verkauf jenseits dieser Preisregionen und maskiert, wie der Gaming Markt wirklich aussieht.
AMD und Nvidia können momentan nicht genug produzieren und dadurch steigen die Preise, aber das hat schon lange nichts mehr mit Gaming zu tun.

Edit: Der Marktbereich bis €300 sind noch immer 80-85% des Gamings.
 
Zuletzt bearbeitet:

FetterKasten

Software-Overclocker(in)
Und raucht mit RT an beiden vorbei... Also ähm what.

Mit RT ist heute, ohne war gestern.
Raytracing ist zum aktuellen Stand nichts anderes als eine Tech Spielerei, wo man praktisch keinen Unterschied sieht, es aber oerdentlich leistung kostet.
Lass uns in min. 5 Jahren nochmal reden, da könntest du recht haben.
Natürlich reichen 8 GB Grafikspeicher bis auf ganz wenigen Ausnahmen aus. Und dann tauchen diese Probleme eventuell auch nur mit maximalen Details in den Texturdetails auf. Wer natürlich in 4K immer auf der sicheren Seite sein will, der kauft sich eben eine RTX 3080 oder gar RTX 3090. Aber dass 8GB Grafikkarten in Zukunft die Puste ausgehen, halte ich eher für Unwahrscheinlich. Gerade wenn ein Spiel gut optimiert worden ist, frisst es auch weniger Grafikspeicher.
Schon zum aktuellen Zeitpunkt knacke ich die 8GB bei weitem.
Im fast 6 Jahre alten Rise of the Tomb Raider hatte ich schon 9Gb, Cyberpunk 10Gb, Flight Simulator 2020 13GB.
Mit Sam wohlgemerkt.
Und in Zukunft wird das nicht weniger. Ne Karte soll ja auch ein paar Jährchen halten in dieser Preisklasse.
 
Zuletzt bearbeitet:

Irenicus_mv

Komplett-PC-Aufrüster(in)
Du kannst dir gern mal die Steam Hardwareliste zu Gemüte führen.
Da sind die 970 und 1060 noch immer sehr verbreitet - die 1060 noch immer bei knapp 10%.
Alle Karten ab 1070 aufwärts machen nochmal 8-10% aus. Der Rest liegt entweder gleichauf mit der 1060 (AMD äquivalent), oder ist eben älter, oder darunter zu finden.
Das allein sagt doch, wie der Markt wirklich aussieht.
Lediglich das Mining befeuert den Verkauf jenseits dieser Preisregionen und maskiert, wie der Gaming Markt wirklich aussieht.
AMD und Nvidia können momentan nicht genug produzieren und dadurch steigen die Preise, aber das hat schon lange nichts mehr mit Gaming zu tun.

Edit: Der Marktbereich bis €300 sind noch immer 80-85% des Gamings.
Dagegen ist überhaupt nichts zu sagen, worauf ich eingangs verwiesen habe war nur die Feststellung, daß einige Foristen hier sehr dünnhäutig werden.
Können wir an der Situation was ändern, nein.
Wird sich die Situation ändern, ja.
Was wir können ist, kaufen oder den Kauf aufschieben. Alles andere ist gegen Windmühlen...
Vielleicht bin ich auch nur zu entspannt bei der Sache, habe allerdings auch noch andere Hobbys.=)
MfG
 

derneuemann

BIOS-Overclocker(in)
Nein
Raytracing ist zum aktuellen Stand nichts anderes als eine Tech Spielerei, wo man praktisch keinen Unterschied sieht, es aber oerdentlich leistung kostet.
Lass uns in min. 5 Jahren nochmal reden, da könntest du recht haben.

Schon zum aktuellen Zeitpunkt knacke ich die 8GB bei weitem.
Im fast 6 Jahre alten Rise of the Tomb Raider hatte ich schon 9Gb, Cyberpunk 10Gb, Flight Simulator 2020 13GB.
Mit Sam wohlgemerkt.
Und in Zukunft wird das nicht weniger. Ne Karte soll ja auch ein paar Jährchen halten in dieser Preisklasse.
Nein.

Das mag ja deine Meinung sein, ist damit aber nicht fakt, sondern nur eine Meinung.

Die Karten halten ja auch, oder sind die dann unnutzbar?
 

Khabarak

BIOS-Overclocker(in)
Dagegen ist überhaupt nichts zu sagen, worauf ich eingangs verwiesen habe war nur die Feststellung, daß einige Foristen hier sehr dünnhäutig werden.
Können wir an der Situation was ändern, nein.
Wird sich die Situation ändern, ja.
Was wir können ist, kaufen oder den Kauf aufschieben. Alles andere ist gegen Windmühlen...
Vielleicht bin ich auch nur zu entspannt bei der Sache, habe allerdings auch noch andere Hobbys.=)
MfG
Ich hab auch andere Hobbys, nur ist es bei meiner fast 7 Jahre alten Karte nur eine Frage der Zeit, bis sie den Geist aufgibt... sowohl im Spiele PC, als auch im Arbeitsrechner.
 

rum

Software-Overclocker(in)
Das ist ein Spiel. Ein uraltes. Testszene und Taktraten unbekannt. Was spricht dagegen, bei uns zu schauen? =) Dort finden sich auch Bonuswerte mit DLSS: Raytracing-Leistung von 10 Spielen in 4 Auflösungen (Einzelwerte und Index).

MfG
Raff
Ich hab mal tatsächlich versucht bei Euch irgend etwas zu finden, woran man festmachen könnte, dass Ihr Hersteller A oder Hersteller B bevorzugt. Es ist mir nicht gelungen.
Aus diesem Grund kaufe ich weiterhin ausschließlich die PCGH an der Tankstelle und lese sie offline.
Absichtlich! :-X :fresse: :love: :stupid:
... so ganz ohne Forum und mit dem Internet einhergehenden Differenzen bezüglich Erwartungshaltung, Umgangston oder persönlichen Vorlieben ...
 

-ElCritico-

Software-Overclocker(in)
Das Suffix Ti verliert inflationär an Bedeutung. Was soll's, ich kaufe meine VGA nächstes oder übernächstes Jahr..
 

derneuemann

BIOS-Overclocker(in)
Bei PCGH war man ja vor ein paar Tagen der Meinung, die RTX 3080Ti wäre für "kleines Geld" verfügbar. Da stellt sich die Frage, ob es die Wahrnehmung verzerrt, wenn man mit hochpreisigen Karten arbeitet oder ob diese Maßstäbe auch im restlichen Leben angewendet werden.

1200€ UVP und "kleines Geld"...



Das hängt eben von den Ansprüchen ab. Ich persönlich haben ein Problem damit, wenn ich über 500€ für eine Graka hinlegen soll und mit dann gleich damit herumschlagen muß Details abzuschalten. Außerdem hätte ich von den Karten gerne etwas länger Spaß, mit 8GB ist schon absehbar, dass das ein massives Problem sein wird, genau wie bei meiner GTX 670 2GB.

Es ist eben wie bei der Fury X, nur dass die Karte mit zu wenig VRAM diesmal wieder von Nvidia kommt.

Erstmal, kostet der Kaffee am Automaten bei euch nicht 1,80€ ;)

500 Euro ist Aufgrund der Inflation schon nicht zu haten gewesen. Aber selbst wenn man sagen würde, machen wir aktuell 650 draus. DAnn hätte man immer noch nur die Wahl zwischen knappen VRam (3070(TI)) und schlechterer Leistung wenn alle optisch afwertenden Details aktiviert sind (6800(XT)) (ALLES NUR VON DER UVP AUSGEGANGEN!)

Also Pest gegen Cholera

Ich will mich nicht wirklich beschweren. Für 1080p@ max habe ich vor 11 Jahren schon 390 Euro ausgegeben. Dann Inflation und schwacher Euro, das sind heute schon rund 539 Euro. Dann wäre die 3070 zur UVP schon die richtige Karte mit 519Euro. Ohne das es wirklich teurer geworden wäre. Also für 1080p und mit der höchsten Wahrscheinlichkeit möglichst wenige Details abschalten zu müssen.
Natürlich nur für mich, weil für mich RT im jetzigen Stadium dazu gehört.


Nochmal zu RT. Ich verstehe die Anti Haltung vieler echt nicht. Viele viele Jahre passiert eigentlich wirklich nichts im Grafikbereich, außer höherer Auflösung. In den allermeisten Fällen sieht man in Spielen den Unterschied zwischen max und der zweithöchsten Stufe nicht. Dann kommt RT, ja am Anfang war der eine, oder andere Titel echt nur lächerlich, aber mittlerweile gibt es Beispiel bei denen es ein echter Mehrwert für die Grafik ist.

Was nun, jetzt will man die erste echte Weiterentwicklung in dem Bereich nicht aktivieren, weil ist ja noch viele Jahre zu früh? Wie denn, wenn es in jetzigen Spielen einen optischen Mehrwert bietet?


Fazit wäre tatsache, das man für umgerechnet den gleichen Gegenwert von 389€ @ 2010 heute für 539€ eine 3070 bekommen würde, die für 1080p schon sehr gut wäre. Kleine Schippe drauf beim Preis und man bekäme eine 6800 (UVP)

Kennt einer Beispiele in 1080p, in denen der 3070 der Speicher ausgeht und ruckelt, bzw. deswegen weiter zurück fällt? Dann bitte her damit (Geht nur um mein Interesse)
 

seahawk

Volt-Modder(in)
Was hauptsächlich ärgerlich ist, ist dass 3070ti und 3080ti wesentlich runder sein könnten.

Die 20GB 320Bit Version der 3080ti wäre runder gewesen, auch wenn die Abstand zur 3090 evtl. sogar minimal größer gewesen wäre.
Eine 16GB GDDR6 3070ti, wäre auch runder. Evtl. minimal langsamer, aber dafür vielleicht nur 260W und 16GB.

Für mich sieht das so aus, als ob NV noch für einen 3080 Super und 3070 Super plant, die dann in die Richtung gehen.
 

deady1000

Volt-Modder(in)
Für mich sieht das so aus, als ob NV noch für einen 3080 Super und 3070 Super plant, die dann in die Richtung gehen.
Mit 16GB und 20GB?
Sehr unwahrscheinlich.
Ti > Super.

Die haben doch jetzt ein sehr gutes Lineup, man muss es nur zu vernünftigen Preisen kaufen können. Die Karten ansich sind nicht das Problem, sondern der Marktpreis. Wüsste nicht warum man jetzt noch Karten mit noch mehr Speicher rausballern sollte.

Die 14-16GB sehen wir frühestens bei RTX4000.
Eine RTX3090 klammere ich mal aus.
 

AlterSchwde-3366

Kabelverknoter(in)
Schon zum aktuellen Zeitpunkt knacke ich die 8GB bei weitem.
Im fast 6 Jahre alten Rise of the Tomb Raider hatte ich schon 9Gb, Cyberpunk 10Gb, Flight Simulator 2020 13GB.
Mit Sam wohlgemerkt.
Und in Zukunft wird das nicht weniger. Ne Karte soll ja auch ein paar Jährchen halten in dieser Preisklasse.

Ein paar Titel wird es immer geben, die das Ruder umreißen. Gerade wenn man in 4K und maximalen Details spielen(Texturdetails) will. Aber dieses Phänomen gibt es schon seit Jahren. Da einen allgemeinen Trend daraus zu machen, halte ich für gewagt. Dass die RTX 3070ti in dieser Preisklasse 10 GB DDR6 Speicher vertragen hätte können, darüber brauchen wir ja nicht zu diskutieren.
 
Zuletzt bearbeitet:

seahawk

Volt-Modder(in)
Mit 16GB und 20GB?
Sehr unwahrscheinlich.
Ti > Super.

Die haben doch jetzt ein sehr gutes Lineup, man muss es nur zu vernünftigen Preisen kaufen können. Die Karten ansich sind nicht das Problem, sondern der Marktpreis. Wüsste nicht warum man jetzt noch Karten mit noch mehr Speicher rausballern sollte.

Die 14-16GB sehen wir frühestens bei RTX4000.
Eine RTX3090 klammere ich mal aus.
Das wird davon abhängen wann NV die 4000er fertig hat. Müssen sie noch einen Sommer mit Ampere aushalten, kommt imho die Super.
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Apropos: Dem Thema, inwiefern 12 GiByte problematisch sind, widme ich mich gerade. Da galt es noch eine Messreihe aus der vergangenen Woche auszuwerten. Montagfrüh geht's live. :-) 8 GiByte in Gestalt der RTX 3070 Ti sind übrigens aus gutem Grund nicht enthalten, denn bereits die 3080 muss in der Most Killing Selection ordentlich Federn lassen. :ugly:
Update: Die Party steigt nun doch schon morgen früh (Samstag), damit ihr am Wochenende etwas zum Diskutieren/Erfreuen/Lästern habt. =) Teaser:

Tesa.png

MfG
Raff
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Oh nein ein unbeschriftetes Diagramm, das ist ja wie in der Alpecin Werbung :D

Und auch diese(r Ausschnitt einer) Grafik entstand unter dem Einfluss von Koffein - allerdings systemisch, nicht nur obenrum. :D Im Artikel ist natürlich alles ordnungsgemäß benannt. Heute sollt ihr raten, was was ist!

MfG
Raff
 

Xaphyr

Software-Overclocker(in)
Fazit wäre tatsache, das man für umgerechnet den gleichen Gegenwert von 389€ @ 2010 heute für 539€ eine 3070 bekommen würde, die für 1080p schon sehr gut wäre. Kleine Schippe drauf beim Preis und man bekäme eine 6800 (UVP)
Ich verstehe schon, worauf du hinaus willst. Wenn du aber denkst, dass du heutzutage für 150€ mehr die vergleichsweise gleiche Leistung bekommst wie 2010, inklusive einer neuen Technologie, dann solltest du auch bedenken, dass 2010 FHD noch einen Stand am Markt hatte, wie heutzutage UHD. Wenn ich mir anschaue, was Kunden in meiner alten Firma und jetzt bei mir so kaufen, dann sind wir in der Masse definitiv bei WQHD angelangt, der Teil der noch FHD will, ist etwa gleich groß wie der, der den Rest will (UHD & Breitbildformate).
 

Khabarak

BIOS-Overclocker(in)
Erstmal, kostet der Kaffee am Automaten bei euch nicht 1,80€ ;)

500 Euro ist Aufgrund der Inflation schon nicht zu haten gewesen. Aber selbst wenn man sagen würde, machen wir aktuell 650 draus. DAnn hätte man immer noch nur die Wahl zwischen knappen VRam (3070(TI)) und schlechterer Leistung wenn alle optisch afwertenden Details aktiviert sind (6800(XT)) (ALLES NUR VON DER UVP AUSGEGANGEN!)

Also Pest gegen Cholera

Ich will mich nicht wirklich beschweren. Für 1080p@ max habe ich vor 11 Jahren schon 390 Euro ausgegeben. Dann Inflation und schwacher Euro, das sind heute schon rund 539 Euro. Dann wäre die 3070 zur UVP schon die richtige Karte mit 519Euro. Ohne das es wirklich teurer geworden wäre. Also für 1080p und mit der höchsten Wahrscheinlichkeit möglichst wenige Details abschalten zu müssen.
Natürlich nur für mich, weil für mich RT im jetzigen Stadium dazu gehört.
Die Rechnung funktioniert nicht, weil Leistung in der Elektronik mit den Jahren deutlich billiger wird.
Oder bekamst du vor 11 Jahren zu irgendeinem Preise einen Desktop 16 Kerner?
Für €389 gibt es aktuell z.B. einen 5800X - 8 Kerne 16 Threads.... vor 11 Jahren undenkbar für einen normalen Desktop.
Damals war das Topmodell der Intel i7-980X EE mit 6 kernen und 12 Threads.
Und das für schlanke $999 UVP

Heutzutage gibt es mit dem 3900X für €435 gleich 12 Kerne mit 24 Threads

Warum soll ich dann bei Grafikkarten einen Preisanstieg von bis zu 85% akzeptieren?

Nochmal zu RT. Ich verstehe die Anti Haltung vieler echt nicht. Viele viele Jahre passiert eigentlich wirklich nichts im Grafikbereich, außer höherer Auflösung. In den allermeisten Fällen sieht man in Spielen den Unterschied zwischen max und der zweithöchsten Stufe nicht. Dann kommt RT, ja am Anfang war der eine, oder andere Titel echt nur lächerlich, aber mittlerweile gibt es Beispiel bei denen es ein echter Mehrwert für die Grafik ist.

Was nun, jetzt will man die erste echte Weiterentwicklung in dem Bereich nicht aktivieren, weil ist ja noch viele Jahre zu früh? Wie denn, wenn es in jetzigen Spielen einen optischen Mehrwert bietet?


Fazit wäre tatsache, das man für umgerechnet den gleichen Gegenwert von 389€ @ 2010 heute für 539€ eine 3070 bekommen würde, die für 1080p schon sehr gut wäre. Kleine Schippe drauf beim Preis und man bekäme eine 6800 (UVP)

Kennt einer Beispiele in 1080p, in denen der 3070 der Speicher ausgeht und ruckelt, bzw. deswegen weiter zurück fällt? Dann bitte her damit (Geht nur um mein Interesse)
RT ist schön und gut, hat aber das Problem von jeder neuen Technik in den Kinderschuhen - sie ist real irrelevant.
Wie lange hat es gedauert, bis Tessellation relevant wurde?
Tessellation gab es als ATI TruForm bereits 2007 in den HD2000 Modellen:
Hat nur kein Schwein interessiert, weil zu leistungshungrig.
Das Zeug wird ja heute noch mit viel zu exzessiven Faktoren betrieben, nur um gewisse Hersteller auszubremsen.
RT muss nun auch noch ein paar Jahre brutzeln, bis es wirklich für den Massenmarkt taugt - Der liegt noch immer bei den Grafikkarten bis €300.
Von denen kann aktuell aber keine auch nur halbwegs vernünftig RT darstellen.
 

derneuemann

BIOS-Overclocker(in)
Die Rechnung funktioniert nicht, weil Leistung in der Elektronik mit den Jahren deutlich billiger wird.
Oder bekamst du vor 11 Jahren zu irgendeinem Preise einen Desktop 16 Kerner?
Für €389 gibt es aktuell z.B. einen 5800X - 8 Kerne 16 Threads.... vor 11 Jahren undenkbar für einen normalen Desktop.
Damals war das Topmodell der Intel i7-980X EE mit 6 kernen und 12 Threads.
Und das für schlanke $999 UVP

Heutzutage gibt es mit dem 3900X für €435 gleich 12 Kerne mit 24 Threads

Warum soll ich dann bei Grafikkarten einen Preisanstieg von bis zu 85% akzeptieren?


RT ist schön und gut, hat aber das Problem von jeder neuen Technik in den Kinderschuhen - sie ist real irrelevant.
Wie lange hat es gedauert, bis Tessellation relevant wurde?
Tessellation gab es als ATI TruForm bereits 2007 in den HD2000 Modellen:
Hat nur kein Schwein interessiert, weil zu leistungshungrig.
Das Zeug wird ja heute noch mit viel zu exzessiven Faktoren betrieben, nur um gewisse Hersteller auszubremsen.
RT muss nun auch noch ein paar Jahre brutzeln, bis es wirklich für den Massenmarkt taugt - Der liegt noch immer bei den Grafikkarten bis €300.
Von denen kann aktuell aber keine auch nur halbwegs vernünftig RT darstellen.
Der Vergleich zu den CPUs mit der Kernanzahl ist meiner Meinung nach faslch.

Oder glaubst du das ein 4Kerner vor 11 Jahren das gleiche leistet, wie ein 4 Kerner heute?
Du bekommst ja mehr Leistung und kannst ja deswegen mehr Details sehen und auch im hübschere Spiele bestaunen.

Tessalation war direkt relevant (von dem Moment als Spiele das eingesetzt haben und dadurch schöner aussahen. Ist halt Ansichtssache.
Auch damals, wer maximale Grafik wollte, nutzte Tessalation schon sehr früh.

Eine heutige GPU für 539 Euro ist garantiert mehr als 10x so schnell, wie eine 390 Euro Karte von 2010. Das bezahlt man.

Nicht die Erwartungshaltung, das Auflösung xy zum Beispiel dann läuft, oder das einfach plump mehr Kerne da sind. Auch nicht das einfach mehr Speicher verbaut ist.

Das Gruselmärchen der Absicht zum Ausbremsen ist einfach putzig.

Genau genommen ist das Gleichgewicht zu den 389EUro in 2010, heute halt bei 539 Euro. Das ist auch egal, ob die Masse immer noch nur bis 300 Euro ausgibt.

Natürlich alles nur meine Meinung! ;)
 
Zuletzt bearbeitet:

Khabarak

BIOS-Overclocker(in)
@PCGH_Raff hast Recht.. in der Eile den Wiki Artikel zu schnell überflogen.
Ist von 2001.
Berüchtigt wurde Tessellation dann durch Crysis 2 anno 2011... also immerhin nur 10 Jahre später.

Wenn es also danach geht, haben wir noch einige Jahre RT Irrelevanz vor uns.
 

Khabarak

BIOS-Overclocker(in)
Ich halte dagegen (und habe eine andere Definition von "irrelevant"). :-) Die Industrie ist sich einig, dass Raytracing the way to go ist, daher wird das schneller gehen.

MfG
Raff
Natürlich ist RT "The way to go".
Nur erreicht man Relevanz nicht, indem man nur Halo Produkte mit genug Leistung hat - und ich gehe auch davon aus, dass es keine 10 Jahre mehr sein werden.

RT ist dann wirklich relevant, wenn es beim Budget der Mehrheit angekommen ist - also im Bereich von bis zu €300.
Und das dann halt nicht mit DLSS low quality, sondern wirklich performant bei guten Bild.

Edit: Wir wissen auch in anderen Bereichen, dass es neue Technologien gibt, die "The way to go" sind... nur muss man sich das dann auch leisten können.
Die meisten Einkommen sind da aktuell schlicht noch raus, was die technologien leider an den Rand der Relevanz bringen.
 

derneuemann

BIOS-Overclocker(in)
Ich verstehe schon, worauf du hinaus willst. Wenn du aber denkst, dass du heutzutage für 150€ mehr die vergleichsweise gleiche Leistung bekommst wie 2010, inklusive einer neuen Technologie, dann solltest du auch bedenken, dass 2010 FHD noch einen Stand am Markt hatte, wie heutzutage UHD. Wenn ich mir anschaue, was Kunden in meiner alten Firma und jetzt bei mir so kaufen, dann sind wir in der Masse definitiv bei WQHD angelangt, der Teil der noch FHD will, ist etwa gleich groß wie der, der den Rest will (UHD & Breitbildformate).
Sind die Spiele schöner geworden, in 1080p? Das hat ja nichts mit der Auflösung direkt zu tun.
Mir persönlich ist rt wichtiger, als 1440p. AUch 1440p mit RT wäre mri wichtiger, als 4k ohne. Das eine bringt mir mehr Nutzen (für mich)

Wer meint er bekommt keine Mehrleistung, der soll doch mal eine alte Karte einbauen und schauen wie gut die noch läuft mit max Details.

Wenn die Masse Grafikkarten für 300 Euro kauft, dann nicht für 1440p.
 

Khabarak

BIOS-Overclocker(in)
Der Vergleich zu den CPUs mit der Kernanzahl ist meiner Meinung nach faslch.

Oder glaubst du das ein 4Kerner vor 11 Jahren das gleiche leistet, wie ein 4 Kerner heute?
Du bekommst ja mehr Leistung und kannst ja deswegen mehr Details sehen und auch im hübschere Spiele bestaunen.

Tessalation war direkt relevant (von dem Moment als Spiele das eingesetzt haben und dadurch schöner aussahen. Ist halt Ansichtssache.
Auch damals, wer maximale Grafik wollte, nutzte Tessalation schon sehr früh.

Eine heutige GPU für 539 Euro ist garantiert mehr als 10x so schnell, wie eine 390 Euro Karte von 2010. Das bezahlt man.

Nicht die Erwartungshaltung, das Auflösung xy zum Beispiel dann läuft, oder das einfach plump mehr Kerne da sind. Auch nicht das einfach mehr Speicher verbaut ist.

Das Gruselmärchen der Absicht zum Ausbremsen ist einfach putzig.

Genau genommen ist das Gleichgewicht zu den 389EUro in 2010, heute halt bei 539 Euro. Das ist auch egal, ob die Masse immer noch nur bis 300 Euro ausgibt.

Natürlich alles nur meine Meinung! ;)
Puh.. nicht alles, was hinkt, ist ein Vergleich...
Natürlich leisten die Grafikkarten deutlich mehr, als die vor 10 Jahren.
Das gilt aber auch für das Jahrzehnt davor und dennoch gab es zwischen 2001 und 2011 keinen Preisanstieg um 85%.
Und natürlich leistet ein heutiger 4-Kerner mehr, als einer vor 10 Jahren - ist der deshalb teurer geworden?
Eher im Gegenteil.
Um mal noch etwas weiter zurück zu gehen:
Anfang der 90er gab es die ersten Computer in unserem Familienbetrieb. Der leistungsstärkste Rechner war ein 386SX für einen fünfstelligen Betrag.
Nur ein paar Jahre später gab es ein Vielfaches der Leistung mit einem Vielfachen der Speicherkapazität für nicht mal 10% des Preises.

Mir fehlt schlicht die Logik hinter dem Argument: Mehr Leistung ist nach 10 Jahren 85% teurer...

Edit:
Wir können auch die PC Welt verlassen.
Vor 10 Jahren waren 3D Drucker prinzipiell extrem teuer und für den "Hausgebrauch" unerschwinglich.
Aktuell stehen in einem Nebenzimmer gleich 3 Resin (SLA) Drucker mit UHD Displayauflösung (auf 10"), die unendlich detaillierter drucken können, als die Teile vor 10 Jahren auch nur davon träumen konnten.

Es bleibt dabei, dass Leistung in Elektronik.. und eigentlich generell immer billiger wird - sonst würden wir bei der Entwicklung ja auch auf der Stelle treten, wenn sich immer nur 5-10% die Neuerungen leisten könnten und diese dann nicht günstiger würden.
 

derneuemann

BIOS-Overclocker(in)
Kommen wir nochmal kurz auf die 300 Euro zurück.

Der Arbeiter der sich 2010 eine 300 Euro Karte leisten konnte, kann sich heute für die selbe Kaufkraft, gemessen an seinem Einkommen, heute eine rund 416 Euro Karte leisten. Die Zahlen sind höher, aber der Wert nicht.

Ist ja nicht teurer (außer die höheren Zahlen) 389 entspricht heute 539.

Wir hatten wirklich ein paar Jahre, wo die Leistung kaum stieg und Preis dennoch stieg.

Aber aktuell sehe ich das nicht so. Wenn man sich anschaut, wie sehr die RT Leistung von Turing zu AMpere gestiegen ist.

Auch auf einer RTX2060TI, sowie aktuell einer 3060 ist RT doch nutzbar in 1080p ist doch eigentlich alles top, wenn man die Preise an die Gehälter von heute anpasst (ein schwacher Euro ist traurig, aber da kann keiner von uns etwas dran ändern und ein Hersteller nichts dafür).

Einziges Problem das ich sehe, das man diese nicht kaufen kann. Ein großer Haufen ist das... Siliziummangel, Mining, was auch immer, das sind die Probleme, die wir gerade haben.
 

Xaphyr

Software-Overclocker(in)
Sind die Spiele schöner geworden, in 1080p? Das hat ja nichts mit der Auflösung direkt zu tun.
Mir persönlich ist rt wichtiger, als 1440p. AUch 1440p mit RT wäre mri wichtiger, als 4k ohne. Das eine bringt mir mehr Nutzen (für mich)

Wer meint er bekommt keine Mehrleistung, der soll doch mal eine alte Karte einbauen und schauen wie gut die noch läuft mit max Details.

Wenn die Masse Grafikkarten für 300 Euro kauft, dann nicht für 1440p.
Ob Spiele schöner geworden sind oder nicht, ist irrelevant. Du vermischst persönliche Präferenzen mit tatsächlichen Marktlagen. Worauf ich hinaus wollte, ist die Tatsache, dass 2010 zum einen die gängigste Auflösung noch nicht FHD war, diese heute aber zusehends verdrängt wird. So wie heute keiner mehr in 1680x1050 spielt, geschweige denn GPUs testet. Zumal die Butter und Brot Karten damals nicht bei deinen genannten 390€ lagen, sondern eher bei 280-320€ (was sich bis heute als "Wohlfühlzone" gehalten hat). Deine genannten "1080p@ max = 390 Euro" war damals noch eine Enthusiastenauflösung zu einem etwas gehobeneren Preis als der Sweetspot des Marktes. Und auch recht... optimistisch, ich bezweifle stark, dass das damals im Schnitt der Spiele zu dem Preis gelang. So oder so, das rechtfertigt in keinster Weise die Preise von heute, wo 1080p den Stand von 1050p vor 11 Jahren hat. 530€ Für WQHD/60, klar, geschenkt. Aber nicht für FHD.
 
Zuletzt bearbeitet:

Khabarak

BIOS-Overclocker(in)
Kommen wir nochmal kurz auf die 300 Euro zurück.

Der Arbeiter der sich 2010 eine 300 Euro Karte leisten konnte, kann sich heute für die selbe Kaufkraft, gemessen an seinem Einkommen, heute eine rund 416 Euro Karte leisten. Die Zahlen sind höher, aber der Wert nicht.
Da hab ich andere Lebenserfahrung... aber ich maße mir hier kein Allgemeinwissen an - nur Rückschlüsse aus den genutzten Grafikkarten.
Die Verteilung der GPUs sagt halt, dass der Bereich unter €300 noch immer der mit weitem Abstand größte Bereich ist.
 

shaboo

Software-Overclocker(in)
Irgendwie finde ich die ganzen Tests zu 3080Ti und 3070Ti häufig total am Punkt vorbei.

Die Hauptkonkurrenten der 3070Ti liegen doch in der 3070 und der 3080 aus eigenem Hause und nicht in irgendwelchen AMD-Karten. Von daher glaube ich nicht, dass es irgendjemanden interessiert, ob nun eine 6800 zwei FPS mehr oder weniger als eine 3070Ti produziert. Das wird niemanden zum Nvidia- oder AMD-Käufer machen, der es - aus ganz individuellen Gründen - nicht schon vorher war.

Einzig relevanter Punkt ist doch im Prinzip, dass die beiden Ti-Karten innerhalb des Nvidia-Portfolios verdammt alt aussehen und im Vergleich mit 3070/3080/3090 eigentlich niemandem ans Herz gelegt werden können. Als ob angesichts dieses Umstands Duelle mit AMD noch großartig interessieren würden ...
 

sandworm

Freizeitschrauber(in)

Energetischer Angriff auf die Radeon RX 6800​

Es ist mir schon des öfteren aufgefallen, das die Qualität eurere Artikel zwar sehr gut ist, aber die Titelzeilen doch des öfteren zu wünschen übrig lassen.

Daher würde ich mich, unentgeltlich dazu bereit erklären dies für euch zu übernehmen.
Falls dabei am Ende des Jahres, als materielle Entlohnung eine gebraucht Grafikkarte für mich rausspringen sollte, würde ich natürlich nicht nein sagen, außer es handelt sich um eine 3070ti. Die Säuft mir mit ihren 300W nämlich zu viel und verursacht mit ihren 8GB bei mir Kopfschmerzen (ihr wisst schon verschwommene Texturen und so zeug)
Aber eine 6800 hingegen würde ich natürlich mit Handkuss nehmen.
 
Zuletzt bearbeitet:

Gurdi

Kokü-Junkie (m/w)
Also die Temps des GDDR6X auf den Karten sind schon wirklich derbe hoch, eine leichte Übertaktung des Ram erzeugt bereits einen Mehrverbrauch von rund 10-15Watt auf den Karten....alter Schwede.

Ob das Alles so schlau konzipiert ist auf Dauer da mach ich mal ein dickes Fragezeichen dran, wenn das mal nicht ne Gen wird die nach 2-3Jahren reihenweise das Nirvana sieht.
 
Oben Unten