Nvidia teasert Geforce RTX 3080 Ti and RTX 3070 Ti

Die Konsolen haben keine 10GB Vram, sie nutzen einen gemeinsam angebundenen Speicher auf den GPU und CPU zugreifen können, daher dynamisch adressierbar.
Effektiv und praktisch ist da wie man anhand aktueller Beispiele deutlich weniger als "Vram" nutzbar, wenn man sich Beispiele wie Watch Dogs Legion ansieht wo GPU's mit 8GB Vram höhere Textursettings nutzen können als Konsolen.
Ja stimmt! Es ist kein reiner VRAM im eigentlichen Sinne. Das kommt halt davon wenn man sich beim lesen von GDDR automatisch an eine reguläre GPU erinnert fühlt. :D

Unter dem Strich ändern das nichts. Der PS5 und Xbox Series X hätten mehr als 16GB shared GDDR einfach gut getan. Ich weiß jetzt nicht was 16GB GDDR kosten, aber mit 32GB wäre die Konsole wirklich ordentlich für die Zukunft aufgestellt gewesen. Alternativ hätten es auch 24GB getan.

Ich hab Watch_Dogs Legion auf der PS5 gespielt. Und ich kann dir sagen, das Spiel ist wirklich ein negatives Beispiel für PS5 Spiele. Aufploppende Texturen, Fahrzeuge, NPC ; Textturmatsch wenn du zu schnell in der Stadt unterwegs bist ; gefühlt kaum bis keine Kanntenglättung vorhanden ; die Charaktermodelle sehen teils echt furchbar aus. etc etc.
Das sind einfach Dinge die ich so nicht nachvollziehen kann. Das hat Ubisoft bei Assassins Creed Valhalla um Welten besser hin bekommen. Das Spiel läuft wirklich einwandfrei.
 
Heißt doch somit, wenn diese in Rasterization gleichauf sind (FPS), die AMD Karten aber weniger Strom verbraten und dabei auch noch günstiger sind, diese das besser PL Verhältnis (FPS/€/Watt) haben ? Sind wir da einer Meinung ?
Dass ein jeder, der auf RT/DLSS verzichten kann/möchte, bedenkenlos zu einer "roten" Karte greifen kann.
Und wer zwingend RT/DLSS will/benötigt, Preis und Verbrauch eine untergeordnete Rolle spielt, eine Karte von "Team Green" käuflich erwerben soll.
Das ist auf jeden Fall MEINE Meinung.
DLSS/FFSR jetzt mal hin oder her. Das Feature hat Potential und wird spätestens mit der nächsten Gen "Salonfähig".

MfG Föhn.

Yep, Schönrechnen kannst Du gar nicht mal so schlecht ...
Nur gibst Du bei Deiner Rechenaufgabe "Alternate" und Raytracing vor.
Wer dies als Fakt ansieht, der kann so rechnen wenn er will.
Nur wenn ein Game KEIN RT nutzt oder jemand darauf verzichten will/kann und "Scalpernate" meidet.
Wie sieht dann das Ergebnis aus ?

Aber alles gut, jedem das seine ... :cool:

MfG Föhn.
Ne, ich gebe max Details vor und alternate zeigt nur auf, das deine Quelle Bullshit war.
Deine Preise waren höher, als Scalpernate.

Wer gerne ohne max Details spielt kommt super mit einer andere Karte aus. Das bezweifelt keiner.
DLSS ist bereits Salonfähig
 
Heißt doch somit, wenn diese in Rasterization gleichauf sind (FPS), die AMD Karten aber weniger Strom verbraten und dabei auch noch günstiger sind, diese das besser PL Verhältnis (FPS/€/Watt) haben ? Sind wir da einer Meinung ?
Hab ich was anderes behauptet? Wo?

Wenn man allerdings "alle Regler nach rechts" als Maßstab nimmt (was hier oft in der VRAM Argumentation gefordert wird), dann geht das jetzt schon nicht mit den AMD Karten. RT ist auch ein Grafik-Details Regler.

Die AMD Karten verbrauchen jetzt nicht sooo viel weniger wie Du immer versuchst darzustellen. Die TDP's liegen ziemlich nah beieinander.

Dass ein jeder, der auf RT/DLSS verzichten kann/möchte, bedenkenlos zu einer "roten" Karte greifen kann.
Absolut, wer keine Lust auf "alle Regler nach rechts" hat oder sagt er braucht es nicht, der kann bedenkenlos eine AMD Karte kaufen.
 
Dann nenn mir mal eine HW die Zukunftssicher oder tauglich ist. :devil:
Amiga Forever oder so ähnlich.

Gibts doch schon lange! :D
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Reddit. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Hab ich was anderes behauptet? Wo?

Wenn man allerdings "alle Regler nach rechts" als Maßstab nimmt (was hier oft in der VRAM Argumentation gefordert wird), dann geht das jetzt schon nicht mit den AMD Karten. RT ist auch ein Grafik-Details Regler.

Die AMD Karten verbrauchen jetzt nicht sooo viel weniger wie Du immer versuchst darzustellen. Die TDP's liegen ziemlich nah beieinander.


Absolut, wer keine Lust auf "alle Regler nach rechts" hat oder sagt er braucht es nicht, der kann bedenkenlos eine AMD Karte kaufen.
Dann gibt es ja ausschließlich die 3090 mit ihren 24 GB zum zocken laut Dir mit "alle Regler rechts" ?
Also bei RE8 gönnt sich die 3090 über 400 Watt und die 6900XT 330 Watt.
Das sind ca. 25 %. Nah beieinander sieht für mich anders aus. Wurde auch schon von Igor und div. anderen "Profis" so kommuniziert ...
Ja, undervolten kann man Beide. Und wenn man "alles" rausholen will nimmt die 3090 bis zu 550 Watt und die 6900XT dann 400 Watt (mit 2700 MHz).

"Absolut, wer keine Lust auf "alle Regler nach rechts" hat oder sagt er braucht es nicht, der kann bedenkenlos eine AMD Karte kaufen."

Oder eben eine 3080 (nach Deiner Interpretation) :-P

MfG Föhn.
Ne, ich gebe max Details vor und alternate zeigt nur auf, das deine Quelle Bullshit war.
Deine Preise waren höher, als Scalpernate.
Also "mein" Preis der 6900XT mit ab 1649 € war günstiger. Nur mal so zur INFO ... :schief:

MfG Föhn.
 

Anhänge

  • 3090 ü 400 Watt.jpg
    3090 ü 400 Watt.jpg
    262,9 KB · Aufrufe: 18
  • 6900XT 330 Watt.jpg
    6900XT 330 Watt.jpg
    185,3 KB · Aufrufe: 17
Dann gibt es ja ausschließlich die 3090 mit ihren 24 GB zum zocken laut Dir mit "alle Regler rechts" ?
Also bei RE8 gönnt sich die 3090 über 400 Watt und die 6900XT 330 Watt.
Das sind ca. 25 %. Nah beieinander sieht für mich anders aus. Wurde auch schon von Igor und div. anderen "Profis" so kommuniziert ...
Ja, undervolten kann man Beide. Und wenn man "alles" rausholen will nimmt die 3090 bis zu 550 Watt und die 6900XT dann 400 Watt (mit 2700 MHz).

"Absolut, wer keine Lust auf "alle Regler nach rechts" hat oder sagt er braucht es nicht, der kann bedenkenlos eine AMD Karte kaufen."

Oder eben eine 3080 (nach Deiner Interpretation) :-P

MfG Föhn.

Also "mein" Preis der 6900XT mit ab 1649 € war günstiger. Nur mal so zur INFO ... :schief:

MfG Föhn.
Und dein Preis der 3090 war deutlich höher und alternate war nur ein Schnellschuss.

Eine FE 3090 und eine Stock 6900XT verbrauchen egal welches Spiel recht ähnlich.
 
Dann gibt es ja ausschließlich die 3090 mit ihren 24 GB zum zocken laut Dir mit "alle Regler rechts" ?
Also bei RE8 gönnt sich die 3090 über 400 Watt und die 6900XT 330 Watt.
Das sind ca. 25 %. Nah beieinander sieht für mich anders aus. Wurde auch schon von Igor und div. anderen "Profis" so kommuniziert ...
Ja, undervolten kann man Beide. Und wenn man "alles" rausholen will nimmt die 3090 bis zu 550 Watt und die 6900XT dann 400 Watt (mit 2700 MHz).

"Absolut, wer keine Lust auf "alle Regler nach rechts" hat oder sagt er braucht es nicht, der kann bedenkenlos eine AMD Karte kaufen."

Oder eben eine 3080 (nach Deiner Interpretation) :-P

MfG Föhn.
Die 3090 liefert in dem Beispiel aber auch 10% mehr FPS...

Aber ja, die RTX 3000er ziehen mehr Strom als die RX6000er, habe auch nie etwas anderes behauptet.

Wer also auf Verbrauch und P/L in Rasterization achtet, der kauft eine RX.
Wer RT hoch setzen will, und mit DLSS übrigens auch etwas Strom sparen kann, der kauft eine RTX.

Ich kann mit meiner 3080 alle Regler nach rechts setzen in CP2077, das geht mit der 6900XT nicht. Und nu?
 
Die 3090 liefert in dem Beispiel aber auch 10% mehr FPS...

Aber ja, die RTX 3000er ziehen mehr Strom als die RX6000er, habe auch nie etwas anderes behauptet.

Wer also auf Verbrauch und P/L in Rasterization achtet, der kauft eine RX.
Wer RT hoch setzen will, und mit DLSS übrigens auch etwas Strom sparen kann, der kauft eine RTX.

Ich kann mit meiner 3080 alle Regler nach rechts setzen in CP2077, das geht mit der 6900XT nicht. Und nu?
Yep, 10 % mehr FPS bei 20 % höherem Verbrauch und (durchschnittlich) 75 % Aufpreis. Mein Reden.
Und mit Letztgenannter geht das auch (alle Regler nach rechts), dann hast halt ggf der 3080 gegenüber ein paar FPS weniger. Und nu ?

MfG Föhn.
 
und (durchschnittlich) 75 % Aufpreis
Haste ein konkretes Beispiel? Was meinst du damit?

Also bei RE8 gönnt sich die 3090 über 400 Watt und die 6900XT 330 Watt.
Aha, was ist das denn für ne lustige pauschale Aussage?

Zum einen sind die Karten ab Werk viel niedriger limitiert und werden häufig mit UV/OC optimiert und zum zweiten können viele RTX3090er gar nicht rauf auf 400W bzw werden nur von wenigen da oben betrieben. Ich habe bei meinem Profil nur in Ausnahmefällen die 350W gesehen. Meist sind es so 280W-300W unter Volllast, in der Regel noch weit weniger. Das Powerlimit habe ich übrigens auf 400W, aber da kommt meine Karte niemals hin ohne OC mit 2GHz aufwärts.

Aber ganz davon ab, was bringt einem diese Diskussion überhaupt? Bin es echt leid darüber zu streiten. Welche Karte jetzt hier oder dort ein paar Prozente schneller oder langsamer ist und ob man jetzt den Jungs von PCGH oder CB glauben soll. Juckt doch bei den aktuellen Karten überhaupt nicht mehr. Im Rastering sind die gegenüber ihren Konkurrenzmodellen alle ungefähr gleichauf und man muss schon hartes Cherrypicking betreiben und daran etwas zu ändern.

Die Unterschiede findet man lediglich bei den Features und beim VRAM.
Also 12/16GB vs 10/12/24GB und "komplett auf Raster ausgelegt" vs "DLSS + RT-ready".
Da lässt sich vielleicht noch sinnvoll diskutieren und hier gibt es sicher Meinungsverschiedenheiten.

FPS interessieren doch, bei realistischen Leistungsunterschieden in der Rasterization von unter 5% keine Sau mehr. :D Wenn Karten so nah aneinander sind, muss man auf die Beilagen achten, statt sich auf wenige FPS zu fixieren, die in der Realität niemandem auffallen.

Und die Sache mit der Effizienz ist auch völlig relativ.
Ampere ist von Haus aus halt "säuferisch" und lässt sich dafür umso besser undervolten.

Also "mein" Preis der 6900XT mit ab 1649 € war günstiger. Nur mal so zur INFO ... :schief:
Ich würde mir für 1649€ keine Karte kaufen, die DLSS nicht beherrscht. :ugly:
Andere würden sagen, für den Preis kommt keine Karte mit 10-12GB ins System.
Fair enough. Beide Argumentationen machen Sinn, oder eben auch nicht, je nachdem wen man fragt.
 
Zuletzt bearbeitet:
Falls bei den neuen Karten (RTX3080TI) die Mining Bremse wirkungsvoll und nachhaltig ist, würde ich meine RTX3080 verkaufen und davon dann die TI erwerben. Um solche Themen könnte es hier doch gehen, oder? AMD hat für mich hier überhaupt kein Thema zu sein, gähn....
 
@pietcux Die RTX3080 wird nachträglich nicht im Mining gebremst? Könnte ja dann echt sein, dass ihr Wert nochmal zunimmt auf dem Gebrauchtmarkt. ^^ Aber ich zweifle daran, dass die RTX3080Ti durch eine Miningbremse wirklich relevant günstiger wird. Das Ding wird, mit oder ohne Bremse, realistisch nicht kaufbar sein und ebenfalls für Mondpreise weggescalpt werden.

Die Preise sind meines Erachtens nicht nur wegen der Miner so hoch, sondern liegen auch an der Nachfrage der Gamer, die nach all den Jahren und dem GraKa-Hype der letzten Monate, endlich wieder aufrüsten wollen, sowie der Gier der Händler, denen die Situation aktuell sicher sehr gut gefällt und von deren Seite aus das ganze noch ne Weile weitergehen kann. ^^
 
Ok, die Preise sind aktuell schon irrsinnig. ^^

Naja, wird dafür auch Gründe geben. Die 6900XT ist mMn aber auch einfach nicht so viel wert. Was ist ihre UVP? 999€? Da sind 1649€ aufwärts schon sportlich genug. Und die RTX3090, ok, die ist natürlich auch völlig über ihrem Wert bei >3000€.

Allerdings sind das alles so Scalper-Shops und die seriöseren Händler haben die gar nicht auf Lager, was diese hohen Preise auf Geizhals erklärt. Nur weil da 3090er für diesen Preis gelistet und kaufbar sind, bedeutet das nicht, dass es reale Personen gibt, die wirklich so dumm wären, das auszugeben, während die RX6900XT auf bei Mindfactory und Konsorten regulär zu kaufen ist.

Daraus lässt sich also eher ableiten:
Die RX6900XT ist kaufbar, die RTX3090 eigentlich nicht wirklich.
3000-3500€ lassen sich nur damit erklären, dass es keine Ware gibt und die Karten de facto ausverkauf sind.
Ich bin nicht der einzige, der 1499€ bezahlt hat. ^^
 
Ok, die Preise sind aktuell schon irrsinnig. ^^

Naja, wird dafür auch Gründe geben. Die 6900XT ist mMn aber auch einfach nicht so viel wert. Was ist ihre UVP? 999€? Da sind 1649€ aufwärts schon sportlich genug. Und die RTX3090, ok, die ist natürlich auch völlig über ihrem Wert bei >3000€.

Allerdings sind das alles so Scalper-Shops und die seriöseren Händler haben die gar nicht auf Lager, was diese hohen Preise auf Geizhals erklärt. Nur weil da 3090er für diesen Preis gelistet und kaufbar sind, bedeutet das nicht, dass es reale Personen gibt, die wirklich so dumm wären, das auszugeben, während die RX6900XT auf bei Mindfactory und Konsorten regulär zu kaufen ist.

Daraus lässt sich also eher ableiten:
Die RX6900XT ist kaufbar, die RTX3090 eigentlich nicht wirklich.
3000-3500€ lassen sich nur damit erklären, dass es keine Ware gibt und die Karten de facto ausverkauf sind.
Ich bin nicht der einzige, der 1499€ bezahlt hat. ^^
hab gestern die 3060 für 900€ neu gesehen :ugly:
 
Meine 6900xt@2500 MHz mit 1100 mV zieht im FurMark im Schnitt 250W.
Tolle Info ;)
Weder interessiert Furmark, noch @1100mV

Da interessiert nur ein Test, der in realen Bedingungen einen Vergleich anstellt, beides @Stock.

Versteh mich bitte nicht falsch. Natürlich ist es schön, das du deine Erfahrungen teilst und auch für viele nützlich, nur interessiert das in Bezug auf meine Aussage, das eine Stock 6900XT und Stock 3090 beim Verbrauch nicht so weit auseinander liegen, einfach nicht.

Aber zurück zu deinen Erfahrungen, weil mich die natürlich auch interessieren!
Was liegt denn in Spielen an? Wie hast du gemessen, oder ist das nur der ausgelesene Wert(Weil da käme dann ja noch ne ganze Menge drauf, das man da bei 250W ausgelesen, real schon wieder über 300W liegt.)?
Hast du 1100mV fixiert, oder ist das einfach der Wert im Stock zustand, der bei dieser Last anliegt?
 
Yep, 10 % mehr FPS bei 20 % höherem Verbrauch und (durchschnittlich) 75 % Aufpreis. Mein Reden.
Und mit Letztgenannter geht das auch (alle Regler nach rechts), dann hast halt ggf der 3080 gegenüber ein paar FPS weniger. Und nu ?

MfG Föhn.
Du stellst den RT Regler auf einer 6900XT ganz nach rechts in CP2077? Will ich sehen. :lol:

Falls bei den neuen Karten (RTX3080TI) die Mining Bremse wirkungsvoll und nachhaltig ist, würde ich meine RTX3080 verkaufen und davon dann die TI erwerben. Um solche Themen könnte es hier doch gehen, oder? AMD hat für mich hier überhaupt kein Thema zu sein, gähn....
Alter, voll die Idee! Meine 3080 hat ja auch den "Mining Chip" drauf, wenn ich eine TI ergattere dann mach ich vielleicht sogar plus! Ich check das! :D

Meine 6900xt@2500 MHz mit 1100 mV zieht im FurMark im Schnitt 250W.
Meine 3080 zieht in Biomutant, WQHD, alles maxed out, bei capped 100 FPS ca. 230 Watt. Und nu?
 
Zurück