RTX 3080 Ti zeigt sich - MSI-Modell wird an Händler ausgeliefert, 12 GiByte VRAM bestätigt

Gute Texturen sind extrem wichtig, da sie es unglaublich rausreißen, wenn sie ordentlich gemacht sind. Im Gegensatz zu vielen anderen Dingen, in denen üppiger VRAM wichtig ist (etwa die Sichtweite von detaillierten Objekten) beanspruchen sie auch nicht die sonstige Leistung der GPU. Man sollte sie also, wenn möglich immer hoch stellen.

Deswegen: ja, es ist wichtig, mit Ultra Texturen zu zocken, wenn auch man anderes runterdrehen muß.
Siehe dazu meinen Link oben, oder einfach mal "Sampler Feedback Streaming" googlen. Im Beispiel wird dieselbe Szene mit 1/10 Speicherbedarf berechnet. 1/10!

Zusammen mit DirectStorage wird der Bedarf an VRAM dadurch massiv sinken.

Essentially the SSD significantly reduces latency between data delivery and memory itself. The result sees RAM only holding assets and data for the next 1 second of gameplay. The PS4's 8GB of GDDR5 memory held assets for the next 30 seconds of gameplay.

Durch "Sampler Feedback Streaming" und DirectStorage wird man nicht mehr Texturen für 30 Sekunden Gameplay im VRAM halten müssen sondern nur noch für 1 Sekunde!
 
Ultra-Performance ist als Vergleich nicht relevant, der Modus ist für 8K gedacht.

Sehe ich anders. Damit kann man auch auf Karten, wie der RTX 3060 in Cyberpunk ordentlich aufdrehen und dennoch irgendwie in 4K zocken. Wenn man bedenkt, dass das Spiel eigentlich nur in 720p gerendert wird, dann ist das mehr als nur beeindruckend.

Ich hätte nur nicht gedacht dass man das so schnell braucht, sondern eher damit gerechnet, dass es hilft, die Karte in 6 Jahren noch 1-2 Generationen weiter zu schleppen.
 
Sehe ich anders. Damit kann man auch auf Karten, wie der RTX 3060 in Cyberpunk ordentlich aufdrehen und dennoch irgendwie in 4K zocken. Wenn man bedenkt, dass das Spiel eigentlich nur in 720p gerendert wird, dann ist das mehr als nur beeindruckend.

Ich hätte nur nicht gedacht dass man das so schnell braucht, sondern eher damit gerechnet, dass es hilft, die Karte in 6 Jahren noch 1-2 Generationen weiter zu schleppen.
Das man es so schnell braucht? Auf einer low-end Karte ein Spiel mit Anforderungen im high-end Bereich in 4K zocken!? Was ist das bitte für ein Ansatz!?

Du kannst CP2077 mit RT nicht mal in FullHD auf einer RX6900XT ordentlich zocken... Vergleich das doch mal. :lol:
 
Wobei man bei einer R9 390X eigentlich keine Details runterschrauben muß, sofern man nur in 1080p zocken möchte.
Meine 980Ti müsste schneller sein und ich muss die ganze Zeit Details für mehr FPS runterschrauben.
Ich kann dir nicht glauben was du da sagst. In Allen Games die ich die letzte Zeit angefasst hab, nur Full HD.

Angefangen mit Cyberpunk, Assassins Creed Valhalla und Red Dead Redemption.
20 bis 30 FPS auf Ultra, manchmal runter auf unter 20. Mit Mittel kam ich dann zurecht und es war flüssig.

Auch in Serious Sam 4 war das ganze mit 15 FPS unspielbar in Full HD!!
Mehr Speicher bringt mir gar nix.
 
Steam Hardwaresurvey.

Marktanteil 3000er Serie = 2,73%
Die 3080 hält sich noch am besten im Vergleich mit der 2080, die 3070 fällt deutlich ab zum Vorgänger, die 3090 ist bei 0.32% und die 3060Ti bei 0.36. Die 3060 taucht gar nicht auf, oder noch nicht. Die geringe Anzahl der 3060Ti die bei Gamern angekommen zu sein scheint lässt nichts gutes ahnen.

zum Vergleich:

Marktanteil der 2000er Serie bei Steam ist 12,87%
Marktanteil der 1600er Serie ist: 14,4%
Wie wäre es mit gleich großen Zeiträumen?

Marktanteil Ampere Serie 03/2021 = 2,73% (eigentlich 2,98%, wenn man die DIRECTX12-Tabelle nimmt, in der auch GPU-Modelle unter 0,15% gezählt werden, z.B. die RTX3060 und diverse Max-Q-Modelle)

Marktanteil Turing Serie 03/2019 = 1,68% (es waren 0,27% RTX 2060 + 0,65% RTX 2070 + 0,50% RTX 2080 und 0,26% RTX 2080 TI, die 16x0-Serie war noch nicht gelistet).
 
Zuletzt bearbeitet:
Die AMD Karten werden schnell Probleme bekommen wenn die Spiele mehr auf RT setzen, und das wird passieren. Siehe oben, die Liste der meist verwendeten Engines die es nativ unterstützen ist bereits lang. Und die Konsolen können es nun auch.

1. Ja die Liste. Is schön. Und Du weisst schon, das Spielentwicklung kostest, vor allem Zeit! Zeig mir die Spiele mit RT auf einer Liste und ich zeig Dir ne längere Liste mit Spielen ohne RT. Und zeig mir Spiele wo das Feature das Spiel an sich besser macht (qualitativ).
2. Nur wenn die Spiele verpflichtend RT unterstützt haben müssen, dann müssen es AMD-Karten können (werden es aber wohl schon früher).
3. Solange ich den Mist abstellen kann, den ich nicht brauch, werd ich ihn abstellen.
4.Nur weil Engines RT können, entstehen nicht über Nacht hunderte Usecases und sprießen wie Pilze aus dem Boden. Siehe Punkt eins. Anscheinend ist es in der Entwicklung nicht so ein Killerfeature. Wenn es schnell zu implementieren wäre, könnten wir uns vor RT-fähigen Spielen nicht retten.

Auch mehr Features? Ach ne, mit Innovationen hat AMD es nicht so, hab ich vergessen...
Ja stimmt, hast recht. Die kopieren ja nur... Was haben die schon hinbekommen, außer den Schweineverein ATI zu kaufen und daran fast pleite zu gehen. Ja und CPU mäßig sind die ja auch nur an die x86 Lizenz beim Strippoker gekommen.

Ach findest du das also gar nicht seltsam, dass hier in diesem Forum ganz offenbar eine deutlich negativere Meinung über Nvidia Grafikkarten herrscht als die Steam Zahlen zeigen?
Ich frage mich woher das kommt.
Weil Nvidia weniger Speicher verbaut und trotzdem besser ist, oder weil die Firma doof ist?

Da solltest Du dich mal einlesen: Angefangen beim GTX970 Speichergate bis zur Nötigung der AIBs mit dem Partnerprogramm, NDA - Zwang für Samples unter Auflagen für frisierte Tests usw. und sofort...
Einfach NVIDIA in die Suche oben rechts auf der Seite eingeben und mal ein paar Jahre querlesen.

Nvidia ist doch seit ich Grafikkarten kenne der Platzhirsch und ATI (AMD) das kleine Licht welches immer hintendran ist.
Nun ja, bestimmte Leute würden Dir geifernd zustimmen mit dieser Aussage, allerdings behaupte ich einmal, das Nvidia einfach gewonnene Geldmittel immer fleißig in proprietäre Features investiert hat, wie z.Bsp. Hairworks und anderen Gammel, den die AMD-Karten natürlich schlecht bis gar nicht unterstützten(es sei denn die hätten spioniert).
Dazu kam, dass Nvidia viele Exklusivtitel mit Personal in der Entwicklung gefeatured hat, damit die Implementierung ihres Gammels auch auf ihren Karten gut lief. So gab es natürlich mehr Spiele, die proprietären Gammel unterstützt haben, als Spiele die das nicht taten. Ergo landeten demnach auch mehr von diesen Spielen in den Indizes. So kommt das Bild zusammen.

Oder anders gesagt:
Hätte Elon Musk vielleicht nicht bekifft darüber sinniert, dass es doch total fesch wäre vollelektrisch in einem Auto mit Riesendisplay in der Mitte mit Autopilot durch die Kante fahren zu müssen, dann würden BMW und VW und Daimler nicht Milliarden in die Entwicklung vollelektrischer Autowagen stecken.
 
Das man es so schnell braucht? Auf einer low-end Karte ein Spiel mit Anforderungen im high-end Bereich in 4K zocken!? Was ist das bitte für ein Ansatz!?

Du kannst CP2077 mit RT nicht mal in FullHD auf einer RX6900XT ordentlich zocken... Vergleich das doch mal. :lol:

Wenn man es kann, dann sollte man es auch machen. DLSS verändert einfach die Art, wie man Auflösungen wahrnimmt. Wenn die Karte nur stark genug ist, das Spiel in 720p zu rendern und man die Wahl hat, es auf 4K aufzublasen oder auf WQHD bzw. Full HD, dann sollte man 4K nehmen, wenn man so einen Monitor besitzt.

Warum sollte man so blöd sein und diese tolle Funktion nicht nutzen, wenn es sie gibt? Das ist auch ein gutes Beispiel, weshalb AMD ein massives Problem hat, das sie angehen sollten, ehe es größer wird. Eine 330€ Karte kann ihre 1000€ Karte überholen, das sagt eigentlich alles.

Im übrigen: die GT 1030 ist Low End Karte, die RTX 3060 ist hingegen obere Mittelklasse. Das zeigt sehr deutlich wie abgehoben du bist. (Nimm es nicht persönlich, das ist einfach so. Viele Leute haben einfach keinen Bezug zu Realität anderer, etwa der Vorsitzende der Jungen Union, Tilman Kuban, der allen ernstes die Obdachlosigkeit, mit Wohneigentum bekämpfen wollte, als ob irgendeine Bank einem Penner einen 400.000€ Kredit geben würde. Du kannst es dir eben nicht vorstellen, dass es auch Leute gibt, die unterhalb einer RTX 3070 zocken und die ihre Karten länger als zwei Jahre nutzen, da liegt das Problem begraben).

Siehe dazu meinen Link oben, oder einfach mal "Sampler Feedback Streaming" googlen. Im Beispiel wird dieselbe Szene mit 1/10 Speicherbedarf berechnet. 1/10!

Zusammen mit DirectStorage wird der Bedarf an VRAM dadurch massiv sinken.



Durch "Sampler Feedback Streaming" und DirectStorage wird man nicht mehr Texturen für 30 Sekunden Gameplay im VRAM halten müssen sondern nur noch für 1 Sekunde!

Wenn ich für jede Technik, die so angeblich die 3D Leistung der Grakas revolutionieren sollte und dann gefloppt ist, 1€ bekommen hätte, dann wäre ich zwar nicht reich, aber 100-200€ wären drin.

Bei PC liegt es durchaus nahe, einmal den üppigen RAM zu bemühen, es gab auch die letzten 25 Jahre viele Versuche, nur sind die allesamt gescheitert. Die Möglichkeit, sowas zu nutzen, wäre da, aber abseits von homogenen Plattformen, wie den Konsolen, glaube ich nicht wirklich dran. Der VRAM ist durch nichts zu ersetzen und es deutet fast alles darauf hin, dass das auch die nächsten10 Jahre, am PC, so bleiben wird.

Meine 980Ti müsste schneller sein und ich muss die ganze Zeit Details für mehr FPS runterschrauben.
Ich kann dir nicht glauben was du da sagst. In Allen Games die ich die letzte Zeit angefasst hab, nur Full HD.

Angefangen mit Cyberpunk, Assassins Creed Valhalla und Red Dead Redemption.
20 bis 30 FPS auf Ultra, manchmal runter auf unter 20. Mit Mittel kam ich dann zurecht und es war flüssig.

Mir ist die Karte im September 2020 abgeraucht. Ich habe AC:O in Ultra und WQHD gezockt, auch wenn ich sagen muß, dass wohl einige Details runtergestellt hätte, wenn meine CPU nicht auf 30-40FPS begrenzt hätte.

Aber wie gesagt: fast alles, d.h. es gibt ein paar Spiele, für die es nicht reicht (und ja, die werden immer mehr).

Mehr Speicher bringt mir gar nix.

Das ist eben falsch, da es viele Dinge gibt, die mit mehr VRAM noch laufen. Die Titan X fängt so langsam an, ihre 12GB VRAM richtig auszuspielen.
 
Zuletzt bearbeitet:
Aus eigener Erfahrung weiß ich, wie wichtig ein großer VRAM ist. Wenn vorhat, seine Karte etwas länger zu behalten, dann ist es einfach seltendämlich darauf nicht zu achten, wenn möglich.
Tja es gibt User die auch eigene Erfahrung gemacht haben, aber das ignorierst Du ja bewusst, weil nur Deine eigene Erfahrung die einzig wahre ist. Seltendämlich ist eigentlich nur, wenn man anderen die eine Grafikkarte mit 10GB Speicher kaufen unterstellt, die Grafikkarte nur kurze Zeit zu nutzen.
In der Aktuellen Generation stellt sich nur die Frage, was den Karten schneller das Genick brechen wird: geringer VRAM oder mangelnde RT Leistung sowie fehlendes DLSS. Nur die RTX 3090 und RTX 3060 sind da ausbalanciert.
Der VRam wird die nächsten 4.Jahre sicherlich überhaupt kein Problem und dann kaufen die meisten User sich sowieso wieder eine neue Grafikkartengeneration, vor allem die User, die sich für Innovation und fortschreitende Technik interessieren und davon gibt es in Foren wie diesem hier, sehr viele.
Wenn ich knapp 1000€, für eine Graka hinblättern soll (UVP), dann erwarte ich, dass darauf gefälligst alles absolut optimal drauf läuft. Die RTX 3080 dürfte schon bald Ärger mit ihrem VRAM beklommen.
Da bin ich ja froh, dass Du niemals eine Grafikkarte wie eine RTX 3080 kaufen wirst, weil Deine Erwartungen Nvidia sicherlich nie erfüllen wird. Das mit dem VRam habe ich nach dem Kauf meiner GTX 1070 damals auch immer wieder gehört, aber das vergeht und nach 3 bis 4. Jahren sind alle diese Kritiker verstummt.

Zum Glück gibt es ja regelmäßig neue Grafikkartengenerationen und so geht dann das Spiel mit dem zu geringen VRam alle zwei Jahre aufs Neue los. Mittlerweile belächelt man diese User nur noch und schmunzelt, weil die Diskussion einfach nur ermüdend ist und immer an der Realität gescheitert ist!
Du verstehst eben nicht, dass andere bis 2027 denken und ganz glücklich wären, wenn sie ihre Karten erst 2029 oder 2031 tauschen müßten (da hat der langsame Fortschritt dann mal einen Vorteil.
In Foren wie diesem hier bezweifle ich, dass die meisten User Ihre Grafikkarte 9. bis 10. Jahre im Rechner haben, aber wir können ja in 10.Jahre nochmals Diskutieren, dann dürfte für Dich ja die RTX 3080 erschwinglich sein und noch genügend Leistung haben.
Mit DLSS Ultra Performance wird die 720p Auflösung auf 4K aufgeblasen. Ich bin echt begeistert, das wird die Lebensdauer der Karten deutlich erhöhen. Ein weiterer Grund, auf mehr VRAM zu achten.
Ja, weil DLSS nur den Ultra Performance Mode bietet. Aber verständlich, wenn man nie eine RTX 3080 im eigenen Rechner hatte, da kennt man sich dann fachlich bei den Settings nicht so aus!
Für dich geht es um 1-2 Generationen, für andere um 3-4, nimm das Brett vor deinem Kopf ab.
Nochmals, das Brett welches bei Dir von Post zu Post immer dicker wird, sitz ganz allein vor Deinem eigenen ich. Nur weil Du Dir nicht alle zwei oder vier Jahre eine neue Grafikkarte kaufen möchtest oder nicht leisten kannst, haben alle die mit der Zeit gehen und Technikaffin sind und gerne mit der Technik gehen, ein Brett vor dem Kopf.

Ich weiß gar nicht, was Du mit dieser Einstellung eigentlich in einem so Technikaffinem Forum wir hier willst, Du wärst sicherlich in einem Retro Style Forum, wo man immer nur der Meinung ist, früher war alles viel besser, doch deutlich besser aufgehoben!
Die Argumente der Gegenseite zu leugnen ist heute eine beliebte Taktik.
Was Du ja mit jedem neuen Post auch immer wieder unter Beweis stellst!
Tut mir leid, dass meine GTX 980Ti letztes Jahr im September abgeraucht ist.
Ja, wenn man nur auf den Speicher fixiert ist, kann das schon mal passieren, vielleicht auch ein wenig die Qualität der Grafikkarten und deren Komponenten im Auge behalten, auch wenn es dann vielleicht den ein oder anderen Euro mehr kostet!
Aber dukannst mir ja gerne mit deiner Karte aushelfen.
Ja, das hättest Du gerne! Aber selber kaufen ist angesagt, vielleicht änderst Du ja dann Deine Meinung, weil eine High End Grafikkarte selber zu finanzieren und zu betreiben, vielleicht Deine Wertschätzung verändert.
Gemäß deinem "Argument" hättest du hier sowieso nichts zu melden, da ich eine Karte, mit wenig VRAM habe und du nicht.
Wo ich was zu melden habe oder nicht, das kannst Du getrost mir überlassen, noch leben wir in einem freien Land mit einer Demokratie und freier Meinungsäußerung!
Du bist hier derjenige, der anderen, die ihre Karten langfristig nutzen wollen, einen vom Pferd erzählt, nicht ich.
Das wollen wir hier mal klar und deutlich festhalten.
Oh, verdrehen wir jetzt wieder die Tatsachen und Argumente, mir ist es im Gegensatz zu Dir völlig wurscht, wer welche Grafikkarte wie lange nutzt. Warum sollte mich das auch interessieren, das muss jeder für sich selbst entscheiden.
Kannst du auch gerne machen, nur versuche nicht andere zu belehren, die ihre Karten gerne etwas länger nutzen wollen.
Und wieder verdrehen wir die Tatsachen, mir ist es völlig egal wie lange jemand seine Grafikkarte nutzt oder auch nicht, was habe ich damit zu tun. Andere zu belehren macht hier nur einer, der nicht akzeptiert, wenn sich User Grafikkarten mit 10GB kaufen und damit zufrieden sind. Nur weil er keine andere Meinung und Erfahrung außer seiner eigenen akzeptiert!
 
Zuletzt bearbeitet:
@ raPid-81

Verstehe ich dich richtig, dass die sagen möchtest das DLSS 2.0 besser is als die native Auflösung?
Du weisst schon, dass das falsch ist?

Es ist sehr wichtig zu verstehen, was er damit gemeint hat, sonst redet ihr an einander vorbei.

Bei DLSS gibt es immer ein AA gratis mit dazu, auch beim von 720p auf 4K hochskalierten Ultra Performance. Wenn man nun alles, bis auf Ultra Performance, mit der nativen Auflösung, ohne AA und irgendwelche Bildverbesserungen vergleicht, dann ist DLSS qualitativ tatsächlich besser. Wenn man hingegen DLSS gegen Dinge, wie gutes AA oder gar Supersampling vergleicht, dann ist es nicht mehr besser, sondern nur noch (deutlich) schneller.
 
Da solltest Du dich mal einlesen: Angefangen beim GTX970 Speichergate bis zur Nötigung der AIBs mit dem Partnerprogramm, NDA - Zwang für Samples unter Auflagen für frisierte Tests usw. und sofort...
Einfach NVIDIA in die Suche oben rechts auf der Seite eingeben und mal ein paar Jahre querlesen.
Kenne ich sogar. Nvidia wollte ihre Grafikkarten stärker von der Konkurrenz abgrenzen.
Mit eigenen Markennamen. Asus Strix =Nvidia Asus Arez= AMD usw. Fände ich nun gar nicht so schlecht. GTX 970 war eine legendäre Karte, ob mit schnellem Speicher oder teilweise langsameren.
Gäähn. Total böses Nvidia.
 
Kenne ich sogar. Nvidia wollte ihre Grafikkarten stärker von der Konkurrenz abgrenzen.
Mit eigenen Markennamen. Asus Strix =Nvidia Asus Arez= AMD usw. Fände ich nun gar nicht so schlecht. GTX 970 war eine legendäre Karte, ob mit schnellem Speicher oder teilweise langsameren.
Gäähn. Total böses Nvidia.

Der entscheidende Punkt war, dass sie AMD Karten aus bestehenden Namen rausdrängen wollten, das ist dann wiederum mies.

Die GTX 970 war definitiv eine extrem gute Karte, vorallem für den Preis. Allerdings verliert sie ca. 20% Leistung, wenn man die 4GB voll nutzen möchte. Das hätten sie einfach transparent kommunizieren müssen, auch wenn ähnliches bei der GTX 660(Ti) nur wenige (ich war eine der Ausnahmen) gestört hatte.

Beide Firmen haben ordentlich Dreck am Stecken, Nvidia nutzt jedoch sehr gerne seine Macht aus, während AMD (früher ATI) seine Kundschaft gerne gezielt in die Irre führt (z.B. beim Phenom I, FX, X800er, HD 2900XT, Fiji und Vega). Von daher ja: böses Nvidia und auch böses AMD.
 
Das wird eine Killerkarte im Mining werden mit der vollen Anbindung des Ram....
Die Karte soll beim Mining nicht funktionieren bzw sehr langsam laufen, Nvidia soll es komplexer gemacht haben um die sperre zu umgehen, vllt sogar unmöglich, laut Igors Lab
Ein neuer Speicherkrüppel. Naja, für Die Miner ist es perfekt.
12GB GDDR6x als Speicherkrüppel ? Mir würde auch die 3080 mit 10GB ausreichen, Ihr übertreibt es völlig. Mit RTX IO wird dem "unnötigen" Speicherhunger ein Ende gesetzt.
 
(...)

Zum Glück gibt es ja regelmäßig neue Grafikkartengenerationen und so geht dann das Spiel mit dem zu geringen VRam alle zwei Jahre aufs Neue los. Mittlerweile belächelt man diese User nur noch und schmunzelt, weil die Diskussion einfach nur ermüdend ist und immer an der Realität gescheitert ist!

I(...)
Wo lebst du denn, dass alle 2 Jahre neue Grafikkarten mit mehr VRam rauskommen? Die 8GB sind seit locker 6 Jahren Standard. Also über welchen Zeitraum sprechen wir? Den Sprung von 256 auf 512MB?
Und, haben 256 noch jahrelang gehalten?

Und falls es dich interessiert: Cities Skyline sprengt bei mir inzwischen die 8GB locker bei Spielstart. Das kann durchaus auch 14 GB belegen. Heute schon. Schon ok wenn du so etwas nicht spielst und dir 10 GB auf jeden Fall reichen.
Anderen aber nicht.
 
Wie wäre es mit gleich großen Zeiträumen?

Marktanteil Ampere Serie 03/2021 = 2,73% (eigentlich 2,98%, wenn man die DIRECTX12-Tabelle nimmt, in der auch GPU-Modelle unter 0,15% gezählt werden, z.B. die RTX3060 und diverse Max-Q-Modelle)

Marktanteil Turing Serie 03/2019 = 1,68% (es waren 0,27% RTX 2060 + 0,65% RTX 2070 + 0,50% RTX 2080 und 0,26% RTX 2080 TI, die 16x0-Serie war noch nicht gelistet).

Die zwei Launches von Turing und Ampere sind aber halt auch Not gegen Elend in der Tabelle. Wir wissen was Nvidia gemacht hat um bei Turing das Blatt zu wenden und das war eine aggressive Preispolitik, viele und neue Produkte im Sektor unter 300€, eine hohe Verfügbarkeit und jede Menge Werbung.

Die 1600er Serie ging im Februar 2019 los. Die wird in der Liste noch nicht erscheinen, aber im Vergleich mit April '21, wusste man wenigstens in der letzten Generation, dass da etwas passiert. Nvidia hinkt hier entweder hinterher, oder sie haben derzeit nichts. Die Gerüchte gehen ja schon wieder in Richtung 4000er Serie und nicht in Richtung 200€ Modelle.
 
Die Karte soll beim Mining nicht funktionieren bzw sehr langsam laufen, Nvidia soll es komplexer gemacht haben um die sperre zu umgehen, vllt sogar unmöglich, laut Igors Lab

12GB GDDR6x als Speicherkrüppel ? Mir würde auch die 3080 mit 10GB ausreichen, Ihr übertreibt es völlig. Mit RTX IO wird dem "unnötigen" Speicherhunger ein Ende gesetzt.

Unmöglich ist fasts nichts, da stellt sich eher die Frage, wie groß ist der Aufwand um die Sperre zu umgehen? Sobald der Aufwand zu groß ist und zu viel Zeit benötigt wirdd, lohnt es sich nicht - die ersten Tests mit unterschiedlichen Firmwares war die einfachste Variante.
Leider sind die Kurse immer noch zu hoch, von daher muss man davon ausgehen, dass die Miner sich die Karten doch im Dutzend kaufen und hinlegen werden, immer in der Hoffnung, dass deren IT die Sperre knacken und das möglichst schnell und günstig.
Wenn das nicht klappt, dann werden die Karten wohl auf ebay und Co zu höheren Preisen verkauft, als UVP.

Dieses "Speicherkrüppel" gehabe, das nervt eigentlich nir aktuell... klar hätten der 3080Ti mehr Speicher besser gestanden, da die Leistung wohl nur 5 bis 10% unter einer 3090 liegen wird, aber nvidia hat nicht mehr verbaut. Entweder man kann damit leben, dann kauft man die, oder halt nicht, dann gibts andere Alternativen.
Wenn man es drauf anlegt, dann bekommt man 12GB deutlich schneller voll als 16GB, das mag richtig sein, aber dann gibt es einen Regler, den kann man nach links schieben, wenn es dann so weit ist - diesen Regler ist übrigends nicht nur nvidia only, der steht auch AMD zur Verfügung xD

RTX IO wird sich erst beweisen müssen, was es genau kann - leider sind die Spieleentwickler relativ "faul" geworden, was das komprimieren von Daten angeht, u.a. sind deshalb die Spiele mit 50GB und mehr auf unseren Platten - Speicher kostet halt fast nichts mehr. Spannend ist dieses Feature auf jeden Fall, aber ich glaube eher weniger, dass es den VRam verbrauch senken wird, tippe eher auf die selbe Menge oder im schlimmsten Fall sogar etwas mehr - aber das ist nur meine eigene Vermutung, mit etwas Glück liege ich falsch und es freuen sich alle, mir eingeschlossen xD

Warten wir es mal ab, wie gut und zu welchem Preis die 3080Ti auf dem verrückten GPU Markt verkauft wird...
Wirklich viel schlimmer kann es eigentlich gar nicht mehr werden...
 
Zuletzt bearbeitet:
Kenne ich sogar. Nvidia wollte ihre Grafikkarten stärker von der Konkurrenz abgrenzen.
Mit eigenen Markennamen. Asus Strix =Nvidia Asus Arez= AMD usw. Fände ich nun gar nicht so schlecht. GTX 970 war eine legendäre Karte, ob mit schnellem Speicher oder teilweise langsameren.
Gäähn. Total böses Nvidia.
Ja, Nvidia wollte sich von der Konkurrenz abheben, indem sie alle Boardpartner zwingen wollten gut eingeführte bekannte Markennamen nur noch für Nvidia zu verwenden. Alles völlig legitim und normales Geschäftsgebaren das viel über eine Firma aussagt. :fresse:
 
Der Witz ist ja dass die Karte mit voller SI Breite ohne Resourcen in zu viel Speicher zu investieren (nach meinem Verständnis) sogar eine ETH-Traumkarte darstellt. Die Motivation die Sperre zu durchbrechen dürfte also durchaus da sein.
 
Zurück