Geforce RTX 3080 nur mit 10 GiB: Das sagt Nvidia

Bitte vergesst nicht die RX 6900XT mit 16GB und 10% weniger Leistung zur 3090 für gerade einmal 849€

Das ist der einzige Grund warum Nvidia diese Karten so preiswert anbietet, eine RTX 3080Ti kann daher nicht viel teurer werden.

Die letzten 10% lässt sich NV wieder im vergleich vergolden
 
Zuletzt bearbeitet:
Die 3080 Ti von EVGA ist also deutlich günstiger als die 3080 von Nvidia?
Wo kann ich die EVGA bestellen?

Na hoffentlich gibts nicht wieder A und non A-GPU's.
Das wäre eventuell ein Hinweis zur Resteverwertung nicht ausreichend hochtaktender GPU's.
Das gabs doch schon von NV.
Jetzt muß man nur noch über eine noch nicht existierende aber gemutmaßte 3080Ti stolpern und ? , der Baum fällt!
:D
 
Zuletzt bearbeitet:
Das ist sehr sinnvoll und wird irgendwann wohl kommen.



Ich habe den Unterschied der 8K Texturdemo damals noch auf meinem uralten 19" Monitor, mit seinen 1280x1024 gesehen und zwar sehr deutlich. Man braucht keinen 8 K Monitor, um in den Genuß von 8K Texturen zu kommen.

Die Texturen lassen heute einfach noch sehr viel zu wünschen übrig.

Das musst Du mir erklären. Wieso soll das Sinn machen? Klar, wenn ich so nah an etwas rangehen kann, dass man nur einen winzigen Ausschnitt der gesamten Textur sieht, dann macht es Sinn. Das kann man auch in einer Texturdemo wunderbar produzieren. Aber im Allgemeinfall? Warum soll es etwas bringen, einen Kieselstein, der nie mehr als 10% des Schirms einnimmt, mit einer 8k Textur zu bekleben?

Bitte nicht einfach "Weil es so ist", sondern bitte begründen, so dass man es nachvollziehen kann.
 
Hey!

Hier mal ein netter Benchmark von Horizon Zero Dawn! 1080,1440,2160P

How Much VRAM do you Need in 2020? - YouTube

Viel spass beim Staunen

Was gibts da zu staunen? Nur weil der Grakaram fast voll gefüllt wird ist noch lange nicht klar ob das auch wirklich benötigt wird. Es wird einfach reingeladen was geht, ob es gebraucht wird oder nicht, und noch ein bischen Platz gelassen damit im Zweifel nicht geladene Dinge nachgeladen werden können.
Was ist denn wenn die 3090 draussen ist und wir plötzlich feststellen dass dieselben Spiele da 22GiB füllen? Sind dann 11,12,16 oder gar 20 einer evtl 3080ti/S auch wieder zu wenig? Ich hoffe ja fast auf eine 3080 mit 20GiB die sonst baugleich ist, einfach um mal sinnvoll vergleichen zu können ob es wirklich einen Unterschied macht ob man 10 oder mehr hat.

Ich meine mir wären etwas mehr auch lieber, und ich werde auch warten bis AMD rauskommt und Nvidia kontern muss bevor ich schaue was kommt. Aber obwohl ich in 4k Spiele und auch wenn die neuen Konsolen den Grakaramhunger sicher etwas anspornen werden, wäre es mir am liebsten es gäbe eine ti mit 16GB oder etwas entsprechendes von AMD. Denn auch in 4k wäre ich damit mit Sicherheit für die nächsten beiden Generationen versorgt (auch wenn ich so wie ich mich kenne schon wieder bei der nächsten wechseln will). Alles mehr kostet halt ordentlich Aufpreis (€ und Abwärme), die 20GiB Variante wird sicher 4stellig ankratzen. Da wären mir 16 für 900 lieber (ich weiß, wird wegen der Anbindung kaum passieren).
 
Was gibts da zu staunen? Nur weil der Grakaram fast voll gefüllt wird ist noch lange nicht klar ob das auch wirklich benötigt wird. Es wird einfach reingeladen was geht, ob es gebraucht wird oder nicht, und noch ein bischen Platz gelassen damit im Zweifel nicht geladene Dinge nachgeladen werden können.
Was ist denn wenn die 3090 draussen ist und wir plötzlich feststellen dass dieselben Spiele da 22GiB füllen? Sind dann 11,12,16 oder gar 20 einer evtl 3080ti/S auch wieder zu wenig?


Machen sie nicht. Jedenfalls ist mir die letzten 2 Jahre mit der 24GB-Graka nix aufgefallen.
Aber ich zocke natürlich auch nicht alle Spiele.

Maximum bis jetzt:
ffxv_s_2019_03_11_00_h2kb5.jpg

Aber dort konnte man auch genau sehen, was passiert wenn das VRAM nicht groß genug ist.
Achtet mal auf das gefüllte RAM. Das gleiche Game mit einer 12GB-Karte
ffxv_s_2018_03_08_20_84sd5.jpg
 
Zuletzt bearbeitet:
Das ist sehr sinnvoll und wird irgendwann wohl kommen.



Ich habe den Unterschied der 8K Texturdemo damals noch auf meinem uralten 19" Monitor, mit seinen 1280x1024 gesehen und zwar sehr deutlich. Man braucht keinen 8 K Monitor, um in den Genuß von 8K Texturen zu kommen.

Die Texturen lassen heute einfach noch sehr viel zu wünschen übrig.

Die Frage ist, in wie weit in welcher Zeitspanne wird sich das ändern? Texturen aufwändiger zu gestalten heißt ja auch mehr Arbeit für die Grafiker. Da kommt dann halt irgendwann ne Kosten/Nutzen Rechnung auf. Keine Ahnung in wie weit sich sowas inzwischen mit KI erledigen lässt um die Produktionskosten im Rahmen zu halten.
Ich für meinen Teil werde auch in Zukunft meist lieber 4 Games für 50€ aber nicht so toller Grafik statt einem für 200€ mit Bombastgrafik kaufen wollen. (Ausnahmen wie MSFS Bestätigen die Regel).
 
Es werden samt und sonders nur Spiele zitiert die bereits auf dem Markt sind. Das sagt alles. An so einer stelle muss man nicht AC: Odyssey nennen, sondern Valhalla, nicht Borderlands sondern Godfall, nicht Gears of War sondern Crysis Remaster. Da muss man fragen ob Nvidia denkt die Käufer ihrer 700€ Karten wären 12 Jahre alt und Justin Walker ist SchlaubiSchlumpf der die Kids reinlegen kann.
 
Es geht dabei weniger darum, das auch nativ anzuzeigen. Es greift da viel eher eine Art Downsampling Effekt.

Vorsicht- Eher wird eine Mip- Map niedriger genommen, dass es zu keinen allzu großen Quantisierungsfehlern kommt.
Beherrscht der Texture- Artist das Tiling bzw. das UV- Mapping und vor allem auch die richtige Kompressionswahl, braucht es keine 4K oder 8K Texturen um unter 4 oder 8K Auflösung eine scharfe "Tapete" bieten zu können.
 
Die Frage ist, in wie weit in welcher Zeitspanne wird sich das ändern? Texturen aufwändiger zu gestalten heißt ja auch mehr Arbeit für die Grafiker. Da kommt dann halt irgendwann ne Kosten/Nutzen Rechnung auf. Keine Ahnung in wie weit sich sowas inzwischen mit KI erledigen lässt um die Produktionskosten im Rahmen zu halten.
Ich für meinen Teil werde auch in Zukunft meist lieber 4 Games für 50€ aber nicht so toller Grafik statt einem für 200€ mit Bombastgrafik kaufen wollen. (Ausnahmen wie MSFS Bestätigen die Regel).

Das Texturen Fotorealistisch aussehen können, hat nicht primär mit der Auflösung zu tun. Wie man an "The Vanishing of Ethan Carter" sehen konnte. Da kommt es eher darauf an, wie die Texturen erstellt werden und auch die Varianz von Texturen (was natürlich auch Speicher kostet). Händisch gemalte Texturen werden nie den Realismus haben, wie fotografierte Texturen. Aber die wirken auch in einer 3D Welt immer noch "komisch". Weswegen man das selten einsetzt.
 
Schade Nvidia, schöne Karte die Leistung gefällt mir Preis könnte noch etwas niedriger sein aber ist für ein Veröffentlichungspreis auch ok!

Leider fehlt es an Speicher daher kommen 3070 und 3080 nicht in Frage... die 3080 hat zwar 10 GB aber knapp daneben ist eben auch vorbei...

12-16GB wären hier das Maß der Dinge gewesen...

Aktuell wäre mir so eine 2080TI oder 1080TI immer noch lieber als eine 3080... aber ich denke das AMD ja das passende Gegenstück mit ausreichend Speicher liefern wird!

Von daher... wir sehen uns vl nächste GEN.
 
Wie sieht es eigentlich mit der Leistung der neuen Konsolen aus? Anhand der Argumente hier schätze ich mal, dass die RTX 3080 deutlich unter der Leistung der Konsolen liegen muss. Wenn da plötzlich die 8k Texturen kommen, ist die RTX wohl in knapp 1 Jahr komplett unbrauchbar und veraltet. Nach 2h Spielzeit haben wir dann vermutlich matschige Texturen wie in Halflife 1.

Ich denke mal, wenn Ich zero dawn mit allen Ultra-HD Mods spielen will, lege ich mir am besten zwei RTX 2090 zu. Dann sollte ich für die nächsten 10 Jahre genügend VRAM haben und kann dann auch Skyrim mit 8k Texturen spielen.
 
Wenn die Spiele vernünftig Programmiert sind sollten 10GB alle mal langen. Und falls es mal mehr wird bricht das System ja nicht zusammen. Meistens passiert gar nix. Zur not gibt es auch Regler in den Grafikoptionen. Man sollte jedenfalls kein COD und schon gar nicht Horizon Zero Dawn als Beispiel nehmen. Dann eher ein Red Dead Redemption oder Metro Exodus. Diese Spiele zeigen wie man den Vram im Spiel vernünftig verwaltet.
 
Man sollte jedenfalls kein COD und schon gar nicht Horizon Zero Dawn als Beispiel nehmen.

Warum sollte man solche Spiele nicht als Beispiel nehmen? Verstehe ich nicht. Wenn ich mir eine GPU kaufe, dann möchte ich wissen wie gut sie in allen möglichen Spielen abschneidet, und vor allem in Spielen, die mir persönlich gefallen (Horizon :daumen:) und nicht nur in Schön-Wetter-Games. Als Beispiele sollten doch nicht nur Spiele gelten, in denen alles Tutti ist, sondern mMn vor allem auch diejenigen, die den Worstcase darstellen.
 
Zuletzt bearbeitet:
Was sagt er denn auf Spanisch?

Die eigentliche Geschichte ist sehr lustig. Er erzählt Anekdoten aus seinem Leben, u.a. als er in einem Restaurant am Strand gearbeitet hat. Da er sich das Spülen der Pfannen und Töpfe sparen wollte, hat er sie mit einem Stahlseil zusammengebunden und ins Meer geworfen. Dummerweise hat seine Sicherung nicht so funktioniert, wie er das geplant hatte. Als er am nächsten Morgen wiederkam, waren die Töpfe und Pfannen weg, das mußte er dann irgendwie erklären

Das musst Du mir erklären. Wieso soll das Sinn machen? Klar, wenn ich so nah an etwas rangehen kann, dass man nur einen winzigen Ausschnitt der gesamten Textur sieht, dann macht es Sinn. Das kann man auch in einer Texturdemo wunderbar produzieren. Aber im Allgemeinfall? Warum soll es etwas bringen, einen Kieselstein, der nie mehr als 10% des Schirms einnimmt, mit einer 8k Textur zu bekleben?

Es geht eben um Perfektion und davon sind wir noch sehr weit weg. Ich weiß nicht, was du so zockst, aber ich bewege mich doch sehr oft recht dicht am geschehen. Gerade habe ich mal wieder Far Cry 4 gespielt, dort verbringt man recht viel Zeit in der Hocke und schleicht durch die Lande. Da ist es mir eben stark aufgefallen, genauso damals in Far Cry 5 und New Dawn, Texturpack hin oder her. Manchmal springt einem eben der Stein am Wegesrand ins Auge. Auch in eher alltäglichen Situationen, etwa wenn ,an ein Haus betritt, fällt das stark auf.

8K Texturen können ihre Stärke auch dann ausspielen, wenn man nicht eine extreme Auflösung verwendet. Wie gesagt: ich habe selbst auf dem Uraltmonitor noch den Unterschied ganz klar gesehen.
 
Wie sieht es eigentlich mit der Leistung der neuen Konsolen aus? Anhand der Argumente hier schätze ich mal, dass die RTX 3080 deutlich unter der Leistung der Konsolen liegen muss.
Wie kommst du auf diese Erkenntnis? Die Konsolen haben höchstwahrscheinlich (rein auf die Grafikkarte bemessen) nicht mal 2080 Ti Leistungsniveau. RTX 3080 schnupft offensichtlich 2080 Ti. Es sieht demnach genau umgekehrt aus.
 
Die Frage ist, in wie weit in welcher Zeitspanne wird sich das ändern? Texturen aufwändiger zu gestalten heißt ja auch mehr Arbeit für die Grafiker.

Die Texturen werden schon heute üblicherweise in einer höheren Auflösung erstellt und dann heruntergerechnet. Deshalb erscheinen ja auch bei vielen Spielen HD Texturpakete, ohne dass dass ein allzu großer Aufwand wäre.
 
Bitte vergesst nicht die RX 6900XT mit 16GB und 10% weniger Leistung zur 3090 für gerade einmal 849€

Das ist der einzige Grund warum Nvidia diese Karten so preiswert anbietet, eine RTX 3080Ti kann daher nicht viel teurer werden kann.

Die letzten 10% lässt sich NV wieder im vergleich vergolden

Hast du paar gescheite Links? Alles was ich bisher von Bog Navi kenne sind mit hoher Wahrscheinlichkeit gefälschte Leaks..

aber sollte es tatsächlich so kommen, wie du schreibst, wäre das wirklich brachial :hail:
 
@Pu244:

Es ist halt extreme Verschwendung, meines Erachtens, für alles so extrem hoch aufgelöste Texturen zu erstellen und zu speichern, wenn 99,999% der Zeit nur eine wesentlich geringer aufgelöste Mip-Map davon sichtbar wird. Nur wenn man durch's hohe Gras schleicht, sieht man dann die tolle Grastextur...

Da wäre dann eine Art prozedural erstelle Detailtextur, die man drüberlegt, wie seinerzeit bei Unreal1, eigentlich die weit bessere Option.

Nur deswegen Karten mit 16GB und mehr, und Spiele mit 400GB und mehr einzuführen, halte ich nicht für sinnvoll.


Danke für die Übersetzung! Interessant :) Und liebenswert irgendwo. Dass der arme Kerl im Netz so missbraucht wird, ist sicher auch nicht so lustig.
 
Zurück