Nvidia Geforce RTX 3080 im XXL-Test: Ampère, le trés légère Preisbrechèr


In Blender schaffen sie das.

Ist auch das einzige an dem Teil was wirklich überzeugt und wo die 30 TFlop Leistung zu 100% beim User ankommt.
 
Cyberpunk sieht ja mal wieder mega lecker aus:love:

Übrigens, meine Bestellung bei Asus wurde soeben erstattet.
Kommentar:
"Sehr geehrter Herr X, leider müssen wir Ihre Bestellung aufgrund von Überbestellung stornieren. Wir entschuldigen uns für die Uannehmlichkeiten. Mit freundlichen Grüßen ASUS eShop"

Na dann, nach 3 Bestellversuchen scheint sich mein Schicksal auf Big Navi eingestellt zu haben. Dann soll es wohl so sein:ka: Hoffe jetzt nur die kommen rechtzeitig bis zum 19.11.

Wenn die jetzt erst Fotos von den Karten bzw. Renderbilder posten, dann kannst du davon ausgehen, daß die erst nächstes Jahr März/April für alle verfügbar sind.
 
Wenn die jetzt erst Fotos von den Karten bzw. Renderbilder posten, dann kannst du davon ausgehen, daß die erst nächstes Jahr März/April für alle verfügbar sind.
Ich gehe davon aus dass Big Navi direkt nach der Vorstellung ende Oktober verfügbar sind, bzw wie versprochen auf jeden fall vor den Konsolen. Bis dahin hat Nvidia schon die ganz hungrigen gestillt sodass es nicht zu solch einem Ansturm kommen sollte.
Und wenn es doch darauf hinausläuft dass es nix wird dieses Jahr bzw. sich die Gerüchte verdichten, dann eben die 3080.

Noch gibt es aber absolut null Grundlage um das Abschätzen zu können, gehe das erstmal ganz entspannt an:)
 
ampere preisbrecher mit den absoluten panzer brechstange ?!

leute ich habe lachkrämpfe bekommen als ich das crysis remastered test video von philipp gesehen habe, als er sagte der system mit 750watt nt sei ihm mehrmals abgestürzt und erst mit einen 1000watt nt dann stabil lief :lol:

nv empfiehlt die karte mit 750watt und die costum hersteller jedoch mit 850 wegen oc usw,

ohje ohje !!!

sag mal leute ist alles ok bei euch, oder wie kann man nur so eine karte loben und die auch noch schön reden mit den speicherkrüppel und miesen leistungsverbrauch ?

dann die karter als nur sehr leichte preisbrecher zu nenen bzw zu beschreiben ist schon total unseriös als tester, macht das ganze sehr bedenklich.

ampere hat hier ganz klar und deutlich alle recorde gebrochen in sache miesen leistungsverbrauch als referenz karte.

für mich ist die karte schon allein durch den 10gb vram eine totgeburt und keine 500 euro wert.
 
Man erkennt es daran, dass ein 10900K+RTX3080-Gespann in WQHD mehr FPS schafft als ein 3900XT+RTX3080-Gespann. Und ob der 10900K limitiert sieht man erst, wenn man eine noch schnellere CPU (die es nicht gibt) danebenstellt oder auf FullHD bzw HD runtergeht. Wenn die FPS bei niedrigeren Auflösungen NICHT steigen, dann limitiert die CPU bereits, denn die GPU ist ja offensichtlich entlastet.
Lies dir das noch mal durch.
Der 10900K limitiert in keinem der getesteten Spiele eine 3080 in WQHD.
 
ampere preisbrecher mit den absoluten panzer brechstange ?!

leute ich habe lachkrämpfe bekommen als ich das crysis remastered test video von philipp gesehen habe, als er sagte der system mit 750watt nt sei ihm mehrmals abgestürzt und erst mit einen 1000watt nt dann stabil lief :lol:

nv empfiehlt die karte mit 750watt und die costum hersteller jedoch mit 850 wegen oc usw,

ohje ohje !!!

sag mal leute ist alles ok bei euch, oder wie kann man nur so eine karte loben und die auch noch schön reden mit den speicherkrüppel und miesen leistungsverbrauch ?

dann die karter als nur sehr leichte preisbrecher zu nenen bzw zu beschreiben ist schon total unseriös als tester, macht das ganze sehr bedenklich.

ampere hat hier ganz klar und deutlich alle recorde gebrochen in sache miesen leistungsverbrauch als referenz karte.

für mich ist die karte schon allein durch den 10gb vram eine totgeburt und keine 500 euro wert.

Ja, aber ist das nicht etwas hart. Wir reden hier von gddr6x ram! Nicht gddr6.
Der neue ram kann auch mehr leisten.
Gibt es dazu einen thread?

Wenn die 3070ti mit 16gb gddr6 kommt wird sie die 3080 mit gddr6x nicht überholen. Der ram kann auch mehr!

Ich habe aber keine ahnung wieviel mehr.
Vll. Sind 10gb gddr6x ram so schnell das sie selbst karten mit mehr als 16gb gddr6 wegstecken, da sie viel schneller arbeiten. Ram ist nicht gleich ram. Hier geht die entwicklung auch weiter. Nur muss das dann erstmal ankommen das man nicht mehr so viel braucht.

Quasi selbe geschichte beim auto. Hubraum hubraum , es gibt aber techniken da ist auch ei n hubraum schwächeres modell ggfs überlegen.
 
ah und ein nachtest der 3090 mit mehr shader und mehr vram kommt ja auch noch, was wird die wohl für ein mieseren leistungsverbrauch haben :rolleyes:

ohje ohje !

da wird ja ein record nach den anderen gebracht und das in kürzeste zeit in sache verbrauch brecher.

nv,

was ist pasiert ?

werden wir bald weltweite kostenloses strom bekommen bzw supportet von euch ?
 
Guten Morgen,

ich habe mir ein paar wenige Details angesehen, kam aber nicht in der Form zum testen wie ich es wollte. Das werd ich dann sukzessive nachholen. Es sieht ja so aus, dass ich einer der Wenigen bin, der schon die Möglichkeit hat ins Detail zu gehen.

Was ich sagen kann ist, der gesamte Rechner mit der RTX3080 und der Ausstattung in der Signatur hat eine Gesamtaufnahme auf dem Desktop von 187Watt. Jetzt beim Schreiben bei PCGH hier kommt er auf 195Watt.

OC wurde noch nicht konkret getestet, "nur" eine Erhöhung des Speichers von 9.500 auf 10.000 vorgenommen was zwar auch OC darstellt, jedoch ohne ohne Antasten des Chiptaktes. Die Stromaufnahme macht sich mit der Erhöhung kaum bemerkbar und würde ich fast als Messtoleranz werten. Eine erhöte Stromaufnahme der Karte durch die +500 Mhz auf den Speicher macht keinen Unterschied. maximal hat die Karte 65° erreicht bei einer ungeregelten Lüftergeschwindigkeit von 73% im Maximum.

Die von mir getestetn Spiele -sofern diese über Raytracing verfügen- wurden mit Raytracing betrieben. Alle Regler wurden hierbei auf das Maximum gestellt.

Kurze Anmerkung; ich bin kein Profi und verfüge auch nicht über ein solches Equipment. Ich teste die Stromaufnahme mit einem handelsüblichen Energiemessgererät der Marke Brennstuhl. Die FPS lasse ich mir durch den Monitor sowie ergänzend durch die Launcher anzeigen. Ob diese fehlerhaft sind, kann ich nicht sagen. Das nur nebenbei. Überdies betreibe ich 12 Lüfter im Gehäuse, die Stromaufnahme liegt sicher etwas Höher würde ich meinen da auch noch alle über LED verfügen.



- Battlefiel 5 in WQHD mit 120% Auflösungsskala @ alle Regler auf Maximum 70-130 FPS. Im Mittel eher so 105. Das Energiemessegrät zeigt ein Maximum von 574 Watt an.

- Metro Exodus in WQHD mit Hairworks, erw. Physics usw. alle Regler auf Maximum 80-140 FPS. Im Mittel bei 130. Selten gehen die FPS -außer in der Außenwelt- unter 100. Das Energiemessgerät zeigt 511 Watt an.

- Crysis Remastered in WQHD alles was geht (nicht alle Regler können das) auf "can it run Crysis" zwischen ekelhaften 37-80 FPS. Hier bringt auch die testweise Abschaltung von Raytracing nichts. Die Frames schwanken sehr sehr stark und am Strand stellt sich das dauerhafte Gefühl eines nicht flüssigen Spielablaufes an. Hier muss noch ohne Ende optimiert werden. Das Energiemessgerät zeigt hier zu meiner Verwunderung aber "nur" 489 Watt an. Nachdem ich den Test von PCGH gesehen habe (ja nutzen 4K) war ich doch schon erstaunt.

Crysis non Remasterd, Crysis 3 sowie WOW kann man bei FPS und Leistungsaufnahme vernachlässigen. Die Spiele sind alt und das ganze System ist viel zu potent dafür.

So, das war ein winzig kleiner Einblick der vielleicht helfen kann. Ich bleib dranne und melde mich gerne zwischenzeitig nochmal.

PS: zu keiner Zeit wird der V-RAM bei meinem Setup nur annähernd genutzt bzw. zu keiner Zeit kam es zu einem Engpass.
 
Also ich sehe halt ein bisschen kommen, dass die jetzt bald die 20er nachschieben, aber dann bei 899/999€ bei den günstigeren Modellen anfangen. Weiß nicht ob's mir der Speicher da wert wäre. 699€ sehen da schon eher sexy aus.

Sofern Big Navi nicht genau so schnell ist, wie die 3080 und dabei wirklich 16GB hat und der Preis leicht niedriger liegt, wird es recht teuer erkauft werden müssen.
Bei 200Euro Aufpreis ist es das nicht Wert. Bei 100 Euro kann man es schon machen.

Ganz ehrlich bevor ich mir für 900€ ne MSI Trio 10GB hole, die genauso gut kühlt wie eine ASUS TUF, hole ich mir lieber für 900€ die 20GB Version der 80er Karte, von mir aus auch die TUF Version, wir müssen erstmal sehen, wie hoch der Aufpreis wird.
Hoffe jedoch, dass man bei rund 800€ rauskommt bei den günstigeren Customs.
Jene die die Karte schon haben, postet mal pls im Ampere Laberthread wie es mit undervolting aussieht:


Also, ich verstehe das eh nicht so richtig... Wir reden hier von 330W Luftgekühlten Karten. Ich würde mir aktuell, wenn dann eh die 3080FE holen für 699,- und kein Custom. Wozu auch, die kochen alle mit Wasser. Silent geht bei 300+W eh nicht. Da kann ich auch die FE Undervolten und den Speichertakt hoch knallen. Was in Kombination vermutlich besser geht, als ein Custom Modell @ Stock.

Für 800-900 Euro wären mir die 10GB dann auch wieder zu schmal, wo ich bei 700,- ok.

Die machen uns jetzt den Mund wässrig mit einer RTX3080 für 699€, die leider subjektiv etwas knapp an Speicher ist. Gleichzeitig verknappen sie die Dinger, damit die Preise schön hochgehen. Kurze Zeit später kommt man dann mit Modellen um die Ecke, welche den doppelten Speicher besitzen. Für einen kleinen Obulus von 200€ kann man dann die RTX3080 20GB erschwingen.

Duvar sagt ja selbst: RTX3080 20GB für 900€ wären legit.
Das ist genau die Taktik, die 'Moore's Law Is Dead' beschrieben hat.
Jetzt sind nämlich alle plötzlich bereit knapp 1000€ für ne RTX3080 zu bezahlen. :lol:


Von verknappen kann man nicht sprechen, wenn das mit den Bots stimmt. Was soll man denn machen, wenn spasten mit Bots pro Käufer bis zu 42 Stück bestellen. Da kann Nvidia auch nichts für. Außerdem bringt es Nvidia auch nichts, da zum selben Preis an die Händler geliefert wird. Einzig Händler können mit dem Preis hoch, weil geringe Stückzahlen.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

DLSS & RT quasi kaum verbessert. Kann mich noch an die Grüchte erinnern von wegen 2x bis 3x RT Performance. Ist nicht viel von übrig geblieben. Für mich ist Ampere einfach nur Turing mit der Brechstange. Schlechteste Gen die ich seit Ewigkeiten von Nvidia gesehen habe.

Was will man denn, mal ehrlich,

die 3080 zeigt, das die rund 30-40% vor der 2080TI liegt und mit aktiviertem RT schon 40-50% (in den Benchmarks die ich bisher gesehen habe) und das für 700 Euro.
Bitte zeigt mir mal eine andere Karte, die das kann. Vor zwei Wochen klang das im Forum noch so, die 3080 wird maximal knapp vor der 2080TI liegen und die 3090 dann 30%. Heute, die 3080 liegt "nur" 30-40% vor der 2080TI was ein Schrott.

War nur Spaß. Ich guck's mir gleich unvoreingenommen an.Ich mag die Jungs.
Trotzdem sind sie schon ein bisschen AMD biased, was ich grundsätzlich gar nicht schlimm finde.
Und mich persönlich hat die RT-Performance von Ampere bisher auch noch nicht so richtig vom Hocker gehauen.
Hatte auch mit einer Verdreifachung gerechnet.

Gab es echte Ankündigungen von Nvidia das die RT Leistung der 3080 dreimal höher sein soll, als die der 2080TI?
 
puh also Ampere als Preisbrecher zu bezeichnen halte ich schon für gewagt.
Sie schlägt nach wie vor die 2080Ti welche nie eine UVP unter 1k€ gesehen hat. Das ist durchaus ein Preisbrechen.
Ram ist nicht gleich ram. Hier geht die entwicklung auch weiter. Nur muss das dann erstmal ankommen das man nicht mehr so viel braucht.
Geschwindigkeit kann keine Kapazität ausgleichen (und umgekehrt) spätestens seit AMDs HBM Karten mit gefühlt unendlicher Bandbreite sollte das eigentlich klar sein.
 
die 3080 zeigt, das die rund 30-40% vor der 2080TI liegt und mit aktiviertem RT schon 40-50% (in den Benchmarks die ich bisher gesehen habe) und das für 700 Euro.
Bitte zeigt mir mal eine andere Karte, die das kann. Vor zwei Wochen klang das im Forum noch so, die 3080 wird maximal knapp vor der 2080TI liegen und die 3090 dann 30%. Heute, die 3080 liegt "nur" 30-40% vor der 2080TI was ein Schrott.
Mit dem kleinen Unterschied das die 3080 bereits so hochgezüchtet an der Kotzgrenze läuft und daher Übertakten kaum möglich ist bzw. kaum lohnt.
Während die 2080ti FE noch am chillen ist, malträtiert die 3080 währenddessen das Netzteil,
manch einer bzw. die Eine würde sagen das selbst ein 750W Netzteil für OC nicht mehr ausreichend ist.

Daher die 15% sind doch kaum der Rede wert bzw. wieso wird hier so ein großer Aufriss deswegen gemacht.:ka:

GeForce RTX 2080 Ti FE, 1.665–1.680 MHz
GeForce RTX 2080 Ti OC, 1.935-1.950 MHz
Taktrate nach 30 Minuten Doom Eternal, Ultra HD, maximale Details
15 %.png
 
Also eines Verstehe ich hier nicht. Wieso vergleichen viele die RTX 3080 immer mit der RTX 2080TI . Das passt von der Bezeichnung und der Preisklasse nun mal gar nicht. Mit was Vergleicht ihr die RTX 3080TI wenn sie da ist? Ich schaue immer auf die RTX2080 Vergleiche wo der Vorsprung der RTX3080 echt krass ist. Und die Preisklasse passt auch zum Vergleich. Wenn die RTX 3080 TI dann erscheint sollte man doch eher mit den TI Modellen Vergleichen. Das die neuen Modelle nun etwas besser sind in der Performance als eine RTX 2080 TI ist ja nett. Aber für Besitzer der RTX2080 TI lohnt bisher ein Wechsel eher wenig bei nur 20-25% Vorsprung. Wenn man Bedenkt was die Karte auch einmal gekostet hat. Und über den Stromverbrauch zu meckern halte ich eh für Wurscht. Wer ein fetten Intel oder AMD verbaut hat sollte kleine Brötchen Backen. Ist halt wie mit dem Auto. Mehr Leistung wird halt an der Zapfsäule bezahlt. Aber macht Spaß und ist auch Egal.
 
Strom ist meist weniger das Problem als die damit verbundene Abwärme. Selbst mein 720er Aquaduct hat da irgendwann Mal keinen Bock mehr drauf. Eine Lukü sowieso. Das was die 3080 verbrät geht aber noch so gerade.
Ansonsten ist es vorallem ein Symptom an dem man festmachen kann dass Samsungs Prozess nicht der Weißheit letzter Schluss ist.
 
T Junction (aktuelle Spitzentemp. im Substrat) Weit über 100°C und bei 120°C ist er tod
110°C ist die ober zulässige Temp. wo die Schutzmechanismen greifen und der Speicher hinunter getaktet wird.

Ich sag nur mit heißer Nadel gestrickt dazu.

Wer sich nun bereits eine Karte gekauft hat, hat wortwörtlich die Arschkarte gezogen anscheinend wurde der GDDR6X
so an die Kotzgrenze gezogen, das dies sehr wahrscheinlich zukünftig reihenweise zu Ausfällen führen wird.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Wer sich nun bereits eine Karte gekauft hat, hat wortwörtlich die Arschkarte gezogen
Warum das? Schon mal was von 'Rücktritt vom Kaufvertrag' gehört? Von Arschkarte sehe ich da nix. Man kann das Ding an Tag 1 vorbestellen und dann noch ne Woche nach RTX3090 Launch zurückgeben. Sehe kein Problem. So eine Vorbestellung sehe ich eher als unverbindliche Reservierung.
 
Zurück