Nvidia Geforce RTX 3080 Ti im Test: 96 Prozent der RTX 3090 für 1.199 Euro

Vllt. meint Er ja 3070Ti vs 3080Ti ?
8GB vs 12GB

Wird sicher interessant, Was die Kleine aus den 290W macht.

btw.
Am 24.Juni kommt Windows ohne 10.
Vllt. reichen mit direct storage dann 8GB aus.
Hoffentlich kanns dann DX12 automatisch und braucht net extra ne Implementierung in den Games.
dito
Hilft evtl. FSR.

edit:
Bzgl. direct storage wirds spannend, welche M2-NVME man dann braucht.
Die Unterschiede bei konventionellen Ladezeiten, je nach Anbindung, sind ja gar net so groß.
Und die PC-Version kann ja zusätzlich noch über den Ram puffern.=Advantage ggü. nextGen-Konsolen.
 

Anhänge

  • SSD3_2vs4_4.png
    SSD3_2vs4_4.png
    916,9 KB · Aufrufe: 17
Zuletzt bearbeitet:
Was man braucht hängt von der Moni-Auflösung ab.
Das Jensen die 3070 für 4k sieht, ist sicher net zweifelsfrei.
andersrum
Wäre ne 3090 für WQHD eher Overkill und skaliert auch net ordentlich.


btw.
Gut finde ich z.Bsp. wenn man net die Games in der alten Erstausgabe testet, sondern auch neuere DLC´s nimmt.
Meist ist dann VRS schon ne Stufe besser implementiert.= Advantage moderne Architektur
(bei G5 konnte mir leider Keiner sagen, ob nur Hivebusters auf dem letzten Stand ist)
 

Anhänge

  • DOOM AG@4k.JPG
    DOOM AG@4k.JPG
    80,5 KB · Aufrufe: 18
  • Hivebusters.jpg
    Hivebusters.jpg
    53,2 KB · Aufrufe: 20
Zuletzt bearbeitet:
Wird sicher interessant, Was die Kleine aus den 290W macht.
Das ist wirklich absolut sinnfrei, meine Suprim X hat auch 300Watt Powerlimit. Das ist dermaßen sinnfrei, es generiert quasi keine Mehrleistung. Bis 2Ghz laufen die 70er noch sauber, danach darf man dann für 100Mhz mehr 100Watt mehr rein stecken :stupid:

Ich bin ja mal auf diesen Sommer gespannt, bisher ging es den Wattschleudern noch gut, aber wenn ich daran denke ich was für Höhlen die Karten eingebaut werden in freier Wildbahn sehe ich die Threads schon aufploppen wo das gejammer anfängt.

Mal ganz davon abgesehen, selbst die 280Watt meiner Karte die ich möglichst noch breit verteile sind schon grenzwertig im Sommer. Die ersten heißen Tage zeigen schon wo da die Reise hingeht, 400Watt sind dann einfach nur noch Heizstrahler.
 
Kann Das sein, das der GDDR6x-Controller so viel mehr braucht?
Ob die 3070(Ti) in nem Bandbreitenlimit steckt weiss sicher NV am Besten.

Muss ja nen Grund geben für Sowas.
und
Die 3070 von DaHell liess sich ja sehr gut OCen.
Könnte also sein, das Binning hilft.
 
Controller und Chips ansich brauchen wesentlich mehr Strom. Die Rechenwerke der GPU haben laut Nvidia-Produktseite recht zahme Specs, 6.144 FP32-ALUs bei 1,77 GHz offiziell dürfte kaum mehr brauchen als die 5.888 ALUs @ 1,73 GHz der normalen 3070. Die zusätzlichen 70 Watt TGP braucht's wohl, damit man den hohen Speichertakt stabil fahren kann. Ziemlich unausgewogenes Produkt, wenn ihr mich fragt, aber schauen wir mal, was am Ende im Test herauskommt, nech. ;)

MfG
Raff
 
Controller und Chips ansich brauchen wesentlich mehr Strom. Die Rechenwerke der GPU haben laut Nvidia-Produktseite recht zahme Specs, 6.144 FP32-ALUs bei 1,77 GHz offiziell dürfte kaum mehr brauchen als die 5.888 ALUs 1,73 GHz der normalen 3070. Die zusätzlichen 70 Watt TGP braucht's wohl, damit man den hohen Speichertakt stabil fahren kann. Ziemlich unausgewogenes Produkt, wenn ihr mich fragt, aber schauen wir mal, was am Ende im Test herauskommt, nech. ;)

MfG
Raff
Pure Brechstange um die 6800 in den Benchmarks zu kassieren.
 
Pure Brechstange um die 6800 in den Benchmarks zu kassieren.
Das könnte auch sein Gutes haben, nähmlich das AMD im Treiber wieder 1,05V und 50MHz
mehr Takt zulässt bei der 6800.
Macht natürlich nur Sinn, wenn die Spawas dann auch mehr ziehen dürfen.(PL+25)
und
Das Ganze dann hoffentlich net als neues Produkt zum höheren Preis.
 
Zuletzt bearbeitet:
Das könnte auch sein Gutes haben, nähmlich das AMD im Treiber wieder 1,05V und 50MHz
mehr Takt zulässt bei der 6800.
Macht natürlich nur Sinn, wenn die Spawas dann auch mehr ziehen dürfen.(PL+25)
und
Das Ganze dann hoffentlich net als neues Produkt zum höheren Preis.
Schön wärs...
 
Puh.... komisches Produkt. 12 GB VRAM ist schon ganz gut. Rechenleistung auch super, aber die 1200€ passen einfach nicht. Dazu der kleine Kühler bei 350W TDP.
Mal die Verfügbarkeit außen vor, die Ampere Generation im enthusiast-Bereich hat meiner Ansicht nach keine runde Grafikkarte.

3080 Preis und Leistung ok, VRAM zu gering.
3080 TI Leistung gut, VRAM gerade so ok, Kühler zu klein, Preis zu hoch
3090 Leistung gut, VRAM sehr gut, Kühler gut, Preis zu hoch

Damit wäre die 3090 für mich das technisch rundeste Produkt, aber eben mit einem sehr deftigen Preis.
Als enthusiast-gamer fände ich die 3080 wohl am interessantesten, wegen des Preises.
Die 3080 TI finde ich sogar am schlechtesten, da der Preis schon an der 3090 kratzt, sie aber neben der geringeren Leistung vor allem weniger VRAM hat. Das absolute Totschlagkriterium wäre für mich dann der Kühler. Da "muss" man dann schon zu einer custom greifen.
Als vernünftig denkender Mensch würde man natürlich eine Spielegrafikkarte für 1000+ Euro gar nicht erst in Erwägung ziehen, aber das letzte dreiviertel Jahr hat uns da wohl absolut desensibilisiert.
Und bei alledem darf man nicht vergessen, AMD hat auch sehr heiße Eisen im Feuer. Aber hier geht es ja hauptsächlich um die 3080 TI.

Edit: Ganz vergessen, die hohe Leistungsaufnahme ist bei allen ein Kritikpunkt.
 
Wäre schön wenn zumindest eine deutschsprachige Hardwareseite so deutlich wäre:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Das ist wirklich absolut sinnfrei, meine Suprim X hat auch 300Watt Powerlimit.
Total sinnfrei? Nen kleiner Chip fängt AMD´s großen Chip ein?
Das ist nicht sinnfrei, sondern effizient.
Ich bin ja mal auf diesen Sommer gespannt, bisher ging es den Wattschleudern noch gut, aber wenn ich daran denke ich was für Höhlen die Karten eingebaut werden in freier Wildbahn sehe ich die Threads schon aufploppen wo das gejammer anfängt.
Ist deine 300 Watt 6800XT eine Fata Morgana in deiner Signatur? :lol:

Mal ganz davon abgesehen, selbst die 280Watt meiner Karte die ich möglichst noch breit verteile sind schon grenzwertig im Sommer.
Vielleicht wenn man in einem 10m² Zimmer im DG wohnt.
 
das hat aber was mit den langsameren speicherinterface zu tun bei amd
hat igor sehr ausreichend analysiert weshalb amd dann in uhd manchmal die puste ausgeht

ein paar spiele gibt es schon die mehr als 10 gb brauchen, wäre godfall, ghost recoon breakpoint, resident evil 2 und 3 remake (da zeigt es mir im grafikmenü die benötigten 12-15gbwaren es glaube ich an wenn ich alles auf max stelle)

naja ich hab bisher kein problem alles auf 4k ultra@60 zu zocken auf einer 3090
Jo ich auch nicht mit der 6900xt ,aber zock ja eh auf 120hz 4k dacher ist leistung ja immer wilkommen.Da breuchte ich ja keine neue karte wenn ich bei 60 hz bleiben würde.Trotzdessen verbraucht die 6900xt nur ca. 255 watt da ichs nichtmal nötig habe ne schraube daran zu drehen da das schätzchen mit 2600 mhz standart leuft.Nicht falsch verstehen hatte bisher auch nur Nvidia das ist meine erste Amd karte und bereuhe nix,ganz im gegenteil!
 
Naja der eine wurde von nvidia enttäuscht der ander von amd ,dacher wechseln wohl auch die meisten.Zu sagen nvidia ist schlecht oder amd ist schlecht bringt ja nix ,jeder ist von einem giganten der beiden überzeugt dacher !
 
Finde ich nicht. Sind nur die Extremisten die laut brüllen. Ich denke die meisten freuen sich über jede neue Grafikkarte, egal welcher Hersteller.
Ist ja auch bei anderen Dingen so, Autos, Sport, Kameras. Gibt diejenigen die ihre Marke/Verein wie eine Religion leben und sehr viele die Vernünftig sind. Schaut man ins Internet, sieht man aber vermehrt die religiösen.
 
Das klingt viel mehr nach einem Netzteil, dass nicht mehr mitkommt.
Ich hatte das schon in ein, zwei PCs - inklusive einem, der mir von einem Computerladen zusammengestellt wurde.
Sobald zu viel Last aufkam, haute das Netzteil den Überstrom Schutz rein.

Edit2:
Falls noch nicht probiert: versuch mal, die beiden PCIe Anschlüsse der 5700XT auf die beiden PCIe Anschlüsse des Netzteils zu verteilen.
Falls das nichts bringt, ist es durchaus möglich, dass dein Netzteil insgesamt zu schwach für deinen PC ist, oder dass es langsam den Geist aufgibt.
Auch wenn das Netzteil von der reinen Wattzahl reicht, können die Lastspitzen der aktuellen Generationen an GPUs schon ne Herausforderung darstellen.

Neues 1000 Watt Netzteil ist eingebaut. Ich berichte weiter, sollte der Rechner wieder abstürzen. Lg


Ich habe seit 15 Jahren oder noch länger AMD Grafikkarten. Ich habe extra letztes Jahr im Oktober eine neue Karte gekauft, wegen des damals schon vorhandenen Wattman Fehlers. Trotz neuer Karte, ist die Fehlermeldung bis heute da. Um den Fehler zu umgehen, wird meine nächste Karte eine von Nvidia sein. Irgendwann ist auch mal gut;-(
 
Zuletzt bearbeitet von einem Moderator:
Mal wieder selten blöde Schlagzeile. 96% der 3090 hieße unter anderem 23 GB VRAM. Tatsächlich sind's ganze 12. Keine Ahnung, was dieser völlig verkürzte Verbalmüll soll ...
 
Zurück