• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Nvidia Geforce RTX 3080 Ti im Test: 96 Prozent der RTX 3090 für 1.199 Euro

RX480

Volt-Modder(in)
Vllt. meint Er ja 3070Ti vs 3080Ti ?
8GB vs 12GB

Wird sicher interessant, Was die Kleine aus den 290W macht.

btw.
Am 24.Juni kommt Windows ohne 10.
Vllt. reichen mit direct storage dann 8GB aus.
Hoffentlich kanns dann DX12 automatisch und braucht net extra ne Implementierung in den Games.
dito
Hilft evtl. FSR.

edit:
Bzgl. direct storage wirds spannend, welche M2-NVME man dann braucht.
Die Unterschiede bei konventionellen Ladezeiten, je nach Anbindung, sind ja gar net so groß.
Und die PC-Version kann ja zusätzlich noch über den Ram puffern.=Advantage ggü. nextGen-Konsolen.
 

Anhänge

  • SSD3_2vs4_4.png
    SSD3_2vs4_4.png
    916,9 KB · Aufrufe: 9
Zuletzt bearbeitet:

RX480

Volt-Modder(in)
Was man braucht hängt von der Moni-Auflösung ab.
Das Jensen die 3070 für 4k sieht, ist sicher net zweifelsfrei.
andersrum
Wäre ne 3090 für WQHD eher Overkill und skaliert auch net ordentlich.


btw.
Gut finde ich z.Bsp. wenn man net die Games in der alten Erstausgabe testet, sondern auch neuere DLC´s nimmt.
Meist ist dann VRS schon ne Stufe besser implementiert.= Advantage moderne Architektur
(bei G5 konnte mir leider Keiner sagen, ob nur Hivebusters auf dem letzten Stand ist)
 

Anhänge

  • DOOM AG@4k.JPG
    DOOM AG@4k.JPG
    80,5 KB · Aufrufe: 8
  • Hivebusters.jpg
    Hivebusters.jpg
    53,2 KB · Aufrufe: 9
Zuletzt bearbeitet:

Gurdi

Kokü-Junkie (m/w)
Wird sicher interessant, Was die Kleine aus den 290W macht.
Das ist wirklich absolut sinnfrei, meine Suprim X hat auch 300Watt Powerlimit. Das ist dermaßen sinnfrei, es generiert quasi keine Mehrleistung. Bis 2Ghz laufen die 70er noch sauber, danach darf man dann für 100Mhz mehr 100Watt mehr rein stecken :stupid:

Ich bin ja mal auf diesen Sommer gespannt, bisher ging es den Wattschleudern noch gut, aber wenn ich daran denke ich was für Höhlen die Karten eingebaut werden in freier Wildbahn sehe ich die Threads schon aufploppen wo das gejammer anfängt.

Mal ganz davon abgesehen, selbst die 280Watt meiner Karte die ich möglichst noch breit verteile sind schon grenzwertig im Sommer. Die ersten heißen Tage zeigen schon wo da die Reise hingeht, 400Watt sind dann einfach nur noch Heizstrahler.
 

RX480

Volt-Modder(in)
Kann Das sein, das der GDDR6x-Controller so viel mehr braucht?
Ob die 3070(Ti) in nem Bandbreitenlimit steckt weiss sicher NV am Besten.

Muss ja nen Grund geben für Sowas.
und
Die 3070 von DaHell liess sich ja sehr gut OCen.
Könnte also sein, das Binning hilft.
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Controller und Chips ansich brauchen wesentlich mehr Strom. Die Rechenwerke der GPU haben laut Nvidia-Produktseite recht zahme Specs, 6.144 FP32-ALUs bei 1,77 GHz offiziell dürfte kaum mehr brauchen als die 5.888 ALUs @ 1,73 GHz der normalen 3070. Die zusätzlichen 70 Watt TGP braucht's wohl, damit man den hohen Speichertakt stabil fahren kann. Ziemlich unausgewogenes Produkt, wenn ihr mich fragt, aber schauen wir mal, was am Ende im Test herauskommt, nech. ;)

MfG
Raff
 

Gurdi

Kokü-Junkie (m/w)
Controller und Chips ansich brauchen wesentlich mehr Strom. Die Rechenwerke der GPU haben laut Nvidia-Produktseite recht zahme Specs, 6.144 FP32-ALUs bei 1,77 GHz offiziell dürfte kaum mehr brauchen als die 5.888 ALUs 1,73 GHz der normalen 3070. Die zusätzlichen 70 Watt TGP braucht's wohl, damit man den hohen Speichertakt stabil fahren kann. Ziemlich unausgewogenes Produkt, wenn ihr mich fragt, aber schauen wir mal, was am Ende im Test herauskommt, nech. ;)

MfG
Raff
Pure Brechstange um die 6800 in den Benchmarks zu kassieren.
 

RX480

Volt-Modder(in)
Pure Brechstange um die 6800 in den Benchmarks zu kassieren.
Das könnte auch sein Gutes haben, nähmlich das AMD im Treiber wieder 1,05V und 50MHz
mehr Takt zulässt bei der 6800.
Macht natürlich nur Sinn, wenn die Spawas dann auch mehr ziehen dürfen.(PL+25)
und
Das Ganze dann hoffentlich net als neues Produkt zum höheren Preis.
 
Zuletzt bearbeitet:

Gurdi

Kokü-Junkie (m/w)
Das könnte auch sein Gutes haben, nähmlich das AMD im Treiber wieder 1,05V und 50MHz
mehr Takt zulässt bei der 6800.
Macht natürlich nur Sinn, wenn die Spawas dann auch mehr ziehen dürfen.(PL+25)
und
Das Ganze dann hoffentlich net als neues Produkt zum höheren Preis.
Schön wärs...
 

RX480

Volt-Modder(in)
Jo,
dann könntest Du den Raketenjonny mal unter Wasser setzen.
-->eff.2,6Gig auf der Uhr.
 

Spinal

BIOS-Overclocker(in)
Puh.... komisches Produkt. 12 GB VRAM ist schon ganz gut. Rechenleistung auch super, aber die 1200€ passen einfach nicht. Dazu der kleine Kühler bei 350W TDP.
Mal die Verfügbarkeit außen vor, die Ampere Generation im enthusiast-Bereich hat meiner Ansicht nach keine runde Grafikkarte.

3080 Preis und Leistung ok, VRAM zu gering.
3080 TI Leistung gut, VRAM gerade so ok, Kühler zu klein, Preis zu hoch
3090 Leistung gut, VRAM sehr gut, Kühler gut, Preis zu hoch

Damit wäre die 3090 für mich das technisch rundeste Produkt, aber eben mit einem sehr deftigen Preis.
Als enthusiast-gamer fände ich die 3080 wohl am interessantesten, wegen des Preises.
Die 3080 TI finde ich sogar am schlechtesten, da der Preis schon an der 3090 kratzt, sie aber neben der geringeren Leistung vor allem weniger VRAM hat. Das absolute Totschlagkriterium wäre für mich dann der Kühler. Da "muss" man dann schon zu einer custom greifen.
Als vernünftig denkender Mensch würde man natürlich eine Spielegrafikkarte für 1000+ Euro gar nicht erst in Erwägung ziehen, aber das letzte dreiviertel Jahr hat uns da wohl absolut desensibilisiert.
Und bei alledem darf man nicht vergessen, AMD hat auch sehr heiße Eisen im Feuer. Aber hier geht es ja hauptsächlich um die 3080 TI.

Edit: Ganz vergessen, die hohe Leistungsaufnahme ist bei allen ein Kritikpunkt.
 

Kelemvor

Software-Overclocker(in)
Wäre schön wenn zumindest eine deutschsprachige Hardwareseite so deutlich wäre:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 

Opprobrium

PC-Selbstbauer(in)
Das ist wirklich absolut sinnfrei, meine Suprim X hat auch 300Watt Powerlimit.
Total sinnfrei? Nen kleiner Chip fängt AMD´s großen Chip ein?
Das ist nicht sinnfrei, sondern effizient.
Ich bin ja mal auf diesen Sommer gespannt, bisher ging es den Wattschleudern noch gut, aber wenn ich daran denke ich was für Höhlen die Karten eingebaut werden in freier Wildbahn sehe ich die Threads schon aufploppen wo das gejammer anfängt.
Ist deine 300 Watt 6800XT eine Fata Morgana in deiner Signatur? :lol:

Mal ganz davon abgesehen, selbst die 280Watt meiner Karte die ich möglichst noch breit verteile sind schon grenzwertig im Sommer.
Vielleicht wenn man in einem 10m² Zimmer im DG wohnt.
 

Haxtible

Komplett-PC-Käufer(in)
das hat aber was mit den langsameren speicherinterface zu tun bei amd
hat igor sehr ausreichend analysiert weshalb amd dann in uhd manchmal die puste ausgeht

ein paar spiele gibt es schon die mehr als 10 gb brauchen, wäre godfall, ghost recoon breakpoint, resident evil 2 und 3 remake (da zeigt es mir im grafikmenü die benötigten 12-15gbwaren es glaube ich an wenn ich alles auf max stelle)

naja ich hab bisher kein problem alles auf 4k ultra@60 zu zocken auf einer 3090
Jo ich auch nicht mit der 6900xt ,aber zock ja eh auf 120hz 4k dacher ist leistung ja immer wilkommen.Da breuchte ich ja keine neue karte wenn ich bei 60 hz bleiben würde.Trotzdessen verbraucht die 6900xt nur ca. 255 watt da ichs nichtmal nötig habe ne schraube daran zu drehen da das schätzchen mit 2600 mhz standart leuft.Nicht falsch verstehen hatte bisher auch nur Nvidia das ist meine erste Amd karte und bereuhe nix,ganz im gegenteil!
 

Haxtible

Komplett-PC-Käufer(in)
Naja der eine wurde von nvidia enttäuscht der ander von amd ,dacher wechseln wohl auch die meisten.Zu sagen nvidia ist schlecht oder amd ist schlecht bringt ja nix ,jeder ist von einem giganten der beiden überzeugt dacher !
 

Spinal

BIOS-Overclocker(in)
Finde ich nicht. Sind nur die Extremisten die laut brüllen. Ich denke die meisten freuen sich über jede neue Grafikkarte, egal welcher Hersteller.
Ist ja auch bei anderen Dingen so, Autos, Sport, Kameras. Gibt diejenigen die ihre Marke/Verein wie eine Religion leben und sehr viele die Vernünftig sind. Schaut man ins Internet, sieht man aber vermehrt die religiösen.
 

Avicii

Komplett-PC-Käufer(in)
Das klingt viel mehr nach einem Netzteil, dass nicht mehr mitkommt.
Ich hatte das schon in ein, zwei PCs - inklusive einem, der mir von einem Computerladen zusammengestellt wurde.
Sobald zu viel Last aufkam, haute das Netzteil den Überstrom Schutz rein.

Edit2:
Falls noch nicht probiert: versuch mal, die beiden PCIe Anschlüsse der 5700XT auf die beiden PCIe Anschlüsse des Netzteils zu verteilen.
Falls das nichts bringt, ist es durchaus möglich, dass dein Netzteil insgesamt zu schwach für deinen PC ist, oder dass es langsam den Geist aufgibt.
Auch wenn das Netzteil von der reinen Wattzahl reicht, können die Lastspitzen der aktuellen Generationen an GPUs schon ne Herausforderung darstellen.

Neues 1000 Watt Netzteil ist eingebaut. Ich berichte weiter, sollte der Rechner wieder abstürzen. Lg


Ich habe seit 15 Jahren oder noch länger AMD Grafikkarten. Ich habe extra letztes Jahr im Oktober eine neue Karte gekauft, wegen des damals schon vorhandenen Wattman Fehlers. Trotz neuer Karte, ist die Fehlermeldung bis heute da. Um den Fehler zu umgehen, wird meine nächste Karte eine von Nvidia sein. Irgendwann ist auch mal gut;-(
 
Zuletzt bearbeitet von einem Moderator:

shaboo

Software-Overclocker(in)
Mal wieder selten blöde Schlagzeile. 96% der 3090 hieße unter anderem 23 GB VRAM. Tatsächlich sind's ganze 12. Keine Ahnung, was dieser völlig verkürzte Verbalmüll soll ...
 

shaboo

Software-Overclocker(in)
Wenn du draufklickst, erhältst du fast 55.000 Zeichen Erläuterung der Überschrift. :-D

MfG
Raff
Oder halt einfach eine Überschrift, die keiner 55.000 Zeichen Erläuterungen bedarf, um Sinn zu ergeben. Jaja, ich weiß, eine Überschrift, die schlicht den Inhalt des Artikel widerspiegelt - total verrückte Idee ...
 

Thepunisher2403

Komplett-PC-Aufrüster(in)
So weit ist die PR schon in die Köpfe eingesickert...
Sagmal lebst du in einer Phantasiewelt oder willst du hier nur trollen
Hast wohl nicht mitbekommen das die 3090 jetzt doppelt soviel kostet
Ich hab meine für 1500 bekommen somit war es der beste Deal aus heutiger was is daran jetzt falsch
Liefer lieber Argumente als diese peinlichen Smileys zu verteilen oder kannst du wohl nix anderes.....

Edit @Krabonq Findest wohl keine Argumente mehr kannst wohl nix anderes als anderen was zu unterstellen und lächerliche Smileys zu verteilen
Jo ich auch nicht mit der 6900xt ,aber zock ja eh auf 120hz 4k dacher ist leistung ja immer wilkommen.Da breuchte ich ja keine neue karte wenn ich bei 60 hz bleiben würde.Trotzdessen verbraucht die 6900xt nur ca. 255 watt da ichs nichtmal nötig habe ne schraube daran zu drehen da das schätzchen mit 2600 mhz standart leuft.Nicht falsch verstehen hatte bisher auch nur Nvidia das ist meine erste Amd karte und bereuhe nix,ganz im gegenteil!
Na is doch schön wenn du damit zufrieden bist allerdings für 120hz musst du die Details bei manchen games etwas runterschrauben

Für 4k ultra@60 wird es manchmal schon eng bei manchen spiele wo man Grad so über die 60 kommt
 
Zuletzt bearbeitet:

McZonk

Moderator
Teammitglied
Hinweis der Moderation:

Es geht hier um den Test zur neuen RTX 3080 Ti und nicht um die Fehlersuche bei AMD-Grafikkarten. Bitte einen eigenen Thread eröffnen, wenn hierfür individuelle Beratung benötigt wird. Ab hier werde ich entsprechende Postings entsprechend der Forenregeln als Spam behandeln.

Die betreffenden Offtopic-Postings habe ich ausgeblendet. Bleibt bitte beim Thema.
 

Haxtible

Komplett-PC-Käufer(in)
Sagmal lebst du in einer Phantasiewelt oder willst du hier nur trollen
Hast wohl nicht mitbekommen das die 3090 jetzt doppelt soviel kostet
Ich hab meine für 1500 bekommen somit war es der beste Deal aus heutiger was is daran jetzt falsch
Liefer lieber Argumente als diese peinlichen Smileys zu verteilen oder kannst du wohl nix anderes.....

Na is doch schön wenn du damit zufrieden bist allerdings für 120hz musst du die Details bei manchen games etwas runterschrauben

Für 4k ultra@60 wird es manchmal schon eng bei manchen spiele wo man Grad so über die 60 kommt
Ja bei manchen mag sein nur :-) das ist mit der gegenseite nicht anderst so wie fligt simulator mit ner 3xxx 3000 euro karte bei ca 38 fps :-) . Ja das sind halt nicht so sinnvolle diskusionnen !
Aber falls du noch eine 3080 suchst und 1100 euro ok ist gibts die neu bei kleinanzeigen ,oder wenn ne 6900xt die gibt da auch neu für 950 euro %-)
Und wenn du keine Diskusionen führen kannst ohne beleidigend zu werden dann bist du hier falsch bürschen ,oder bist du erst 16 Jahre alt ?Deine Meinung ist ja ok nur hat jeder ne andere Meinung .Setzt dich damit auseinander oder laß es .Und ps eine 3090 ist keine gamerkarte nur so nebenbei bevor du wieder auf Allwissend machst Kumpelchen !!
Aber recht hast du ( :-) ) ein guten Deal haste gemacht ,da brauchst bei dem verbrauch und vor allem der hitzeentwicklung keine heizung mehr :-)
 
Zuletzt bearbeitet:

formyself

Kabelverknoter(in)
Ich denke Raff hat so ungefähr 5 Gründe genannt, warum die Karte an sich Kacke ist.
Aber das interessiert dich ja auch nicht, weil nVidia Klasse ist.


Ich 2 mal.

1x wegen dem UVP Preis - und ein 2tes Mal wegen der Tatsache, das selbst dieser vielleicht niemals bis zur 4000er Serie erreicht werden wird. ^^
Dann habe ich bitterlich geweint... und aber gleich danach wieder gefreut, weil ich ja kein Geld ausgeben muss. ;-)
Du willst unbedingt die Aussage schlecht darstellen, ich habe von AMD und nVidia gesprochen, die 3080Ti als MSI oder Asus Rog etc. ist eine richtig gute Karte, dass der Preis sowieso zu hoch ist, bestreite ich nicht, allerdings merkt man gut dass die Erwartungen der Leute halt unrealistisch sind. Es war sonnenklar dass nie eine 3080Ti mit 20GB für 999 kommen wird. Ich bin mit meiner 3090 seit 7 Monaten sehr zufrieden, zumal ich damals weniger für die 3090 bezahlt habe als später für eine 3080 gefragt wurde. Die 3080Ti wird über kurz oder lang die Preise der 3080 und 3070 helfen zu drücken. Die 3080Ti FE hätte nVidia gar nicht herstellen sollen, sondern es den Partnern komplett überlassen sollen, die FE macht keinen Sinn, würde ich auch nicht kaufen ausser um sie ev. auf Wasser umzubauen. Generell, das ist halt meine Meinung, ist die 3080Ti ne geile Karte wenn : gutes Partnerdesign + unter 1500 Euro. Für WQHD wäre die 3070Ti als Partnerdesign unter 900 Euro echt geil. Ja die Preise sind zu hoch aber da es noch 1,5 Jahre dauern wird bis die 4000 Serie das LIcht erblickt und es dann wieder heisst.. Erst mal abwarten... Vom Warten wird man alt und auch die nächste Generation wird nicht ewig gut sein etc etc ! Es wird nie ein Ende haben deshalb lautet meine Devise entweder jetzt oder nie, kaufe jede Gen. immer sofort wenn sie erscheint und bin bis jetzt extrem gut damit gefahren während Andere Monate debatieren ob ja oder nein tue ich das wozu die Karte gedacht ist : Nutzen.
 

Khabarak

BIOS-Overclocker(in)
Du willst unbedingt die Aussage schlecht darstellen, ich habe von AMD und nVidia gesprochen, die 3080Ti als MSI oder Asus Rog etc. ist eine richtig gute Karte, dass der Preis sowieso zu hoch ist, bestreite ich nicht, allerdings merkt man gut dass die Erwartungen der Leute halt unrealistisch sind. Es war sonnenklar dass nie eine 3080Ti mit 20GB für 999 kommen wird. Ich bin mit meiner 3090 seit 7 Monaten sehr zufrieden, zumal ich damals weniger für die 3090 bezahlt habe als später für eine 3080 gefragt wurde. Die 3080Ti wird über kurz oder lang die Preise der 3080 und 3070 helfen zu drücken. Die 3080Ti FE hätte nVidia gar nicht herstellen sollen, sondern es den Partnern komplett überlassen sollen, die FE macht keinen Sinn, würde ich auch nicht kaufen ausser um sie ev. auf Wasser umzubauen. Generell, das ist halt meine Meinung, ist die 3080Ti ne geile Karte wenn : gutes Partnerdesign + unter 1500 Euro. Für WQHD wäre die 3070Ti als Partnerdesign unter 900 Euro echt geil. Ja die Preise sind zu hoch aber da es noch 1,5 Jahre dauern wird bis die 4000 Serie das LIcht erblickt und es dann wieder heisst.. Erst mal abwarten... Vom Warten wird man alt und auch die nächste Generation wird nicht ewig gut sein etc etc ! Es wird nie ein Ende haben deshalb lautet meine Devise entweder jetzt oder nie, kaufe jede Gen. immer sofort wenn sie erscheint und bin bis jetzt extrem gut damit gefahren während Andere Monate debatieren ob ja oder nein tue ich das wozu die Karte gedacht ist : Nutzen.

Naja.. ich geh mal einfach aus meinen Erfahrungen der letzten 30 Jahre.
Selbst zu den teuersten Zeiten gab es in den Anfängen immer um 70-120% Leistungssteigerung pro Jahr - und das bei nicht mal gleich doppelten Preisen.
Innerhalb der letzten 7 Jahre sind die Preise für die schnellste nicht-Titan mal eben von $549 (GTX 980 zum Release 2014 mit dem GM204) bzw. $649 (GTX980 TI mit dem Big Chip GM200)
auf mal eben $699 für eine RTX 3080 FE bzw. $1199 für eine kaum bessere 3080 TI gestiegen.
Leider hat sich in Relation am unteren Ende noch mehr verschoben.. also genau da, wo die Masse kauft und sich meist eher eine Karte im Bereich von $200 -$300 leisten kann.
In dem Preissegment tummelten sich traditionell die x60er und x70er Karten. die einen am oberen Ende, die anderen am unteren.
Eine 3060 hatte eine UVP von $329 - also mal eben $129 Aufschlag in einem Segment, dessen Käufer sich schon bei $10 mehr sehr überlegen müssen, ob das Geld dafür reicht.
Die 3070 war dann besonders heftig (obwohl leider nach der extrem teuren RTX2000er Generation nicht anders zu erwarten) und blieb bei $499 - damit mal eben $199 außerhalb des ursprünglichen Preissegments der x70 Karten.
Jetzt ist es nicht so, dass die breite Masse nicht nur kaum mehr verdient, wie vor 7 Jahren, nein, alles andere wurde auch noch teurer.

Damit sieht man auch sehr gut, weshalb die GTX970 die letzte x70 mit einer wirklich nennenswerten Verbreitung war.
Die wurde von der GTX 1060 beerbt, da diese auch in dem Preissegment der 970 angesiedelt war.
Die 1060 ist noch immer mit einigem Abstand die am weitesten verbreitete Grafikkarte in Gamerrechnern, wenn man dem Steam Survey vertraut.
Dicht darauf folgt die 1050 TI.
Die 2060 kommt aktuell auf 5%... dahinter ordnen sich die zusammengerechneten 2070er Varianten mit 4,2%... dicht gefolgt von einer 1070 mit 3,28%... dazwischen sind immer noch ein paar kleinere Karten der x50er Reihen.
Mit einem zugedrückten Auge kommt die 3070 auf 1,5% und liegt damit noch immer knapp hinter der 970, die nicht nur 7 Jahre, sondern auch noch ein seltsames Speicherinterface auf dem Buckel hat.
Die 3080 hat es sich mit all den anderen 80er Karten zusammen bei je knapp unter 1% gemütlich gemacht.

Lange Rede, kurzer Sinn:
Die 3000er Serie mag zwar gute Hardware haben, ist aber noch mehr von der Realität der breiten Masse entfernt, wie die Generation davor.
Natürlich hat Nvidia super Quartalszahlen, aber wie man an der Statistik sieht, landen die verkauften Karten zu 99,x% nicht in Gamer PCs... oder Steam hat sinee Umfrage noch bescheidener werden lassen und die Besitzer werden schlicht nicht gefragt.

Turing war da keinen Deut besser. Dafür waren die Karten schlicht zu teuer für die Masse.
Wenn man es immer weniger schafft, die eigenen Kunden zu erreichen (Die Masse der Gamer, nicht die oberen 10%), werden gute Quartalszahlen noch eine Weile drüber hinweg täuschen können, aber auf lange Sicht ist man geliefert, sobald es einen neuen Player am Markt gibt, der auch noch gute Ware anbietet.
Der neue Player ist schon bekannt - nur die Qualität der Ware ist noch fragwürdig.
 
Zuletzt bearbeitet:

Mitchpuken

Software-Overclocker(in)
Wenn ich die Posts der letzten Tage zusammenfasse, komme ich für mich zu folgendem Fazit: zu heiß, zu laut, zu hoher Verbrauch sind nur Nebensache, entscheidender Punkt ist der Preis. Die "meisten" würden wohl die Ti kaufen, wenn der Aufpreis von der non ti 10€ ausmacht ;)
 

DarthSlayer

Freizeitschrauber(in)
Selbst zu den teuersten Zeiten gab es in den Anfängen immer um 70-120% Leistungssteigerung pro Jahr - und das bei nicht mal gleich doppelten Preisen.
Du hast keine 120 % Steigerung von einem Jahr aufs andere. Deswegen stand auch hier als die 3000er Reihe raus kam im dem Beitrag für wenn lohnt sich der Umstieg. Nicht für Leute, die noch eine 2070er drin haben. Bei Leuten wie mir, die seit 4 Jahren mit einer 970er noch unterwegs waren schon sehr.
 

Khabarak

BIOS-Overclocker(in)
Du hast keine 120 % Steigerung von einem Jahr aufs andere. Deswegen stand auch hier als die 3000er Reihe raus kam im dem Beitrag für wenn lohnt sich der Umstieg. Nicht für Leute, die noch eine 2070er drin haben. Bei Leuten wie mir, die seit 4 Jahren mit einer 970er noch unterwegs waren schon sehr.
Der Umstieg "lohnt" sich nur, wenn man bereit ist, mal eben den doppelten Preis der alten Karte zu zahlen, nur um dann doch wieder bei einer 70er Karte zu sein.
Wenn die Sprünge der Leistungssteigerung kleiner werden, sollte man die Relationen nicht aus dem Auge verlieren... immerhin haben sich die Gehälter in der Zeit auch nicht verdoppelt.
Leistung in Elektronik wird jedes Jahr billiger. Warum sollte ich eine Karte kaufen, die dem Hersteller des Chips allein schon 60% Gewinn bescheren.
Dafür dürfen die AIBs dann mit 10-15% überleben.
 

DarthSlayer

Freizeitschrauber(in)
Der Umstieg "lohnt" sich nur, wenn man bereit ist, mal eben den doppelten Preis der alten Karte zu zahlen, nur um dann doch wieder bei einer 70er Karte zu sein.
Wenn die Sprünge der Leistungssteigerung kleiner werden, sollte man die Relationen nicht aus dem Auge verlieren... immerhin haben sich die Gehälter in der Zeit auch nicht verdoppelt.
Leistung in Elektronik wird jedes Jahr billiger. Warum sollte ich eine Karte kaufen, die dem Hersteller des Chips allein schon 60% Gewinn bescheren.
Dafür dürfen die AIBs dann mit 10-15% überleben.
Nein Du hast mich falsch verstanden. Damals als die 3000er Reihe Nvidia raus gekommen ist waren die Preise ok und da gab es hier ein Thema für wenn lohnt es sich umzusteigen. Nicht heutzutage und nicht bei einer 3080er Ti
 

facehugger

Trockeneisprofi (m/w)
Der Umstieg "lohnt" sich nur, wenn man bereit ist, mal eben den doppelten Preis der alten Karte zu zahlen, nur um dann doch wieder bei einer 70er Karte zu sein.
Wenn die Sprünge der Leistungssteigerung kleiner werden, sollte man die Relationen nicht aus dem Auge verlieren... immerhin haben sich die Gehälter in der Zeit auch nicht verdoppelt.
Leistung in Elektronik wird jedes Jahr billiger. Warum sollte ich eine Karte kaufen, die dem Hersteller des Chips allein schon 60% Gewinn bescheren.
Dafür dürfen die AIBs dann mit 10-15% überleben.
Da is was dran. Für meine GTX 670 habe ich Ende 2012 knapp 380€ gelöhnt und Ende 2014 330€ für die GTX 970 bezahlt und bis auf den kruden Speicher der letztgenannten Nvidia stimmte das PL-Verhältnis.

Aktuell soll man für ne 70er mind. 499€ legen, ähem 529€ (was erhältliche Karten wirklich kosten weiß eh jeder halbwegs Informierte:D).

Das ist schon bitter...

Gruß
 

Khabarak

BIOS-Overclocker(in)
Nein Du hast mich falsch verstanden. Damals als die 3000er Reihe Nvidia raus gekommen ist waren die Preise ok und da gab es hier ein Thema für wenn lohnt es sich umzusteigen. Nicht heutzutage und nicht bei einer 3080er Ti
Mein Punkt ist, dass die Preise selbst zum UVP nicht in Ordnung sind.
Sie scheinen nur besser, weil die 2000er Reihe im Vergleich zur Vorgeneration noch was drauf legte.. und die 1000er im Vergleich zur 900er Reihe.
Nur stiegen die Gewinnmargen für Nvidia deutlich mehr, als das durchschnittliche Einkommen der Käufer.
Das kann man halt auch gut an der Verteilung im Survey sehen - so fragwürdig die Datenbasis auch ist.
Es spielen noch immer sehr viele auf einer 970, oder 1060, einfach weil die Preise zu sehr angezogen haben und man ja noch ganz gut damit spielen kann.
Die AMD Preise find ich auch deutlich zu hoch, wenn man sie mit der letzten Generation vergleicht - oder gar mit den RX 500ern.
 

DarthSlayer

Freizeitschrauber(in)
Doch sind sie wenn ich an die Founders Edition für was 6 oder 700 € denke. Denn ich habe auch schon Anfang der 2000er Jahre für eine Geforce 3 Ti 500 500 € bezahlt und diese leistet ja noch mehr
Die 2000er Reihe legte genau das Gleiche gegenüber der 1000er Reihe wie die 3000er zur 2000er. Da sogar mehr. Denn die 2000er wie eine 2070 oder 2080 legte Raytracing drauf. War aber nur gegenüber einer 1080er 17 % schneller. Der Unterschied was Speed angeht zwischen 2080er und 3080er ist fast gleich 30 % mehr plus DLSS 2.0
Und ich habe auch noch eine 970er in meinem altem Gaming Rechner drin und für Spiele bis 2017 ist sie bei WQHD noch ok aber danach wird es immer schwieriger mehr als 75 FPS bei WQHD zu bekommen
 
Zuletzt bearbeitet:

Khabarak

BIOS-Overclocker(in)
Der Sinn hinter Effizienzsteigerungen bei der Elektronik ist allerdings eher, dass du im Lauf der Zeit mehr Leistung für das gleiche, oder weniger Geld bekommst.
Wenn ich den aktuellen Preisentwicklungen folge zahle ich für jeden Leistungssprung auch mehr Geld... was jetzt nicht im Sinn der Konsumenten ist, den CEOs aber die dritte Yacht bezahlt.
Wenn du die Entwicklung OK findest, be my guest.
Die 980 TI gab es damals für $649 MSRP.
Das waren $350 weniger, als eine Titan X und sie knabberte mehr als einmal an deren Hacken.
Und 2015 gab es schon Beschwerden über den hohen Preis der 980 TI.
6 Jahre später sind wir bei $1200 MSRP für die TI und alles ist in Ordnung... jepp... kein Fehler zu sehen.
Und dabei wurde Nvidia immer gieriger bei den Vorgaben der MSRPs (höhere Marge und damit Preise für ein Paket aus GPU und Speicher), so dass sich selbst AIBs drüber beschwerten, keinen Gewinn mehr zu machen.

Edit: den MRSP der aktuellen TI wird auch nur Nvidia halten können, da die AIBs bei den Kosten für GPU und RAM wahrscheinlich in die Miesen kommen. (siehe vorher genannte Beschwerden über den MSRP)
 
Zuletzt bearbeitet:
Oben Unten