• In diesem Unterforum können nur PCGH-Redakteure Umfragen erstellen. Du willst selbst eine Umfrage ins Leben rufen? Kein Problem! Erstelle deine Umfrage am besten im Vorbereitungsforum und verschiebe den Thread anschließend in das thematisch passende Unterforum.

RTX 4080: Kaufen oder nicht kaufen?

RTX 4080: Welche Aussage trifft zu? (Mehrfachantwort möglich)

  • Ich habe die RTX 4080 schon gekauft

    Stimmen: 11 1,8%
  • Ich würde die 4080 kaufen, falls (deutlich) billiger

    Stimmen: 216 34,6%
  • Die 4080 würde ich nie kaufen

    Stimmen: 148 23,7%
  • Die 4080 ist 300 Euro zu teuer

    Stimmen: 30 4,8%
  • Die 4080 ist 500 Euro zu teuer

    Stimmen: 355 56,9%
  • Die 4080 ist nicht zu teuer

    Stimmen: 6 1,0%
  • Sonstiges, siehe Kommentar

    Stimmen: 33 5,3%

  • Anzahl der Umfrageteilnehmer
    624
  • Umfrage geschlossen .
Habe die Karte gekauft, und meine 3080 verkauft. Die 3080 hat mir während Corona und der Quarantäne Langeweile sehr geholfen. Ich hatte damals bei Launch 748 bezahlt und sie jetzt einem Freund für faire 650 gegeben.

Für alle, die es interessiert: Die 4080 läuft stabil mit einem PL von 110 % bei 3 Ghz und der RAM satte 1500 Mhz schneller. In UWQHD läuft die Karte trotzdem meistens unter 250 Watt. 5900x CPU ist bei 15 % Auslastung , inkl. Streaming ist die Karte bei max 70% Last, wenn ich die FPS auf 118 cappe. Nice.
 
Zuletzt bearbeitet:
[X] Die 4080 würde ich nie kaufen

Von der technischen Seite her ist die Karte ja ganz fein. Aber sie entspricht soweit nicht meinen Anforderungen. Und zum Thema "Preis" wurde in den letzten Tagen ja bereits alles gesagt. ;)
 
[sonstiges]
4090 vorhanden. 4080 würde ich nie kaufen^^
Die Antwortmöglichkeit fehlt mir auch.^^
Warum ist die höchste Option denn "500 zu teuer"?^^
Gemessen an ihren Vorgängern ist die Karte 800€ zu teuer :fresse:

Dennoch das Häkchen bei "Ich würde die 4080 kaufen, falls (deutlich) billiger" - für <1000€.
Nur leider wird eben mal wieder nicht erkannt, dass die Karten ja noch nicht die 30x0 Karten ersetzen sollen, sondern nach oben komplettieren. Sind die Ampere irgendwann weg , dann werden auch die Preise purzeln. Solange müssen sich eben die selbsternannten Sparfüchse gedulden. AMD hat anscheinend nicht das Problem mit den hohen Lagerbeständen und kann seine vorherige Generation ersetzen. Hätte ja jeder so gemacht wahrscheinlich.
 
Zuletzt bearbeitet:
Also ich bin mal ganz ehrlich. Da ich mir vor 2 Jahren ne 3090 gekauft habe und mir definitiv
nicht alle 2 Jahre ne neue GPU anschaffe, bin ich erst mal raus, aber...

Ich halte die RTX 4080 für eine extrem gute Karte!
Hohe Leistung, die man ob des schon bei der 30er Generation hingelegten ungewöhnlich hohen Leistungsanstiegs
so eigentlich nicht erwarten konnte. Neue Features, klar. Die FE mit einem fast schon Überdimensionierten Kühler.
Aber obendrauf noch weit weniger Stromhungrig als erwartet. Fast schon im Bereich der 20er Generation.
Einige würden sich sicher über Modelle mit 2-Slot Kühler freuen (Mini-ITX tauglich), aber na ja...

Das alles spielt aber nur zweite Geige. :hmm:

Fakt ist das Nvidia wohl nach den Panikkäufen, Scalpern und Minern der letzten 2 Jahre gedacht hat,
man könnte derartige Preise dauerhaft etablieren.
Ich muss da aber vehement abwinken!
Auch wenn ich nicht beurteilen kann, wie viel Mehrkosten Nvidia durch die
gestiegene Qualität (z.B. der FE's), der teureren Fertigung, Entwicklung, Transport ect. hat und obendrauf
noch die veränderten Wechselkurse hat, aber fast 1500€ UVP???
Ein mehr als verdoppelter Preis, gegenüber der RTX 3080 UVP?

Nö, sorry Leute. Nicht mal für ne RTX 4080Ti... :ka:

(aber was das angeht kann die RTX 4090 auch nicht Glänzen.)
 
Zuletzt bearbeitet:
Ich halte die RTX 4080 für eine extrem gut Karte!
Das ist sie ohne Frage - außer den Preis gibts kaum was zu meckern (wenn sie <1000 kosten würde hätte ich sie schon).
Wenn man böse wäre könnte man sagen, dass außer dem vergrößerten Cache der AD103 einfach nur ein geshrinkter GA102 ist - und die Verbesserung nahezu ausschließlich vom Wechsel Samsung 8nm auf TSMC 4nm stammt. Das, was eine 4080 schneller ist als eine 3090Ti ist auch in etwa das, was sie an Takt mehr laufen kann.
Ich meine mal ehrlich. Besonders kreativ war NV da wirklich nicht. :-D

AD103 <--> GA102
1669127131898.png
1669127145746.png



AMD verschleudert ihre RT Luftpumpen zum Discountpreis.
Wenn die Argumente fehlen OT-haten. Wie gewohnt.
 
Bin mit meiner 3080 noch zufrieden und überspringe eh meist eine Gen. Klar werden die 50xy Karten wahrscheinlich noch mehr kosten, ist aber immer noch günstiger als JEDE Gen mitzunehmen...
 
Das ist sie ohne Frage - außer den Preis gibts kaum was zu meckern (wenn sie <1000 kosten würde hätte ich sie schon).
Wenn man böse wäre könnte man sagen, dass außer dem vergrößerten Cache der AD103 einfach nur ein geshrinkter GA102 ist - und die Verbesserung nahezu ausschließlich vom Wechsel Samsung 8nm auf TSMC 4nm stammt. Das, was eine 4080 schneller ist als eine 3090Ti ist auch in etwa das, was sie an Takt mehr laufen kann.
Ich meine mal ehrlich. Besonders kreativ war NV da wirklich nicht. :-D

AD103 <--> GA102
Anhang anzeigen 1408836Anhang anzeigen 1408837



Wenn die Argumente fehlen OT-haten. Wie gewohnt.
Mag mich irren, aber laut dem Whitepaper des AD103 stimmen deine Daten so nicht...
Der AD103 hat z.B. nur 10.240 C-Kerne und 40TMU's von denen die 4080 nur 38 nutzt. :ka:
Was sogar weniger ist als die 3080Ti nutzt...

Mal ganz zu schweigen davon, dass die jeweiligen Einheiten ja nicht die selben sind wie noch bei
Ampere. Alleine durch einen Die-Shrink bekommt man solche Leistungssteigerung bei reduziertem
Stromverbrauch wohl kaum hin.

Denn dann wären 30% Leistungssteigerung nicht die Norm für Nvidia sondern unterdurchschnittlich.
Was sie eben bei Leibe nicht sind.
 
Zuletzt bearbeitet:
Mag mich irren, aber laut dem Whitepaper des AD103 Stimmen deine Daten so nicht...
Das ist das erste Googleergebnis gewesen, ist von Videocardz.

Mal ganz zu schweigen davon, dass die jeweiligen Einheiten ja nicht die selben sind wie noch bei
Ampere. Alleine durch einen Die-Shrink bekommt man solche Leistungssteigerung bei reduziertem
Stromverbrauch wohl kaum hin.
Normalerweise nicht - aber der Sprung von Samsung-8 (was eigentlich der 10nm-Node ist) auf TSMC-4N (was eigentlich der 5nm Node ist nur für NV angepasst) sind praktisch 2 Sprünge. Auf TSMC-7 wäre ein "normaler" Fertigungssprung gewesen, dass der hier überdurchschnittlich gut ausfällt war schon zu erwarten.
An den Shadereinheiten selbst hat sich (abseits des viel größeren Caches) praktisch nichts verändert - die takten nur höher im neuen Prozess. Architekturänderungen gab es offenbar im Wesentlichen "nur" bei RT-Einheiten, Videoengine usw. aber nicht bei den eigentlichen Ausführungseinheiten.
Ich meine auch wenn die Daten nicht 1:1 gleich sind - die Shaderzahl ist zumindest sehr ähnlich. Und bei ganz grob +25% Takt stehen ganz grob +25% Performance. :ka:
 
Ich würd sagen 800€- 1000€ zu teuer, für ne Mittelklasse Karte
Natürlich ist sie jetzt noch "Stark",.. das täuscht aber nicht darüber hinweg das sie einfach nur ne XX80´er ist für unmengen von Kohl´n
 
Das ist das erste Googleergebnis gewesen, ist von Videocardz.


Normalerweise nicht - aber der Sprung von Samsung-8 (was eigentlich der 10nm-Node ist) auf TSMC-4N (was eigentlich der 5nm Node ist nur für NV angepasst) sind praktisch 2 Sprünge. Auf TSMC-7 wäre ein "normaler" Fertigungssprung gewesen, dass der hier überdurchschnittlich gut ausfällt war schon zu erwarten.
An den Shadereinheiten selbst hat sich (abseits des viel größeren Caches) praktisch nichts verändert - die takten nur höher im neuen Prozess. Architekturänderungen gab es offenbar im Wesentlichen "nur" bei RT-Einheiten, Videoengine usw. aber nicht bei den eigentlichen Ausführungseinheiten.
Ich meine auch wenn die Daten nicht 1:1 gleich sind - die Shaderzahl ist zumindest sehr ähnlich. Und bei ganz grob +25% Takt stehen ganz grob +25% Performance. :ka:

Was sollte man auch alle 2 Jahre an so einer grundlegenden Einheit wie den Cuda Cores, die ja nun seit
der 8000er Serie weiterentwickelt werden ändern?

Na ja, Also die 30er Serie konnte ja schon ganz gut mit AMD's 6X Serie mithalten, trotz merklichem
Fertigungsunterschied, da hat diesen Aspekt kaum einer erwähnt.
Und jetzt wo das nicht mehr so ist, und Nvidia Fertigungstechnisch wieder aufholt, relativiert man
das nach dem Motto "ja ist na nur der die shrink"...
Ähm, hätte man dann bei AMD's letzter Generation auch sagen können...

Wenn ich mich recht entsinne, hat Nvidia aber öfter auf einen nicht ganz so "taufrischen" Fertigungsprozess
gesetzt und ist weitestgehend gut damit gefahren...

Und was die Performance angeht, 40-65% Leistungssteigerung bei weniger Stromverbrauch
von 3080 zu 4080, finde ich jetzt schon respektabel. Insbesondere da die 30er Serie ja auch schon einen
ordentlichen Sprung hingelegt hat. Oder anders ausgedrückt: Das gab es bisher noch nie.
Sowas will ich mal bei CPU's sehen... :lol:
 
Zuletzt bearbeitet:
Was sollte man auch alle 2 Jahre an so einer grundlegenden Einheit wie den Cuda Cores, die ja nun seit
der 8000er Serie weiterentwickelt werden ändern?
Du hast das doch behauptet. :-P
Aber um die Frage zu benatworten: Kontinuierliche Verbesserungen und Anpassen auf aktuelle Entwicklungen der Branche. Das, was GPU-Entwickler genauso seit Jahrzehnten tun wie CPU-Entwickler beispielsweise im x86-Bereich. Da wird auch ständig "ausoptimiert" gerufen und trotzdem sehen wir alle paar Jahre IPC-Steigerungen im zweistelligen Prozentbereich.

Also die 30er Serie konnte ja schon ganz gut mit AMD's 6X Serie mithalten, trotz merklichem
Fertigungsunterschied, da hat diesen Aspekt kaum einer erwähnt.
Dass NV trotz schlechterem Node gut dabei war wurde durchaus oft genannt - meist dann wenn man sich wunderte warum die 6000er AMD-Karten derart viel höher takten konnten was auch einfach am besseren TSMC-7 lag. Ampere hat hier klar die bessere IPC gehabt gegenüber der Konkurrenz. Vielleicht ist gerade weil man sich hier im Vorteil gesehen hat auch der Fokus auf anderen Bereichen gewesen und nicht auf der reinen Shader-IPC bei Ada. :ka:
 
Du hast das doch behauptet. :-P
Aber um die Frage zu benatworten: Kontinuierliche Verbesserungen und Anpassen auf aktuelle Entwicklungen der Branche. Das, was GPU-Entwickler genauso seit Jahrzehnten tun wie CPU-Entwickler beispielsweise im x86-Bereich. Da wird auch ständig "ausoptimiert" gerufen und trotzdem sehen wir alle paar Jahre IPC-Steigerungen im zweistelligen Prozentbereich.


Dass NV trotz schlechterem Node gut dabei war wurde durchaus oft genannt - meist dann wenn man sich wunderte warum die 6000er AMD-Karten derart viel höher takten konnten was auch einfach am besseren TSMC-7 lag. Ampere hat hier klar die bessere IPC gehabt gegenüber der Konkurrenz. Vielleicht ist gerade weil man sich hier im Vorteil gesehen hat auch der Fokus auf anderen Bereichen gewesen und nicht auf der reinen Shader-IPC bei Ada. :ka:
Na ja, also die IPC Steigerung der CPU's finde ich weit weniger "interssant" als den Leistungshunger
isb. bei Intel. Aber das könnte man auch seit 2 Jahren von GPU's behaupten also...

Also zumindest wenn man die Intel CPU's "laufen lässt". Mit Standard Takt und Spannung oder undervolting
sind die ja immer noch recht "genügsam"...

Aber 50% Leistungssteigerung in 2 Jahren, das wäre doch mal was bei CPU's?
Also ohne die 500W Marke zu knacken.
 
Aber 50% Leistungssteigerung in 2 Jahren, das wäre doch mal was bei CPU's?
Also ohne die 500W Marke zu knacken.
Wenn man den Gesamtchip im passenden Workload betrachtet (wie mans bei GPUs ja auch macht), also beliebige Kern-/Shaderzahl bei super parallelisierbarem Multithreadworkload (Cinebench für CPUs wie Rendergrafik für GPUs) sind 50% mehr Performance bei gleicher Leistungsaufnahme noch sehr niedrig gegriffen für CPUs. ;-)

Vergleiche da mal 11900K --> 12900K --> 13900K. Das sind ohne groß nachzusehen iirc 15K --> 25K --> 40K CB23-Punkte. Roundabout +60% jedes mal bei gleichbleibend ~250W.
 
Wenn man den Gesamtchip im passenden Workload betrachtet (wie mans bei GPUs ja auch macht), also beliebige Kern-/Shaderzahl bei super parallelisierbarem Multithreadworkload (Cinebench für CPUs wie Rendergrafik für GPUs) sind 50% mehr Performance bei gleicher Leistungsaufnahme noch sehr niedrig gegriffen für CPUs. ;-)

Vergleiche da mal 11900K --> 12900K --> 13900K. Das sind ohne groß nachzusehen iirc 15K --> 25K --> 40K CB23-Punkte. Roundabout +60% jedes mal bei gleichbleibend ~250W.
Well well... Ja ok. In Cinebench... Aber z.B. Real world Gaming? Eher nicht...
Ich meine die Synthetisch gemessene Leistungssteigerung in TFlops von einer
2080 zur 3080 zur 4080 dürfte dann bei was liegen? Faktor ~1:3 und ~1:1,8...
 
Habe die Karte gekauft, und meine 3080 verkauft. Die 3080 hat mir während Corona und der Quarantäne Langeweile sehr geholfen. Ich hatte damals bei Launch 748 bezahlt und sie jetzt einem Freund für faire 650 gegeben.
Die 3080 lief also schon ne Weile bei dir. Wie lang genau? Und hast sie nun für "faire" 650€ abgegeben. Echt jetzt?

Du wärst nicht mehr mein Freund:P

Gruß
 
Zurück