Geforce RTX 3080 & 3090: Abstürze sollen durch unpassende Kondensatoren ausgelöst werden

Das die Leute nicht begreifen das die 3080 die effizienteste Karte am Markt ist und sowas schimpft sich als Enthusiast heutzutage.

und ab da kann man dich nicht mehr ernst nehmen bei 320W (bei manchen aib partnern sogar 400+W) noch von effizienz zu reden ist blanker hohn
sag einfach die karten haben max leistung bei max power und fertig, is ja nix schlimmes aber effizienz is was anderes

mfg
 
und ab da kann man dich nicht mehr ernst nehmen bei 320W (bei manchen aib partnern sogar 400+W) noch von effizienz zu reden ist blanker hohn
sag einfach die karten haben max leistung bei max power und fertig, is ja nix schlimmes aber effizienz is was anderes

mfg

Damit beweist du nur, das der Beitrag den du zitiert hattest, vollkommen richtig liegt.
In Sachen FPS pro Watt ist die 3080 effizienter als alles was es vorher gab, wenn auch manchmal nur um ein paar %.
Und wenn du die aufgedrehten Boardpartnerkarten heranziehen musst, um dein "Argument" zu polstern, dann zeigt das nur, das du unbedingt Recht bekommen willst, aber nicht das du Recht hast.

Ein hoher Strombedarf, macht etwas noch lange nicht ineffizient, denn wichtig ist nicht was es verbraucht, sondern was es dafür leistet und in der Hinsicht ist die 3080 eben besser als alles andere.
Effizienz bedeutet halt nicht besonders sparsam, sondern beschreibt den Wirkungsgrad.

Meine GTX 1080 Aorus Rev 2 nimmt ne Boardpower von bis zu 250W (Chip TDP 180W, aber da kommen bis zu 210W rum), nach deiner "Argumentation" wäre die damit effizienter, was sie aber eben NICHT ist, da sie, für den Verbrauch, eine Leistung abliefert, welche kaum 40% der 3080 erreicht oder anders ausgedrückt:
Die 1080 nimmt 70W weniger (-22%) Leistet aber auch weniger (-60%)
Dazu kommt dann eben noch, das diese Karte nichtmal RT Cores und Tensor Cores hat und somit RTX und DLSS ebenfalls nicht gehen, was wieder der 3080 in die Karten spielt, genauso wie der geringere und langsamere VRAM der 1080 der 3080 wieder einen Vorteil verschafft.

Ergo: die 3080 is im Vergleich dazu ein Effizienz und Featuremonster.

Das wird zwar bei den Turing Karten hoch zur 2080Ti immer weniger, ist aber dennoch vorhanden.
 
Stimmt, aber ein gewisses Mindestniveau braucht es halt. Ich habe eine 1080 Ti, wenn Navi nur 30% schneller als meine Karte werden würde, könnte das P/L Verhältnis so gut sein wie es will, ich würde sie nicht kaufen. Einfach weil es sich nicht lohnt.
Das wird sie schon haben. Aber ein Produkt istja nicht nur gedacht für Aufrüster sondern auch für Neukäufer. Da braucht es nicht die Spitzenleistung. Ich würde nie die überteuerte Neuerscheinung kaufen, wenn ich sie nicht dringend brauchen würde. Gewerblich macht das manchmal Sinn bei entsprechendem Aufgabengebiet. Oder eben für manche Privatbenutzer die das schnellste haben wollen. Aber wie du sagst,für eine kleine Verbesserung lohnt es kaum dafür den Rechner aufzumachen,Geld auszugeben oder danach nach der Verbesserung suchen zu müssen, weil es bei den eigenen Anwendungen kaum etwas bringt.
 
Die generelle Serie 3000 wirkt bis jetzt eher unvorteilhaft, sagen wir eher mißlungen. Wir sprechen ja vom Leistungsplatzhirsch, den aber auch die meisten benutzen Team Grün, also eine Aktion ohne Not, dafür mit weniger Hirn dazu. (Noch stimmt die Kohle, allein der Ruf scheint sich aufzureiben.)

1. Das Verbauen von zuwenig Speicher kann man ja noch aus einer a) von Team Grün gewohnten Gier und b) der Dummheit der Fanbase erklären. Das wird ja sicher noch zu Lasten des Preises behoben, aber viel Mehrleistung geht dann bei der 3080 schon gar nichtmehr, eine 3080 (ti/super) paßt ja kaum mehr zwischen 3080 und 3090.

2. Da kommen wir dann zum mißlungenen Lineup.

3. Der Verbrauch ist auch zu hoch, man erwartet ein Mehr an Leistung zu weniger Lastaufnahme, so geht Fortschritt.

4. Damit kommen wir zu den Karten, welche irgendwo ohne Grund auf Kravall gebürstet sind, auch ohne Not, da man ja führt. Diese führen dann zu Ausfällen, wie hoch die sind und ob man generell die restliche Hardware zu sehr belastet wird, die Karten sind ja nicht das einzige, Netzteile haben wir ja ebenfalls als Problem schon gesehen, auf Mutterbretter (eventuell gerade ältere Modelle, welche zwar noch ausreichen würden, aber.. was sich dann auch auf die CPU auswirken würde oder den RAM) würde ich als nächstes anschauen, wird noch zu sehen sein.

Jetzt schau ma mal, eventuell ist es derzeit viel Wind um wenig (eher Probleme Einzelner) oder wir haben es hier eher mit einem Krampf, statt einem fetten Dampf zu tun, mal sehen.
 
Ein hoher Strombedarf, macht etwas noch lange nicht ineffizient, denn wichtig ist nicht was es verbraucht, sondern was es dafür leistet und in der Hinsicht ist die 3080 eben besser als alles andere.
Effizienz bedeutet halt nicht besonder sparsam, sondern beschreibt den Wirkungsgrad.
Ja, der Verbrauch ist allerdings nicht auf der Höhe der Zeit und wie weit soll er noch steigen? Gerade bei Geräten die stundenlang laufen ist es eine Farce, wenn man Staubsauger begrenzt, der Rechner aber ein Vielfaches verschwenden darf, oder?
 
[...] Klar hat die Karte einen garantierten Basistakt den sie immer liefert, aber mit Auto-OC, werkseitigem Binning und den damit verbundenen Preisaufschlägen hat sich Nvidia damit auch ein Problem ins Haus geholt, wenn die Qualitätskontrolle eben nicht wasserdicht ist.

Wenn man Igors Analyse trauen kann, dann hat nVidia überhaupt kein Problem, denn die FEs sind anders bestückt und bei denen treten diese Probleme daher offensichtlich nicht auf. Hier haben anscheinend einige Boardpartner zu knauserig geplant, d. h. es ist das Problem vereinzelter Boardpartner, konkret bei bestimmten Kartenmodellen. nVidia hat hier keinen Handlungsdruck auf seiner Seite, eher die betreffenden Boardpartner, die jetzt, da die Konsumenten für diesen Punkt sensibilisiert sind (ob es sie nun betreffen wird oder nicht), absatztechnische Nachteile befürchten müssen, wenn sie die Platinenbestückung nicht anpassen.

und ab da kann man dich nicht mehr ernst nehmen bei 320W (bei manchen aib partnern sogar 400+W) noch von effizienz zu reden ist blanker hohn [...]

Du wirfst hier zwei Größen in einen Topf, die nicht miteinander vergleichbar sind. Oder behauptest du auch, dass die 200 km/h Höchstgeschwindigkeit des Polos das gleiche ist, wie die 200 km Distanz Duisburg - Frankfurt?
Faktisch ist Ampere derzeit (und vorläufig, denn von RDNA2 erwartet man ja eine etwas bessere Effizienz) tatsächlich die effizienteste HighEnd-Karte in einer Fps/Watt-Betrachtung und sie wird gar noch deutlich effizienter bei einem manuellen Eingriff. Nur hat diese Aussage rein gar nichts mit dem absoluten Verbrauch zu tun, egal ob man hierbei 330 W oder auch nur die möglichen 270 W betrachtet ... das ist schlicht die Sache mit den Äpfeln und Birnen ... ;-)
 
Zuletzt bearbeitet:
Wenn man Igors Analyse trauen kann, dann hat nVidia überhaupt kein Problem, denn die FEs sind anders bestückt und bei denen treten diese Probleme daher offensichtlich nicht auf. Hier haben anscheinend einige Boardpartner zu knauserig geplant, d. h. es ist das Problem vereinzelter Boardpartner, konkret bei bestimmten Kartenmodellen.;-)
Auch FEs sind von den Abstürzen betroffen
(Update vom 24.09)
 
Igor schreibt hierzu:
"Man macht es offensichtlich besser, denn ich konnte ja auch mit keiner FE auch sehr deutlich jenseits der 2 GHz diese Stabilitätsprobleme nachstellen (Lüfter auf 100%). Wenn etwas daneben ging, war es mit an Sicherheit grenzender Wahrscheinlichkeit ein Treiberproblem."


Darüber hinaus witzig bzgl. deinem Link:
"Auch eine GeForce RTX 3080 FE taucht im Forum von Nvidia auf [...]"
Und darüber hinaus schriebt der Artikel mehrfach "Liegt es am Netzteil oder Treiber?" bzw. "Auch Treiber und Firmware können eine Rolle spielen". Hier wird man abwarten müssen. Aktuell sieht es eher nicht danach aus, als wenn nVidia ein Hardware-Problem hätte. Man wird abwarten müssen, ob sich mittelfristig was am PCB-Design ändern wird. (Zumindest das zusätzliche Wärmeleitpad auf der Rückseite bei dem einen grenzwertigen Speicherchip wäre wünschenswert. ;-))

Ergänzend darüber hinaus, weil ich es zuvor bei dir überlesen hatte als Info nachgereicht: Reguläre 14 Gbps/8 Gb-BGAs kann man mit 2 W Verlustleistung pro Chip veranschlagen gemäß Igor.
 
Zuletzt bearbeitet:
Sorry aber das ist doch alles Mist.
NV hatte zwei Jahre Zeit sich da Gedanken zu machen damit nicht so ein XYZ passiert.
Irgendwie gewöhne ich mich gerade daran mal nach ner gebrauchten:
RTX 2080, RTX 2080 Super, RTX 2080 TI zu suchen.

Warte ab ob die RTX 3080 Super ggf. von TSMC (in 7 oder besser nm) produziert wird die dann auch weniger Strom => weniger Hitze braucht.
 
Man vermutet bzw. hofft, dass AMD tatsächlich ein starkes Produkt im Ofen hat, welchem man zuvorkommen wollte. Natürlich kriegt man dazu kein offizielles Nvidia-Statement. ;)

MfG
Raff
Von mir aus können sie es auch ausm Gefrierfach ziehen, bisl mehr Infos wären aber langsam mal angebracht.
_____

Topic: wenn die Fehler wirklich durch längeres Testen herausfindbar gewesen wären, würde mich das nachdenklich machen.
 
Warte ab ob die RTX 3080 Super ggf. von TSMC (in 7 oder besser nm) produziert wird die dann auch weniger Strom => weniger Hitze braucht.

Das wird sicherlich nicht zeitnah passieren, aber ich hoffe auch, dass nVidia vielleicht nächstes Jahr um dieselbe Zeit herum einen TSMC-Refresh in deren N6 Prozess (entspricht 7nm+) am Start haben könnten. Die großen Player bei TSMC bewegen sich momentan schon alle Richtung 5nm, während bei 7nm in den nächsten Monaten nach und nach Kapazitäten frei werden.

Die große Frage ist, wie viel Kapazität nVidia für den GA-100 brauchen oder veranschlagen. Es kann natürlich auch gut sein, dass nVidia jedes frei werdende Wafer-Kontingent bei TSMC sofort für den GA-100 belegen, so dass für Gaming-Produkte bei TSMC in Anbetracht der begrenzten Kapazitäten einfach kein Platz mehr bleibt. Ich hoffe ja mal, dass wenigstens der GA-102 zu TSMC wechselt, wenn da wieder mehr Spielraum entsteht.
Es muss ja nicht die ganze Palette sein (GA-104 und abwärts). Die RTX 3080 (Ti/Super) und 3090 (Super) hätten sicherlich noch eine Menge Potential, wenn sie nicht von dem koreanischen Mikrowellenhersteller kommen würden ;) .
 
Puh, also wenn ich mir das alles so anschaue, dann hält sich meine Begeisterung für die 3080 doch mittlerweile arg in Grenzen: Mögliche zukünftige VRAM Knappheit, Holzhammer-Methode, Berichte über Crashes, ein fettes Fragezeichen bezüglich der längerfristigen Auswirkungen der sehr hohen Temperaturen der RAM Bausteine...
Wenn man mich fragen würde, dann sollte mMn jeder Interessent zunächst mal einen großen Bogen um die 3080 machen, anstatt das Ding den Händlern aus den Händen zu reißen. Natürlich wird es auch User geben, die keine Probleme mit der 3080 haben. Dennoch ist die Anschaffung in meinen Augen aktuell ein Vabanquespiel.
Mir persönlich sind das jedenfalls zu viele Unwägbarkeiten, die mir den Spielspaß mit der 3080 ggf. übelst verderben könnten, um eine 700-800€ Investition guten Gewissens zu rechtfertigen. Da warte ich lieber auf eine 3080 2.0 die dann ausgereift(er) ist und hoffentlich mit 20 GB VRAM daherkommt.
 
Zuletzt bearbeitet:
Puh, also wenn ich mir das alles so anschaue, dann hält sich meine Begeisterung für die 3080 doch mittlerweile arg in Grenzen: Mögliche zukünftige VRAM Knappheit, Holzhammer-Methode, Berichte über Crashes, ein fettes Fragezeichen bezüglich der längerfristigen Auswirkungen der sehr hohen Temperaturen der RAM Bausteine...
Wenn man mich fragen würde, dann sollte mMn jeder Interessent zunächst mal einen großen Bogen um die 3080 machen, anstatt das Ding den Händlern aus den Händen zu reißen. Mir persönlich sind das jedenfalls zu viele Unwägbarkeiten, die mir den Spielspaß mit der 3080 ggf. übelst verderben könnten, um eine 700-800€ Investition guten Gewissens zu rechtfertigen. Da warte ich lieber auf eine 3080 2.0 die dann ausgereift(er) ist und hoffentlich mit 20 GB VRAM daherkommt.

Dann mach das doch, sei mir aber nicht böse wenn ich Dich nicht fragen würde :).

Glücklicherweise gibt es einige Hersteller die von vorneherein auf hochwertige Komponenten gesetzt haben. Die Käufer derer können sich ganz entspannt zurücklehnen.

Davon ab verstehe ich diese unnötige Panikmache nicht, derer man ohne Probleme vorbeugen kann, schon alleine durch vorausschauendes Denken:

Wie viel kann / will ich ausgeben?
Was möchte ich damit tun können / was sind meine Anforderungen an das Produkt?
Wie früh / spät möchte ich das Produkt wieder austauschen?

Ist ja nicht so als ob es da keine Erfahrungswerte geben würde.
Gerade was 4K Gaming betrifft, möchte ich mich selbst mit der 3080 oder 3090 nicht weit aus dem Fenster lehnen. Da interessiert mich noch nicht mal der Speicher sondern eher die Leistung.

Nur weil aktuelle Spiele auf 4K / 60 FPS laufen, heißt das nicht dass es in einem Jahr oder in zwei Jahren wenn die echten NextGen Titel auf dem Markt sind auch noch so ist.

Wenn man keinen Wert auf Max Details legt wird das so sein. Will man das aber sieht es dann schon mau aus.
In dieser Gen ist m.M.n. WQHD das neue FullHD. Guckt man sich die Benches an, gibt es dort kaum FPS Verluste (meist im niedrigen einstelligen Bereich [Edit: Gegenüber Full HD]).

Den aktuellen RTX 30x0 oder den kommenden Big Navi Karten aber zukunftssichere 4K unterstellen zu wollen, selbst mit mehr Speicher, halte ich doch für sehr gewagt.

Wie gesagt, immer unter dem Gesichtspunkt, man möchte immer Max Details und eine hohe FPS Leistung haben.
Wem das egal ist, den stören auch FPS < 60, niedrigere Details, Mikroruckler etc nicht.
 
Zuletzt bearbeitet:
Dann mach das doch, sei mir aber nicht böse wenn ich Dich nicht fragen würde :)

Oh, du brauchst mich nicht zu fragen, denn ich sage meine Meinung trotzdem ;)
Zwar kann von meiner Seite aus jeder das kaufen was er möchte, aber meine Meinung über das jeweilige Produkt werde ich dennoch äußern:daumen:
Du kannst natürlich gerne die Augen vor möglichen Problemen der 3080 verschließen wenn du das möchtest - verschwinden werden sie dadurch aber nicht!
Glücklicherweise gibt es einige Hersteller die von vorneherein auf hochwertige Komponenten gesetzt haben. Die Käufer derer können sich ganz entspannt zurücklehnen.
In wie weit sich Käufer der 3080 überhaupt entspannt zurücklehnen können, wird sich erst mittel- bis längerfristig zeigen...Ich wünsche aber natürlich jedem Käufer dass er uneingeschränkten Spaß mit der jeweiligen Karte hat.
 
Zuletzt bearbeitet:
Oh, du brauchst mich nicht zu fragen, denn ich sage meine Meinung trotzdem ;)
Zwar kann von meiner Seite aus jeder das kaufen was er möchte, aber meine Meinung über das jeweilige Produkt werde ich dennoch äußern:daumen:
Du kannst natürlich gerne die Augen vor möglichen Problemen der 3080 verschließen wenn du das möchtest - verschwinden werden sie dadurch aber nicht!

In wie weit sich Käufer der 3080 überhaupt entspannt zurücklehnen können, wird sich erst mittel- bis längerfristig zeigen...Ich wünsche aber natürlich jedem Käufer dass er uneingeschränkten Spaß mit der jeweiligen Karte hat.

Ich wüsste nicht das ich Dir verboten habe Deine Meinung zu äußern. Belehre mich bitte eines Besseren.
 
Da ist man im nachhinein doch froh anfangs keine Karte erwischt zu haben, schön das ich kein Beta-Tester sein muss =)
Zuerst war ich frustriert keine Karte bekommen zu haben, jetzt bin ich froh denn wenn ich eine bekommen hätte wäre der Frust noch viel größer :-$
 
Da ist man im nachhinein doch froh anfangs keine Karte erwischt zu haben, schön das ich kein Beta-Tester sein muss =)
Zuerst war ich frustriert keine Karte bekommen zu haben, jetzt bin ich froh denn wenn ich eine bekommen hätte wäre der Frust noch viel größer :-$

Nur wenn man unbedingt eine OC Variante haben wollte. Da war die Wahrscheinlichkeit am größten.
Ich finde aber trotzdem gut dass das genau so gelaufen ist. So werden die Spieler endlich wieder mehr für die wichtigste Komponente im System sensibilisiert: Das Netzteil.

Aber ja, in dem Fall war der Direktkäufer der gelackmeierte. (Edit: und viele Hersteller werden jetzt wieder an einer Steigerung ihrer Reputation arbeiten müssen). (Edit2: Ich finde es bezeichnend, selbst wenn man keine genaue Detailzeichnung hatte, wenn man sich Komponenten aussuchen kann und zwischen zwei Stühlen steht (1) bessere Kondensatoren zu verbauen die im Zweifel mehr Planungssicherheit bieten aber auch weniger Gewinn einbringen oder B) Direkt davon auszugehen das es die billigeren Kondensatoren schon richten werden).

Ich habe nicht behauptet, dass du das getan hast. Du sagst du würdest mich nicht fragen, ich sage ich äußere trotzdem meine Meinung auch wenn du mich nicht fragst. Das ist alles!

Schien Dir aber enorm wichtig zu sein darauf hinzuweisen (gleich zweimal). Deswegen wollte ich Dir netterweise vorweg greifen und klar stellen das ich Dich niemals eingeschränkt habe / hätte wollen.

Ich versuche einfach unfassbar nett zu sein und auf die Gefühle meiner Mitmenschen Rücksicht zu nehmen.
 
Zuletzt bearbeitet:
Zurück