Geforce RTX 4000: Verschiebung wegen zu vieler RTX-3000-Karten am Markt? [Gerücht]

Dann heisst es warten, bis die 30er richtig bllig werden.

Für alle aktuellen Games reichen diie noch locker 2-3 Jaahre, dann kann man
auf die 50er Serie updaten
 
Den Abschlag setz ich selbst immer etwas höher als die wollen
Dieses System habe ich ja auch noch nie verstanden. Magst du mir den Hintergedanken dazu erzählen?
2 Balkonkraftwerke statt einer RTX4000 Grafikkarte. Vernünftiger, Effektiver und renditesicher über 25 Jahre.:-)
Vor Allem renditesicher für den Energieversorger, dem du bestimmt 80 % der erzeugten Energie schenkst. Aber da hörts leider bei den meisten auf und die rechnen den vollen Ertrag ihres Balkonkraftwerks mit den Kosten pro kWh ihres Energieversorgers...
Alles was nicht Leistung braucht läuft auf auf dem Notebook
Das mache ich auch. Ein Notebook braucht wirklich nur einen Bruchteil der Energie, verglichen mit dem PC.
 
Dieses System habe ich ja auch noch nie verstanden. Magst du mir den Hintergedanken dazu erzählen?
Eigentlich gibst du ein zinsloses Darlehen. In Zeiten von Minuszins aber durchaus sinnvoll. Und du hast psychologisch etwas Ruhe wenn die Rechnung kommt.
Vor Allem renditesicher für den Energieversorger, dem du bestimmt 80 % der erzeugten Energie schenkst. Aber da hörts leider bei den meisten auf und die rechnen den vollen Ertrag ihres Balkonkraftwerks mit den Kosten pro kWh ihres Energieversorgers...
Ja, und die kalkulierten 25 Jahre halten diese Balkonteile niemals.
Das mache ich auch. Ein Notebook braucht wirklich nur einen Bruchteil der Energie, verglichen mit dem PC.
Notebooks sind auf effizient getrimmt, da kann man für seinen "Rechner" schon einiges ableiten. Mein 5950 ist mit 65W viel nicht langsamer in Spielen als mit 240W.
 
Vor Allem renditesicher für den Energieversorger, dem du bestimmt 80 % der erzeugten Energie schenkst. Aber da hörts leider bei den meisten auf und die rechnen den vollen Ertrag ihres Balkonkraftwerks mit den Kosten pro kWh ihres Energieversorgers...
Das ist eine freche und inkompetente Antwort. Natürlich werden mit einem Balkonkraftwerk nicht 80% der Energie verschenkt. Das ist höchstens im Urlaub der Fall. Ich sehe jederzeit, wie viel Strom reinkommt. In der Zeit läuft der Geschirrspüler, die Waschmaschine und der PC. In der Zeit lade ich häufig meinen Solarspeicher (1,6 KW) auf. Außerdem wird die Grundlast im Haushalt (bei uns ca. 300 Watt) über weite Teile des Tages getilgt. Alles eine Sache der Planung. Ich verschenke 5%.
 
Zuletzt bearbeitet:
Natürlich werden mit einem Balkonkraftwerk nicht 80% der Energie verschenkt. Ich sehe jederzeit, wie viel Strom reinkommt.
Was vom Balkonkraftwerk reinkommt, sieht jeder. Nur müsste man noch parallel den Zähler des Energieversorgers und den Momentanverbrauch messen und das macht annähernd keiner.
In der Zeit läuft der Geschirrspüler, die Waschmaschine und der PC. In der Zeit lade ich meine Solarspeicher (1KW) auf.
Da der Großteil der Leute tagsüber an der Arbeit ist, laufen diese Geräte auch nicht dann, wenn der Ertrag stattfindet sondern wann anders. Ähnlich verhält es sich auch mit Multimedia. Die wenigstens sitzen bei strahlendem Sonnenschein vorm Rechner sondern eher abends oder bei schlechtem Wetter. Nur bringt da ein Balkonkraftwerk keinen nenenswerten Ertrag. Abschließend verfügt ein Balkonkraftwerk über keinen Speicher.
Außerdem wird die Grundlast im Haushalt (bei uns ca. 300 Watt) über den gesamten Tag getilgt.
Über diese Grundlast würde ich mir ja mal als erstes Gedanken machen.
 
Da der Großteil der Leute tagsüber an der Arbeit ist, laufen diese Geräte auch nicht dann, wenn der Ertrag stattfindet sondern wann anders. Ähnlich verhält es sich auch mit Multimedia. Die wenigstens sitzen bei strahlendem Sonnenschein vorm Rechner sondern eher abends oder bei schlechtem Wetter. Nur bringt da ein Balkonkraftwerk keinen nenenswerten Ertrag. Abschließend verfügt ein Balkonkraftwerk über keinen Speicher.
Sorry, du gehst nur von dir aus und du hast keine Ahnung. Wir sind "Familie" bei uns ist immer jemand zu Hause, bei uns wird immer Wäsche gewaschen oder irgendein ein Gerät läuft. Du bist bestimmt Single oder kennst dich mit der Thematik überhaupt nicht aus. Hauptsache mal ne Meinung abgeben ("80% werden verschenkt!").
 
ich wünsche denen so sehr das die auf den Karten sitzen bleiben, die haben das Geld schon 4 mal mit dieser Gen verdient.
Eine 3090ti für 500€ würde ich als fair ansehen und evtl gegen meine 6800xt tauschen, aber sonst lässt mich das ziemlich kalt. :ka:
 
Narf, das war wohl nix mit der "Von MSI Generalüberholt." Karte für 480 EUR ... also weiter suchen :ugly:

narf.jpg
 
Jo hoffen wir mal das die Preise richtig purzeln. Dann kommen villeicht auch noch neue 75 Watt gpus um endlich nach unten hin abzurunden weil sie ja mehr als genug Kapazität haben und nebenbei auch noch einen guten Preis. Man muss einfach nur viel Geduld haben und warten können. Einfach so lange warten bis die richtige gpu kommen wird.

Aber ich bezweifle das die neue 75 Watt gpu dann doppelt so schnell bzw stark wie ne Gtx 1650 sein wird. Und nein drosseln ist keine Option für mich. Da kommt einfach zu wenig dabei rum und der hohe Preise
Hoffe ja das ex am Ende es wieder Richtung wie früher kommen würde. Bis dahin, ist es ein noch sehr lange Wartezeit. Naja ist halt sp
 
während die Grafikkartenpreise nach langer Zeit der Überteuerung zuletzt weiter sanken und der Gebrauchtmarkt aufgrund des jüngsten Einbruchs am Kryptowährungsmarkt langsam überschwemmt wird.

Für unsere Gierhalsfreunde aus der Hardwareverkaufsfraktion erstickt an eurem Lagerbestand. Hoffe euer ganzer Lagerbestand verschimmelt bis unter EK ausgemistet werden muss und frisst am besten noch eure perversen erzielten Gewinnmargen von eurer schamlosen Preistreiberei gleich mit auf.

Ja Karma is a *** und das ist auch gut so.
 
Quasi-Monopolist, das gibt es nicht...

Du willst doch, dass alles dafür getan wird, DLSS usw.. Irgendwann ist dann der Punkt gekommen, an dem man quasi zu Nvidia greifen muß.

Von einem Quasimonopol kann man sprechen, wenn es zwar mehrere Anbieter gibt, aber einer den Markt dank einem Wettbewerbsvorteil dominiert.

Ich habe mit meiner Energieaufzeichnung am Abend 1,5 KW allein für den PC. Das ist mir schon zu viel.

Keiner hat dich gezwungen dir eine Karte, mit so einem hohen Stromverbrauch zu kaufen. Also solltest du nicht herumjammern.

Und meine alte Grafikkarte bleibt mir über Jahre erhalten. Da habe ich mehr Freude dran.

Dann kann deine Karte ja noch viele Jahre den Strom zum Fenster rausheizen. Irgenwann ist es besser, sich eine neue, sparsame Karte zu kaufen. Das hangt aber auch davon ab, wieviel man zockt.

Vor Allem renditesicher für den Energieversorger, dem du bestimmt 80 % der erzeugten Energie schenkst. Aber da hörts leider bei den meisten auf und die rechnen den vollen Ertrag ihres Balkonkraftwerks mit den Kosten pro kWh ihres Energieversorgers...

Das hängt stark vom Individualfall ab. Generell lohnt es sich, je mehr man verschwendet. Liegt der Grundverbraucht über der Peakleistung verschenkt man garnichts. Gehört man zu den Leuten, die ihren Router usw. per Schaltsteckdosenleiste ausschalten, wenn sie außer Haus gehen, sich Ökogeräte kauft und man dann noch arbeitet, dann wird sehr viel verschenkt. Ein zweites Balkonkraftwerk lohnt sich allerdings dann eher selten (wenn, dann als Ost-West Konfiguration).

Das mache ich auch. Ein Notebook braucht wirklich nur einen Bruchteil der Energie, verglichen mit dem PC.

Bei modernen PCs ist das nicht unbedingt der Fall. Bei meinem i7 gegen den i3 Laptop komme ich noch auf gut 40W gegen 9W im Leerlauf. Aber ab einem Haswell und einer sparsamen Karte (sparsam im Leerlauf) sind da nur gut 10W Unterschied. Bei der 3D Last muß man natürlich die Graka untervolten und die CPU bremsen, wenn man sparen möchte.

Außerdem wird die Grundlast im Haushalt (bei uns ca. 300 Watt) über weite Teile des Tages getilgt.

300W Grundlast?

Was hast du denn da laufen? Das sind ja alleine schon über 2600kWh im Jahr.
 
Das hatte ich eigentlich für die 3080 mit 12GB geplant, weil 250 W war damals schon heftig im Sommer zu kühlen und diese hat 350+, dann habe ich aber den Beitrag bei Igors lab gesehen, wenn du das Powerlimit reduzierst bekommt dein Netzteil viele heftige Pikes, was nicht so gesund sein soll. Deswegen habe ich mir nun eine 3070 bei ebay geschossen (mit der Zusicherung des Händlers, dass es keine Miningkarte war), Restgarantie bis 2024 und "generalüberholt von MSI", ist sogar eine ohne LHR. Mal schauen wie es in 2 Jahren aussieht ...

Natürlich immer nur mit eigener Curve, in Kombination mit reduziertem Powerlimit. Wie Igor es genau in dem Test auch gemacht hat. Stichwort "Variante 3"
 
Hört sich doch super an! :D
Da mir der Strom-Verbrauch der 4000'er sowieso zu hoch wird, werde ich mir vielleicht doch noch eine 3090 holen.
Eine 3090, weil mein Fokus auf den 24GB GDDR und die Unterstützung für diverse Renderer/CUDA liegt.
 
Was preise angeht
Aktuell kostet eine rtx3050 300€ ist fasst angemessener preis für 6,5tf
Das entspricht der gtx1660ti von 2019 die auch etwa 279-300€ gekostet hat
Und die kann kein dxr

Ob dxr bei nur 6,5tf was bringt ist stark anzuzweifeln zumindest ist dlss und fsr in ausgeglichen oder performance notwendig.
In raster geht die gpu voll in Ordnung
Zum vergleich die rx6600 etwa 30% schneller kostet dasselbe und die dxr Leistung ist ähnlich.

Und wäre meine erste Wahl wenn dxr kein muss ist

Erst die rtx3060 ab 400€ kann man für dxr ohne dlss bei etwa 30fps nutzen und mit etwa 45-60fps
Da ich selber zu nen höheren Kurs die rtx3060 gekauft habe und diese ausgiebig getestet habe vs gtx1060 und somit auch gegen die älteren gen habe ich meine TF Theorie bestätigt.

zwischen gddr3, gddr5 und gddr6 gibt es kleine unterschiede von 5%
Ansonsten ist es linear

Die abstände nehme ich aus tpu. vs theoretischer tf Leistung.
viele gpu habe ich selber nicht um das gegenzutesten wie etwa die gtx1080ti theoretisch 12,1tf
praktisch soll diese nur 7% schneller sein al die rtx3060 woran ich nicht glaube.
Da meine gtx1060 exakt dem tf leistung vs meiner entsprochen hatte.
und die Architektur dies auch bestätigt.


Zu der tf Rechnung je Architektur

Derzeit ampere es sind 64fp32+24 fp64+64 int32
Ergeben 88fp32 pro Takt pro shadermodul (sm)
meine gpu hat 28 aktiv von 36 möglichen und 48 physischen die auf dem chip gedruckt sind
Warum nvidia den chip so dermaßen kastriert weiß keiner vermutlich wegen der yield.
da sieht man das samsungs 8nm sehr schlecht ist.

turing hat 64fp32 +64 int32 + 2 fp64 pro sm ergeben 66fp32 Operationen pro takt
das erklärt auch die abstände zwischen rtx2060s vs rtx3060

Die tensor cores lasse ich aus da diese nur in gpgpu Verwendung finden bzw mit dlss

pascal (gtx10) hat 128 fp32+ 32 fp64 (exklusiv für Double precision)
also ein gp106 mit 20sm (1280 shader erreicht bei 1,9ghz 4,95tf
und ein gp102 mit 56 sm (3584 shader erreicht bei 1,5ghz 10,7tf
In tpu Tabelle ist diese nur 7% schneller als ne rtx3060 mit 9,1tf mathematisch aber 17%
ich kann mir das nur erklären wenn die test bei 1,35ghz gemacht wurden. was dann genau 10tf wären also dann +7%
Nur entspricht das nicht der Realität meiner test wo jede pascal gpu bis 1,9ghz taktet
Daher sind die abstände in tpu nicht als felsenfest zu bezeichnen zumal meine test der gtx1060 deutlich höher ausfallen als bei tpu.


Nun zu den was lohnt sich derzeit ist die rtx3050 leicht überteuert
Die rtx3060 nahezu ok beim preis für 9tf
die rx6600xt absolut empfehlenswert zum selben preis etwa 10% schneller als die rtx3060
Die P/L gpu ist Ausgerechnet eine die nur in pcie4 systemen ihre Leistung bringt
rx6500xt für 170€
hat man nur pcie3 also aufrüsten wirds schwierig unter einer rtx3050 lohnt nix.
also sind min 300€ fällig und das ist zu viel aktuell

viel billiger als 279€ wirds nicht mehr werden für die rtx3050
Die rtx3060 sehe ich bei etwa 349€ ankommen ende des Jahres
Da nvidia ga102 und ga104 eol ist ga106 vermutlich ende des Jahres in eol gehen wird
Sehe ich da noch kaum Preisnachlässe.
Und ada wird definitiv erst q1 2023 kommen.
Ankündigung einer titan wird im aug/sept sein
vermutlich paperlaunch der rtx4090ti im dez
nvidia hat das problem der vollen lager und die nachfrage sinkt.
Es herrscht also die situation von 2018 entweder nvidia setzt sehr hohe uvp an (eine lösung ) oder verschiebt den release auf 2023
letztere wäre klüger da man amd rdna3 abwarten kann.

Der tf schmu hat den Grund was sich lohnt und nicht
grob aktuell bei spielen bis 2022 sind folgende gpu reihenfolge
dxr
rtx3060 etwa 9,1tf mit dlss 60-80fps 1080p
rtx3050 etwa 6,5tf mit dlss 45-60fps 1080p
raster
rtx3060 etwa 100fps 1080p bedingt ab und an 60fps
rtx3050 etwa 60fps 1080p bedingt ab und an 36fps

Wie immer zählt was man hat und was man will
meine test ergaben spiele von 2016 bis 2020 der rtx3060 127fps (mit cpu limit) auf 1080p
DXR etwa 45fps mit dlss es waren aber nur 6 Spiele und maximale Einstellung über ultra

mein rat wer ne turing gpu hat bsp rtx2060 der sollte erst zur rtx4060ti greifen
wer ne gtx1080 hat dem lohnt derzeit nur die rtx3080 wer realistisch ist wartet zur rtx4070

Nur wo landet diese
das hängt von der sku ab derzeit ist Gerüchten bei 56sm was dann entweder 56*128*2*2,2 (31tf vs ga104 93%) oder 56*96*2*2,2 (23,6tf) sind (+46%)
letztere ist realistischer.
Wichtiger ist welche sku als rtx4060ti kommt mit maxed 180w tbp
ich hoffe auf ad104 mit 46sm und 2,0ghz 24tf oder 16,5tf
beides wäre ein upgrade lohnenswert
der ad106 mit 36sm und 2,2ghz und maxed 150w wäre ideal 20tf oder 15tf

nur sind die sku nicht final aktuell und da eine Verspätung quasi sicher ist. kann ich derzeit nur sagen das die preise ok sind
Im low end könnten diese nochmal um 100€ geringer sein. aber alles darüber passt derzeit.
Ob sich nochn rtx3070 und co lohnt hängt nur davon ab was man hat
pascal gen definitiv
turing bedingt

ada wird definitiv ein großer sprung nur die sku sind jetzt die frage
ich hoffe auf
ad107 bei ner rtx4050 etwa 9tf 250€ q2 oder 3 2023 (20-24sm)
ad106 bei ner rtx4060 etwa 15tf 350€ q2 2023 (32-36sm)
ad104 bei nerrtx4060ti 70 etwa 450€-600€ 20-30tf q1 2023 (46 und 56sm)
ad103 bei ner rtx4080 etwa 900€ 40tf q1 2023 (76sm)
ad102 bei ner rtx4090 etwa 1499€ 50-60tf q4 2022 (110sm)

Die große frage ist wie hoch Takten die chips.
laut Gerüchten soll bis 2,7ghz drin sein was ich stark bezweifle da hopper deutlich größer als chip bei gleicher Fertigung nur 1,5-1,8ghz erreicht mit 450w
zwar ist hopper nicht ganz mit ada vergleichbar aber fasst.
Es hängt also vom Zusammenbau ab ob wirklich 128fp32 +64 int32+ tensor cores+ sfu von nur 2 fp64 sind
Das wäre ne Erklärung was dann real 130 fp32 oder 128 fp32 pro sm wären.
Das aber hängt davon ab ob nvidia zurück geht mit der Ordnung wie bei pascal wo fp64 exklusiv gerechnet wird.
Das bezweifle ich ich gehe eher davon aus das nvidia hier 96 fp32 und 32 fp64 laufen hat und die fp64 exklusiv dp bleiben womit dann 96 fp32 höher Takten können .
Dann sind die 2,5ghz durchaus drin.
Den schritt hat nvidia bei maxwel schonmal gemacht wo die fp64 Leistung exklusiv berechnet wurde und somit deutlich den Takt angehoben wurde.
Sprich die Rechnung
ad106 mit 32sm dann 32*96*2,5*2=15,3tf als rtx4060 sattes +68% vs rtx3060 bei 180w
akzeptable wenn der preis bei 300€ ist einziges Manko 8gb vram

oder den ad104 mit 12gb vram und 60sm als rtx4070ti 28,8tf
nur der preis und release sprechen dagegen ab 700€ und erst q4 2023 das aber ist geraten
real sehe ich keine chance das ich meine rtx3060 austausche bei ada.
Zu hoher verbrauch und zu wenig vram
Und meine schmerzgrenze ist maximal 450€ und maxed 150w tbp
Das sehe ich erst bei blackwell 2025 mit der rtx5060 in 3nm kommen.

achja textur kompression reduziert die vram belegung nur zweifle ich stark das nvidia hier mehr als 30% ausgleichen kann wenn 12gb vs 8gb gegeneinander stehen bei bsp rtx3060 vs rtx4060
mal sehe wie es ausläuft. aktuell ist wegen der konsolen eher nicht mit einer Anfordeurngsteigerung zu rechnen bis 2025 (ps5 pro)
Einzig DXR Leistung wäre ein Grund
 
Zurück