Nvidia Geforce RTX 3090 Ti: Palit listet Gamerock-Modelle auf Webseite

Wenn ich das EVGA Custom Bios mit 500Watt aufspiele rennt meine 3090 auch über 2GHZ in 4k und ich kann sie trotzdem bei 80 Grad halten mit Luftkühlung,also who cares?

Drucke ich mir mit einem Dymo Beschrifter "TI" und klebe das hinter die 3090 voila fertig!!
Die paar Transistoren und Shader mehr merkt eh keiner.Kann ich dann für 5000€ verkaufen :p
Fakt ist es ist sinnfrei so viel Kohle für veraltete Technik hinzublättern,wenn in 6 Monaten die neue Generation vor der Tür steht.Ich werde diese nicht kaufen,sondern bleibe bis 2025 bei meiner 3090,dann läuft auch mein Stromanbieter Vertrag aus ..
 
Und der nächste mit der roten Brille....
Nimmal deine AMD Brille ab und komm in die Wirklichkeit und Realität zurück
Rdna 3 wird nicht 3x mal schneller is auch gar nicht möglich....(weniger shader als bei NVIDIA mit lovelace)
Dazu muss auch erstmal das mcm Design in tests zeigen das die ps auf die Kette gebracht werden

Und das die 3090 ti 10% schneller sein soll is auch komplett falsch
Eine 3090 in eine wakü is schon schneller wie ne 3090 zu
Btw der vram läuft bei mir schon schneller als bei der 3090 ti ?

Wenn die normalen Gerüchte sich bewahrheiten kommen wir bei AMD und NVIDIA bei guten 80 bis 90% raus (sehe das etwas konservativ, kann natürlich auch höher ausfallen was mich freuen würde)

Aber lasst doch endlich mal eure AMD Propaganda ihr macht euch nur lächerlich

Bringt lieber mal echte Fakten und keine haltlosen Behauptungen oder fake bilder
Mach dich mit dem folgenden etwas vertraut und dann wirst du erkennen das es sehr wohl möglich ist das
es so kommen könnte.
Wenn auch die 300% (+200%) denke ich etwas übertrieben sind, scheinen 220 - 250% (+120-150% relativ 3090) durchaus realistisch und Nvidia beweist ja gerade das 460W nicht nur möglich sondern anscheinend vom Markt auch so angenommen werden.

Navi21: 5120 stream processors (93% relativ 3090)
RTX3090: CUDA cores: 10496
10496/2x1.3= 6822 (100%)
Letzte Gerüchte zu AD102 "Lovelace" 18432 CUDA cores
18432 / 2 x1.3 = 11980 (175% relativ 3090 + Takt + IPC?)

Navi 31: 2 x 7680 = 15360 stream processors (280% relativ 3090 +/- Takt + IPC?)
Die 280% sind dabei natürlich nur Theorie aber an der Speicherbandbreite dürfte es anhand der 512MB IF Cache eigentlich nicht scheitern.
Verbrauch wohl 400-500W bei TSMC 5nm, große Frage wie hoch fallen die Tacktraten aus?
IPC leicht schwächer wie bei Navi 1 vs. 2 = oder gar stärker? (große unbekannte)

Bei der doppelten Anzahl an Cuda Cores ist die 3080 nur ca. 30% schneller als die 2080Ti
2080Ti (4352)
3080 (8704)

2080ti vs 3080.png


SM Turing (z.B. GTX2080Ti) = 64 FP32-ALUs für Gleitkomma-Berechnungen und 64 INT32-ALUs für Ganzzahlen-Berechnungen. Die FP- und die INT-ALUs können dabei gleichzeitig arbeiten.

Ampere (z.B. RTX3090) = 64 FP32-ALUs pro SM, aber anstelle der 64 reinen INT32-ALUs nun 64 weitere, die wie die anderen 64 ALUs ebenso Floating-Point- und zusätzlich Integer-Berechnungen durchführen können – allerdings nicht parallel.

Ein SM von Turing kann also maximal 64 FP32- und 64 INT32-Berechnungen gleichzeitig durchführen. Ein SM von Ampere dagegen entweder 128 FP32- oder 64 FP32- und 64 INT32-Berechnungen – je nachdem, welchen Workload die Anwendung an die Grafikkarte verteilt.

Daher bei Gaming Workloads ist man gut damit beraten, den großen Zahlen die einem bei Ampere entgegen geschleudert werden kritisch gegenüber zu stehen.

overview 3090.png
 
Geilo. Hätte ich nicht schon eine 3080 Ti, wurde ich diese Karte in Erwägung ziehen. ^^
Ich würde mir nie nie nicht irgendeine Karte von Palit in auch nur irgendeiner höheren Preisregion kaufen. Wäre mir zu riskant. Habe gestern erst ein Video von Igor gesehen zur 3050 vom MSI und Palit, was die qualitative Einordnung dieser Billigheimer-Marke mal wieder bestätigt. Abgesehen davon sieht die im Artikel angebildete Karte total giddelig aus mit dieser Pseudoglassplitteroberfläche aus billigstem Asia-Barock-Plaste.
Auch nicht, wenn ich ein geschlossenes Gehäuse ganz tief unten und hinten unterm Schreibtisch hätte, denn ich wüßte ja immer, daß ich für so ein Gurke so viel Geld verbrannt hätte und die nun da drin steckt. ^^
 
Wenn sich die 4000€+ bewahrheiten, landen wir in einem Preisbereich, der nur noch für ahnungslose Wohlbetuchte, Angeber und Möchtegern-Alleshaber interassant ist. Denn für nur wenige hundert Euro mehr gibt es für die (semi-)professionellen Anwender die erste Quadro mit 48 GB VRAM. Dann eher die A6000 und aufwärts kaufen als diesen VRAM-Krüppel mit Treibereinschränkungen. Und ja, in diesem Preisbereich muss man die Karte ganz klar so benennen. Im Grunde die 6500XT der Anwender...
Lässt sich denn mit A6000 und aufwärts prima zocken? Ich dachte diese hätten eine schlechtere Gaming Leistung als ihre GeForce Pendants.

Wenn dem nicht so ist dann hast Du mit Deiner Aussage natürlich absolut recht, denn dann sollte man die professionelle Karte kaufen.

Was das beklagen über die Preisentwicklung der letzten Jahre angeht: ja mei, ist halt so und wird so schnell auch nicht mehr besser werden. Ist bitter für die Mehrheit der Gamer die sich das dann eben nicht mehr leisten können. Kommt vor, dann muss man sich eben ein neues Hobby suchen.

Das Geheule jetzt seit gut 2 Jahren unter JEDEM Artikel zu GPUs zu lesen ist dagegen sehr ermüdend.

PC Gaming ist in sehr schneller Geschwindigkeit zu einem Hobby für Besserverdiener geworden, die Faktoren die dazu geführt haben sind zum Teil sehr, sehr langfristig bzw. haben Unternehmen wenig bis überhaupt keinen Grund dies überhaupt als negative Entwicklung wahrzunehmen.

Wer jetzt noch mit Pascal unterwegs ist und nach Turing und Ampere nun auch Lovelace ‚aussitzen‘ möchte bis wieder ein Preisumfeld wie zu Pascal Zeiten herrscht sollte denke ich mal in sich gehen. Das kommt nicht mehr.
 
Lässt sich denn mit A6000 und aufwärts prima zocken? Ich dachte diese hätten eine schlechtere Gaming Leistung als ihre GeForce Pendants.

Wenn dem nicht so ist dann hast Du mit Deiner Aussage natürlich absolut recht, denn dann sollte man die professionelle Karte kaufen.

Es gibt derzeit keinen Grund für (reine) PC-Spieler eine RTX 3090 (Ti) zu kaufen, alleine des VRAM wegen. Und wenn man sich den extremen Mehrpreis ansieht, ist es bald besser zu sagen, kaufe jetzt eine 3080 (Ti) und schlage bei der nächsten Generation erneut zu und verkaufe die alte Grafikkarte.


Es sei denn natürlich man spielt Minecraft RTX ohne DLSS oder ein extremst gemoddetes Transport Fever 2. Habe noch keinen 3090-Nutzer gesehen, der das hauptsächlich spielt und sich nur deswegen eine 3090 gekauft hat. :)

Rein von der P/L gesehen, ist bei einer 3080 (Ti) derzeit alles machbar. Die wenigen fps mehr rechtfertigen den deutlich höheren Kaufpreis einer 3090 (Ti) nicht. Daher ist nur ein Thema für Anwender und wenn die VRAM wollen, greifen die zu einer A6000 mit 48 GB VRAM. Anders als in Spielen ist es in vielen Anwendungsprogrammen so, wenn der VRAM nicht ausreicht, quittiert die Anwendung einfach ihren Dienst statt einfach langsamer zu laufen.
 
Zurück