Geforce RTX 3000: Analyst will Ampere-Termine kennen, Nvidia hat keine Eile

Die 2070 Super ist effizienter? Mach mal einen Punkt.
Anhang anzeigen 1069128

Bezüglich der Taktreduktion von ca 13%, damit die Leistungsaufnahme nicht ausufert, bin ich einer Meinung mit dir.
Aber lass es mal nur 10% sein. Da gibt es bestimmt noch genügend Stellschrauben bzw. Dinge die nicht linear mit den zusätzlichen Recheneinheiten skalieren damit der Verbrauch nicht zu extrem ausufert.
Bei den lediglich 40% Mehrleistung bei +60% zusätzlichen Recheneinheiten, währe das eher ein worst case scenario falls das Speicherinterface zu stark limitieren sollte.

Falls dies nicht allzu sehr der Fall sein sollte, sind sicherlich auch 45 - 50% möglich: Siehe folgenden Vergleich zwischen einer RX560 und einer RX570 (Unter tupfgleichen Bedingungen Takt, 128Bit vs. 256Bit, 1024 vs 2048 Shader)
Da kommen im Schnitt ca.90% Mehrleistung an. Weswegen ich eher von +30 -35% ausgehe.
Aber bei +60% Recheneinheiten, wird sich der Verbrauch sicherlich auf die 275 -300W zubewegen. Bei +50 würde er wohl eher so bei 250 - 275W liegen, was ich als die realistischere Variante betrachten würde.

RX560 vs. RX570
YouTube

Jupp, die 2070Super ist bei 222W und 8-11% mehr Leistung im Vergleich zur 5700XT mit 210W effizienter, wenn auch quasi Gleichstand.

Umso mehr Einheiten umso schlechter die Skalierung. Dann nimm mal mit Sonnenschein im Herzen maximal 50% Mehr für die Recheneiheiten (was ich weiterhin erst durch Tests sehen wollen würde). Ich bleibe auch weiterhin bei -13% Takt.

Dann landen wir im absoluten Idealfall bei 33% mehr Leistung gegenüber einer 5700XT.
Da die 2080Ti aber 54% schneller ist, in 4K liegt man mit den 33% immer noch deutlich hinter der 2080TI. Mutmaßlich!!!Aber deutlich realistischer

Erst mit RDNA2 wird AMD wirklich angreifen können und dann hoffentlich auch direkt RTX3000!
 
Zuletzt bearbeitet:
Was stark bezweifelt werden kann
Laut letzte gerücht stockt nvidia die shader massiv auf
6000-7000shader für den ga102
das wird ein monster mit eventuell 100sm 6400shader 200rt core und 1134 tensor
amd navi21 aktuell vermutet 80cu 5120shader
Das wird nix mit der krone
Das schöne ist das ga104 gleich auf 4000-5000 shader kommt
ga106 (3072shader) wird dann meine nächste gpu wenn amd rx6700 mit dxr es nicht packt. navi22
Nächstes Jahr wird spannend bei den preisen
quelle red gaming tech dessen twitter post bild
Angeblich war diese quelle für den leak zu den super GPU im Sommer verantwortlich.

es zeigt sich immer beim node wechsel Lohnt sich ein gpu wechsel.
Nur bei den preisen wirds mir übel demnächst ist es standard 400€ zu zahlen
mein max bisher 300€
 
standard sind eher 500-600,- für ein essenzielles teil im tower wie zb. GPU oder die CPU.. beide teile können nun jährlich problemlos auf die neuste generation (dank AM4) geupgraded werden zum kleinen aufpreis. was letztlich die 80ti kostet ist mir egal.. hoffe aber auf ähnlichen oder höheren preis.
 
Keine Ahnung. Ne GeForce 4600 ti hat 2002 roundabout 370$ gekostet. Für den Preis gehen auch RTX2070 Karten über die Theke. Es wird ja immer propagiert, dass die Karten soo viel teurer geworden sind. Aber im Anbetracht der Technologie die da inzwischen drin steckt (kannst ja Mal ne 4600ti neben ne 2070 legen) finde ich es nicht so arg, wie manch einer gern vermitteln möchte. Wer keine 400€ für ne GPU hat, der kann sich eben keine für 400€ kaufen. Ist ja nicht so, dass es nicht auch GPUs fur 300€ geben würde mit denen man ordentlich spielen könnte. zwar in ner anderen Liga, aber so war's und so wird's bleiben.

Gesendet von meinem SM-G973F mit Tapatalk
 
Da liegste falsch 2002 war die geforce4 ti 4200 mid class
Und kostete zu release 120€
Es gab damals ethliche gf4ti alle demselben chip nv25 von 80-200€
abhängig vom agp slot unterstützung und vram menge
Die high end ausführung hatte 128mb

nov 2006 kostete ein high end chip g80 den Zweitschnellsten 8800gts 640mb 330€
ich weiß das weil ich eine gekauft habe
Eine mid class chip g84 kam erst 2007 heraus und kostete als 8600gt etwa 160€ mit 512mb
Und eine besagte Mittelklasse g86 (heute tu106) kostete eine komplette gpu stolze 45€
Und nein der euro war erst Anfang 2009 stark
Preise von geizhals Historik
im übrigen unterschieden sich 2002 die gpu nur beim takt und vram menge
 
Kompletter Unsinn. Das kann man doch gar nicht vergleichen. Intel haben echte -und zwar massive- Probleme mit ihrer Fertigung, weswegen sie nicht aus dem Quark kommen. ...........................


Mir ging es nicht um die Technik, mir ging es um die 10% mehrleistung jedes Jahr mit dem alten (optimierten) Brei,
Intel hätte statt ständiger kleiner Updates die Energie lieber in ein neues System stecken sollen, dann hätten sie jetzt
die passende Antwort zu Zen 2, aber bissl optimieren und dann neu verkaufen ist besser für die Aktionäre....

Deswegen verdient, NV reitet auch schon sehr lange auf der aktuellen Technik rum, deswegen hoffe ich, dass AMD
auch hier ähnlich wie mit Zen 2 was richtig gutes Neues bringt um NV ebenfalls in Not zu bringen.

Anders lernen es die Platzhirsche nämlich nicht, denn gesunde Konkurenz schadet nie .....:nicken:
 
… oder doch nicht, wenn CP207 verschoben wird :D
Die Karte wird für diese Spiel locker ausreichen, solange man nicht in 4k@Ultra Settings spielt.
Selbst dann dürfte es mit ein paar Tweaks immer noch gut laufen.
Denn man sollte nicht vergessen, dass CP2077 auch für dir aktuelle Konsolen Generation erscheint und die Grafik ist mMn eh nicht so der Burner.
Ich werde erst eine neue Graka kaufen, wenn SC/SQ42 erscheint, vorher nicht.
Bei den meisten Konsolen Ports sehe ich das auch nicht ein.
Ist aber nur meine Meinung ;)

Für Konsolen erscheint CP2077 aber in PS4 Klötzchengrafik mit Wischiwaschi-Texturen und 30 fps sofern nicht mehr als 3 NPC's durchs Bild huschen; aber Konsolenspieler sind das ja gewohnt und nennen sowas dann sogar Grafikpracht.
 
Zurück