Geforce RTX 3000: Ampere-Vorstellung angeblich im März

AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Trotzdem passt bei der Reduzierung der Fertigungsgröße von 12 auf 7 nm fast dreimal so viel auf die gleiche Fläche. Man kann definitiv von einem Leistungsgewinn ausgehen.
Wie man gut an Navi und der Radeon VII sieht, ist eine Verdreifachung der Transistorzahlen bzw dichte völlig abstrus.
Vega10 (Vega 64): 12,5 Mrd. Transistoren auf 495mm² Chipfläche in der 14nm-Fertigung von GlobalFoundries
Vega20(VII): 13,2 Mrd. Transistoren auf 331mm² Chipfläche in der 7nm-Fertigung von TSMC

Das maximale was möglich ist, hat 3dcenter immer wieder diskutiert
 
Zuletzt bearbeitet:
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Spannend, aber ich sehe da nichts greifbares in naher Zeit, also tatsächlich ne 3000er Gaming GPU kaufen zu können. NV hat 0 Druck, AMD sieht sich momentan nur als Begleiterscheinung in diesem Bereich. Pascal hat lange 2 Jahre gedient, danach gab es für nen fetten Aufschlag nur geringe Mehrleistung. Lief trotz allem Getöse doch gut für NV, was sollten sie an der Strategie gerade verändern.
Ob AMD da jetzt eine Big Navi bringt, ändert nichts. Die Karte wird keine Spitzenposition besetzen und ihre Bepreisung genau so eine Enttäuschung wie die letzten beiden neuen Karten.
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Das sind Äpfel mit Birnen Vergleiche, sorry. Breakdown:
1. Du verwechselnst das Design mit dem Belichtungsverfahren. Die Leistungs- und Transistordichteprobleme werden von TSMC gelöst und sind gelöst worden, sie geben die physikalischen Rahmenbedingungen für die Designer ( AMD, Nvidia etc.) vor. Intel ist dort schon gescheitert, nicht am Design selbst. Sie haben Designs, die die physikalischen Rahmenbedingungen in ihrem 10nm-Verfahren nicht hergeben. Wenn sie die Anforderungen am Design zurückschrauben, dann sind ihre Produkte nicht wettbewerbsfähig mit den Bestehenden im 14nm++ Verfahren. Sie müssen das Verfahren zuerst fixen, damit ihre Designs funzen.

Mag vielleicht etwas unschön rübergekommen sein, aber: 12nm erlaubt ca. 25 Mio. Transistoren/mm², 7nm 40, da wird 7nm+ vielleicht 50 schaffen, wenn es gut läuft. Bei den CCD´s von Ryzen 3000 ist die Dichte zwar höher, aber das sind Cpus und keine Gpus. Dennoch, viel mehr als 50 Mio/mm2 werden es nicht sein, bei einer Begrenzung auf 400mm² ist da nicht viel Spielraum.

2. Du vergleichst zwei Designs von zwei sehr unterschiedlichen Architekturen an Hand von Leistung. Mir wäre es sogar lieber, wenn du Vega VII und Vega56 genommen hättest. Sie haben mehr gemeinsam. So ist es kein brauchbarer Vergleich in unserem Kontext.

Ich vergleiche Transistorendichten von Fertigungsprozessen, die eigentlichen Architekturen haben damit erstmal nicht so viel zu tun. Ich bezweifle stark, dass Nvidia auf magische Weise die Transistorendichte auf 70+ erhöht, sondern wird auch bei ~50 sein.

3. Du nimmst AMD implizit als absoluten Maßstab für die Leistungseffizienz von 12nm aud 7nm. Erstens, RTX hat dedizierte Fläche für die Tensorkerne und RTX, Ampere ist ein professioneller Chip, der wahrscheinlich ohne auskommt. Theoretisch ist der 3fache Schrink möglich ( belegte Rahmenbedingungen von TSMC ), was tatsächlich herauskommt, wird Nvidia zeigen.

Um die Fertigungsverfahren zu vergleichen, ja. Kann sein, dass ich da 10% Abweichung erzeuge, dennoch bleiben die Transistorendichten vergleichbar. Gerade bei einer professionellen Gpu bezweifle ich, dass Nvidia Tensorkerne streicht, ebenso wenig Kerne zur Strahlenverfolgung.

Nvidia kann sehr wohl die doppelte Anzahl an Shadern erreichen, indem die Tensorkerne, RTX gestrichen und eine höhere Shrink-Effizienz als bei AMD erreicht wird. Da reicht schon Faktor 2, was gar nicht so schwer ist.

Faktor 2 an Transistorendichte, ja, kein Thema, aber das war´s dann auch. RTX und Tensorkerne werden nicht gestrichen, und so groß wird der Chip nicht, dass da irrsinnig viele Shader verbaut werden, abgesehen davon, dass das gar nicht skaliert und nur Ärger mit der Leistungsaufnahme nach sich zieht. Verbesserungen werden vermutlich über Architektur und Takt erzielt, weniger durch Shader.
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Wie man gut an Navi und der Radeon VII sieht, ist eine Verdreifachung der Transistorzahlen bzw dichte völlig abstrus.
Vega10 (Vega 64): 12,5 Mrd. Transistoren auf 495mm² Chipfläche in der 14nm-Fertigung von GlobalFoundries
Vega20(VII): 13,2 Mrd. Transistoren auf 331mm² Chipfläche in der 7nm-Fertigung von TSMC
Das ist noch 7nm ohne EUV. Das kommende 7nm+ wird etwas dichter packen können.
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Um auf eine Verdreifachung zu kommen, bräuchte man von 7nm ausgehend trotzdem noch über 50% mehr Transistorendichte, das ist einfach unrealistisch für eine einfach Optimierung und keinen Full Node.
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Verdreifachung ist doch nur "Wünsch Dir Was".
Es wird schon "dichter als bei Navi" werden, Hauptsache auch bezahlbar und 4k60fps für ne 3080.(RT off)
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Die Leistung wird nicht das Problem ohne Rt, ich habe nur meine Zweifel am Preis.
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Für mich wird es heuer auch einen neuen Rechner geben.
Die gtx 680 hat mir mittlerweile einfach viel zu wenig Grafikspeicher für ihre täglichen Aufgaben.

youtube/twitch 60 fps stream läuft durch fehlende hardwarebeschleunigung leider nicht wirklich rund wenn am zweiten bildschirm gescrollt wird oder gar ein spiel läuft.

Noch dazu ist einer von beiden Lüftern ausgefallen, bleibt aber dennoch recht kühl.

Naja ich warte noch auf die neuen Karten/Prozessoren für dieses Jahr dann muss ich wohl zuschlagen.
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Mir neu das in 7nm größere chipflächen als 400mm² nicht gehen sollen.

Das begrenzt die shader aber extrem und widerspricht aussagen aus Gerüchten (100sm als profi Karte bei nvidia 6400 shader).

Zu dem benchmark das kann amd sein mit 80cu und optimierter Fertigung auf etwa 2ghz takt sein

Amd hat ein wärmedichte problem bei navi wie schon mit gcn, das liegt am design das man ursprünglich zu gestrichenen 22nm node 2011 herkam (gcn hd7970 geplant 2010 als 22nm Redesign in 28nm)
Das ist die isa
dadurch kommt es zu Hitzespots am chip was dann den takt senkt.

Nvidia dagegen hat prinzipiell die isa quasi so breit aufgestellt das wärme kein problem darstellen.
amd 4 Blöcke bei 40cu /4*10cu
nvidia 20 Blöcke bei 40cu bsp gtx1080 gp104
Selbst die kleine gtx1060 hat 10 Blöcke a 128sm
Den ram controler außen rum
Dadurch entsteht deutlich weniger wärme.
Die folge ist deutlicher energieeffizienter und sparsamer = schneller taktbar.
An dem design wird nvidia festhalten dadurch kann nvidia bei 7nm+ 60% transistordichte ausnutzen
amd kann gegen 7nm nur max 10% mehr transistor einsetzen wa sein redesign der isa erforderlich macht ohne diese wird die Energiedichte sogar schlechter und die chips müssten langsamer Takten
Was amd machen ,müsste wenn die isa nur doppelt verbreitert würde also 8 statt 4
Dann könnte 40cu deutlich kühler agieren was die Effizienz steigern würde und man leicht mehr takt bekommt siehe ps5 36cu mit 2ghz
Das würde bis zu 64cu skalierbar sein ohne das die gpu am verhungern ist beim Durchsatz des vram. Dank gddr6 und 384bit
So eine gpu erwarte ich als navi23 (rx6700xt)
Der big hip wird vor ende 2020 nicht kommen entweder dieser hat 100cu oder was realistischer ist 80cu
Also 10*10 cu oder 8*10 cu
Weil aber eine isa in derselben gen zu ändern kein Sinn macht. gehe ich von 8 Blöcken aus
zu max 10cu und je 640shader mit je 32kb L1 und 4mb L2

Nvidia kann ihre dichte nicht ändern weil diese aber nicht an einer festen isa gebunden sind
kann nvidia wie bisher ihre 64shader je sm addieren
Wodurch die wärme-dichte nicht steigt aber der Platzbedarf höher ist.
also ist analog einfach bei nvidia von Fertigungsdichte mehr shader auszugehen
Mein tipp sind.
ga104 80sm=5120shader und damit schneller als die titan rtx allerdings bei nur 1,6ghz-1,8ghz
ga106 max 64sm =4096 Schneller als die rtx2080 (30%)
und einen cutdown auf 48-56sm bei rtx3060 ein sattes plus von min 33% auf max 50%
Alle ga106 haben 12g vram
die ga104 wird 16gb vram haben
den max chip mit 96sm 6144shader wird als titan kommen
eine rtx3080ti später cutdown auf 90 =5760shader

Zu den dxr Einheiten allein die 60% dichte kann bis zur Verdoppelung von tensor und rt core bringen. aktuell bei 72sm=4608 754mm²*0,4=301,5mm²
Wenn also die 400mm² stimmt. ist ein knapp 402mm titan mit 96sm möglich und 192rt core und 1536tensor cores was aber dann 40% des chipfläche ausmacht
Das mal als Maßstab worauf man sich einstellen muss

Eine rtx3060 mit nur 48sm wäre nur 201mm² groß (das würde ein ga107 sein)
und dafür soll man 2020 dann ohne amd Konkurrenz 550€ zahlen mit wären es 400€!
amd Muss
48cu
64cu
Im sommer min als rx6600 und rx6700 bringen
preise bei Kampfmodus von 300€ und 450€
Leider erwarte ich aber eher 400€ und 550€ wie nvidia aufrufen wird.
Überrasche würdee s mich wenn nvidia einen Kampfpreis anstrebt um endlich DXR als standard durchsetzen will
Also max 48sm für 300€ mit 12gb vram
Glaubt ihr nicht dann mal Mathe

wafer 9000$
chips pro wafer bei 64sm und 268mm² =214
cost per chip = 42,05$
+ nvidia marge 80% =75,71$
+12gb gddr6 14gbits je gbits (96$)=171,71$
+10$ PCB
+80% marge nvidia =319,05
aib +10$ kühler
aib 20% =394,86
handel +20% =473,84$
$vs€ 1,11 =426,88
mwst 19%
euro preis =507,99€
ergo 509€ als rtx3070

Die cutdown wird 3584 und 3048 sein
rtx3060 (3584) und rtx3050ti (3072)
Preispunkte 400€ und 300€
Und das sind die preise bei nvidia exklusiv ref design
Ohne sind min 80$ weg für den vram
Natürlich kann nvidia auch locker 300% marge machen
Ohne amd Konkurrenz wird das auch passieren.
Was sicher ist das wenn nvidia den ga106 so dermaßen nicht kürzen will wird ein ga107 als rtx3050ti kommen
Da lohnt sich bei 48sm schon ein dedizierter chip ga107 ~286 stk je 32$ Endkunden preis ~269€ mit 12gb vram

Betet also das amd im Sommer rdna2 mit 48cu und 64cu bringt für 300€ und 450€
Ja die navi10 Käufer werden sich mit 40cu und knapp 400€ stark verarscht vorkommen.

Warum dieser Sprung
nein es liegt nicht an 7nm+ sondern an den Konsolen
ps5 vermutlich 399-449€ 36cu 9tf
xsx vermutlich 499-549€ 56cu 12tf
xss vermutlich 299-349€-399€ 32cu 8tf hängt vom sony preis ab
release frühestens juli 2020 spätestens august 2020

Apple zieht sich aus 7nm raus dadurch werden Kapazitäten frei.
tsmc hat aber 7nm+ noch im aufbau deswegen erwarte ich nur Konsolenchips in 7nm und nicht 7nm+
Das wird nur für rdna2, zen2 und zen3 chips genutzt etwa 15000 wafer die anderen 15000 sind konsolenchips in 7nm. (amd hat die wafer Bestellung verdoppelt Anfang des Jahres)

Ein chip design stellt man nicht in 1 Jahr sondern min 4 Jahren (2016) und da sprach man nicht mal von euv.
ja so lange ist man bei rdna dran würde mich nicht wundern das dxr überraschend noch 2018 dazukam von MS.
und deswegen das design leicht geändert werden musste.
Das kann sein weil laut Gerüchten vermutlich ps5 sowie xsx eine gcn isa haben
Wie aber amd dann den Hitzespots begegnet bei 56cu ist ein rätsel.
oder das ding wird extrem laut. Überraschen wäre eine aio wakü
 
Zuletzt bearbeitet:
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Was dort vorgestellt wird, wird kaum einen "Gamer" interessieren. Das wird meiner Meinung nach die Ablöse für Volta. Hopper wird sicher erst im Sommer vorgestellt und im Sommer/Herbst für die spielende Gesellschaft veröffentlicht. :)
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Warte erst mal auf die Preise:lol:

Remember !!
980TI -750Euro
1080TI - 820Euro

2080Ti -1300Euro

3080Ti - 2000+Euoro ???

Naja...ganz so wird es für die 3080Ti wohl nicht kommen. Ich seh die irgendwo zwischen 1400 und 1500€ und knapp unter 1000€ für eine 3080.
Die 2000€ werden der Titan vorbehalten sein. Ich gehe aber ziemlich sicher davon aus, das es erneut zu einem spürbaren Aufschlag kommen wird.
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Remember !!
980TI -750Euro
1080TI - 820Euro

2080Ti -1300Euro

3080Ti - 2000+Euoro ???


Diese Rechnerei immer, die 980 Ti hatte eine UVP von 649 Dollar, die 1080 Ti von 699, die 2080 Ti von 999 Dollar.
Hier 750 zu 1300Euro zu rechnen, ist ein wenig weit ab der Realität.
Ampere im März wäre eine schöne Sache. Wenn der Chip allerdings nur 400mm² groß ist - was ich nicht ganz glaube - dann wird das eher ein Minischritt. (Vielleicht +30%), aber die Effizienz könnte echt extrem sein.
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Laut meiner rechnung ist das aber ein monster mit 96sm (402mm²) und ja es sind nur 30% mehr shader
also @max auch 30% mehr raster Leistung
Das große Plus kommt mit rt Leistung von min 100%
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Mir neu das in 7nm größere chipflächen als 400mm² nicht gehen sollen.

Das begrenzt die shader aber extrem und widerspricht aussagen aus Gerüchten (100sm als profi Karte bei nvidia 6400 shader).

Zu dem benchmark das kann amd sein mit 80cu und optimierter Fertigung auf etwa 2ghz takt sein

Amd hat ein wärmedichte problem bei navi wie schon mit gcn, das liegt am design das man ursprünglich zu gestrichenen 22nm node 2011 herkam (gcn hd7970 geplant 2010 als 22nm Redesign in 28nm)
Das ist die isa
dadurch kommt es zu Hitzespots am chip was dann den takt senkt.

Nvidia dagegen hat prinzipiell die isa quasi so breit aufgestellt das wärme kein problem darstellen.
amd 4 Blöcke bei 40cu /4*10cu
nvidia 20 Blöcke bei 40cu bsp gtx1080 gp104
Selbst die kleine gtx1060 hat 10 Blöcke a 128sm
Den ram controler außen rum
Dadurch entsteht deutlich weniger wärme.
Die folge ist deutlicher energieeffizienter und sparsamer = schneller taktbar.
An dem design wird nvidia festhalten dadurch kann nvidia bei 7nm+ 60% transistordichte ausnutzen
amd kann gegen 7nm nur max 10% mehr transistor einsetzen wa sein redesign der isa erforderlich macht ohne diese wird die Energiedichte sogar schlechter und die chips müssten langsamer Takten
Was amd machen ,müsste wenn die isa nur doppelt verbreitert würde also 8 statt 4
Dann könnte 40cu deutlich kühler agieren was die Effizienz steigern würde und man leicht mehr takt bekommt siehe ps5 36cu mit 2ghz
Das würde bis zu 64cu skalierbar sein ohne das die gpu am verhungern ist beim Durchsatz des vram. Dank gddr6 und 384bit
So eine gpu erwarte ich als navi23 (rx6700xt)
Der big hip wird vor ende 2020 nicht kommen entweder dieser hat 100cu oder was realistischer ist 80cu
Also 10*10 cu oder 8*10 cu
Weil aber eine isa in derselben gen zu ändern kein Sinn macht. gehe ich von 8 Blöcken aus
zu max 10cu und je 640shader mit je 32kb L1 und 4mb L2

Nvidia kann ihre dichte nicht ändern weil diese aber nicht an einer festen isa gebunden sind
kann nvidia wie bisher ihre 64shader je sm addieren
Wodurch die wärme-dichte nicht steigt aber der Platzbedarf höher ist.
also ist analog einfach bei nvidia von Fertigungsdichte mehr shader auszugehen
Mein tipp sind.
ga104 80sm=5120shader und damit schneller als die titan rtx allerdings bei nur 1,6ghz-1,8ghz
ga106 max 64sm =4096 Schneller als die rtx2080 (30%)
und einen cutdown auf 48-56sm bei rtx3060 ein sattes plus von min 33% auf max 50%
Alle ga106 haben 12g vram
die ga104 wird 16gb vram haben
den max chip mit 96sm 6144shader wird als titan kommen
eine rtx3080ti später cutdown auf 90 =5760shader

Zu den dxr Einheiten allein die 60% dichte kann bis zur Verdoppelung von tensor und rt core bringen. aktuell bei 72sm=4608 754mm²*0,4=301,5mm²
Wenn also die 400mm² stimmt. ist ein knapp 402mm titan mit 96sm möglich und 192rt core und 1536tensor cores was aber dann 40% des chipfläche ausmacht
Das mal als Maßstab worauf man sich einstellen muss

Eine rtx3060 mit nur 48sm wäre nur 201mm² groß (das würde ein ga107 sein)
und dafür soll man 2020 dann ohne amd Konkurrenz 550€ zahlen mit wären es 400€!
amd Muss
48cu
64cu
Im sommer min als rx6600 und rx6700 bringen
preise bei Kampfmodus von 300€ und 450€
Leider erwarte ich aber eher 400€ und 550€ wie nvidia aufrufen wird.
Überrasche würdee s mich wenn nvidia einen Kampfpreis anstrebt um endlich DXR als standard durchsetzen will
Also max 48sm für 300€ mit 12gb vram
Glaubt ihr nicht dann mal Mathe

wafer 9000$
chips pro wafer bei 64sm und 268mm² =214
cost per chip = 42,05$
+ nvidia marge 80% =75,71$
+12gb gddr6 14gbits je gbits (96$)=171,71$
+10$ PCB
+80% marge nvidia =319,05
aib +10$ kühler
aib 20% =394,86
handel +20% =473,84$
$vs€ 1,11 =426,88
mwst 19%
euro preis =507,99€
ergo 509€ als rtx3070

Die cutdown wird 3584 und 3048 sein
rtx3060 (3584) und rtx3050ti (3072)
Preispunkte 400€ und 300€
Und das sind die preise bei nvidia exklusiv ref design
Ohne sind min 80$ weg für den vram
Natürlich kann nvidia auch locker 300% marge machen
Ohne amd Konkurrenz wird das auch passieren.
Was sicher ist das wenn nvidia den ga106 so dermaßen nicht kürzen will wird ein ga107 als rtx3050ti kommen
Da lohnt sich bei 48sm schon ein dedizierter chip ga107 ~286 stk je 32$ Endkunden preis ~269€ mit 12gb vram

Betet also das amd im Sommer rdna2 mit 48cu und 64cu bringt für 300€ und 450€
Ja die navi10 Käufer werden sich mit 40cu und knapp 400€ stark verarscht vorkommen.

Warum dieser Sprung
nein es liegt nicht an 7nm+ sondern an den Konsolen
ps5 vermutlich 399-449€ 36cu 9tf
xsx vermutlich 499-549€ 56cu 12tf
xss vermutlich 299-349€-399€ 32cu 8tf hängt vom sony preis ab
release frühestens juli 2020 spätestens august 2020

Apple zieht sich aus 7nm raus dadurch werden Kapazitäten frei.
tsmc hat aber 7nm+ noch im aufbau deswegen erwarte ich nur Konsolenchips in 7nm und nicht 7nm+
Das wird nur für rdna2, zen2 und zen3 chips genutzt etwa 15000 wafer die anderen 15000 sind konsolenchips in 7nm. (amd hat die wafer Bestellung verdoppelt Anfang des Jahres)

Ein chip design stellt man nicht in 1 Jahr sondern min 4 Jahren (2016) und da sprach man nicht mal von euv.
ja so lange ist man bei rdna dran würde mich nicht wundern das dxr überraschend noch 2018 dazukam von MS.
und deswegen das design leicht geändert werden musste.
Das kann sein weil laut Gerüchten vermutlich ps5 sowie xsx eine gcn isa haben
Wie aber amd dann den Hitzespots begegnet bei 56cu ist ein rätsel.
oder das ding wird extrem laut. Überraschen wäre eine aio wakü


Sehr interessant, danke dafür ! :)
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

7nm gegnüber 12nm wäre aber theoretisch 1,714x1,714 = 2,938 mal mehr Fläche möglich.
Wäre korrekt, wenn die Namen der Prozesse auch tatsächlich der Strukturbreite entsprechen würden. Dem ist aber eher nicht so, deswegen ist deine Rechnung eher Quark.
Das Problem hab ich auch grad. Will eigentlich ne neue Graka, aber ich gebe nicht so viel Kohle für Turing und Features aus, die ich nur in 2% aller Spiele nutzen kann. Bin doch kein Vollidiot (ja liebe Turing-Käufer, ich hab euch grad alle beledigt, sorry dafür). Die 1660 Super Duper Mega Ti oder was auch immer ist mir zu lahm und die 5700 XT noch zu Banana und auch zu lahm. Dann mal warten auf den teildefekten Big Navi ohne RT..
Turing ist teuer weil nVidia die Preise diktieren kann. Entgegen der gängigen Meinung nehmen die RT-Kerne eher wenig Platz auf dem Chip weg, eine Karte mit gleicher Rasterleistung und ohne Raytracing wäre also nicht wesentlich kleiner (vielleicht 10%).

Abgsehen davon muss Raytracing, wie alle anderen neuen Features in breiter Masse verfügbar sein um auch von den Entwicklern genutzt zu werden, deswegen hoffe ich einfach mal, dass alle Next-Gen Karten das wenigstens in Software können. Wenn nur die Topmodelle Tesselation beherrschen würden, würde das auch heute noch kaum ein Entwickler nutzen...
Im dümmsten Fall gibts dann zweierlei RT in den Games.

1x light für AMD und 1x heavy für NV.
"Schlimmster Fall"?

So was gibts doch im normalen Rastermodus seit Ewigkeiten, nennt sich aber in der Regel "Low", "Medium" und "High", meist sogar noch etwas abgestufter...
Laut meiner rechnung ist das aber ein monster mit 96sm (402mm²) und ja es sind nur 30% mehr shader
also @max auch 30% mehr raster Leistung
...vorrausgesetzt die Shader in Ampere sind überhaupt mit den Turing Shadern vergleichbar. Angeblich soll Ampere ja etwas tiefgreifendere Änderungen an der Mikroarchitektur vornehmen, ich kann mir also durchaus vorstellen, dass nVidia hier wieder die Shaderzahl etwas reduziert, und stattdessen die individuellen Shader aufbläst. Was das für Auswirkungen hat ist kaum abzuschätzen, aber schlechter als Turing wird es wohl nicht werden.
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

wahrscheinlich gibts bei unserem Glück erstmal keine 3080Ti sondern nur ne 3080 mit mehr Leistung als 2080Ti für was weiß ich für nen Preis
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Diese Rechnerei immer, die 980 Ti hatte eine UVP von 649 Dollar, die 1080 Ti von 699, die 2080 Ti von 999 Dollar.
Hier 750 zu 1300Euro zu rechnen, ist ein wenig weit ab der Realität.

Wieso weit ab der Realität wenn man die Grakas nur für den Preis in den ersten Monaten bekommen hat? Für mich ist das Real, was mir für einen gewissen Preis angeboten wird. Was sich die Hersteller als UVP vorstellen ist mir da herzlich egal. Versteh mich nicht falsch, mir sind die Preise generell egal.... Ich zahle eh worauf ich Lust habe und was ich benötige :ugly:
 
AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

Immerhin sinkt da meine leise Befürchtung dass heuer die "3000 RTX" gar nicht kommen könnte und gleichzeitig wird bestätigt. dass ich bestenfalls in der 2. Jahreshälfe erfahre, was ich mir ausssuchen kann.

Was soviel bedeutet, dass ich meiner Kauflaune der nächsten Grafikkarte im Oktober oder November nachkommen werde. Was ich auch noch beduetet dass das "Schweinchen" für Hardwareausgaben bis dahin noch monatlich was eingesteckt bekommt ca. einen 100. Theoretisch liegt also für jede Art von Grafikkarte genug im Topf, doch wird niemals das ganze Schweinchen dafür geopfert.

Leider werde ich fürn Start von CP2077 keine bessere haben, doch wie es aussieht sicher bevor dann die nächste Konsolengeneration kommt... Und dann kann ich wenigstens noch sagen: "Ach sieht die PS5 und X Serie X alt gegen meinen PC aus. Womit ich 2020 dann doch zufrieden abschließen könnte.

Und mit AMD rechne ich eigentlich nicht, dass würde mich aber positiv überraschen, wogegen ich natürlich gar nichts einzuwenden hätte, wohin der Inhalt vom Schweinchen wandert, ist mir letztlich egal, wird nur von der Güte des Produkts bestimmt.
 
Zurück