• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Nvidia "Ampere": Angebliche Spezifikationen der RTX 3080 Ti (GA102) aufgetaucht

DARPA

Volt-Modder(in)
Ich wiederhole mich mal :D

Klingt so, als würde man alles dafür tun, die Speichermengen nicht erhöhen zu müssen ^^

Auf High Level Ebene könnte es diese Runde sehr ähnlich aussehen bei AMD und nV.

GA100 und Arcturus jeweils 128 x 64 = 8.192 ALUs / GA100 6144-bit HBM, Arcturus glaube 4096-bit. Hier sind die Daten ziemlich safe.

Das gleiche bei GA102 und N21, wenn man 82 und 80 SM bzw CU annimmt (wobei mir der Sprung bei nV klein vorkommt, aber nach Turing ist alles möglich). Auch wieder 64 ALUs pro SM/CU. Taktverhalten könnte ähnlich sein.
Bleibt die Frage der Speicherbandbreite (brutto/netto) und Umsetzung Raytracing. "IPC" ist schwierig, hier wirds schwammig. Sehe nV erstmal vorn, aber wenn RDNA2 die Versprechungen annähernd einhält, wird es auch hier spannend.

GA103 (scheint sich irgendwie zu verdichten) stünde gegen N22 mit jeweils 60 SM bzw CU.


GA100 Titan wäre aber episch :hail: Aber bestimmt auch episch teuer :ugly:
 

Pu244

Lötkolbengott/-göttin
Bei 35% Mehrleistung können sie ihre überteuerten Karten behalten, erst recht, wenn sie den VRAM nicht steigern. Dann schlage ich mich wohl mit meiner Kiste bis 2022 durch (10 Jähriges Jubiläum).

Far Cry 6 dürfte hoffentlich noch einigermasen gut laufen, Elex 2 wohl ebenfalls.

Bist du mit 11/12Gb schon in ein Bottleneck gerannt? Ich spiele aktuell in 4K und hatte mit 11GB nie Probleme.

Ich weiß nicht wie du das handhabst, aber ich kaufe mir einen neuen PC, damit er auch die Spiele der Zukunft gut schafft. Die 6GB VRAM waren, als ich mir die Karte gekauft habe, mehr als genug, 4GB hätten auch völlig gereicht. Heute leisten die 2GB ExtraRAM gute Dienste. Eine lächerliche Verdoppelung ist relativ wenig, das sie man bei den Texturen oft erst bei genauerem hinsehen, eine Verdreifachung oder gar vier mal mehr RAM, das ist dagegen recht ansehnlich.

Im übrigengen sorgt das vorhandensein von Karten, mit viel VRAM, auch dafür, dass entsprechende Texturpakete angeboten werden.
 

Incredible Alk

Moderator
Teammitglied
Bist du mit 11/12Gb schon in ein Bottleneck gerannt? Ich spiele aktuell in 4K und hatte mit 11GB nie Probleme.

Ja, mit 12GB der TitanXP vor Jahren schon - und das bei spielbaren fps - also ohne Diashow-Supersampling oder sowas.
Rise of the TombRaider war son Kandidat wo man das schaffen konnte, QuantumBreak iirc auch. Klar, echte "Bottlenecks" waren das nicht weil der vRAM zwar voll war aber es noch nicht (nachlade-)ruckelte aber so viel Luft war da vor Jahren schon nicht mehr.

Eigentlich wären heutzutage Karten mit 16, 24, 32GB im oberen Preissegment Pflicht (vor allem wenn RayTracing gepusht werden soll das Tonnen von vRAM verschlingt) - aber NV hält uns da halt künstlich an der kurzen Leine. Hoffentlich ändert sich das mit Ampere.

Also 16GB wäre für mich die absolute Untergrenze für ne derart teure Karte.
 

Nuallan

PCGH-Community-Veteran(in)
Sicher? Wie ich schrieb wäre das eine Karte, die der Kunde bisher nicht kennt, entsprechend platziert und neu beworben werden müsste. Hingegen existiert das XX80Ti Merkmal bereits seit mehreren Generationen :huh:

Die 90er gab es ja auch früher auch schon. Zuletzt waren das Multi-GPU-Karten, aber da Multi-GPU praktisch tot ist und genügend Zeit vergangen ist könnte man eine 3090 oder 3090Ti bringen, das Lineup etwas umbennen und die Preise alle etwas "anpassen" um es in Nvidia-Sprache zu formulieren.
 

MrMega2004

Kabelverknoter(in)
Hoffentliche machen die Karten neben einen Leistungssprung keinengroßen Preissprung.. Hoffentlich setzt AMD Nvidia mit Big Navi dann mal schön unter Druck :D
 

Pu244

Lötkolbengott/-göttin
Wie soll das funktionieren, dass man hier von 4- Facher RT- Leistung spricht, aber Shadertechnisch irgendwas um die 35% erwartet.
Wenn irgendwas die RT- Leistung bremst, dann sind es doch die anschließend auszuführenden Shader.

Wollen die jetzt noch mehr nicht zu verarbeitende Rays verschießen? Die RT Einheiten langweilen sich doch auf der 2080TI jetzt schon, weil die Shader nicht hinterher kommen.
Klingt für mich alles noch nicht so schlüssig....

War es nicht so, dass üblicherweise nur jeder vierte Pixel mit Raytracing versehen wurde? Wenn ich mich recht erinnere, dann konnte das ganze nur mit dem Trick auch in höheren Auflösungen flüssig dargestellt werden. Wenn man jetzt die vierfache Leistung hätte, dann könnte man darauf verzichten.

Zumindest die zitierten 864 GiB/s entsprechend 12 BGAs bzw. einem 384 Bit-Interface, d. h. es werden maximal 12 GiB werden wenn 18 Gbps-GDDR6 zutreffend sind, was auch einleuchten sollte, denn mehr ist aus Sicht von nVidia schlicht nicht wirtschaftlich und ein echter Marktdruck für mehr Speicher im Consumer-Segment existiert derzeit faktisch nicht.
Wenn du auf mehr hoffst, wirst du auf die RDNA2-Gerüchte setzen müssen, die für das HighEnd-Modell HBM2 in Aussicht stellen und das sollten dann voraussichtlich 16 GiB werden (weniger würden hier den Aufwand nicht rechtertigen können). Hier bleibt dann nur die Frage, ob AMD auch architektonisch aufschließen kann; man wird abwarten müssen ...

Man könnte so aber auch 22/24GB anbinden. Zumindest für eine Supervariante wäre das eine Option.

Allerdings sollte man sich auch vor Augen halten, dass nichts, wirklich garnichts, offiziell bekannt ist. Nichteinmal der Name Ampere ist offiziell bestätigt. Bei Turing (die davor noch als Volta gehandelt wurde) gab es auch eine böse Überraschung. Die VRAM Verdoppelung fiel aus, es wurden nur lächerliche 30% Mehrleistung, dafür gab es Raytracing. Von daher sollte man die Gerüchte mit Vorsicht genießen, sie sind wohl sowieso nicht wahr.
 

Edelhamster

Software-Overclocker(in)
Als der Raja damals mit AMD den HighBandwithCacheController in Vega10 heraufbeschwor haben noch alle gelacht.
Neben Produkten wie der Radeon Pro SSG findet er in leicht abgewandelter Form in allen NextGen-Konsolen seinen Platz und selbst Nvidia bringt mit Ampere nun mutmaßlich eine vergleichbare Technologie (NvCache), über die der vRam mit Hilfe des Arbeitsspeichers und/oder Festspeichers erweitert werden kann.
Es ist nicht unrealistisch, dass Nvidia bei teuren 18gbps Chips bei 12GB vRam bleibt, es aber so vermarktet, dass das mit der neuen Speichertechnologie, jetzt eigentlich 16GB entspricht. Die brauchst du demnächst dann denk ich auch für RayTracing in 4K.
Bis zu 15% Leistungseinbußen bei entsprechender Auslagerung, wie von Moore´s Law is Dead im Video verzapft, wären aber deftig im Vergleich zu AMD´s Lösung. Bei denen ist der Performance-Verlust +-0.
Aber logisch, lieber um 15% geringere min-FPS als Nachladeruckler.

edit: war damals so schön mit meiner 8GB Vega64 (hier auf 12GB per HBCC erweitert) ausgerechnet in SquareEnix und Nvidia´s Baby FFXV die Funktion nachzustellen.
edit 2 : um Minute 7 sieht man wie die physisch verbauten 8GB dann überschritten werden

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 
Zuletzt bearbeitet:

latinoramon

PCGHX-HWbot-Member (m/w)
Man könnte so aber auch 22/24GB anbinden. Zumindest für eine Supervariante wäre das eine Option.
Wenn Nvidia ihrer Linie treu bleibt, dann denke ich, wird es so sein, dass:
3060-8GB
3070/3080-11GB
3080ti-16GB
haben werden.
1 Jahr später, kann durchaus wieder eine "Super" Version kommen, die dann jeweils einen Vollausbau haben wird.
 
L

Leonidas_I

Guest
Vierstellige Kartenpreise werden nicht unterstützt, so groß mein Interesse auch wäre.
Vielleicht in 5 Jahren eine RTX 5060 für 400€. :D
 
M

Metamorph83

Guest
Wie lange hast du bei Navi gelacht? Ich hoffe für uns alle, das RDNA 2 und RTX3000 richtig einschlagen ;)



Ich bleibe bei RTX3070 knapp unter 2080TI, jeweils mit den Hersteller Specs betrieben.



Du hast die Specs von RTX3000 schon?

Laut Nvidia ist der 1635MHz Boost auch nur "Bis zu". Was treibt dich zu der Annahme, das das eine "Bis zu" anders zu bewerten ist, als das andere "Bis zu"?

Gut möglich, das es sich genau so verhält, dann hättest du hinterher real 1900 gegenüber 2400MHz zum Beispiel.

In den Nvidia Specs zur 2080TI steht Boost, bis zu 1635MHz!

Nix bis zu und ein Shrink ist keine Taktplusgarantie

GeForce RTX 2080 TI-Grafikkarte | NVIDIA

Aber ich werde mich nicht deswegen zoffen. Ich glaube nicht an mehr, weil Nvidia einfach Nvidia ist und keinen Grund hat mehr als 30%-40% drauf zulegen, selbst wenn es problemlos möglich wäre... Die werden nicht gleich mit dem ersten Wurf das ganze Pulver verschiessen, die wohlen den darauf folgenden Refresh ja auch noch verkaufen.
Das wäre einfach zu schön.
 

Birdy84

Volt-Modder(in)
Von einer möglichen 3080 erwarte ich eigentlich schon Minimum 50-75% Mehrleistung als meine 1080Ti.
Eine unrealitische Erwartungshaltung ist das, wenn du wirklich eine 3080 ohne Ti meinst.

Wenn Nvidia ihrer Linie treu bleibt, dann denke ich, wird es so sein, dass:
3060-8GB
3070/3080-11GB
3080ti-16GB
haben werden.
Die Speichermenge ist abhängig vom Design des Speichercontrollers. Eine "krumme" Zahl wie 11GB sind sehr unwahrscheinlich auf einer 3080, erst recht in Kombination mit einer 3070. Wenn wieder 64Bit pro Kanal verhanden wäre, hätten 3070/80 nur 192Bit Bus Breite.

lebt ihr auf dem mond oder hat euch nvidia schon so im griff 35 % sind ein witz. siehe 980ti zur 1080ti das war okay.
Ja, aber auch schon eine ziemliche Anomalie die letzten 10 Jahre.
 

GladiusTi

PC-Selbstbauer(in)
Da warte ich dann wohl doch auf die 4xxx Gen (Hopper"?"). Eine "Ti" kommt sowieso nicht in Frage, da ich nicht bereit bin diese Mondpreise zu bezahlen.
 

4thVariety

Software-Overclocker(in)
Über alle Generationen zu testen ist tricky. oft setzen bestimmte Engine Features eine ältere Generation derart Schach Matt, dass gleich die ganze Framezahl einbricht.
Passmark ist eine Benchmark die noch über sehr viele Generationen gut skaliert und dabei immer auch gut abbildet wo eine GPU liegt. Würde man mit 50 Spielen benchen und einen Durchschnitt bilden, würde man im niedrigen einstelligen Prozentbereich eine Abweichung haben. Für Leute die zwischen Generationen nach zweistelligen Verbesserungen suchen. also gut genug.
RTX und Tensor sind Spezialfälle die, so sehe ich das auch, das Ende dieser Liste einläuten, sofern man nur Zahlen akzeptiert bei denen dieses Feature aktiviert ist.

PassMark Software - Video Card (GPU) Benchmark Charts - Video Card Model List
aus der Liste folgt also:

2060 14773
1060 10212
960 5962
760 4647
660 3985
560 3610


GTX 560 -> GTX 660 = +10%
Mach Euch den Spaß. googelt nach alten Reviews dieser Karte, z.B. Anandtech und achtet darauf wie peinlich darauf geachtet wird die Karte mit AMD und anderen Nvidia Karten der 600er Serie zu vergleichen aber bloß nicht der 560.

GTX 660 -> GTX 760 = +16,6%
Auch hier wurden wenig Vergleiche mit dem Vorgänger angestellt. Man war bemüht darauf hinzuweisen, dass man 30fps in Crysis 3 bei 1440p hatte. Pre-E-Sport, ganz klar.

GTX 860 hat man mal ausgelassen.

GTX 760 -> GTX 960 = +28%
Hat man mit dem "falschen" Spiel gebencht laut Nvidia, waren es schon mal nur +10%, woran sich Tom's Hardware die Finger verbrennen durfte. Ansonsten waren direkte Vergleiche mit der 30% langsameren 760 natürlich erwünscht.

GTX 960 -> GTX 1060 = +71%
Für 250€ hat diese Karte wohl mehr für PC Gaming gemacht als jede andere Karte zuvor. Die 1000er Serie wäre eine Anomalie in Preis/Leistung hätten Kryptominer nicht die Preise explodieren lassen.

GTX 1060 -> RTX 2060 = +44%
40% mehr Leistung für 40% mehr Preis. Aus Kundensicht eine verlorene Generation. Gilt besonders wegen der kaum verfügbaren RT und DLSS Features.

Die 17% locken niemand hinter dem Ofen vor. Es wird wohl auf anteilig mehr Steigerung bei den RT Cores hinauslaufen und entsprechen PR Druck diese RT benchmarks in den Fokus zu rücken, wenn die 3060 dann 70% schneller ist bei RT als die 2060. Wir verschweigen mal den Teil, dass das auf dem eigenen Fehldesign bei der Ungleichgewichtung von Raster und RT Cores bei der 2060 beruht. Es gibt auch ein Crysis Remake, können wir das ja in 1440p benchen und mit der 760 vergleichen.
 

Prozessorarchitektur

Lötkolbengott/-göttin
Die news ist veraltet

aktuell
sicher ist
ga102 5376sh 2,2ghz doppelte tensior core je sm 16anstatt 8 =84*16=1344
RT core identisch aber 4 mal schneller
tensor core übernehmen textur kompression decompression, das bringt bis zu 40% Ersparnis an vram 11gb =16gb vram
DLSS 3 soll mit leichteren Anpassungen an alle taa unterstützten spielen funktionieren.
Es ist aber ein angepasster game ready treiber notwendig

Es scheint so das nvidia amd 7nm und somit rdna2 völlig unterschätzt hat.
TSMC in Preisdrücken zu zwingen ging daneben folge nvidia hat nicht genug 7nm euv Kapazitäten bekommen
Daher wird nvidia so früh wie möglich alle sku veröffentlichen zuerst aber ga102 rtx3080ti Und ga103 rtx3080
vermutlich paper launch
dann die beste Meldung man strebt bei späteren ga104 aif 7nm euv an aber vorläufig wird es 8nm samsung die Taktraten hier sind offen

Erstmals seit 10 Jahren wird wieder eine rtx3060 karte eine 104 chip haben
Mit tsmc 7nm euv sind 2,5ghz durchaus realistisch.
Wie hoch samsung 8nm lp Prozess taktet ist offen.
vermutlich um die 2ghz
Die samsung chips sind größer aber die wafer um die hälfte billiger.

Es wird versucht die preise nahezu identisch zu halten was aber schwierig wird da amd rdna2 doch sehr gut sein soll.
nvidia hat nicht damit gerechnet rdna2 die halbe Stromverbrauch zu realisieren und nahezu an die rtx2080ti übertrifft.
Wie es scheint wird amd zuerst im herbst big navi bringe mit 5120shader und etwa 40% über der rtx2080ti sein.
Hier wid es spannend beim preis. ich gehe von 1500€ aus.
Das wird das erste mal seit min 10 Jahren das amd wieder vorne liegt.
gründe sind die zu geringen Kapazitäten bei tsmc bestellt wurden und nvidia einfach rdna2 unterschätzt hat.
lasset den Preiskampf beginnen zwar um nen Jahr verzögert danke human maleware aber immerhin.
Also jetzt würde ich keine turing oder rdna erste gen kaufen. Denn dxr wird auf turing in Zukunft unspielbar werden.
 

da_mich

Komplett-PC-Käufer(in)
Die 1000er Serie wäre eine Anomalie in Preis/Leistung hätten Kryptominer nicht die Preise explodieren lassen.

Das halte ich nach wie vor für ein Gerücht von Nvidia was erfunden wurde um Preissteigerungen rechtfertigen zu können. Weniger als ein 1% der Karten ging an Kryptominer! Der Kryptohype ist schon Monate/Jahre vorbei und die Preise nie wieder gesunken.
 

GamesPlay

Komplett-PC-Käufer(in)
"Leistungsvorsprung von mindestens 35 Prozent"? Das ist jetzt nicht unbedingt der "Super-Sprung", den man von Nvidia nach so langer Zeit erwarten würde. Dann ist da noch die Frage des Preises. Wir wissen alle, dass Nvidia eine Monopolstellung in dem High-End-Grafikkartensegment hat und daher Preise diktiert, die jenseits von gut und böse sind.
 

da_mich

Komplett-PC-Käufer(in)
Doch mich interessiert es schon :D Ich habe durch die Preispolitik seitdem nie wieder eine neue Grafikkarte gekauft. Meine 980Ti leistet mir daher weiterhin gute Dienste. Sollte sie einmal kaputt gehen, werde ich jedenfalls keine neue Karte für 1000€ kaufen.
 

Acgira

Software-Overclocker(in)
mein letztes Aufrüsten:

750TI -> 1060 = +XX% ?
2GB -> 6GB

kA wieviel % das waren - das Leistungsplus hat sich aber gut angefühlt und ist mir positiv in Erinnerung geblieben.
das nächste Aufrüsten vermutlich
1060 -> 3080= ?
1060 -> 3070= ?
1060 -> 3060= ?

1060 -> RDNA2= ?

min. hätte ich gerne 120% mehr Leistung - gegen 150 - 160% hätte ich auch nichts dagegen und wenn 200% dabei rauskommen noch besser... und da ich schon zweimal recht sparsam aufgerüstet hab, darf es diesmal etwas mehr kosten.
 

gerX7a

BIOS-Overclocker(in)
[...] Man könnte so aber auch 22/24GB anbinden. Zumindest für eine Supervariante wäre das eine Option. [...]

Wird es als reguläres Consumer-Produkt zweifelsfrei nicht geben, weil es dafür erst recht keine Markt gibt. Und abseits dessen, wer meint das zu benötigen, wird bei nVidia jetzt schon fündig, nennt sich "Titan RTX". Die richtet sich zwar primär an das semiprofessionelle Segment, aber nVidia hat natürlich nichts dagegen, wenn hier auch einige Extrem-Gamer zugreifen. ;-)

Abseits dessen, wie erwähnt, meine Aussagen beziehen sich auf die Annahme, dass 18 Gbps-GDDR6 und die Bandbreite zutreffen. Sein kann schlussendlich vieles, aber die (wirtschaftlichen) Wahrscheinlichkeiten unterscheiden sich schon beträchtlich und das hier zitierte Layout zählt zweifelsfrei zu den deutlich wahrscheinlicheren Szenarien. Weitaus unwahrscheinlicher im Vergleich dazu bei nVidia im Consumer-Segment ist derzeit ein GDDR6-Speicherinterface größer 384 Bit oder aber die Verwendung von HBM2.
Letzteres wird man eher von AMD erwarten können, schlicht weil die als Underdog weitaus eher ein +1 liefern müssen (neben dem niedrigeren Preis).
 

jadiger

Software-Overclocker(in)
Also im Klartext man weis gar nichts, ein You tuber spielt raten wir mal und alle copy pasten das.

Aus Shadern Unterschiede kann man wenig berechnen oder ableiten oh es wird schneller irgend
was zwischen 30 und 50%.
Ob überhaupt Ampere die Gaming GPU ist ist ja nicht mal sicher. Ich erinnere mal an die Ahnungslosigkeit vom letzen mal
und ich wage zu behaupten das es genauso laufen wird.
Keiner wird etwas erfahren bevor Nvidia das will, kein You tuber kein Insider niemand. Was jetzt gemacht wird man nimmt
die Spekulationen über den Volta Nachfolger und macht daraus Gaming News.

Ob Nvidia das überhaupt noch so macht ist aber fraglich, früher hat das gestimmt jetzt aber nicht mehr.
Wenn Ampere raus kommt also die HTPC Version und die Benchmarks nur minimal besser sind wie die einer RTX 2080ti
dann glaube ich dürfte klar sein das was anderes kommt.

Was mich eher interessiert ist bleiben die Preise so oder ist Hoffnung auf Besserung. Den RTX hat sich nicht wirklich gut verkauft
und erst jetzt wird es besser nach den Super Preisdrops. Das könnte Nvidia zum Umdenken bewegen, vielleicht nur ein bisschen
aber wenigstens etwas.
Die Hoffnung stirbt zu letzt, weil das was die verlangen ist keine GPU Wert. Nächste Generation muss ich leider dann auch Upgraden.
 

Incredible Alk

Moderator
Teammitglied
Also im Klartext man weis gar nichts, ein You tuber spielt raten wir mal und alle copy pasten das.

So isses. Und das funktioniert was Ampere bzw die RTX3000er Karten angeht schon seit über nem Jahr hervorragend dass jeder YouTuber und auch die ganzen Seiten dies kopieren ihre Klicks wieder eingefahren haben. Ich dachte die Masche sei offensichtlich? :D

Trotzdem ists recht interessant alle paar Monate wieder die Meinungen hier zu sehen bzw. wie diese sich im Laufe der Zeit ändern (auch je nachdem, ob das Gerücht grade "nur +30%" ist oder "+100% Performance bei 50% Stromverbrauch" - beide Extreme waren ja schon da).
 

Dr-Nice-X

Komplett-PC-Aufrüster(in)
Im Technikbereich wird mir persönlich sowieso viel zu viel auf Leaks, irgendwelche Spekulationen und "Märchengeschichten" gesetzt. Viel zu oft sind es irgendwelche Wichtigtuer, die Klicks generieren möchten und irgendeinen Stuss erzählen. Warten wir doch einfach ab, was Nvidia für uns bereithält. Bis Donnerstag, werden sich ja wohl noch einige gedulden können. Aber vielleicht ist das bei einigen wenigen Technikjunkies zu viel verlangt.
 
Zuletzt bearbeitet:

Digga-x

Komplett-PC-Käufer(in)
Nvidia hat zwar betont, bei Ampere solle der Preis sinken, aber irgendwie glaube ich nicht dran, beobachtet man nur die letzten 2. Generationen so hat sich der Preis fast verdoppelt.
Ich hoffe nur AMD liefert um diese "Monopolstellung" endlich auszuhebeln.
 

gerX7a

BIOS-Overclocker(in)
[...]Den RTX hat sich nicht wirklich gut verkauft [...]

Die Aussage ist so eher nicht zutreffend. Ob dem hohen Preise gab es zwar viel "Gejammer" bei Gamern aber unterm Strich lief es für nVidia dennoch relativ gut, wenn auch keine Rekorde gebrochen wurden. Die Umsatzzahlen sehen gut aus im reporteten Gaming-Segment:
2015 2,8 Mrd US$
2016 4,1 Mrd US$
2017 5,5 Mrd. US$
2018 6,2 Mrd. US$
2019 5,5 Mrd. US$
Von "schlecht verkaufen" kann also nicht wirklich die Rede sein.

*) Pascal ist von Mitte 2016 mit einem "Booster" Anfang 2017 in Form der GTX 1080 Ti.
Turing ist vom September 2018 mit dem Refresh ab Mitte 2019.
 
Zuletzt bearbeitet:

User-22949

Freizeitschrauber(in)
Das ist nur Klickbait. Sowohl von diesem Youtuber als auch von PCGH, weil sie dies als "News" verkaufen.
Das sind alles nur Vermutungen. Niemand weiss genaues. Da hilft nur abwarten bis offizielles von NV kommt, was wohl in Kürze passiert. Bis dahin Tee trinken und bitte beruhigen.
 

HardwareNoob41

PC-Selbstbauer(in)
Wann bringt AMD denn endlich mal ein Gegenstück raus zu Nvidia. Das ist doch zum Mäusemelken. Wir brauchen Wettbewerb.
Just wait for RDNA 2 and you ll have your wanted competition or probably not since Big Navi is bigger than RTX 3080 ti! Angenommen, dass + 25 % pro Shader stimmt und 5120 Shader in toto, gibts da bei Team Green nicht allzu viel zu lachen!
 

sandworm

Freizeitschrauber(in)
Achtung Schnulleralarm!
Ich habe jetzt schon Mal vorsorglich einen Schiffscontainer voll mit Schnuller in China bestellt,
da das Geheule groß sein wird, wenn die 3080ti schlussendlich doch nur in 8nm aka 10nm+++ kommt und die Eckdaten in etwa so aussehen werden:
80SM (5120)
1800 - 1850MHz
250W
RT + 50%
352Bit / 11GB GDDR6
ca. 600mm2 = (10nm+++) = sehr teuer

Zusätzlich lass ich noch ein Fass Rum springen damit ihr euren Kummer mit etwas weichem wegspülen könnt.
 
H

hks1981

Guest
Achtung Schnulleralarm!
Ich habe jetzt schon Mal vorsorglich einen Schiffscontainer voll mit Schnuller in China bestellt,
da das Geheule groß sein wird, wenn die 3080ti schlussendlich doch nur in 8nm aka 10nm+++ kommt und die Eckdaten in etwa so aussehen werden:
80SM (5120)
1800 - 1850MHz
250W
RT + 50%
352Bit / 11GB GDDR6
ca. 600mm2 = (10nm+++) = sehr teuer

Zusätzlich lass ich noch ein Fass Rum springen damit ihr euren Kummer mit etwas weichem wegspülen könnt.

Muss man das verstehen?? Was willst du uns damit jetzt sagen? Oder bist du nun auch einer der nur AMD am Spitze sehen will? Mir ist das wurst wie die Firma heißt und ob diese in 7.5,25,30 oder 300nm kommt!

Ich will für mein Geld was ich investiere was ordentliches bekommen. Obwohl den Frust bei dir kann ich ein wenig verstehen bei der VII :D und deinem Betriebsystem :D
 

Herb_G

PC-Selbstbauer(in)
Tja, das trifft nur den überraschend, der unvorbereitet durch´s Leben zieht. Nicht umsonst habe ich mir schon vor 2 Monaten einen 20,5 Zoll Wechselrahmen eingebaut. Jensen Huang hat nämlich absichtlich die eine Seite nicht hergezeigt, dass Teil ist Plug n´Play.
 
Oben Unten