• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Nvidia Ampere: Kommt die RTX 3080 Super & RTX 3070 Super?

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Nvidia Ampere: Kommt die RTX 3080 Super & RTX 3070 Super?

Aktuellen Gerüchten zufolge plant Hardware-Hersteller nvidia die Einführung von weiteren Grafikkarten auf Basis von Ampere. Demnach handelt es sich wohl um ein Refresh, das durchaus den Namen Super wie bei der Vorgängergeneration tragen könnte. Es bleibt noch abzuwarten, ob diese Gerüchte bewahrheitet werden.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Nvidia Ampere: Kommt die RTX 3080 Super & RTX 3070 Super?
 

Ryle

BIOS-Overclocker(in)
Und was soll das bitte bringen?

Der Leistungsunterschied zwischen 3080 und 3090 liegt im Schnitt im einstelligen Prozentbereich und da will man nun noch ein Produkt dazwischen quetschen? Dann auch noch mit mehr VRAM aber wohl kleinerem Speicherinterface als der 3090?

Dann wird die Liefersituation ja eher noch schlimmer, weil man Boards mit 20GB bestücken muss. Und mehr Takt lohnt sich auch kaum, da die Karten oberhalb von 1900MHz sehr ineffizient werden.

Folglich haben wir dann eine 3080 Super oder TI die knapp 3-5% vor der 3080 liegt und bei der aktuellen Nachfrage und Liefersituation als Custom wohl in Richtung 1300€ kosten dürfte.
 

Manner1a

Freizeitschrauber(in)
Naja, wer Scalper nicht mag, dürfte sich freuen, wenn sie auf den Non Refresh Karten sitzen bleiben und technische Lösungen gefunden werden gegen das Benutzen von Bots. Hinter diesen stecken ja nur ganz wenige Profiteure, während die Zuteilung einer IP für einen Benutzer Datenschutzprobleme mit sich bringt. Naja, es ist ja vorerst nur ein Gerücht und spekulieren ist allenfalls am virtuellen Stammtisch interessant.

Es sei noch zu erwähnen, wie einige Modelle nur in bestimmten Märkten regelmäßig gut verfügbar sind und man wie so oft bei anderen Gegenständen schwierig bis gar nicht and andere Sachen heran kommt. In diesem Beispiel kommt eine Galax RTX 3060 Ti zügig in die Regale in Australien.

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 
Zuletzt bearbeitet:

RawMangoJuli

Volt-Modder(in)
Zur Info für alle: Der GA103 soll 8.192 CUDA Kerne an Bord haben, womit relativ viel Luft bleibt zu den 5888 FP32-ALUs einer RTX 3070, allerdings gibt bisher kein veröffentliches Produkt mit einem derartigen Chip.
7680 Cuda Cores (6GPC mit je 5 TPC)

aber vorallem auch 320 Bit mit GDDR6X


allerdings soll es den auch mit kleinem Package (wie GA104) geben

also kommt vllt auch ne GDDR6 non X Variante
 

Manner1a

Freizeitschrauber(in)
@Gurdi
@beastyboy79

Ja, im Vergleich zu AMD, die es nicht einmal für sinnvoll erachten, einen 10 Kerner auf den Markt zu bringen, erwecht die Gerüchteküche um Nvidia herum den Eindruck, es gäbe eine sehr breite Auswahl.

Für eine 7.424 Variante fehlen schlichtweg sich nicht so stark widersprechende Aussagen mit mal 12, mal 10, mal 8 GB GDDR6X Speicher. Ein GA104-400 Chip kann es nicht sein, wenn der Vollausbau einen GA104 aus 6 GPCs besteht mit je 1024 Kernen, maximal 6.144...und ein 320 Bit breites Speicherinteface ist auch nicht ganz unwahrscheinlich.

 
Zuletzt bearbeitet:

beastyboy79

Software-Overclocker(in)
@Gurdi
@beastyboy79

Ja, im Vergleich zu AMD, die es nicht einmal für sinnvoll erachten, einen 10 Kerner auf den Markt zu bringen, erwecht die Gerüchteküche um Nvidia herum den Eindruck, es gäbe eine sehr breite Auswahl.
... die eh nicht lieferbar ist.

Fakeangebot, dank schlechter Lieferbarkeit (meines Erachtens nach) zu gewollten Mondpreisen.

Wenn ich mir den Kryptomarkt anschaue, kann man schon ins Grübeln kommen.
Aber wie ich gestern gelernt habe, bin ich ja Querdenker, der hinter allem ne Verschwörung gegen die Menschheit sieht.

Also nein, es liegt an den abgebrochenen Lieferketten und einfach an den horrenden Transportpreisen, das die Dinger nicht ausreichenden Stückzahlen und zu vernünftigen Preisen bei uns in den Shops landen.
 

WoFNuLL

Komplett-PC-Aufrüster(in)
Verwirrende News ... die keine ist:
1.) über mehrere Quellen von AIBs ( und wohlgemerkt deren Fuckups ) , ist bereits bekannt was in ein Paar Tagen NVIDIA vorstellen wird: allem Vorran eine 3080 Ti und eine 3060 non Ti ... Super Varianten wurden von Nvidia dementiert und die SKUs vor Monaten bereits seitens NVIDIA ersatzlos gestrichen ...
2.) in Form von Verfügbarkeit macht schon die Existenz einer 3080 Ti keinen Sinn geschweige denn das Launchen einer 30x0 Super ...

Ja, im Vergleich zu AMD, die es nicht einmal für sinnvoll erachten, einen 10 Kerner auf den Markt zu bringen, erwecht die Gerüchteküche um Nvidia herum den Eindruck, es gäbe eine sehr breite Auswahl.
Fangen wir mal damit an das der 12 Kerner in etwa soviel kostet wie der 10ner von Intel, im Singlecore den in die Tasche steckt und im Multicore sowieso ... da gibts keinen Grund einen 10 Kerner von AMD produzieren zu lassen. Zumal wenn man sich ein wenig mit Technik auskennt, das auch nen logischen Hintergrund hat der nix mit Marketing zu tun hat:
AMD kann Archtikekturbedingt pro Chiplet NUR 2 Kerne Gleichzeitig abklemmen nicht einzelne von daher sind bei Singlechiplet CPUs NUR 2 Kerne weniger Möglich ( 8 > 6 > 4 ) bzw. bei 2 Chiplet Varianten 4 Kerne Weniger ( 16 > 12 ). Da nur identische Chiplets (von der Menge der aktiven CPU Kerne) miteinander funktionieren ist auch das eine technische Limitierung.
 

RawMangoJuli

Volt-Modder(in)
Für eine 7.424 Variante fehlen schlichtweg sich nicht so stark widersprechende Aussagen mit mal 12, mal 10, mal 8 GB GDDR6X Speicher. Ein GA104-400 Chip kann es nicht sein, wenn der Vollausbau einen GA104 aus 6 GPCs besteht mit je 1024 Kernen, maximal 6.144...und ein 320 Bit breites Speicherinteface ist auch nicht ganz unwahrscheinlich.

12GB und 8GB sind Blödsinn

es gibt nur 3 Sinnvolle Varianten:

10GB -> GA103 mit der selben Platine wie ne 3080 mit 1GB GDDR6X Chips

20GB -> GA103 mit der selben Platine wie ne 3080 mit 2GB GDD6X Chips (kommen irgendwann dieses Jahr)

16GB -> GA103S (S steht vllt für small Package) mit der selben Platine wie ne 3070 mit 2GB GDDR6 Chips
 

RAZORLIGHT

Freizeitschrauber(in)
Theoretisch könnten sie eine 20GB 3080 Super bringen da 2021 Micron 2 GB Module der GDDR6X Serie bereitstellen kann.
Würde ich mir kaufen, solange der Preis sich an der normalen 3080 orientiert.
Von mir aus könnten sie auch 20GB GDDR6 ohne X nehmen.
 

BxBender

BIOS-Overclocker(in)
Diese ganze Kartenspielerei von nVidia ist doch der letzte Mist.
Wie sollen sich potentielle Käufer denn nun richtig verhalten?
Genau, besser erst einmal gar nichts kaufen, weil wer jetzt irgendetwas nimmt, macht sicherlich die falsche Wahl.
Zu teuer, nachher ärgert man sich über zu wenig Speicher.
Auch wäre es völliger Irrsinn, falls tatsächlich eine 3060 mit 12GB raus kommt, vorher aber großspurig 6GB und 8GB Karten als das Maß aller Dinge angepriesen werden und als mehr als ausreichend für alle Spielerlebnisse erklärt werden.
Riecht stark nach Kundenverarsche und wenig Wissen über die eigenen Karten und deren Leistungen in diversen Spielen unter normalen und extremen Realbedingungen.
Ich bin der Meinung, man sollte dem Kunden eine Produktlinie präsentieren, die auch fix ist und ordentlich etwas taugt.
Schließlich soll er ja viel Geld dafür ausgeben, dann braucht man keine unsichere Zukunft.
Man hätte also gleich mitteilen sollen, ob es kurzfristig noch Karten mit mehr Speicher geben wird, oder ob das frühestens in einem Refresh in einem Jahr dann passieren könnte oder sogar wird.
Das hat man doch schon Monate vorher alles intern durchgekaut, als man sich für die Karten mit sehr wenig RAM entschieden hat.
Die wissen also sehr genau was Sache ist, ich arbeite auch in einer Firma, so etwas wird von langer Hand geplant, oder man ist halt zu unfähig und unkoordiniert.
Also bleibt es dabei, dass die den Kunden einfach für Dumm verkaufen und abzocken wollen ("ach, die kaufen auch doppelt, wenn wir schnell was nachlegen"), oder aber sie sind selbst zu dämlich und überbezahlt ("ja, nein, vielleicht, weiß ich auch nicht, ist ja auch egal, wird schon werden"). Punkt.
 

BxBender

BIOS-Overclocker(in)
Ja, im Vergleich zu AMD, die es nicht einmal für sinnvoll erachten, einen 10 Kerner auf den Markt zu bringen, erwecht die Gerüchteküche um Nvidia herum den Eindruck, es gäbe eine sehr breite Auswahl.
Es wäre grob fahrlässig, wenn AMD einen 10 Kerner verkaufen wollen würde.
So schlecht kann die Ausbeute gar nicht sein, dass von 16 Kernen ganze 6 Stück defekt sind.
Es sind schließlich 2x 8 im Paket verbaut.
Man könnte also sehr viel weniger Geld dafür verlangen.
Wenn ein Chip tatsächlich nicht so gut ist, wird dieser einfach einzeln als 4 oder ggf. 6 Kerner verkauft.
Wir können jetzt mit der Zahlenspielerei anfangen, das man ja auch 2x 5 Kerne zusammenschalten könnte.
Klar, warum dann aber nicht gleich 1-16 Kerne komplett anbieten?
Ganz einfach, weil sich der Kostenaufwand für viele Produkte und deren Verwaltung, Sortierung, Lagerung, Handel, Verkauf etc. dadurch natürlich verteuert und verkompliziert.
Der Markt ist auch so schon sehr unübersichtlich.
Da ist es dann einfacher, die Leistung und Preisstruktur so aufzustellen, dass sich die Chips nicht gegenseitig behindern (dort wildern), und die Kosten trotzdem gedeckt sind.
Klappt natürlich wohl nicht immer.
Intel hingegen baut direkt einen monolitischen 10 Kerner, den kann man dann ja auch gerne als 8 oder 6 Kerner abverkaufen.
Auch da gibt es keine 9 und 7 Kerner. Auch aus den oben genannten Gründen.
 

Manner1a

Freizeitschrauber(in)
@WoFNuLL - Ja, daran dachte ich auch, aber traute mich nicht, es aufzuschreiben. Es fehlt lediglich eine bessere Zuordnung, für wen solche Neuigkeiten gedacht sind, wenn sie denn überhaupt einen Sinn ergeben.

Was die AMD Kernanzahl betrifft, gäbe es nur Probleme mit dem Scheduler, also die Organisation bei ungleich großer Kernanzahl pro Chiplet. Dass nur gerade Zahlen an Kernen in Chiplets deaktiviert werden können, wäre mir neu. Die alten CCX Core Complexes hatten 4 Kerne, die jetzigen 8.

Die Zählweise bei einem 16 Kerne AMD mit 2 CCX wäre dann 2 CCX pro Chiplet, wobei diese 2 CCX mit je 8 Kernen nicht als 1 Chiplet angesehen werden. 5 Kerne pro CCX für insgesamt 10 Kerne wären technisch machbar, genauso ungerade Zahlen wie 9, nur markttechnisch bringt AMD das nicht viel.

Ebenso ist ja bei Theadripper und Epyc Modellen 1 Kern pro CCX auch möglich, was der Deaktivierung von nur geraden "Anzahlen" von Kernen pro CCX widerspricht. Nur so ließe sich ein Sprung von 8 auf 12 Kernen erklären bei 2 aktiven CCX, einmal 4 von 8 Kernen je CCX aktiv, einmal 6 von 8 Kernen je CCX aktiv.
 
Zuletzt bearbeitet:

belle

PCGH-Community-Veteran(in)
Verwirrende News ... die keine ist:
1.) über mehrere Quellen von AIBs ( und wohlgemerkt deren Fuckups ) , ist bereits bekannt was in ein Paar Tagen NVIDIA vorstellen wird: allem Vorran eine 3080 Ti und eine 3060 non Ti ... Super Varianten wurden von Nvidia dementiert und die SKUs vor Monaten bereits seitens NVIDIA ersatzlos gestrichen ...
2.) in Form von Verfügbarkeit macht schon die Existenz einer 3080 Ti keinen Sinn geschweige denn das Launchen einer 30x0 Super ...
AMD kann Archtikekturbedingt pro Chiplet NUR 2 Kerne Gleichzeitig abklemmen nicht einzelne von daher sind bei Singlechiplet CPUs NUR 2 Kerne weniger Möglich ( 8 > 6 > 4 ) bzw. bei 2 Chiplet Varianten 4 Kerne Weniger ( 16 > 12 ). Da nur identische Chiplets (von der Menge der aktiven CPU Kerne) miteinander funktionieren ist auch das eine technische Limitierung.
Deiner Meinung über die angeblich kommenden Grafikkarten in Form des GA103 kann ich mich nur anschließen.
Auf der anderen Seite soll vielleicht ein kleinerer GA103 den beschnittenen GA102 der 3080 auf lange Sicht ersetzen und mehr GPUs aus einem Wafer holen.

Eine RTX 3060 12 GB hört sich aber schon mal besser an als die 3070 8 GB (Leistung / Speicher).

Bzgl. der Chiplets kann ich dir bei Zen 3 aber nicht zustimmen.
Bisher bestand ein CCD aus 2 CCX mit je 4 Kernen. Nun besteht ein CCX aus 8 Kernen, was mit 2 Chiplets einen Ryzen 7 5850 10-Kerner theoretisch möglich macht.
Das wird letzten Endes wohl von der Ausbeute abhängen.
 

gerX7a

Software-Overclocker(in)
Es wäre grob fahrlässig, wenn AMD einen 10 Kerner verkaufen wollen würde.
So schlecht kann die Ausbeute gar nicht sein, dass von 16 Kernen ganze 6 Stück defekt sind. [...]
Ein 10-Kerner im Consumer-Segment erscheint mir zu granular. Da ist die Notwendigkeit für nicht wirklich gegeben und AMD hat daher keinen echten Grund hier sein Portfolio noch granularer aufzubauen, insbesondere, da das MCM-Design im Consumer-Segment für AMD relativ teuer ist. *)
Bzgl. deiner grundlegenden Aussage handelt es sich jedoch um eine arg merkwürdig bis naiv klingende Argumentationsweise. Beispielsweise bei Epyc verkaufen sie den 7252, 7302 und 7302P, bei denen 50 % aller Kerne deaktiviert sind (und nicht nur 38 %, wie es für einen 10-Kerner notwendig wäre). Bei bspw. dem 7262 sind gar 75 % (!) aller Kerne deaktiviert bzw. defekt. Ganz offensichtlich gibt es in der Fertigung auch diese Dies oder AMD schaltet hier bewusst sehr großzügig ab.

*) Zudem hat AMD keinen Grund eine "nur grob vergleichbare" CPU anzubieten, denn das würde den Absatz und das Gewinnen von Marktanteilen erschweren und wie bereits geagt, ist das MCM-Design für AMD im Consumer-Segment teuer, insbesondere bei den 2-CCD-CPUs und für einen 10 Kerner bräuchte man weiterhin zwei CCDs, d. h. man müsste ein in der Fertigung extrem teueres Design anbieten, dass jedoch im Verkauf preislich natürlicherweise noch unter dem 12-Kerner aufgehängt werden müsste ... das passt hier schlicht nicht.
Im Server-Segment ist das dagegen etwas anderes, denn hier erwartet die Industrie ein rundes Portfolio, denn wenn AMD sich hier gleich zu Beginn nur ein(ige) spezielle Segmente rausgesucht und bedient hätte, würde es bzgl. der Integration und Akzeptanz von Epyc noch deutlich länger dauern. Intel hat nicht umsonst bei den Server ein derart differenziertes und granulares Portfolio.
 
Zuletzt bearbeitet:

Blackout27

Volt-Modder(in)
Ich als Hardware Fan Blicke langsam nicht mehr durch. Seit Turing wird es zunehmend schwerer zu entscheiden welche Karte nun die richtige ist.

Sollten die Gerüchte nun stimmen und die RTX3060 mit 12GB kommen, alle hören Modelle bis auf die 3090 aber weniger Ram haben, sollte man sich schon fragen ob Nvidia sich nicht etwas vertan hat.

Mein Vorschlag, Nvidia soll die Ampere RTX3000 Serie so normal weiterführen ohne weitere Ti oder Super Modelle.
2021 dann bitte ein Shrink und GDDR6X mit je 2GB pro Baustein und eine neue RTX4000er Serie anbieten. Hat damals schon bei Fermi gut funktioniert und viele negativen Punkte wie die hohe Leistungsaufnahme und co. beseitigt.
 

Olstyle

Moderator
Teammitglied
Der Leistungsunterschied zwischen 3080 und 3090 liegt im Schnitt im einstelligen Prozentbereich und da will man nun noch ein Produkt dazwischen quetschen? Dann auch noch mit mehr VRAM aber wohl kleinerem Speicherinterface als der 3090?
Da ist in der UVP massig Platz für eine 3080Ti FE für 999€. Was sich die Händler und Zwischenhändler(wenn ich eine Aussage zu dem Thema von Caseking richtig deute) da zwischendrin noch versuchen draufzulegen ist ein ganz anderes Thema.
 
Zuletzt bearbeitet:

Basileukum

Software-Overclocker(in)
Ja, ich sehe die neuen AMD Karten einen Ticken besser als hier auf der PCGH bewertet. Auschlaggebend für den Kauf wären vor allem noch die 16gog VRam.

Daß hier Nvidia nachlegen muß, nach der Speicherkrüppelverarsche, ist nun auch klar. Jetzt ist die Frage, wie man es preislich macht. Parasitär, wie es zugeht (bei Team Grün und Rot), müßten se die Superkarten dementsprechend teurer anbieten. Der Vorteil der letzten Superkarten war ja aber der Upgrade. Sprich mehr Leistung für niedrigeren Preis. Die 2060s war ne Quasi2070, die 2070s ne Quasi2080.

Ob das beim derzeitigen Lineup so möglich wird, da muß man mal schauen. Gerade zwischen 3080 und 3090 ist ja leistungsmäßig nicht soviel Platz, man würde sich ja die eigene Spitzenkarte wegkannibalisieren. Aber auch zwischen der 3070 und der 3080 ist ja jetzt nicht soviel Leistungsunterschied.

Jetzt schau ma mal. Mehr VRam muß her und wenn es das für dieselbe UVP gibt, wie es sich gehört, dann ist ja schon mal "gut" (wir sprechen hier bei der parasitären Marktlage eher von weniger sehr schlecht). Verarscht sind dann halt nur die armen Würste, welche sich da aktuell ne 3000 Karte gekauft haben, aber das war eh schon bekannt, lernen durch Leid ist hier die Devise.
 
Z

Zundnadel

Guest
Ein weiteres drehen an der Leistungsaufnahmeschraube ? Zu trauen wäre es beiden Anbietern. So verbrät die GPU sämtliche Einsparungen
der letzten 10 Intel Jahre im Gesamtsystem und legt noch mal einen drauf. Festlegen tue ich mich erst mal auf nix bei der aktuellen widersprüchlickeit aber unter 12 GB V Ram, über 180 Watt, 500 Euro werde ich weder mein 1a rundlaufendes Ivy Bridge Kästchen noch den Geldbeutel öffnen allenfalls beobachten.
 

gerX7a

Software-Overclocker(in)
Dann ist in der UVP massig Platz für eine 3080Ti FE für 999€. Was sich die Händler und Zwischenhändler(wenn ich eine Aussage zu dem Thema von Caseking richtig deute) da zwischendrin noch versuchen draufzulegen ist ein ganz anderes Thema.
Für eine 3080 Ti FE mit 20 GiB ist (die Karte wird es ja bereits gesichert geben, nur die Preislage ist unbekannt) per se Platz, da das AMD-Topmodell mit 999 € MSRP bepreist ist.
Darüber hinaus macht es auch keinen Sinn für die Ti einen Preis nahe der RTX 3090 FE zu erwarten, denn die bedient zu einem wesentlichen Teil ein anderes Segment und bewegt sich preislich schon zu weit außerhalb der Sphäre einer RX 6900 XT, d. h. mit einer derartigen Preisgestaltung könnte die Ti gar nicht mit der AMD-Karte konkurrieren, jedoch ist genau das das Ziel von deren Martkeinführung und entsprechend muss diese Karte sich auch in einem vergleichbaren Rahmen bewegen. nVidia als Marktführer wird es sich absehbar erlauben können gar ein paar Euro mehr zu verlangen, aber zweifellos nicht bspw. +300 € mehr, wie es von manchem gerne postuliert wird.

Die Aussage des Zitierten ist zudem unsinng verzerrend, denn der Fps-Zugewinn der RTX 3090 FE i. V. z. 3080 FE in 4K (und für 1080p nutzt man so eine Karte wohl eher nicht) liegt bei gemittelten 15,6 % über die getesteten 20 Titel (gemäß PCGH). Der am schlechtesten abschneiden Titel ist The Witcher 3 mit immer noch +11,1 % mehr Fps.
Anders herum: Nimmt man mit Desperados 3 den für die RX 6900 XT extrem nachteiligen Ausreißer aus der Statistik heraus, dann ist die RX 6900 XT in 4K gemittelt -3,8 % langsamer als die RTX 3080 FE und -18,8 % langsamer als die RTX 3090 FE.
Ryle hat offensichtlich nicht verstanden, dass es hier im Wesentlichen um die Anpassung der Speichergröße geht (und die war auch schon von langer Hand absehbar *), denn leistungstechnisch kann die Karte bereits so konkurrieren und steht in der aktuellen Variante mit 699 € vs. 999 € gemäß MSRP auch preislich deutlich attraktiver dar, nur muss man sich hier halt nur mit 10 GiB begnügen.

*) Wer seinen Kaufreflex da nicht im Griff hat(te) und sich nachträglich nun entsprechend zu fühlen meint, hat sich wohl eher selbst "verarscht" und versucht nun aufgrund der Kartenauslegung oder der aktuell überzogenen Preise die Schuld auf die Hersteller und Händler abzuwälzen (hat ein wenig was von kognitiver Dissonanz ;-)).
 
Zuletzt bearbeitet:

belle

PCGH-Community-Veteran(in)
Wenn Nvidia dieses Mal den Gedanken der Ti-Modelle im Sinne der 3060 Ti weiterführen will, dann könnte es durchaus sinnvolle Modelle wie die 3070 Ti 16 GB und die 3080 Ti 20 GB geben.
Theoretisch könnte man für die 3080 Ti einfach den Speicher der normalen 3080 verdoppeln und ein paar SMX mehr aktivieren.
Für die 3070 Ti ist es meiner Ansicht nach noch unklar, ob es einen voll aktiven GA104, stark verkrüppelten GA102 oder gar erstmals einen GA103 geben wird. Letztere Variante klingt angesichts der Liefersituation doch etwas weit hergeholt, außer man fährt die Produktion vom GA102 schon wieder zurück.
 

Manner1a

Freizeitschrauber(in)
(...)

Die Aussage des Zitierenden ist zudem unsinng verzerrend, denn der Fps-Zugewinn der RTX 3090 FE i. V. z. 3080 FE in 4K (und für 1080p nutzt man so eine Karte wohl eher nicht) liegt bei gemittelten 15,6 % über die getesteten 20 Titel (gemäß PCGH). Der am schlechtesten abschneiden Titel ist The Witcher 3 mit immer noch +11,1 % mehr Fps.
Ja, in den gesicheten Benchmarks fällt sofort die relativ bescheidene Speicheradressierung von The Witcher 3 am Grafikkartenspeicher auf. Andere Titel sind deutlich durstiger und profitieren insgesamt mehr von viel verfügbarem Videospeicher. Wollte ich The Witcher 3 spielen, wäre eine RTX 3080 gefühlt schon mehr Leistung als nötig und die ideale Karte wäre hier wohl eine 3060 6GB oder 3050 4 GB. Ich habe schon Leute gesehen, die haben sich mit einer Intel Braswell HD 405 Grafikeinheit an das Spiel getraut.
 

Electricfuchs

Komplett-PC-Käufer(in)
Ein weiteres drehen an der Leistungsaufnahmeschraube ? Zu trauen wäre es beiden Anbietern. So verbrät die GPU sämtliche Einsparungen
der letzten 10 Intel Jahre im Gesamtsystem und legt noch mal einen drauf. Festlegen tue ich mich erst mal auf nix bei der aktuellen widersprüchlickeit aber unter 12 GB V Ram, über 180 Watt, 500 Euro werde ich weder mein 1a rundlaufendes Ivy Bridge Kästchen noch den Geldbeutel öffnen allenfalls beobachten.
Jemand der mit einem 8 Jahre alten System unterwegs ist, ist nicht die Zielgruppe von allem was über 3060 angesiedelt ist. Daher ist es den Anbietern herzlich egal, ob du kaufst oder nicht oder dein Kaufverhalten generell.

Mit dem alten System und deiner Aufrüstpolitik wirst du weder den Monitor noch die andere Hardware haben um von einer neuen GraKa zu profitieren.

Du solltest lieber eine Next Gen Console mit deinen Vorstellungen von Upgrade kaufen.

Dein Prozessor ist eh so alt das jede halbwegs moderne Graka ausgebremst wird.-


Mir ist es egal was die neue Hardware an Storm braucht, hauptsache da kommt Performance auf die Straße.

Ich verstehe das gejammer um die Leistungsaufnahme nicht, jeder will mehr Leistung bei weniger Verbauch. Das geht halt eben nur zu einem gewissen Grad.

Keiner kauft ja auch nen 1000PS Muscle Car um sich dann zu beschweren das da soviel Benzin verbraucht wird im Gegensatz zu nem Polo.

Viel Spaß daher beim zocken in FullHD und 60 FPS, wenn überhaupt
 

Manner1a

Freizeitschrauber(in)
@Electricfuchs - Anthony von Linus Tech Tips sieht das anders.

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 

DKK007

PCGH-Community-Veteran(in)
Ein weiteres drehen an der Leistungsaufnahmeschraube ? Zu trauen wäre es beiden Anbietern. So verbrät die GPU sämtliche Einsparungen
der letzten 10 Intel Jahre im Gesamtsystem und legt noch mal einen drauf. Festlegen tue ich mich erst mal auf nix bei der aktuellen widersprüchlickeit aber unter 12 GB V Ram, über 180 Watt, 500 Euro werde ich weder mein 1a rundlaufendes Ivy Bridge Kästchen noch den Geldbeutel öffnen allenfalls beobachten.

Da sollte sich doch die 3060 12 GiB anbieten.
 

Septimus

PC-Selbstbauer(in)
Nvidia sollte doch erst einmal genug Grafikkarten der jetzigen Generation liefern anstatt noch mehr Papiermodelle anzukündigen. Die jetzige Generation ist kaum bis gar nicht Lieferbar und wenn es Modelle gibt dann jenseits der angekündigten UVP´s und das ist garantiert nicht das was sich die potentiellen Käufer vorgestellet haben.
Ich habe immer noch eine GTX980Ti im Pc und so lange die Preise jenseits von Gut und Böse sind wird sie auch noch genau dort bleiben wo sie ist.
 

DKK007

PCGH-Community-Veteran(in)
Nvidia hat noch gar nichts angekündigt. Vor Ende des Jahres sind die Super-Modelle auch nicht zu erwarten, wenn sie wirklich kommen.
 

Incredible Alk

Moderator
Teammitglied
Ich verstehe das gejammer um die Leistungsaufnahme nicht, jeder will mehr Leistung bei weniger Verbauch. Das geht halt eben nur zu einem gewissen Grad.

Keiner kauft ja auch nen 1000PS Muscle Car um sich dann zu beschweren das da soviel Benzin verbraucht wird im Gegensatz zu nem Polo.
Es geht NICHT um die Kosten.
Es geht um die Kühlbarkeit/Lautstärke usw.

Mir ist es völlig egal ob ich im Jahr 50€ mehr oder weniger für Strom zahle (und mir ists auch egal ob mein Auto 6 oder 8 Liter auf 100 säuft) aber wenn ich 350W aus ner Grafikkarte wegkühlen und irgendwie aus dem gehäuse bekommen muss ist mir das einfach zu laut. Sowas ist nur mit Custom-WaKü wirklich leise zu bekommen und DER Aufwand ist mir dann doch (mittlerweile) zu hoch.
 

piti_the_drummer

Komplett-PC-Aufrüster(in)
Nvidia sollte doch erst einmal genug Grafikkarten der jetzigen Generation liefern anstatt noch mehr Papiermodelle anzukündigen. Die jetzige Generation ist kaum bis gar nicht Lieferbar und wenn es Modelle gibt dann jenseits der angekündigten UVP´s und das ist garantiert nicht das was sich die potentiellen Käufer vorgestellet haben.
Ich habe immer noch eine GTX980Ti im Pc und so lange die Preise jenseits von Gut und Böse sind wird sie auch noch genau dort bleiben wo sie ist.
dem kann man sich nur anschließen - meine 1080ti errichtet auch in cyberpunk 2077 noch bestens ihre dienste. einzig mein monitor werde ich, fürs zocken, downgraden müssen (3440x1440 ist zuviel für die 1080ti) ..
 

Electricfuchs

Komplett-PC-Käufer(in)
Es geht NICHT um die Kosten.
Es geht um die Kühlbarkeit/Lautstärke usw.

Mir ist es völlig egal ob ich im Jahr 50€ mehr oder weniger für Strom zahle (und mir ists auch egal ob mein Auto 6 oder 8 Liter auf 100 säuft) aber wenn ich 350W aus ner Grafikkarte wegkühlen und irgendwie aus dem gehäuse bekommen muss ist mir das einfach zu laut. Sowas ist nur mit Custom-WaKü wirklich leise zu bekommen und DER Aufwand ist mir dann doch (mittlerweile) zu hoch.

Also ich verwenden nur noch Tower, wie den hier Thermaltake Level 20 GT RGB Plus Gaming Big Tower , der hat vorne 2 Lüfter hinten einen, oben sitzt die AiO Corsair H150i mit Noctua Lüftern.

Das reicht mir um mein System gescheit zu Kühlen, Gut ich lege keinen Wert auf Silent, da ich eh immer mit Kopfhörer spiele und den Rechner dadurch nicht höre.

Wenn ich aber für alle Lüfter das Silent Profil aktiviere, dann hält sich das Lüfter Geräusch in Grenzen.

Ich habe das noch nie aus der Silent sicht bedacht, da ich mit meinem Rechner niemanden störe, aber aus Silent Sicht sind die hohen Leistungsaufnahmen echt ne Herausforderung.


Die einzige Leistungsaufnahme die mich bisher gestört hat war die von meinem 7900x , die hat noch nichtmal der entsprechenden Leistung entsprochen. Absoluter Fehlkauf der Prozessor.
 
Oben Unten