Nvidia Ampere: Kommt die RTX 3080 Super & RTX 3070 Super?

Ja, im Vergleich zu AMD, die es nicht einmal für sinnvoll erachten, einen 10 Kerner auf den Markt zu bringen, erwecht die Gerüchteküche um Nvidia herum den Eindruck, es gäbe eine sehr breite Auswahl.
Es wäre grob fahrlässig, wenn AMD einen 10 Kerner verkaufen wollen würde.
So schlecht kann die Ausbeute gar nicht sein, dass von 16 Kernen ganze 6 Stück defekt sind.
Es sind schließlich 2x 8 im Paket verbaut.
Man könnte also sehr viel weniger Geld dafür verlangen.
Wenn ein Chip tatsächlich nicht so gut ist, wird dieser einfach einzeln als 4 oder ggf. 6 Kerner verkauft.
Wir können jetzt mit der Zahlenspielerei anfangen, das man ja auch 2x 5 Kerne zusammenschalten könnte.
Klar, warum dann aber nicht gleich 1-16 Kerne komplett anbieten?
Ganz einfach, weil sich der Kostenaufwand für viele Produkte und deren Verwaltung, Sortierung, Lagerung, Handel, Verkauf etc. dadurch natürlich verteuert und verkompliziert.
Der Markt ist auch so schon sehr unübersichtlich.
Da ist es dann einfacher, die Leistung und Preisstruktur so aufzustellen, dass sich die Chips nicht gegenseitig behindern (dort wildern), und die Kosten trotzdem gedeckt sind.
Klappt natürlich wohl nicht immer.
Intel hingegen baut direkt einen monolitischen 10 Kerner, den kann man dann ja auch gerne als 8 oder 6 Kerner abverkaufen.
Auch da gibt es keine 9 und 7 Kerner. Auch aus den oben genannten Gründen.
 
@WoFNuLL - Ja, daran dachte ich auch, aber traute mich nicht, es aufzuschreiben. Es fehlt lediglich eine bessere Zuordnung, für wen solche Neuigkeiten gedacht sind, wenn sie denn überhaupt einen Sinn ergeben.

Was die AMD Kernanzahl betrifft, gäbe es nur Probleme mit dem Scheduler, also die Organisation bei ungleich großer Kernanzahl pro Chiplet. Dass nur gerade Zahlen an Kernen in Chiplets deaktiviert werden können, wäre mir neu. Die alten CCX Core Complexes hatten 4 Kerne, die jetzigen 8.

Die Zählweise bei einem 16 Kerne AMD mit 2 CCX wäre dann 2 CCX pro Chiplet, wobei diese 2 CCX mit je 8 Kernen nicht als 1 Chiplet angesehen werden. 5 Kerne pro CCX für insgesamt 10 Kerne wären technisch machbar, genauso ungerade Zahlen wie 9, nur markttechnisch bringt AMD das nicht viel.

Ebenso ist ja bei Theadripper und Epyc Modellen 1 Kern pro CCX auch möglich, was der Deaktivierung von nur geraden "Anzahlen" von Kernen pro CCX widerspricht. Nur so ließe sich ein Sprung von 8 auf 12 Kernen erklären bei 2 aktiven CCX, einmal 4 von 8 Kernen je CCX aktiv, einmal 6 von 8 Kernen je CCX aktiv.
 
Zuletzt bearbeitet:
Verwirrende News ... die keine ist:
1.) über mehrere Quellen von AIBs ( und wohlgemerkt deren Fuckups ) , ist bereits bekannt was in ein Paar Tagen NVIDIA vorstellen wird: allem Vorran eine 3080 Ti und eine 3060 non Ti ... Super Varianten wurden von Nvidia dementiert und die SKUs vor Monaten bereits seitens NVIDIA ersatzlos gestrichen ...
2.) in Form von Verfügbarkeit macht schon die Existenz einer 3080 Ti keinen Sinn geschweige denn das Launchen einer 30x0 Super ...
AMD kann Archtikekturbedingt pro Chiplet NUR 2 Kerne Gleichzeitig abklemmen nicht einzelne von daher sind bei Singlechiplet CPUs NUR 2 Kerne weniger Möglich ( 8 > 6 > 4 ) bzw. bei 2 Chiplet Varianten 4 Kerne Weniger ( 16 > 12 ). Da nur identische Chiplets (von der Menge der aktiven CPU Kerne) miteinander funktionieren ist auch das eine technische Limitierung.
Deiner Meinung über die angeblich kommenden Grafikkarten in Form des GA103 kann ich mich nur anschließen.
Auf der anderen Seite soll vielleicht ein kleinerer GA103 den beschnittenen GA102 der 3080 auf lange Sicht ersetzen und mehr GPUs aus einem Wafer holen.

Eine RTX 3060 12 GB hört sich aber schon mal besser an als die 3070 8 GB (Leistung / Speicher).

Bzgl. der Chiplets kann ich dir bei Zen 3 aber nicht zustimmen.
Bisher bestand ein CCD aus 2 CCX mit je 4 Kernen. Nun besteht ein CCX aus 8 Kernen, was mit 2 Chiplets einen Ryzen 7 5850 10-Kerner theoretisch möglich macht.
Das wird letzten Endes wohl von der Ausbeute abhängen.
 
Es wäre grob fahrlässig, wenn AMD einen 10 Kerner verkaufen wollen würde.
So schlecht kann die Ausbeute gar nicht sein, dass von 16 Kernen ganze 6 Stück defekt sind. [...]
Ein 10-Kerner im Consumer-Segment erscheint mir zu granular. Da ist die Notwendigkeit für nicht wirklich gegeben und AMD hat daher keinen echten Grund hier sein Portfolio noch granularer aufzubauen, insbesondere, da das MCM-Design im Consumer-Segment für AMD relativ teuer ist. *)
Bzgl. deiner grundlegenden Aussage handelt es sich jedoch um eine arg merkwürdig bis naiv klingende Argumentationsweise. Beispielsweise bei Epyc verkaufen sie den 7252, 7302 und 7302P, bei denen 50 % aller Kerne deaktiviert sind (und nicht nur 38 %, wie es für einen 10-Kerner notwendig wäre). Bei bspw. dem 7262 sind gar 75 % (!) aller Kerne deaktiviert bzw. defekt. Ganz offensichtlich gibt es in der Fertigung auch diese Dies oder AMD schaltet hier bewusst sehr großzügig ab.

*) Zudem hat AMD keinen Grund eine "nur grob vergleichbare" CPU anzubieten, denn das würde den Absatz und das Gewinnen von Marktanteilen erschweren und wie bereits geagt, ist das MCM-Design für AMD im Consumer-Segment teuer, insbesondere bei den 2-CCD-CPUs und für einen 10 Kerner bräuchte man weiterhin zwei CCDs, d. h. man müsste ein in der Fertigung extrem teueres Design anbieten, dass jedoch im Verkauf preislich natürlicherweise noch unter dem 12-Kerner aufgehängt werden müsste ... das passt hier schlicht nicht.
Im Server-Segment ist das dagegen etwas anderes, denn hier erwartet die Industrie ein rundes Portfolio, denn wenn AMD sich hier gleich zu Beginn nur ein(ige) spezielle Segmente rausgesucht und bedient hätte, würde es bzgl. der Integration und Akzeptanz von Epyc noch deutlich länger dauern. Intel hat nicht umsonst bei den Server ein derart differenziertes und granulares Portfolio.
 
Zuletzt bearbeitet:
Ich als Hardware Fan Blicke langsam nicht mehr durch. Seit Turing wird es zunehmend schwerer zu entscheiden welche Karte nun die richtige ist.

Sollten die Gerüchte nun stimmen und die RTX3060 mit 12GB kommen, alle hören Modelle bis auf die 3090 aber weniger Ram haben, sollte man sich schon fragen ob Nvidia sich nicht etwas vertan hat.

Mein Vorschlag, Nvidia soll die Ampere RTX3000 Serie so normal weiterführen ohne weitere Ti oder Super Modelle.
2021 dann bitte ein Shrink und GDDR6X mit je 2GB pro Baustein und eine neue RTX4000er Serie anbieten. Hat damals schon bei Fermi gut funktioniert und viele negativen Punkte wie die hohe Leistungsaufnahme und co. beseitigt.
 
Der Leistungsunterschied zwischen 3080 und 3090 liegt im Schnitt im einstelligen Prozentbereich und da will man nun noch ein Produkt dazwischen quetschen? Dann auch noch mit mehr VRAM aber wohl kleinerem Speicherinterface als der 3090?
Da ist in der UVP massig Platz für eine 3080Ti FE für 999€. Was sich die Händler und Zwischenhändler(wenn ich eine Aussage zu dem Thema von Caseking richtig deute) da zwischendrin noch versuchen draufzulegen ist ein ganz anderes Thema.
 
Zuletzt bearbeitet:
Ja, ich sehe die neuen AMD Karten einen Ticken besser als hier auf der PCGH bewertet. Auschlaggebend für den Kauf wären vor allem noch die 16gog VRam.

Daß hier Nvidia nachlegen muß, nach der Speicherkrüppelverarsche, ist nun auch klar. Jetzt ist die Frage, wie man es preislich macht. Parasitär, wie es zugeht (bei Team Grün und Rot), müßten se die Superkarten dementsprechend teurer anbieten. Der Vorteil der letzten Superkarten war ja aber der Upgrade. Sprich mehr Leistung für niedrigeren Preis. Die 2060s war ne Quasi2070, die 2070s ne Quasi2080.

Ob das beim derzeitigen Lineup so möglich wird, da muß man mal schauen. Gerade zwischen 3080 und 3090 ist ja leistungsmäßig nicht soviel Platz, man würde sich ja die eigene Spitzenkarte wegkannibalisieren. Aber auch zwischen der 3070 und der 3080 ist ja jetzt nicht soviel Leistungsunterschied.

Jetzt schau ma mal. Mehr VRam muß her und wenn es das für dieselbe UVP gibt, wie es sich gehört, dann ist ja schon mal "gut" (wir sprechen hier bei der parasitären Marktlage eher von weniger sehr schlecht). Verarscht sind dann halt nur die armen Würste, welche sich da aktuell ne 3000 Karte gekauft haben, aber das war eh schon bekannt, lernen durch Leid ist hier die Devise.
 
Ein weiteres drehen an der Leistungsaufnahmeschraube ? Zu trauen wäre es beiden Anbietern. So verbrät die GPU sämtliche Einsparungen
der letzten 10 Intel Jahre im Gesamtsystem und legt noch mal einen drauf. Festlegen tue ich mich erst mal auf nix bei der aktuellen widersprüchlickeit aber unter 12 GB V Ram, über 180 Watt, 500 Euro werde ich weder mein 1a rundlaufendes Ivy Bridge Kästchen noch den Geldbeutel öffnen allenfalls beobachten.
 
Dann ist in der UVP massig Platz für eine 3080Ti FE für 999€. Was sich die Händler und Zwischenhändler(wenn ich eine Aussage zu dem Thema von Caseking richtig deute) da zwischendrin noch versuchen draufzulegen ist ein ganz anderes Thema.
Für eine 3080 Ti FE mit 20 GiB ist (die Karte wird es ja bereits gesichert geben, nur die Preislage ist unbekannt) per se Platz, da das AMD-Topmodell mit 999 € MSRP bepreist ist.
Darüber hinaus macht es auch keinen Sinn für die Ti einen Preis nahe der RTX 3090 FE zu erwarten, denn die bedient zu einem wesentlichen Teil ein anderes Segment und bewegt sich preislich schon zu weit außerhalb der Sphäre einer RX 6900 XT, d. h. mit einer derartigen Preisgestaltung könnte die Ti gar nicht mit der AMD-Karte konkurrieren, jedoch ist genau das das Ziel von deren Martkeinführung und entsprechend muss diese Karte sich auch in einem vergleichbaren Rahmen bewegen. nVidia als Marktführer wird es sich absehbar erlauben können gar ein paar Euro mehr zu verlangen, aber zweifellos nicht bspw. +300 € mehr, wie es von manchem gerne postuliert wird.

Die Aussage des Zitierten ist zudem unsinng verzerrend, denn der Fps-Zugewinn der RTX 3090 FE i. V. z. 3080 FE in 4K (und für 1080p nutzt man so eine Karte wohl eher nicht) liegt bei gemittelten 15,6 % über die getesteten 20 Titel (gemäß PCGH). Der am schlechtesten abschneiden Titel ist The Witcher 3 mit immer noch +11,1 % mehr Fps.
Anders herum: Nimmt man mit Desperados 3 den für die RX 6900 XT extrem nachteiligen Ausreißer aus der Statistik heraus, dann ist die RX 6900 XT in 4K gemittelt -3,8 % langsamer als die RTX 3080 FE und -18,8 % langsamer als die RTX 3090 FE.
Ryle hat offensichtlich nicht verstanden, dass es hier im Wesentlichen um die Anpassung der Speichergröße geht (und die war auch schon von langer Hand absehbar *), denn leistungstechnisch kann die Karte bereits so konkurrieren und steht in der aktuellen Variante mit 699 € vs. 999 € gemäß MSRP auch preislich deutlich attraktiver dar, nur muss man sich hier halt nur mit 10 GiB begnügen.

*) Wer seinen Kaufreflex da nicht im Griff hat(te) und sich nachträglich nun entsprechend zu fühlen meint, hat sich wohl eher selbst "verarscht" und versucht nun aufgrund der Kartenauslegung oder der aktuell überzogenen Preise die Schuld auf die Hersteller und Händler abzuwälzen (hat ein wenig was von kognitiver Dissonanz ;-)).
 
Zuletzt bearbeitet:
Wenn Nvidia dieses Mal den Gedanken der Ti-Modelle im Sinne der 3060 Ti weiterführen will, dann könnte es durchaus sinnvolle Modelle wie die 3070 Ti 16 GB und die 3080 Ti 20 GB geben.
Theoretisch könnte man für die 3080 Ti einfach den Speicher der normalen 3080 verdoppeln und ein paar SMX mehr aktivieren.
Für die 3070 Ti ist es meiner Ansicht nach noch unklar, ob es einen voll aktiven GA104, stark verkrüppelten GA102 oder gar erstmals einen GA103 geben wird. Letztere Variante klingt angesichts der Liefersituation doch etwas weit hergeholt, außer man fährt die Produktion vom GA102 schon wieder zurück.
 
(...)

Die Aussage des Zitierenden ist zudem unsinng verzerrend, denn der Fps-Zugewinn der RTX 3090 FE i. V. z. 3080 FE in 4K (und für 1080p nutzt man so eine Karte wohl eher nicht) liegt bei gemittelten 15,6 % über die getesteten 20 Titel (gemäß PCGH). Der am schlechtesten abschneiden Titel ist The Witcher 3 mit immer noch +11,1 % mehr Fps.
Ja, in den gesicheten Benchmarks fällt sofort die relativ bescheidene Speicheradressierung von The Witcher 3 am Grafikkartenspeicher auf. Andere Titel sind deutlich durstiger und profitieren insgesamt mehr von viel verfügbarem Videospeicher. Wollte ich The Witcher 3 spielen, wäre eine RTX 3080 gefühlt schon mehr Leistung als nötig und die ideale Karte wäre hier wohl eine 3060 6GB oder 3050 4 GB. Ich habe schon Leute gesehen, die haben sich mit einer Intel Braswell HD 405 Grafikeinheit an das Spiel getraut.
 
Ein weiteres drehen an der Leistungsaufnahmeschraube ? Zu trauen wäre es beiden Anbietern. So verbrät die GPU sämtliche Einsparungen
der letzten 10 Intel Jahre im Gesamtsystem und legt noch mal einen drauf. Festlegen tue ich mich erst mal auf nix bei der aktuellen widersprüchlickeit aber unter 12 GB V Ram, über 180 Watt, 500 Euro werde ich weder mein 1a rundlaufendes Ivy Bridge Kästchen noch den Geldbeutel öffnen allenfalls beobachten.
Jemand der mit einem 8 Jahre alten System unterwegs ist, ist nicht die Zielgruppe von allem was über 3060 angesiedelt ist. Daher ist es den Anbietern herzlich egal, ob du kaufst oder nicht oder dein Kaufverhalten generell.

Mit dem alten System und deiner Aufrüstpolitik wirst du weder den Monitor noch die andere Hardware haben um von einer neuen GraKa zu profitieren.

Du solltest lieber eine Next Gen Console mit deinen Vorstellungen von Upgrade kaufen.

Dein Prozessor ist eh so alt das jede halbwegs moderne Graka ausgebremst wird.-


Mir ist es egal was die neue Hardware an Storm braucht, hauptsache da kommt Performance auf die Straße.

Ich verstehe das gejammer um die Leistungsaufnahme nicht, jeder will mehr Leistung bei weniger Verbauch. Das geht halt eben nur zu einem gewissen Grad.

Keiner kauft ja auch nen 1000PS Muscle Car um sich dann zu beschweren das da soviel Benzin verbraucht wird im Gegensatz zu nem Polo.

Viel Spaß daher beim zocken in FullHD und 60 FPS, wenn überhaupt
 
@Electricfuchs - Anthony von Linus Tech Tips sieht das anders.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Ein weiteres drehen an der Leistungsaufnahmeschraube ? Zu trauen wäre es beiden Anbietern. So verbrät die GPU sämtliche Einsparungen
der letzten 10 Intel Jahre im Gesamtsystem und legt noch mal einen drauf. Festlegen tue ich mich erst mal auf nix bei der aktuellen widersprüchlickeit aber unter 12 GB V Ram, über 180 Watt, 500 Euro werde ich weder mein 1a rundlaufendes Ivy Bridge Kästchen noch den Geldbeutel öffnen allenfalls beobachten.

Da sollte sich doch die 3060 12 GiB anbieten.
 
Nvidia sollte doch erst einmal genug Grafikkarten der jetzigen Generation liefern anstatt noch mehr Papiermodelle anzukündigen. Die jetzige Generation ist kaum bis gar nicht Lieferbar und wenn es Modelle gibt dann jenseits der angekündigten UVP´s und das ist garantiert nicht das was sich die potentiellen Käufer vorgestellet haben.
Ich habe immer noch eine GTX980Ti im Pc und so lange die Preise jenseits von Gut und Böse sind wird sie auch noch genau dort bleiben wo sie ist.
 
Nvidia hat noch gar nichts angekündigt. Vor Ende des Jahres sind die Super-Modelle auch nicht zu erwarten, wenn sie wirklich kommen.
 
Ich verstehe das gejammer um die Leistungsaufnahme nicht, jeder will mehr Leistung bei weniger Verbauch. Das geht halt eben nur zu einem gewissen Grad.

Keiner kauft ja auch nen 1000PS Muscle Car um sich dann zu beschweren das da soviel Benzin verbraucht wird im Gegensatz zu nem Polo.
Es geht NICHT um die Kosten.
Es geht um die Kühlbarkeit/Lautstärke usw.

Mir ist es völlig egal ob ich im Jahr 50€ mehr oder weniger für Strom zahle (und mir ists auch egal ob mein Auto 6 oder 8 Liter auf 100 säuft) aber wenn ich 350W aus ner Grafikkarte wegkühlen und irgendwie aus dem gehäuse bekommen muss ist mir das einfach zu laut. Sowas ist nur mit Custom-WaKü wirklich leise zu bekommen und DER Aufwand ist mir dann doch (mittlerweile) zu hoch.
 
Nvidia sollte doch erst einmal genug Grafikkarten der jetzigen Generation liefern anstatt noch mehr Papiermodelle anzukündigen. Die jetzige Generation ist kaum bis gar nicht Lieferbar und wenn es Modelle gibt dann jenseits der angekündigten UVP´s und das ist garantiert nicht das was sich die potentiellen Käufer vorgestellet haben.
Ich habe immer noch eine GTX980Ti im Pc und so lange die Preise jenseits von Gut und Böse sind wird sie auch noch genau dort bleiben wo sie ist.
dem kann man sich nur anschließen - meine 1080ti errichtet auch in cyberpunk 2077 noch bestens ihre dienste. einzig mein monitor werde ich, fürs zocken, downgraden müssen (3440x1440 ist zuviel für die 1080ti) ..
 
Es geht NICHT um die Kosten.
Es geht um die Kühlbarkeit/Lautstärke usw.

Mir ist es völlig egal ob ich im Jahr 50€ mehr oder weniger für Strom zahle (und mir ists auch egal ob mein Auto 6 oder 8 Liter auf 100 säuft) aber wenn ich 350W aus ner Grafikkarte wegkühlen und irgendwie aus dem gehäuse bekommen muss ist mir das einfach zu laut. Sowas ist nur mit Custom-WaKü wirklich leise zu bekommen und DER Aufwand ist mir dann doch (mittlerweile) zu hoch.

Also ich verwenden nur noch Tower, wie den hier Thermaltake Level 20 GT RGB Plus Gaming Big Tower , der hat vorne 2 Lüfter hinten einen, oben sitzt die AiO Corsair H150i mit Noctua Lüftern.

Das reicht mir um mein System gescheit zu Kühlen, Gut ich lege keinen Wert auf Silent, da ich eh immer mit Kopfhörer spiele und den Rechner dadurch nicht höre.

Wenn ich aber für alle Lüfter das Silent Profil aktiviere, dann hält sich das Lüfter Geräusch in Grenzen.

Ich habe das noch nie aus der Silent sicht bedacht, da ich mit meinem Rechner niemanden störe, aber aus Silent Sicht sind die hohen Leistungsaufnahmen echt ne Herausforderung.


Die einzige Leistungsaufnahme die mich bisher gestört hat war die von meinem 7900x , die hat noch nichtmal der entsprechenden Leistung entsprochen. Absoluter Fehlkauf der Prozessor.
 
Zurück