News Geforce RTX 4070 (Ti) und 4080 Super: Nvidia zeigt eigene Benchmarks im Vergleich mit RTX 20 und RTX 30

wenn der so vermurkst wäre, hätte nvidia sicher schon längst was daran geändert. Wie oft stöpselt ihr denn den Stecker von so ner Karte ab oder an?
Auch dass 16GB in 4K nicht zukunftssicher sind ist quatsch. Das ist völlig ausreichend, außer, man übertreibt es mit den Settings oder mit Mods. Aber dann dürfte auch eine 20GB Karte ihre Probleme bekommen.
10 oder 12GB sind nicht zukunftssicher, dem stimme ich zu. Aber nicht 16...
 
Aus dem 12VHPWR-Stecker wird durch ein Update ein 12V-2×6-Stecker. Der soll das Problem der schmelzenden Stecker, das durch nicht vollständiges Einstecken entstehen kann, beheben.
Über den fließen aber nach wie vor 600 Watt und die Konstruktion ist gelinde gesagt bescheiden und immer noch nicht risikofrei. "Der Bauer" hat gerade dazu ein interessantes Video online gestellt.

Auf der anderen Seite: Die Lederjacken des Nvidia Boss sind nun mal teuer und da muss man schon als Hersteller darauf achten, wo man sparen kann. Und da ist so eine Stromschnittstelle doch ein valides Ziel.
Auch dass 16GB in 4K nicht zukunftssicher sind ist quatsch. Das ist völlig ausreichend, außer, man übertreibt es mit den Settings oder mit Mods. Aber dann dürfte auch eine 20GB Karte ihre Probleme bekommen.
10 oder 12GB sind nicht zukunftssicher, dem stimme ich zu. Aber nicht 16...

Den Satz habe ich mal geparkt, in sechs Monaten hole ich ihn wieder aus der Parklücke und dann sprechen wir uns wieder.
 
Wird die RTX 4070Ti Super meine GTX 1060 6GB schlagen* können? Vermutlich wieder nein und das nach knapp 8 Jahren gegen eine 250€ Mittelklassekarte, echt peinlich.

* mit Nvidialogik: GTX 1060 mit 4K FSR3 Ultra Performance gegen 4070Ti Super nativ in 4K.

4080 Super ist mit 16 GB nicht 4K-zukunftssicher, der Preis ist damit nicht heiß, wenn was heiß wird, dann der nach wie vor vermurkste Stecker.

Also bei den RX 6000ern waren 16GB noch der ultimativ zukunftssichere Kram. Außerdem hat die RTX 4080 eine Buchse und keinen Stecker. Ach ja: die RTX 4080er ziehen weniger Strom, sind also generell eher nicht davon betroffen.

Haben diese Karten etwa auch den vermurksten NVidia-Stromstecker?

Soll das eine rhetorische Frage sein?

Aus dem 12VHPWR-Stecker wird durch ein Update ein 12V-2×6-Stecker. Der soll das Problem der schmelzenden Stecker, das durch nicht vollständiges Einstecken entstehen kann, beheben.
Über den fließen aber nach wie vor 600 Watt und die Konstruktion ist gelinde gesagt bescheiden und immer noch nicht risikofrei. "Der Bauer" hat gerade dazu ein interessantes Video online gestellt.

Auf der anderen Seite: Die Lederjacken des Nvidia Boss sind nun mal teuer und da muss man schon als Hersteller darauf achten, wo man sparen kann. Und da ist so eine Stromschnittstelle doch ein valides Ziel.

Der 8 Pin PCIe war einfach absolut ineffizient. Vor gut 20 Jahren war das noch in Ordnung, aber heute ist er schon lange aus der Zeit gefallen. Da mußte etwas neues her.

Den Satz habe ich mal geparkt, in sechs Monaten hole ich ihn wieder aus der Parklücke und dann sprechen wir uns wieder.

Da kannst du dann schauen, welche Karte mehr Probleme bekommt: die RTX 4080, mit ihren 16GB VRAM oder die RX 7900XTX in Raytracing. Ach so, da muß man ja garnicht warten, da das Ergebnis schon fest steht: die RX 7900XTX hat schon heute Probleme in Raytracing, da die RTX 4080 da 50% schneller ist (wenn man neutrale Werte nimmt)

(und ich werde mir wohl eine RX 7900XTX kaufen... Ultra Performance Modus FTW!)
 
Außerdem hat die RTX 4080 eine Buchse und keinen Stecker.
Wer redet denn von der Karte und der Buchse? Ich rede vom Stecker in die Karte. Und der Stecker ist ein Stecker.

Außerdem würde ich mir mal die aktuelen Specs des 8 Pin zu Gemüter führen. Und selbst wenn was "Neues" her müsste. Neuer Schrott ist halt Schrott, egal ob alt oder neu. Und auf Schrott, der neu ist, kann ich auch gerne verzichten.

Wer vergleicht denn hier Nvidia und AMD Karten? Ich schreibe von Nvidia. AMD Kritik kannst Du auch gerne haben, wenn Du darauf stehst. Und wer hat was von Raytracing gesagt? Es ging um den Schmelz-Wackel-Risiko-Stecker, dessen Kabel, wenn man sie halbwegs sicher biegen will, übrigens nicht mehr in die meisten PC Gehäuse passen. Es sei denn, man lässt das Seitenteil offen. Oder baut die Karte hochkant ein was auch nicht bei jedem PC geht. Das ist doch Murks hoch 3, nur um ein paar Dollar Herstellungskosten zu sparen.

Nvidia Grafikkarten folgen dem Weg, den es anderswo schon lange gibt (z.B. Windows Notebook-"Lautsprecher"): Schnelle Kohle mit flüchtigem Billigschrot für gutgläubige Konsumenten.
 
Wer redet denn von der Karte und der Buchse? Ich rede vom Stecker in die Karte. Und der Stecker ist ein Stecker.

Der Stecker ist das Problem und der Stecker ist Teil des Netzteils, nicht der Karte.

Außerdem würde ich mir mal die aktuelen Specs des 8 Pin zu Gemüter führen.

Was hat man denn da aktualisiert?

Er kann immer noch lediglich 150W übertragen. Der Stecker ist gut 20 Jahre alt.

Und selbst wenn was "Neues" her müsste. Neuer Schrott ist halt Schrott, egal ob alt oder neu. Und auf Schrott, der neu ist, kann ich auch gerne verzichten.

Dann kannst du gleich auf alle Neuerungen verzichten, denn Neuerungen haben immer das Potential fehlerhaft zu sein. Ist auch nicht so, dass der Stecker irgendwie besonders schlimm wäre, im Gegenteil, der ist eher harmlos. Das bleifreie Lot hat z.B. Millionen von GPUs vorzeitig ins jenseits befördert, inklusive meinem Laptop. War es aber dennoch richtig? Natürlich, denn so ist der Schrott nicht mehr so giftig.

Wer vergleicht denn hier Nvidia und AMD Karten?

Mit irgendwas muß man die RTX 4080 vergleichen, um eine Alternative zu haben. Da gibt es nur zwei Optionen: zum einen die RX 7900XTX und zum anderen die RTX 4090. Die eine hat Probleme mit dem Raytracing und die andere ist stinketeuer.

Und wer hat was von Raytracing gesagt?

Das ist halt eben der Nachteil der einen Alternative.

Es ging um den Schmelz-Wackel-Risiko-Stecker, dessen Kabel, wenn man sie halbwegs sicher biegen will, übrigens nicht mehr in die meisten PC Gehäuse passen.

Ach und warum hast du dann mit den 16GB angefangen? Die haben damit auch nichts zu tun.

Das ist doch Murks hoch 3, nur um ein paar Dollar Herstellungskosten zu sparen.

Wenn du glaubst, dass du mehr drauf hast, als die Ingenieure, die das ganze entwickelt haben, dann bewirb dich doch einfach da. Wobei man im Nachhinein immer klug daherreden kann.

Nvidia Grafikkarten folgen dem Weg, den es anderswo schon lange gibt (z.B. Windows Notebook-"Lautsprecher"): Schnelle Kohle mit flüchtigem Billigschrot für gutgläubige Konsumenten.

Also hier sind wir dann endgültig beim Blödsinn.

Teuer? Definitiv ja
Schrott? Definitiv nein

Im übrigen liefern AMD und Intel noch schlottrigeren Schrott ab.
 
Lauteten die letzten Gerüchte nicht, dass das RX-8000-Topmodell eine "beefed up" 7900 XTX wird (also Navi-31-Basis)? Hoffentlich kommen nun die bereits vor einem Jahr in Aussicht gestellten Modelle mit größeren MCDs.
???
sollen die RDNA4 nicht auf große Chips verzichten und nur als Navi33+32-Nachfolger kommen

Natürlich wäre ein Shrink von N31 auf 4nm + GDDR7 nice, aber evtl. dann schon zuviel Konkurrenz für RDNA5.
(dann noch 3dCache obendrauf statt größerer MCD`s, ... aber leider habe ich Sowas nicht zu entscheiden, der
AMD-Buchhalter hat vermutlich bei begrenzten Packig-Kapazitäten ausgerechnet, das 3d CPU´s mehr abwerfen)

remember: die MCD´s sind die ausgelagerten Cache-Module
auf der eigentlichen GFX, sprich 306mm²-GCD siehts so aus, siehe Anhang:
 

Anhänge

  • 0_N31 vs AD102.jpg
    0_N31 vs AD102.jpg
    99,4 KB · Aufrufe: 18
Zuletzt bearbeitet:
Der Stecker ist das Problem und der Stecker ist Teil des Netzteils, nicht der Karte.
Der Stecker ist nicht das Problem, sondern die Idee, dass einer davon, für ein 4090, immer, sicher, reicht. NV hätte sich den ganzen Käse sparen können, wenn sie zwei verbaut hätten. Oder man hätte die 4090 auf 450 Watt begrenzen sollen, was ja auch mehr als genug ist.
 
Was alle Diskussionen (Stecker, 12/16/24GB und RTX) gemeinsam haben ist dass sie von einem Standpunkt der Verunsicherung geführt werden. Braucht man diesen neuen Stecker wirklich? Wieviel RAM sind notwendig? Muss ich RTX einschalten und bringt mir das mehr Spaß etc? Alle diese Diskussionen können jederzeit in jede Richtung kippen und für alle Seiten dieser Diskussionen gibt es gewichtige Argument. Vergleich das mal mit der Diskussion, ob man eine SSD braucht. Jeder der etwas anderes sagt wird doch hochkant aus dem Forum gelacht, oder geht halt extrem auf Retro-Hipster Kurs der kaum mehr als 5% der User hier abbildet.

Wenn heute das Äquivalent zu Crysis erscheinen würde, dann wären diese Fragen morgen alle bantwortet. Natürlich braucht man 24GB mit Raytracing und alles außer einer 4090 ist zu wenig oder nur zur Überbrückung. Stecker hin oder her. Aber so ticken die Pubslisher nicht mehr. Alles ist auf Reichweite und Verkaufszahlen optimiert, alles muss auf 8 Jahre alten PCs laufen. Vor ein paar Jahren hat man auf der Switch immer von den "impossible Ports" gesprochen, Spielen für die man die Switch zu schwach gehalten hat und die erhebliche graphische Kompromisse eingeganen sind, damit die überhaupt laufen. Am PC ist das jedes Spiel und wer es nicht glaubt möge sich noch einmal das Ryzen 8000G Marketingmaterial ansehen.

Darunter leiden auch teure Karten, denn die haben somit sehr schnell ein Legitimationsproblem, das sind die SUVs der Videospielbranche. Man kann damit mit dicker Hose Brötchen holen fahren, aber so richtig notwendig sind sie nicht mehr. Sogar die Nvidia Werbesloagens im CED Video zeugen davon. Die 4080S wird als "4k Full RT Gaming" bezeichnet, die 4070TiS bekommt das Attribut "1440p 144Hz+ " mit einem "even 4k" in der Moderation hinterhergeschoben und alles was Nvidia zur 4070S einfällt ist "faster than 3090".

Am Ende wird alles in OC und RGB ertränkt, vielleicht gibt es demnächst auch nur noch Schwarzlicht LEDs in allen Komponenten die Neon-Farben auf den Bauteilen erleuchten, aber den richtigen Bedarf der unangreifbar nicht in Abrede gestellt werden kann, den haben die Karten verloren. Das verwandelt jede kleine Schwäche in eine endlose DIskussion mit Für und Wider.
 
Selektive Wahrnehmung: Wer hat denn gesagt, dass der Stecker Teil der Karte ist? Wo genau steht das?

Liest sich zwar etwas wirr, aber man kann es daraus entnehmen:
Wer redet denn von der Karte und der Buchse? Ich rede vom Stecker in die Karte. Und der Stecker ist ein Stecker.

Redest du mit mir oder meinst du jemand anderen?

Natürlich rede ich mit jemand anderen, deshalb zitiere ich auch deine Beiträge.
[/Ironie Off]

Der Stecker ist nicht das Problem, sondern die Idee, dass einer davon, für ein 4090, immer, sicher, reicht. NV hätte sich den ganzen Käse sparen können, wenn sie zwei verbaut hätten. Oder man hätte die 4090 auf 450 Watt begrenzen sollen, was ja auch mehr als genug ist.

Dann hätten sie einen Haufen Ressourcen verschwendet, so, wie sie es beim 6 und 8 Pin PCIe Stecker schon seit 20 Jahren machen. Rückblickend weiß man es immer besser, aber es war die richtige Entscheidung.
 
Dann hätten sie einen Haufen Ressourcen verschwendet, so, wie sie es beim 6 und 8 Pin PCIe Stecker schon seit 20 Jahren machen. Rückblickend weiß man es immer besser, aber es war die richtige Entscheidung.
"Haufen Ressourcen" genau.... Man kann sich echt alles schönreden.
Lieber voll am Limit, "Yolo" , statt auf Nummer sicher gehen, sagst du? Was soll schon passieren? Feuer ist ja nicht gefährlich.
 
"Haufen Ressourcen" genau.... Man kann sich echt alles schönreden.
Lieber voll am Limit, "Yolo" , statt auf Nummer sicher gehen, sagst du? Was soll schon passieren? Feuer ist ja nicht gefährlich.

Es ist halt einfach eine Tatsache, dass da ein Haufen Kupfer zum Fenster rausgeworfen wird. Nebenbei wird es im Gehäuse auch etwas unübersichtlich. Ferner brauchte der Stecker auch mal ein paar moderne Funktionen. Der 12V HPWR oder eine andere Alternative, war gewissermaßen überfällig.
 
Es ist halt einfach eine Tatsache, dass da ein Haufen Kupfer zum Fenster rausgeworfen wird. Nebenbei wird es im Gehäuse auch etwas unübersichtlich. Ferner brauchte der Stecker auch mal ein paar moderne Funktionen. Der 12V HPWR oder eine andere Alternative, war gewissermaßen überfällig.
Es geht nicht um den Stecker, sondern darum, dass NV für die 4090 nur ein benutzt hat... in jeder anderen Karte funktioniert er wunderbar.
 
???
sollen die RDNA4 nicht auf große Chips verzichten und nur als Navi33+32-Nachfolger kommen
Yep, für die Mittel- bis Oberklasse - und das High-End soll weiter mit Navi 31 befeuert werden. So brodelte es jedenfalls vor ein paar Monaten mal aus der Gerüch(t)eküche. Schauen wir mal, ob das wirklich so kommt. Ein Shrink wäre natürlich toll, aber ich fürchte, dass wir eher ein minimalinvasives Programm bekommen, wenn schon recycelt wird - fettere MCDs sind immerhin leichter als ein Shrink.

MfG
Raff
 
Der Stecker ist nicht das Problem, sondern die Idee, dass einer davon, für ein 4090, immer, sicher, reicht. NV hätte sich den ganzen Käse sparen können, wenn sie zwei verbaut hätten. Oder man hätte die 4090 auf 450 Watt begrenzen sollen, was ja auch mehr als genug ist

Das ist mal eine wahre Erkenntnis. Es gibt aber eine zweite. Selbst Stecker bzw. Kabel von Markenherstellern haben Schwächen. "Der Bauer" zeigt das in seinem Video am Beispiel eines Corsair Kabels. Der Stecker ist so empfindlich, dass die Karte selbst bei der kleinsten Berührung den Kontakt verliert. Außerdem gibt es genügend Fälle, in denen - vermutlich aus dem gleichen Grund, sprich Kontaktverlust - Rechner einfach mitten im Betrieb aussteigen.

Die Hitzeentwicklung in einem Stecker ist also das erste Problem (ähnliches Problem gab es mit drei Pin 8 nie), also sollten es an der 4090 zwei 12V-2×6-Stecker sein.

Die Stabilität der Verbindung ist das zweite Problem.

Dazu kommt wie geschrieben, dass für den sicheren Betrieb im Grunde nur ein Gehäuse in Frage kommt, dass den Hochkanteinbau der 4090 zulässt oder es müssten breitere Gehäuse her. Vor dem Biegen des Kabels sollten es 3 bis 4 cm sein, das kriegst Du in keinem Otto-Normal-Gehäuse hin.
 
Zurück