Nvidia Geforce: RTX 4070 Ti steht der RTX 3090 Ti in Nichts nach [Gerücht]

Die Leistungsdaten der neuen Generation Grafikkarten klingt doch schonmal sehr interessant. Aber entscheidend wird am Ende sein, wie verfügbar die Teile sind und was sie am Ende kosten.
Interessant finde ich momentan die RTX 4080 oder die RX 7800XT und RX 7900XT. Am Ende wird es wohl der Preis entscheiden. Um den Stromverbrauch mache ich mir weniger gedanken, nicht weil es so billig ist, sondern man muss die Teile ja nicht im Open Limit laufen lassen, wenn es das Spiel nicht benötigt.
Wenn aber am Ende eine Lebenszeit dabei rum kommt, wie bei der 1080 Ti, dann bin ich zufrieden. Meine finanzielle Schmerzgrenze wird aber wohl bei 700 bis 800€ liegen und da bin ich eher gespannt, ob es dafür eine der oben genannten geben wird.
 
manchmal wundert mich so einiges. aktuell, auch wenn der prozess kleiner wird, ist es nun mal so:
mehr von allem verbraucht auch mehr, hört sich komisch an, ist aber so.
von 8nm auf 4nm bedeutet ja nicht automatisch 50% weniger verbrauch.
das bischen was eingespart wird, wird durch mehr rechnenwerke wieder egalisiert und es kommt noch anständig was oben drauf.
auf der einen art ist es erschreckend, dass so eine 4070ti 400w verbrennen soll, die effiziens der karte dennoch besser ist, angeblich, hier muss man ja warten bis echte tests vorliegen.
momentan scheint man sich an einem punkt zu befinden, an dem die recheneinheiten durch einfache optimierung nicht einen anständigen performance sprung bringen, sondern einfach nur mehr.
oder ich irre mich und ne 4070 ti könnte mit ner 3080 konkurieren, aber "nur" 280watt verbrennen.
da mann aber immer höher schneller weiter fordert als verbraucher, darf man sich über den aktuellen verbrauch wohl eher nicht wundern.
interessant werden für mich vor allem die preise.
da ich grundsätzlich kein freund vom gerüchten bin, freue ich mich doch eher auf die fakten.
dieser moment wenn es dann ganz anders kommt, ob nun besser oder schlechter als vermutet.
was mich aber tatsächlich richtig ankotzt: 4070er/ti,... keine 16GB?
 
oder ich irre mich und ne 4070 ti könnte mit ner 3080 konkurieren, aber "nur" 280watt verbrennen.
Genau so wird es sein, war schon immer so.

Man müsste nur mal den Verbrauch der Grafikkarten vergleichen mit FPS Limit und niedrigen Einstellungen. Da verbraucht eine 3080 plötzlich "nur" 150W, dagegen die 1080ti vielleicht 200W.

Da aber die meisten"höher schneller weiter" wollen und bei 10% mehr Performance mit 20% weniger Stromverbrauch von "failed Gen" sprechen, gehen die Hersteller halt mit dem Trend. Die wollen auch nur verkaufen...

Mehr Leistung ist immer gut und dabei weniger verbrauchen ideal
mein limit sind seit jeher 100-180w
Nvidia hat diesmal die taktkeule herausgeholt. und das auch noch unnötig
Ampere war schon am limit OC ab Werk
Dass die GPUs immer weniger übertaktbar sind liegt einfach daran dass das Binning mittlerweile viel besser funktioniert. Ist doch bei den CPUs auch so, ohne Spezial-Kühlung geht für den Heimanwender kaum noch was.
 
Dass die GPUs immer weniger übertaktbar sind liegt einfach daran dass das Binning mittlerweile viel besser funktioniert. Ist doch bei den CPUs auch so, ohne Spezial-Kühlung geht für den Heimanwender kaum noch was.
Liegt die immer geringere Übertaktbarkeit von CPUs und GPU nicht vielmehr an wirtschaftlichen Überlegungen der Hersteller? Warum etwas verschenken, was man auch verkaufen kann?

Früher waren es Sicherheitspuffer, oder tlw. auch etwas naive Sorg-/Gedankenlosigkeit der Hersteller, gewissen CPUs einen teils beachtlichen OC Spielraum zu lassen. Heute verkauft man den OC Spielraum lieber als neues CPU-Modell, oder lässt (im Falle von Intel) erst gar kein OC bei den Brot und Butter Modellen zu.
 
Wenn sie jetzt noch vernünftige Preise ansetzten steht der Aufrüstung nix im Weg. Zwei Generationen übersprungen sollte genug Plus bringen wenn ich die 1080ti in Rente schicke.
Da sich auch genug Geld gesammelt hat in der Zeit, sollte der Kauf bei fairem Preis, sowie Verfügbarkeit kein Problem sein.
 
Liegt die immer geringere Übertaktbarkeit von CPUs und GPU nicht vielmehr an wirtschaftlichen Überlegungen der Hersteller? Warum etwas verschenken, was man auch verkaufen kann?
Natürlich. Macht jeder Hersteller so, egal ob GPUs oder Monitore oder Motoren oder oder oder.

Früher waren es Sicherheitspuffer, oder tlw. auch etwas naive Sorg-/Gedankenlosigkeit der Hersteller, gewissen CPUs einen teils beachtlichen OC Spielraum zu lassen. Heute verkauft man den OC Spielraum lieber als neues CPU-Modell, oder lässt (im Falle von Intel) erst gar kein OC bei den Brot und Butter Modellen zu.
Intel hatte soweit ich denken kann K- und non-K Modelle. Und das waren nicht zwangsweise Sicherheitspuffer, man konnte einfach maschinell nicht so gutes Binning betreiben und hat deswegen die Spielräume zwangsweise groß gehabt.

Es gibt ja einen Grund warum https://siliconlottery.com/ dicht gemacht hat. Für uns Endanwender ist das aber nicht unbedingt schlecht, oder hättest Du Dich über Deine "schlechte" GPU gefreut wenn Dein Kumpel auf seine 500 Mhz mehr packen kann, bei Dir aber bei +100 Mhz Schluss ist? Ich denke nicht...

We’re shutting down not for just one reason, but for a combination of many. As you may be aware, overclocking headroom has been dwindling these past several years with manufacturers offering higher frequencies at stock, better boosting algorithms, and tighter bins between models which reduces overclock frequency variation (the 11900K is essentially a binned 11700K, so with the 11900K we’re binning what has already been fairly heavily binned). This type of product segmentation is nothing new, but having such minor differences between two models is a more recent shift.

Dennoch bin ich sehr gespannt auf die kommende Hardware und schaue mir die Karten von Nvidia genau an.
Aktuell würde ich aber eher zu AMD tendieren, mit deren MCM Ansatz und wohl geringerer Leistungsaufnahme.
Mit der kommenden Mittelklasse sollte meine 1080TI wohl gut zu toppen sein.
Die bisher vermuteten RX7000 TDPs liegen in einem sehr ähnlichen Rahmen.
 
100 Watt sind bei aktuellen GPUs gar nichts. Mehr Rechenwerke, Takt weit jenseits des Süßpunkts ;)und schnellerer Speicher, dann ist das ratzfatz erreicht. Genau so läuft es auch bei den aktuellen Modellen 3070 Ti vs. 3070. Letztere ist ein ausgewogenes Produkt, die Ti hingegen in dieser Form ziemlicher Murks.

MfG
Raff
Durch dein Denglisch fällt mir ein, dass Nvidia hier natürlich eine großartige Marketingmöglichkeit liegen lässt.
Immerhin könnte man dann von der Geforce ein G(e)-Spot Modell machen.
Das wär dann außerdem wieder so ein Ding, das ich meiner umweltbewussten Frau besser einreden könnte
 
Wo habt ihr alle das Geld her? Das frage ich mich ernsthaft. Miete, Auto, Handy, Internet, Versicherungen und noch einiges Nebenher und dann noch überall die Preiserhöhungen lassen doch gar nicht mehr viel Puffer zu.
Entweder habt ihr was gewonnen, geerbt, gut betuchte Eltern oder einen sehr gut bezahlten Job. Letzteres gibt's hier in MV leider nicht so wirklich... ^^
Ich möchte auch endlich upgraden, aber das wird noch viele Monate dauern.
GPU seitig wird es aber sehr wahrscheinlich AMD, da mir deren MCM Ansatz deutlich besser gefällt, solange es nicht total daneben geht. ansonsten auch nur Mittelklasse, damit der Stromhunger nicht zu gewaltig ist (womit wir wieder beim Geld sind^^).
Wo habt ihr alle das Geld her? Das frage ich mich ernsthaft. Miete, Auto, Handy, Internet, Versicherungen und noch einiges Nebenher und dann noch überall die Preiserhöhungen lassen doch gar nicht mehr viel Puffer zu.
Entweder habt ihr was gewonnen, geerbt, gut betuchte Eltern oder einen sehr gut bezahlten Job. Letzteres gibt's hier in MV leider nicht so wirklich... ^^
Ich möchte auch endlich upgraden, aber das wird noch viele Monate dauern.
GPU seitig wird es aber sehr wahrscheinlich AMD, da mir deren MCM Ansatz deutlich besser gefällt, solange es nicht total daneben geht. ansonsten auch nur Mittelklasse, damit der Stromhunger nicht zu gewaltig ist (womit wir wieder beim Geld sind^^).
Augen auf bei der Berufswahl. Ich denke wir mit der fetten Kohle sind 35+ und stehen gut im Berufsleben. Wir mit 20 konnte ich mir sowas auch nicht leisten
 
Wo kommt das 4nm her? Weil der Node 4N heißt? Es ist ein minimal besserer 5nm Prozess, nicht mehr und nicht weniger. Und die 50 Watt sind über 10%, ist das so schlecht?
Hast recht 4N ist nicht direkt 4nm das war der N4. Sind aber beides 5nm Prozessabwandlungen von daher ändert sich an meiner Aussage nichts ;)
Man spricht aber da gerne von 4nm siehe:
Und in diesem Kontext sind 10% wenig wenn man bedenkt dass ca. 10-15W Einsparung vom Speicher kommen und TSMC selbst von 30% höherer Effizienz ggü. dem N7 spricht.
 
Hast recht 4N ist nicht direkt 4nm das war der N4. Sind aber beides 5nm Prozessabwandlungen von daher ändert sich an meiner Aussage nichts ;)
Man spricht aber da gerne von 4nm siehe:
Und in diesem Kontext sind 10% wenig wenn man bedenkt dass ca. 10-15W Einsparung vom Speicher kommen und TSMC selbst von 30% höherer Effizienz ggü. dem N7 spricht.

https://www.tsmc.com/english/dedicatedFoundry/technology/logic/l_5nm
N5 technology provides about 20% faster speed than N7 technology or about 40% power reduction
20% höher takten ODER 40% weniger Energie, nicht beides. Eins davon oder einen Mix. Nimmt man 10% mehr Takt dann kann man nur noch 20% weniger Energie haben (ob das genau so stimmt weiss ich natürlich nicht).

NV nimmt halt 20% mehr Takt, sie wollen die Krone.

Wo hast Du die 30% höhere Effizienz her?

Edit: in Deinem Link steht:
TSMC's 5-nm technology will also be used to mass-produce Nvidia's other GPU RTX 4000 series
 
Natürlich. Macht jeder Hersteller so, egal ob GPUs oder Monitore oder Motoren oder oder oder.


Intel hatte soweit ich denken kann K- und non-K Modelle. Und das waren nicht zwangsweise Sicherheitspuffer, man konnte einfach maschinell nicht so gutes Binning betreiben und hat deswegen die Spielräume zwangsweise groß gehabt.

Es gibt ja einen Grund warum https://siliconlottery.com/ dicht gemacht hat. Für uns Endanwender ist das aber nicht unbedingt schlecht, oder hättest Du Dich über Deine "schlechte" GPU gefreut wenn Dein Kumpel auf seine 500 Mhz mehr packen kann, bei Dir aber bei +100 Mhz Schluss ist? Ich denke nicht...
Also die Hersteller-Specs haben CPUs und GPUs immer gepackt.
Wovon wir hier sprechen, ist ja ein mögliches, aber niemals garantiertes Overclocking. Und ich blicke auch noch auf beispielsweise Sockel 775 oder 1366 Zeiten zurück, wo teilweise erhebliche Mehrleistungen durch relativ simples OC zu erzielen waren. Mit den K Modellen wurde ja schon genau der von mir angesprochene Verkauf von OC Leistungen durch den Hersteller Intel kultiviert. Und geärgert über OC habe ich mich nie ... ganz im Gegenteil, was habe ich mich bei meinem damaligen Phenom II X2 555 BE darüber gefreut, per Core-Unlocker 2 zusätzliche Kerne freischalten und die dann auch nochmal übertakten zu können - er wurde damit zum X4 B55 BE laut BIOS POST :-)
Größerer OC Spielraum würde mich persönlich jetzt nicht unbedingt stören...
 
https://www.tsmc.com/english/dedicatedFoundry/technology/logic/l_5nm

20% höher takten ODER 40% weniger Energie, nicht beides. Eins davon oder einen Mix. Nimmt man 10% mehr Takt dann kann man nur noch 20% weniger Energie haben (ob das genau so stimmt weiss ich natürlich nicht).

NV nimmt halt 20% mehr Takt, sie wollen die Krone.
Nur geht es hier nicht um die Leistungskrone. Es geht gerade darum, dass man genau das erreichen will wie eine bereits sehr ineffiziente 3090ti und das man dann mit 2 Nodesprüngen unter 10% effizienz rausholt ist ziemlich ernüchternd.
Wo hast Du die 30% höhere Effizienz her?
 
Nur geht es hier nicht um die Leistungskrone. Es geht gerade darum, dass man genau das erreichen will wie eine bereits sehr ineffiziente 3090ti und das man dann mit 2 Nodesprüngen unter 10% effizienz rausholt ist ziemlich ernüchternd.

Die Folie sagt "15% faster speed, 30% less power and 1.8x logic density over N7", im August 2020. Mein Link ist die aktuelle, offizielle Angabe von TSMC. 15% höhere Taktrate UND 30% weniger Stromverbrauch, das wäre unfassbar gut, leider nicht die Realität. Entweder oder...

Und ja, nur 10% höhere Effizienz wäre etwas mager. Aber wir sind ja noch nicht wirklich schlauer, alles nur Gerüchte.
 
Also so manches kommt mir bei diesen ganzen Gerüchten um die deutlich erhöhte Leistungsaufnahme extrem spanisch vor.

Eine RTX 3090 Ti hat eine TDP von 450W. Mit minimalem Undervolting bringt man sie locker auf 400W. Eine RTX 4070 Ti soll jetzt bei gleicher Leistungsaufnahme die gleiche Leistung erbringen? Wo ist denn da der Sinn?
Ich verstehe den Sinn auch nicht. Ehr FAIL .
Geht es bei einer neuen Generation und neuem Fertigungsprozess nicht genau darum, entweder gleiche Leistung bei weniger Leistungsaufnahme oder mehr Leistung bei gleicher Leistungsaufnahme?
Normalerweise Ja, aber wenn man GHz ohne Ende drücken will, ist dass , das Ergebnis.
Wird also in Zukunft nur noch der Preis das entscheidende und unterscheidbare Argument neuer Generationen sein? Eine RTX 5050 bringt dann die Leistung einer RTX 3090 Ti bei 400W Leistungsaufnahme für 250€
Für mich ist die Frage, wo das noch Enden soll.
Hat dann die RTX 5070ti dann 500W und die RTX 5090ti dann 1200W ???
 
Wo habt ihr alle das Geld her? Das frage ich mich ernsthaft. Miete, Auto, Handy, Internet, Versicherungen und noch einiges Nebenher und dann noch überall die Preiserhöhungen lassen doch gar nicht mehr viel Puffer zu.
Entweder habt ihr was gewonnen, geerbt, gut betuchte Eltern oder einen sehr gut bezahlten Job. Letzteres gibt's hier in MV leider nicht so wirklich... ^^
Ich möchte auch endlich upgraden, aber das wird noch viele Monate dauern.
GPU seitig wird es aber sehr wahrscheinlich AMD, da mir deren MCM Ansatz deutlich besser gefällt, solange es nicht total daneben geht. ansonsten auch nur Mittelklasse, damit der Stromhunger nicht zu gewaltig ist (womit wir wieder beim Geld sind^^).
Ich habe kein Auto (wohne in der Großstadt), bin nicht ueberversichert (nur Berufsunfaehigkeitsversicherung und Haftpflicht), war seit ueber einem Jahr nicht im Urlaub, bin Mitte 30 und verdiene ganz ordentlich und lebe auch ansonsten moeglichst sparsam (das "einiges Nebenher" trifft also auch weniger zu), Familie habe ich auch keine. Dann kann man sich auch mal ne GPU goennen. Lieber eine einmalige Ausgabe alle paar Jahre als jeden Tag nen Kaffee von der Baeckerei oder Starbucks.
 
Ich hoffe mal, daß mit Eurer Überschrift nicht auch der Preis gemeint ist: 4070Ti steht 3090Ti in nichts nach!
Wozu dann ne 4070Ti überhaupt produzieren?
Ist dann die 4070 Ti ne Raider oder ne Twixx?
Gruß Yojinbo, Der sich sowas eh nicht leisten kann und will, vom Verbrauch ganz zu schweigen!
 
Zurück