News RTX 4070 Ti Super: Mit 24 und 26 Gbps Speicher schneller als RTX 4080

Ich fands nur lustig, wie ne olle 7nm-Graka (LC) gepimpt werden kann.
Ada ist schließlich
Du vergleichst den größten Chip der letzten Generation.. unlocked mit MPT und Hochgepimpt mit ber dicken Wasserkühlung ausgestattet mit nem beschnittenen (ca 50% des Topmodels)aktuellen Chip der mit Luftkühlung auf standartsettings läuft..

Wow.. schön für die 6900LC..
Nur biste bei der Geocten 6900LC froh wenn sie Stabil den Bench hinbekommt.. mit der Standart 4070TiS kannste dann sogar noch Spielen ohne das dauernt etwas Crasht

Gerade beim RAM wird oft und gerne 24Gbps Chips verbaut die dann per Spec nur mit 21Gbps laufen..
 
Ein Mehr von 30% durch ein Anheben des Speichertaktes um 24%? Was übersehe ich?
Allgemein sollte man bei der ganzen Bandbreitendiskussion nicht vergessen, dass in 8K getestet wurde. Das könnte den Schwerpunkt nicht unwesentlich verschieben.
 
Hab mir grad eine 4070Tis bestellt. Einer den ich im Internet kennengelernt hab baut mir die für einen 1000er um, dann ist die auch schneller als die 4080.
Also so eine 4070 Ti selber umbauen ist nicht jedermanns Sache, aber ich hätte Lust drauf. Ich liebe den Umgang mit der heißen Spitze die über das PCB gleitet...:love:
Gibt schon seltsame Fetische.
 
Ein Mehr von 30% durch ein Anheben des Speichertaktes um 24%? Was übersehe ich?
Allgemein sollte man bei der ganzen Bandbreitendiskussion nicht vergessen, dass in 8K getestet wurde. Das könnte den Schwerpunkt nicht unwesentlich verschieben.
Das ganze ist ja nur Benchmark stable.. ein Benchmark der gut mit der Ramfrequenz skaliert.. dickes OC vs Stock
im normalen Spielbetrieb selbst sieht die Sache ja auch wieder anders aus .

Auch muss man dazu sagen das der RAM der 4070TiS nicht mit maximalen RAM Spezifikationen läuft..
Es ist 24Gbps verbaut der nur mit 21Gbps getaktet wird.. hier ist also durchaus Potential vorhanden

Das gleiche haste auch bei der normalen RTX4080... 24Gbps Chips verbaut.. 22,4Gbps ist Standart Takt.


Wenn ich Schaue.. bei mir läuft die RTX4080 Benchmark Stable bei 25,6Gbps (11200mhz +1400mhz mal 2 weil DDR im After Burner)

Würde wahrscheinlich sogar noch mehr gehen (abschmieren tut's erst bei ca +1700) aber ich hatte bisher keinen Bock das benchstable zu testen.

Es ist halt immer etwas Glück dabei.. aber in der Regel bekommt man die Karten gut getaktet was Vram angeht..

Und das ist auch wieder kein Nvidia kundenquängel gedönst..
Auch AMD betreibt Vram Speicher ganz gerne unterhalb der Spezifikationen der Hersteller
 
Wenn man sich das 40er Lineup anschaut, dann kommt nach der 4090 lange nichts und die anderen Karten treten sich im Mittelfeld gegenseitig auf die Füße. Kein Wunder, dass man es mit ein paar Tweaks ganz schnell in eine höhere "Nummerngruppe" schafft...

Und wenn die Gerüchte stimmen, wird es mit der 50er Serie wohl genauso laufen. Die 5090 wird ein Monster, der Rest "meh".
 
kann ich dir für 800 machen. Vorkasse.:cool:
Gerne. Du wirkst vertrauenswürdig und Cool dank dem Emoticon. Ich meine wärst Du böse würdest Du das sicher nicht benutzen.
Wenn man sich das 40er Lineup anschaut, dann kommt nach der 4090 lange nichts und die anderen Karten treten sich im Mittelfeld gegenseitig auf die Füße. Kein Wunder, dass man es mit ein paar Tweaks ganz schnell in eine höhere "Nummerngruppe" schafft...

Und wenn die Gerüchte stimmen, wird es mit der 50er Serie wohl genauso laufen. Die 5090 wird ein Monster, der Rest "meh".
So wirds laufen. Wir haben nur Grund zur Annahme dass wohl wenigstens die 5080 wieder günstiger berpreist wird. Mit der 4080 Non Super sind sie damit wohl offensichtlich auf die Fresse gefallen bei Nvidia. Sonst würden sie die 4080 Super nämlich nicht günstiger anbieten als die Non Super. Außer natürlich AMD kann halt diesmal nicht mal gegen die 5080 anstinken, dann wirds schwierig.

Ich sehe mir persönlich die Sache mal an: Denn die 4090 würde mir wohl offensichtlich reichen, wenn also die 5080 wenigstens 20 Prozent Leistung ohne DLSS Zauberei drauflegt könnte die schon reichen für einen 1000er etwa. Weil die 3090 für mich schon so dermaßen drüber war damals und auch heute noch sehr gut mithält mit den 4000ern war das Aufrüsten bisher völlig unnötig für mich. Als Singleplayer Gamer kann ich mich 40-60 FPS in einem Spiel gut leben. Das fällt Nvdia in meinem Fall halt auf die Füße. Hätten sie für die 3000er Serie auch noch DLSS3 freigeschaltet (Und technisch könnten die Ampere Chips das sicher) dann gäbe es noch weniger Grund aufzurüsten für mich. (Danke AMD für FSR3, das wird die Karte sicher noch weiterleben lassen dann brauchts vielleicht nicht mal die 5080)
 
Zuletzt bearbeitet:
Unser Artikel "Kann man sich eine RTX 4080 hertakten?" anhand von RTX 4070 TiS OC kommt übrigens noch. Der Kerntakt, also die Rechenleistung, ist dabei wesentlich wichtiger als der Speicherdurchsatz.

MfG
Raff
das dachte ich mir auch gerade. was bringt das speicherinterface wenn der chip langsamer ist. beim speicherinterface ist es nur wichtig das man kein bottleneck hat. oder sogut es möglich ist es zu vermeiden
 
Und wenn die Gerüchte stimmen, wird es mit der 50er Serie wohl genauso laufen. Die 5090 wird ein Monster, der Rest "meh".
Wäre der Rest in Deinen Augen auch "Meh" wenn es die 4090 nicht gäbe?

Am Ende doch eine Kopfsache. Man weiß, dass es die 4090 gibt, also ist alles andere nur "Meh". Auch wenn es Objektiv wirklich starke Hardware ist.
 
"was eine Nachahmung durch den durchschnittlichen GPU-Nutzer wohl weniger empfehlenswert macht."

Aber nVidia könnte da was machen ... :crazy:
 
Warum bei NV nur 8GB-Steps in der Austattung verfügbar sind ist doch sinnlos.
oder
Wäre ne 4080S mit 20GB@320bit zu nah an der 4090D ?

Da werden die Kunden mit high Ansprüchen gleich auf die Enthusiast-Schiene gezwungen.

btw. Konkurrenz
Die 4070TiS ist ab Werk sooo ausgebremst, das ne gute 6900-LC@OCen dran vorbei zieht.
Mir ist zwar nicht klar was du rauchst ;), aber eine 7900XTX kommt schon nicht mehr mit einer 4070ti s ganz mit, sofern man von maximalen Details ausgeht ;)

Spaß beiseite...
Wer Nvidia kauft, legt mehr Wert auf Ray Tracing und Bildqualität mit Upscaling.

Aber auch im Raster Schnitt ist eine 4070ti s meistens dicht an den AMD XT(X)´s dran. Daüfr im Ray Tracing bis weilen schneller, bis vernichtend schneller.

Da ich auf Grafik stehe und damit für mich klar ist, das wo möglich RT genutzt wird und das dann so viel wie möglich, hat AMD leider nichts das sogar nur an eine 4070ti s im Schnitt heran kommt.

PS: Eine 6900 LC, war schon eine 6900 OC. Die Saufziegen auch noch zusätzlich anheizen. Respekt.
4GB kosten ja sooooviel!?
(und die ein mue breitere Leiterbahn am Controller)

20€ gespart, mit 20% weniger Performance
Deine Lücke zwischen der GRE und der XT ist genau so groß... Also willst du nur stänkern?
Häh ?,
es geht um Bandbreite nicht um Marken!

Man kann über höheren Takt gehen oder breitere Anbindung.
Das Letztere gibts halt in der Praxis nur bei ...


Welcher User hat denn wieder ne Diskussion in falscher Richtung angestossen?
manchmal merkt Ihrs wohl schon gar nicht mehr

Damit genug off Topic.
Was ein Unfug.
Hab ich Was gegen DaHell gesagt?
Nein!
Natürlich darf auch seine NV-Graka OCed werden.

Ich fands nur lustig, wie ne olle 7nm-Graka (LC) gepimpt werden kann.
Ada ist schließlich eine ganz andere Gen, wo man entsprechenden Zuwachs erwarten kann,
und nicht BREMSE ab Werk.
Schau dir mal den RT Parcours an und denk nochmal über die Bremse ab Werk nach ;)
 
Zuletzt bearbeitet:
Wäre der Rest in Deinen Augen auch "Meh" wenn es die 4090 nicht gäbe?

Am Ende doch eine Kopfsache. Man weiß, dass es die 4090 gibt, also ist alles andere nur "Meh". Auch wenn es Objektiv wirklich starke Hardware ist.

Das Problem hier ist nicht die pure Leistung, sondern die Entwicklung bei Preis und Leistung der jeweiligen Kartenklasse beim Sprung von 30xx zu 40xx.

Die 4090 kostet etwa das Gleiche wie die 3090. (Ich hab sogar weniger für die 4090 bezahlt.) Trotzdem bringt die 4090 100% Mehrleistung. (echte Leistung, kein DLSS-Geschummel) 3090 raus, 4090 rein, doppelt so viele FPS... sauteuer, aber hat sich spürbar gelohnt.

Darunter (z.B. 3080 -> 4080, 3070Ti -> 4070Ti) bringt ein Upgrade maximal ca. 50% Mehrleistung und kostet dabei i.d.R. 25% mehr. Bei Preisparität (3070 -> 4070) sind nur noch 30% Leistungssteigerung drin.

Das fällt bei mir unter "meh" a.k.a. "Upgrade lohnt sich nicht". Neukäufer sehen das natürlich anders.
 
Das ganze ist ja nur Benchmark stable.. ein Benchmark der gut mit der Ramfrequenz skaliert.. dickes OC vs Stock
im normalen Spielbetrieb selbst sieht die Sache ja auch wieder anders aus .

Auch muss man dazu sagen das der RAM der 4070TiS nicht mit maximalen RAM Spezifikationen läuft..
Es ist 24Gbps verbaut der nur mit 21Gbps getaktet wird.. hier ist also durchaus Potential vorhanden

Das gleiche haste auch bei der normalen RTX4080... 24Gbps Chips verbaut.. 22,4Gbps ist Standart Takt.


Wenn ich Schaue.. bei mir läuft die RTX4080 Benchmark Stable bei 25,6Gbps (11200mhz +1400mhz mal 2 weil DDR im After Burner)
Das ist ja alles schön und gut, erklärt aber nicht, wie die Erhöhung eines Leistungswerts um 24% (21 GT/s => 26 GT/s) die Gesamtleistung um 30% erhöhen kann.
Wir haben nur Grund zur Annahme dass wohl wenigstens die 5080 wieder günstiger berpreist wird. Mit der 4080 Non Super sind sie damit wohl offensichtlich auf die Fresse gefallen bei Nvidia. Sonst würden sie die 4080 Super nämlich nicht günstiger anbieten als die Non Super.
Habt ihr? Möglich ist das schon, aber mich würde auch absolut nicht überraschen, wenn man wieder ein Jahr lang die Leute abgrast, die nicht warten können und dann per Refresh den Preis senkt. Ich denke mal, dass der Preis bei der 4070/Ti nur nicht gesenkt wurde, weil es da auch jeweils ein merkliches Upgrade gab.
 
Mir ist zwar nicht klar was du rauchst ;), aber eine 7900XTX kommt schon nicht mehr mit einer 4070ti s ganz mit, sofern man von maximalen Details ausgeht ;)
H2@XeSS.JPG


wenn man mal denselben Upsampler nutzt, ... kann ich mir nicht vorstellen, das 4070TiS>7900XTX läuft
dito
worans bei NV minFps hapert, may be doch Bandbreite, um aufs Thema zurückzukommen
(ob jetzt Lumen schon Hardware nutzt, k.A.)
 
Zuletzt bearbeitet:
Anhang anzeigen 1460682

wenn man mal denselben Upsampler nutzt, ... kann ich mir nicht vorstellen, das 4070TiS>7900XTX läuft
dito
worans bei NV minFps hapert, may be doch Bandbreite, um aufs Thema zurückzukommen
(ob jetzt Lumen schon Hardware nutzt, k.A.)
1. lerne doch als erstes endlich, nicht anhand einzelner gemessener Szenen allgemeingültige Aussagen abzuleiten.
2. Es gab schon immer Spiele, die auf AMD und Nvidia besser liefen auch bei den Frametimes, macht das keinen Unterschied.
Zu zeiten der 12GB Debatten, rund um die 4070ti habe ich alle Tests im N etz durchforstet. Selbst bei der 12GB 4070ti gab es mehr Spiele mit besseren Frametimes, gegenüber der 7900XT als anders herum.
3. Also eher nicht grundsätzlich Bandbreite. Siehe andere Spiele die durchaus auch VRam lastiger sind und bei XTX und XT schlechtere Frametimes haben.


Siehe hier ein Beispiel.
Bei den Ave Fps liegt die 7900XT 11% vor der 4070ti s.
Bei den min Fps sin es nur noch 8%.

Liegt etwa ein Bandbreitenproblem bei der 7900XT vor?

Bei Avatar fällt AMD auch bei den Frametimes stärker ab, als Nvidia. betrifft auch tendenziell die XTX.
Also auch ein bandbreitenproblem?

Alan Wake 2 genau so.

Also bitte zieh erst mehr Informationen zusammen, bevor du steile Thesen aufstellst.

Bei CB scheint das Verhältnis der Frametimes, zu den Average Fps eher nur im Bereich der Messtoleranz zu liegen.

Average erreicht die 4070ti s 93% der 7900XT und bei den Min Fps sind es 92%
Bei der 4070 s ist es ürbigens in etwa das selbe Verhältnis... Bei den Average sind es 82% und bei den Min Fps sind es 83% der 7900XT. Das obwohl es eher ein Bandbreitenproblem zeigen sollte.

Es bleibt wie immer.
Wenn Raster Only, dann ist AMD tendenziell im Vorteil. Wenn RT so oft wie möglich und so viel wie möglich, dann führt kein Weg an Nvidia vorbei.

Das alles mit dem Hintergrund, das AMD zumindest noch aktuell mit FSR noch echte Nachteile hat. was die Bildqualität angeht.

Zurück zu der selben Bildqualität.
Nicht der selbe Upsampler, sondern die selbe Bildqualität.

Nvidia legt von DLSS q auf DLSS b meistens um 13 % zu.
Meistens reicht mindestens DLSS b aus, um optisch über die FSR Q Qualität zu erreichen.
Es kommt nicht so selten vor, das DLSS P sogar im Mittel aller Bildeigenschaften noch mithalten kann.

Siehe Vergleichsberichte bei Techpowerup...
Bitte auch die Texte lesen.

Nicht selten reichen die Standbildvergleiche alleine nicht aus.
 
ich habe lieber Sowas:

COD@1440p.JPG


... keine Lust, darüber nachzudenken, warum bei NV die Performance obenrum dicht macht.
bei AMD gehts doch auch

btw.
Bin mal auf den PCGH+ Artikel gespannt, wo Raff dann einige Grakas OCed.
Was man durch mehr Bandbreite noch rausholen kann!?

Bitte dann mit den alten stock-Werten mit FG/AFMF vgl.
 
Das Ziel von NV ist nicht, möglichst schnelle Grafikkarten für den Kunden zu bauen sondern mit dem was man technisch hat den maximalen Gewinn zu generieren. Und das geht mit nem schmaleren Speicherinterface was VIEL günstiger ist deutlich besser wenn man die daraus resultierende etwas langsamere Karte mangels Konkurrenz genauso teuer verkaufen kann.

Sehr, sehr wahre Worte!
Und auch wenn es einige vielleicht immer noch nicht verstehen, oder glauben können, Gamer-GPUs werden leistungstechnisch "designt" und in genau festgelegten Abstufungen angeboten, die nichts damit zu tun haben was technisch möglich wäre.

Ausgehend von den Datacenter GPUs wie dem H100 werden die Gamer-GPUs nach unten eingeteilt.
Die 4090/4080/4070... ist zu schnell, wenn wir Speicher XY verbauen? Weg mit VRAM und den langsameren rein.
Das zieht sich über alle Komponenten und Designentscheidungen, selbst wenn das in der Herstellung nur ein paar Euro ausmachen sollte.

Die GPU XYZ darf einfach nicht schneller werden, auch auf auf Hinblick auf die nächste Generation und der zu erwartenden Leistung derselben.
Und wenn die Konkurrenz schwächelt, dann kann man sogar "billig" designte GPUs zum Vollpreis verkaufen. ;)

Da bleibt nichts dem Zufall überlassen...
 
Zurück zu der selben Bildqualität.
Nicht der selbe Upsampler, sondern die selbe Bildqualität.

Nvidia legt von DLSS q auf DLSS b meistens um 13 % zu.
Meistens reicht mindestens DLSS b aus, um optisch über die FSR Q Qualität zu erreichen.
Es kommt nicht so selten vor, das DLSS P sogar im Mittel aller Bildeigenschaften noch mithalten kann.

Siehe Vergleichsberichte bei Techpowerup...
Bitte auch die Texte lesen.
Das ist halt das größte Problem im Moment

Würde man 2 etwas gleich starke Karten (xtx und 4080) bei der Optik vergleichen dann ist nativ alles noch nah beieinander

Vergleicht man nun mit upscaling muss man DLSS-Q mit FSR-Nativ vergleichen.. was schon Mal ca +30% für die 4080 bedeutend.
Oder DLSS-B/P mit FSR-Q

Das ist bei den großen Karten alles noch Relativ wenn sie Nativ alles spielbar gewuppt bekommen..
Bei den kleineren Karten die schon Schwierigkeiten haben aktuelle Spiele bei 60fps zu wuppen sieht die Welt aber schon wieder anders aus..
Es macht einen Unterschied ob man bei gleicher Optik 60 oder 75-80fps hat..
Trotz ähnlicher Rohleistung
 
Da bleibt nichts dem Zufall überlassen...
Hat man auch damals bei der erste TITAN gesehen. Der Chip war ein Monster, Nvidia hat den aber trotzdem durch das Powertarget gebremst, sonst hätte der noch die Nachfolgegeneration aufgefressen. Und ich bin mir sicher dass ihnen die 1080Ti heute noch "leid" tut, dass sie sie so billig verschleudert haben. Für knapp 800 Euro damals, eine Karte die heute noch einsatztauglich ist für Full HD.
 
Zurück