News Streitfall "Grafikspeicher": Nvidia geht mit nur 8 GiByte jetzt in die Offensive

Zukunftssicher ist eine Karte sowieso nicht, weil die Leistung ausgeht und nicht der Speicher und ich rede nicht von ultra Details.
Sehe ich genauso
Die 4070 Ti hat aber eine unausgewogene Menge an Speicher und wird mit Nachteilen leben müssen.
Mehr VRam hätte sicher nicht geschadet, aber abgesehen von allways max (für das ist die Karte sowieso zu langsam), sehe ich demnächst keine großen Nachteile.
16GB von AMD sind klar besser. So viel besser ist das Speichermanagement Nvidias niemals. Totale Übertreibung Incoming...
Die 16GB VRam reissen es natürlich raus...irgendwann....in Zukunft...vielleicht....aber eher wahrscheinlich nie. Die Dinger sind genauso wie die RTX 4070TI für allwas max heute schon zu langsam.
Raytracing/Features und Stromverbrauch brauchen wir da erst überhaupt nicht vergleichen.
Wenn einer glücklich damit ist kann er doch gerne kaufen (bin ich mit meiner RX 6800 auch noch).

Raster.png

Das permanente angegriiffen werden, wegen seiner Kaufentscheidung, nervt ungemein.
Hier haben sich auch AMD Käufer eine RX 6600/XT für 500€....eine RX 6700 XT für 7/8/900€...eine RX 6800 für 1000€, oder eine RX 6900 XT für über 1700€ gekauft...muss mich das jetzt jucken. Nein, ist ja nicht meine Kohle und man wird von mir dazu auch nichts lesen wie man nur so blöd sein kann so überteuert zu kaufen.

Es wird ja schon generell ein Unterschied gemacht...ein User der jede Gen was von Nvidia kauft ist ein uninformierter grüner Lemming....kauft man jede Gen was von AMD ist man ein informierter Enthusiast und Zukuntsfähigkeit ist kein Thema mehr.
 
Zuletzt bearbeitet:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Gruß
Ich weiß das ist nur Spaß, aber in anbetracht das es nicht um Gamer Gpus ging als er das sagte, hat er sogar Recht. Trotzdem muss ich mit gleich noch eine kaufen nach dem Video. :-P
:-D
Genau, deshalb zockte ich mit meiner 600€ rtx3060ti auch nur in 720p. Ich will ja 60fps und rt...
Ich glaube ich sollte auf 500€ PS5 umsteigen die kann sogar 4k und das teilweise in 120fps, also besser als ne rtx4090...
Ich lach mich schlapp.
Deine 3060 Ti hat mehr Power als der Grafik Chip der Ps5. :slap:welches spiel läuft in nativem 4k in 120 fps auf der Konsole das kein sidescroller ist? Ich sag es dir, kein einziges. Das muss es auch nicht. Die Exklusives liefern sehr gute Grafik für nur 10Tf es kommt halt auf Entwicklerkönnen an nicht Tf.

Du plapperst nur Marketing nach was bei Konsole only Gamer funktionieren mag die einfach keinen bezug zur Hardware haben und außer fps und Auflösung nicht viel mit diesen Infos anfangen können :)
 
Zuletzt bearbeitet:
Genau, deshalb zockte ich mit meiner 600€ rtx3060ti auch nur in 720p. Ich will ja 60fps und rt...
Ich glaube ich sollte auf 500€ PS5 umsteigen die kann sogar 4k und das teilweise in 120fps, also besser als ne rtx4090...
Ich lach mich schlapp.
Also ich könnte mit meiner 3060ti in letzten Monaten doch auch 1080p mit RT nutzen. Nicht immer aber doch schon mehrfach und das man .

Das ps5 Märchen "500€, 120fps" zum lachen aber ok, dann kannst du auch in 1080p mit dlss balanced noch gut zocken zu mal die ps5 die Grafikleistung einer 2070s hat.

Zum lachen ist nur das manchen so einen Schmand glauben. Kauf dir eine ps5 und gut, dann brauchst du hier nicht jammern.

Als ein 3060ti 600€ gekostet hat, hat eine ps5 auch 700 plus gekostet.

Und wer in 1080p relativ gut aufgestellt sein möchte kann vermutlich zur 4060ti greifen. Wer perfekt für 1080p gerüstet sein möchte mit RT greift zur 4070. Wer auf RT verzichten kann, bekommt bei AMD mehr FPS pro Euro und fertig ;)
Die rtx4070ti ist mit knapp 30tf etwas überdimensioniert für FHD und der vram etwas knapp mit nur 12gb
Für 1440p in raster reicht das aus
Kleine Prognose wohin das führt
Leistung in einer UE5 demo mwforst burned forest rtx3060 etwa 9,2tf tsr ultra quality alles maxed 1080p 16fps
Dabei ist das noch raster vram Belegung da es sich um eine kleines lvl handelt etwa 6gb .
Mathe fürn rtx4070ti 50fps
kompiliert etwa 6gb HDD platz eine ssd ist zu empfehlen
andere demo auch ue5 city sample hier wird der vram gefordert
im schnitt 17fps ohne upsacler und mit 40fps
9,5gb vram 1080p dlss q reduziert den bedarf auf 7,6gb
Also wenn blöd kommt wird die rtx4070ti alsbald ab 2025 für gerade mal fhd ausreichen und die 12gb wären ausreichend.
Das was heute an demos gibt ist die Grafik von 2025 bis 2029 ab dieser zeit ist die ps6 auf dem markt und etwa 30tf stark und wird etwa 20gb vram haben
Die Zielauflösung wird indes von derzeit FHD auf wqhd steigen
Nette Theorie und die ps6 soll doch ab 2027 kommen. Wer der heute eine 4070ti kauft beschwert sich gegen Ende 2027 das der Speicher nicht mehr reicht ;)
 
Auch wenn die Ps5 30Tf hätte ist es kein ersatz für den Pc. Ich weiß das ganz genau da ich alles hier stehen habe :). Man wird die Settings vermissen, es gehört einfach dazu :p

An der Konsole hat man oft Grafikseinstellungen die nicht klug sind sondern nur schnell schnell zusammengeschustert wurden. Sonst hätte Digital Foundry nichts zu tun ;). Oft sind Settings auf Low obwohl Hoch kaum mehr Leistung kostet. FOV ist auch nicht in jedem spiel einstellbar und 65 Fov wie in Far Cry 6 ist unspielbar und du kannst nichts dagegen machen. Viele Post Processing effekte sind oft nicht ausschaltbar. Mich stört das. Oder friss oder stirb 1080p 60fps vs 4k 30 fps obwohl die Gpu locker 1440p 60fps machen könnte, usw.

Wenn das HDR kacke ist hast nicht so viele möglichkeiten wie am Pc was mit W11 doch schon recht ordentlich funktioniert.
 
Zuletzt bearbeitet:
Mir wird niemals eine Konsole ins Haus kommen. Erstens werde ich nie am Controller spielen und zweitens fehlt mir einfach die Freiheit vom PC.

Mods auf PS5? Forget it.
Grafische Settings zum Anpassen? Forget it.

Nee danke. :)
 
Also ich könnte mit meiner 3060ti in letzten Monaten doch auch 1080p mit RT nutzen. Nicht immer aber doch schon mehrfach und das man .

Das ps5 Märchen "500€, 120fps" zum lachen aber ok, dann kannst du auch in 1080p mit dlss balanced noch gut zocken zu mal die ps5 die Grafikleistung einer 2070s hat.

Zum lachen ist nur das manchen so einen Schmand glauben. Kauf dir eine ps5 und gut, dann brauchst du hier nicht jammern.

Als ein 3060ti 600€ gekostet hat, hat eine ps5 auch 700 plus gekostet.

Und wer in 1080p relativ gut aufgestellt sein möchte kann vermutlich zur 4060ti greifen. Wer perfekt für 1080p gerüstet sein möchte mit RT greift zur 4070. Wer auf RT verzichten kann, bekommt bei AMD mehr FPS pro Euro und fertig ;)

Nette Theorie und die ps6 soll doch ab 2027 kommen. Wer der heute eine 4070ti kauft beschwert sich gegen Ende 2027 das der Speicher nicht mehr reicht ;)
Ich verstehe nicht dass man heute im PC-GAMING überhaupt noch von fhd spricht. Das ist doch Müll. Sicher gibts noch einige die kein Geld für einen 1440p >27 zoll Monitor haben und noch auf 24zoll fhd zocken. Ich kenne jedenfalls keinen. Und ob die für ihren uralt low budget 100€ fhd Monitor eine 600€ rtx4070 brauchen halte ich für fraglich.
Meine rtx3060ti hängt an einem 5120x1440 Monitor und liefert in allen meinen games in hohen bis hohen >60fps.
Wenn NV oder andere behaupten dass man für 1440p umbedingt eine super teure rtx4090 dann ist dann reine Kundenaugenwischerei damit auch ja alle schön viel Geld ausgeben.
Für fhd würde ich jedem eine gebrauchte gtx1070 von ebay raten und fertig denn fhd zockt man wenn man ein extrem geringes Budget hat.
Und das ganze raytracing lass ich mal aussen vor. Das ist ein kleines optisches feature dass man gerne aktivieren kann wenn die gpu genug power hat. Aber so der optische Durchbruch denn man umbedingt haben muss ist es nicht. Ein Spiel ohne RT dafür aber in höherer Auflösung mit max details etc sieht viel besser als als in niedriger Auflösung dafür mit Raytracing
 
Dem muss ich zustimmen Full HD ist lächerliche matschssuppe am Pc, bei den neuen spielen gehen viele details verloren durch die niedrige Auflösung. Als ich das letzte mal 1080p auf einem 24 zoller gesehen habe wurde mir schlecht :haha:. Da liefern die Konsolen oft mehr 1440p-1800p. Ne 1080p ist wie 720p kann man sich nicht mehr antun. 1440p ist in Ordnung finde ich auf 27 Zoll recht knackig aus der Erinnerung :D , aber wenn es am Tv passt wird es auch am mini monitor passen. :)
 
Raytracing lass ich mal aussen vor. Das ist ein kleines optisches feature dass man gerne aktivieren kann wenn die gpu genug power hat. Aber so der optische Durchbruch denn man umbedingt haben muss ist es nicht. Ein Spiel ohne RT dafür aber in höherer Auflösung mit max details etc sieht viel besser als als in niedriger Auflösung dafür mit Raytracing
Hab ich auch mal gedacht, aber seit ich Spiele mit RTGI und Pathtracing via Reshade gespielt hab, kann ich nich mehr ohne.
 
Dem muss ich zustimmen Full HD ist lächerliche matschssuppe am Pc, bei den neuen spielen gehen viele details verloren durch die niedrige Auflösung. Als ich das letzte mal 1080p auf einem 24 zoller gesehen habe wurde mir schlecht :haha:. Da liefern die Konsolen oft mehr 1440p-1800p. Ne 1080p ist wie 720p kann man sich nicht mehr antun. 1440p ist in Ordnung finde ich auf 27 Zoll recht knackig aus der Erinnerung :D , aber wenn es am Tv passt wird es auch am mini monitor passen. :)
Ich nutze noch lange 2x 1900x1200 - das Ding wird auch produktiv genutzt und dafür ist das Set-up optimal.
 
Wenn NV oder andere behaupten dass man für 1440p umbedingt eine super teure rtx4090 dann ist dann reine Kundenaugenwischerei damit auch ja alle schön viel Geld ausgeben.
Wie kommt man auf so etwas? Behauptet wer?
Das kommt doch auf die eigenen Ansprüche an.
Ich spiele seit Jahren auf QHD, weil sich meines Erachtens mehr Auflösung und DPI für die Leistungskosten nicht lohnen.

Dafür hat man höhere FPS und kann mehr DXR reinknallen.
Dazu noch DLSS Qualität.
Und wenn genügend Leistung da ist DLSS+ DSR.
Für fhd würde ich jedem eine gebrauchte gtx1070 von ebay raten und fertig denn fhd zockt man wenn man ein extrem geringes Budget hat.
:hmm:
 
Vieles gelesen bezgl. NVidias Aussagen zu erhöhter Cache vs. reduziertem VRam.

Ob, oder ob NVidia nun sagt, mehr Cache = weniger notwendiger VRam.
Doch, die Folien sagen inhaltlich das, genau das und nichts anderes sollen sie aussagen:

"Wir haben den Cache erhöht, das Speichermanagement verbessert,
dadurch benötigt ihr weniger VRam, alles kein Problem..."

Das die Folien genau da aussagen sollen, versteht ja nun wirklich jeder Id...

Der einzige Punkt, warum man das im Marketinggequatsche nicht
mit einem konkreten Satz genau so sagen möchte/darf:

- glaubwürdiges Dementi im Schadenfall...
- Angst vor den in USA üblichen Sammelklagen...
 
Hab ich auch mal gedacht, aber seit ich Spiele mit RTGI und Pathtracing via Reshade gespielt hab, kann ich nich mehr ohne.
Die Spiele die ich zocke haben nix von dem. Dafür hab ich 5120x1440 auf 49". Das würde ich nicht missen. Auf Arbeit hab ich 24" fhd. Selbst zum arbeiten ist mir das zu wenig weshalb ich mir notdürftig mit 3 Monitoren beholfen haben. Hatte davor (vor 6/7 Jahren) 4k auf 28" mit ner gtx970. Die war dann zu schwach
Wie kommt man auf so etwas? Behauptet wer?
Das kommt doch auf die eigenen Ansprüche an.
Ich spiele seit Jahren auf QHD, weil sich meines Erachtens mehr Auflösung und DPI für die Leistungskosten nicht lohnen.

Dafür hat man höhere FPS und kann mehr DXR reinknallen.
Dazu noch DLSS Qualität.
Und wenn genügend Leistung da ist DLSS+ DSR.

:hmm:
Kann man so nicht pauschal sagen. Due Auflösung hängt direkt mit der Bildschirmgrösse hab. Ich hab 49 Zoll ultrawide. Da ist 5120x1440 natürlich optimal. Fhd ist bei 24" ok, 27/28 ist für qhd passend. Ab 29" braucht man definitiv mehr als qhd sonst wirds zum pixelgeschubse. Vorher hatte ich 4k auf 28" das war schon geil. Auf Arbeit hab ich auch mikrige 24'/fhd und dafür 3 Monitore. Vorher hatte ich
Die Größe des Monitors die man haben und auch bezahlen will ist natürlich Geschmackssache. 49"/ultrawide braucht man nicht. War für mich nur ein Spasskauf. Rein für den optimalen Blickwinkel ist der sicher zu breit. Was an den Rändern li+re abgeht nehm ich nicht mehr wahr.
Ähnlich seh ich es mit Rt/gefakten Effekten. Wenn ich die yt Vergleiche sehe, so ist der Unterschied marginal. Man hat in den letzten Jahren schon viel aus den "falschen" Reflektionen rausgeholt. Wenn ich die Wahl hätte 140fps/hz ohne RT oder 70fps/hz mit RT, so würde ich RT sofort deaktivieren.
 
Bei mehr als 29" müsste aus Ergonomiegründen eigentlich der Sitzabstand größer werden und damit die Pixel nicht sichtbar werden.
 
Ähnlich seh ich es mit Rt/gefakten Effekten. Wenn ich die yt Vergleiche sehe, so ist der Unterschied marginal. Man hat in den letzten Jahren schon viel aus den "falschen" Reflektionen rausgeholt. Wenn ich die Wahl hätte 140fps/hz ohne RT oder 70fps/hz mit RT, so würde ich RT sofort deaktivieren.
Wat? Dann haste noch kein richtiges Raytracing gesehen und wie das Spiele verwandelt. :)

Forspoken mal als Beispiel. RTGI Path tracing via reshade. Also ich sehe da einen Unterschied.

Bioshock Infinite

Jedi Survivor
 
Vielleicht erwachen jetzt auch so langsam die letzten Hardcore-Fanboys :)
Ich meine, man kann sich doch nicht alles schönreden?

Letztlich geht es ausschließlich darum, noch mehr Kasse zu machen.
Man hat ja in den letzten zwei, drei Jahren so sehr darben müssen.
In meinen Augen eine recht dreiste Argumentation. Die scheinen die Kunden für komplette Idioten zu halten.

Von der Technik her sind die Dinger schon gut, aber dieses "biszurabsolutenneigeausmelken" des Kunden
ist einfach zu viel des Guten. Apple macht das aber genauso, eher noch übler.

Naja, ne NVidia kommt sowieso keine (mehr) her.
Ihr habt bei mir leider verschissen, Jungs. Und das nicht nur für´s kommende halbe Jahr.
(wobei das denen egal ist)
 
Vieles gelesen bezgl. NVidias Aussagen zu erhöhter Cache vs. reduziertem VRam.

Ob, oder ob NVidia nun sagt, mehr Cache = weniger notwendiger VRam.
Doch, die Folien sagen inhaltlich das, genau das und nichts anderes sollen sie aussagen:

"Wir haben den Cache erhöht, das Speichermanagement verbessert,
dadurch benötigt ihr weniger VRam, alles kein Problem..."

Das die Folien genau da aussagen sollen, versteht ja nun wirklich jeder Id...

Der einzige Punkt, warum man das im Marketinggequatsche nicht
mit einem konkreten Satz genau so sagen möchte/darf:

- glaubwürdiges Dementi im Schadenfall...
- Angst vor den in USA üblichen Sammelklagen...
Eigentlich hat Nvidia das zu keinem Zeitpunkt gesagt. Das Marketing hat sich bei der Veröffentlichung geschickt von "wie viel VRAM braucht man tatsächlich" entfernt. Der ganze Artikel hat erläutert warum das SI so klein ist und warum die damit einhergehende niedrigere Bandbreite keinerlei Problem ist. Dann kurz noch warum es keine 12gb Karte geben kann und man mit 8 bzw. 16gb vorlieb nehmen muss.
Auch Nvidia weiß dass dieser kleine Cache den VRAM niemals kompensieren kann. Es ist aber schlicht nicht mehr notwendig ein so breites SI zu nutzen und das wird dann gnadenlos zur Kostensenkung genutzt.
Nvidia schiebt Kosten vor damit Nvidia weiterhin hohe Margen die Kunden eine "kostengünstige" Karte erhalten.
 
warum ein 128bit si ganz klar wegen chipfläche
De wafer kostet 17000$ vs dem samsung bei knapp 8000$
Und früher etwa dem 28nm node von nur 4000$
Damals kostete ne 60er sku um die 150-200€ 1-1,10 kurs 2015 rum
vergleicht man das mit heute iste s klar das jeder mm² den man einsparen kann beim si geld bringt.
Aus einen 300mm wafer bekomt nvifia etwa 347 chips bei 190mm²
also kostet der ad106 min 48$
Der samsung 8nm kostet etwa 35$
das si skaliert nicht mit dem node daher nur 128bit
Folgende Komponente skalieren mit dem node
alu tmu rt ROP und tensor cores
Was nicht skaliert ist LastLevel cache und Si
Dabei teilt sich das auf in 2/5 der Fläche alu rop tmu tensor 1/5 rt core 1/5 cache 1/5 SI
Und je kleiner die sku desto mehr Fläche nimmt SI und LL cache ein.

es ist klar das nvidia kein andere wahl hat aber dennoch bei 50% chip könnte man 20gbps oder gddr6x chips verbauen preis ab etwa 10$ pro 16gbit
Der preis sollte bald fallen auf etwa 9$ pro 16gbit da 24gbps erhältlich ist und micron 24gbps schon exklusiv gibt.
ne bessere Lösungb wäre es wenn nvidia die ga104 chips mit der rtx3070 16gb und 16gbit chips verkaufen würde,
Diese kosten mittlerweile nur noch 7$ pro 16gbit
und mit ein wenig mühe lassen sich alle rtx3070 60ti umrüsten.
auch möglich das nvidia die quadro a2000 rebranded
oder verramscht den davon hat nvidia auch sehr volle lager mit
Was am ende passiert hängt vom Ai boom ab das ist jensen hoffnung damit die ampere gen doch noch nicht abgeschrieben werden muss.
Am Konsumenten markt wird sich indes nix tun man versucht die preise solange wie möglich hoch zu halten aber zunehmend sind 8gb vram einfach unverkäuflich

Ich sehe es so wenn der profi markt gpu a2000 nicht mehr verkauft werden kann für 1000€ werden die sku umgelabelt
Und wen die vollen lager mit rtx3070 8gb nicht leer werden wir die aktion wie inno3d gemacht hat in europa diese gemacht udn alle sku mit mehr vram ausgestatt werden und refurbish verkauft
Da vram derzeit saubillig ist verglichen mit der abschreibung der sku

Der schritt mit der rtx4060ti 16gb ist richtig nur der vram ist was arg langsam aber das kann man fixen mit nen refresh der Serie die ich erwarte ab q3 2024
Und nein nvidia Nachfolger blackwell wird es nicht vor 2026 geben
da n3 zwar gut ist ab 25000$ aber die chip riesig min 760mm²
und low end wieder bei 300mm² sein müsste.
Erst n2 mit gaa wird das fixen -40% Fläche
bsp gb106 4 gpc= 72sm mögliche 4 gpc je 18sm etwa 170mm²
60sm aktiv (wie der ad104) bei 3,0ghz bei unveränderten Struktur +- 36tf das entspräche der rtx4080 und mit geänderte Struktur (entspricht ad103 105$) min 50tf was nahe der rtx4090 wäre.
Das ist aber mit n4 unvorstellbar und mit n3 kaum besser etwa 10% kleiner Fläche das wäre min 320mm²
Und bei min 30% höheren kosten müsste die sku min ne 80ti sein bei keinen Leistungsunterschied daher wird blackwell definitiv nicht kommen 2024.
Und kosten nun n2 gaa wird um die 35000$ kosten der chip etwa 170mm² die sku ab 800€ als rtx6080
Sofern nvidia dem Takt hinterherrennt was anzunehmen ist
Dann wäre der fortschritt folgender
rtx50 ada refresh mit geänderte chip per sku
demzufolge
ad107 rtx5050 identisch zu rtx4060
ad106 rtx5060 identisch zu rtx4060ti
ad104 rtx5070 identisch zu rtx4070ti
ad103 mehr sm aktiv 84sm statt 76
ad102 nur wenn muss voler chip 142sm vs 128sm

2026 mit blackwell dann so
gb107 1sm 18sm 50er 4ghz 12tf 50er
gb106 2gpc 36sm 60er 4ghz 25tf 60er
gb104 4gpc 60sm 4ghz 50tf 70er
gb103 6gpc 96sm 4ghz 67tf 80er
gb102 8gpc 144sm 128sm aktiv 4ghz 90er bzw titan ab 90tf

ändert nvidia aber die sm Struktur auf 128 fp32 und halbierten int32 wird das pro sm 140 Operationen
da wird der Takt reduziert auf nur 2,5ghz das hängt davon ab ob damit die chipfläche reduziert werden kann.
Was denkbar wäre also statt 40% weniger Fläche dann 60% also theoretisch 4gpc =120mm² mit etwa 40tf Leistung
Das wär deutlich eher denkbar.
aber erste Szenario ist eher möglich sofern nvidia die arch nicht grundlegend ändert
Und wenn, ist es eher an die hopper arch angelehnt die aber deutlich geringer taktet
dafür mehr fp32 pro sm kann aktuell, bei 148 vs ada 88
140 erwarte ich bei blackwell oder keine Änderung und mehr Takt beides wäre möglich

Am ende wird aber gddr7 mit 54gbps bei blackwell dabei sein und an 64 128 und 192bit hängen
einzig der gb102 wird 256bit haben und mit etwa 460mm² sein min preis des chips bei etwa 280$
Zum vergleich der ad102 kostet 295$
10 gpc = 180sm 160sm aktiv = 112tf vs aktuell 63tf
aber mit n3 wäre das nicht umsetzbar.
Darum nutzt man derzeit alles um die chipfläche zu verringern und die kleineren Si je kleiner der chip wird.
Dagegen hilft nur mehr gbps und gddr7 soll sich dramatisch an bandbreite gewinnen da die struktur des gddr ändert
Statt 4bit zustand werden 3bit zustände genutzt daraus folgt min 36gbps maxed 54gbps
Das liegt primär an der fehlerkorrektur und somit wird der takt schneller erhöht
Erste module werden 36gbps haben und sehr schnell bei 54gbps landen.
Somit dürfte folgende 60er sku 2026 drin sein 36sm mit 140 fp32 pro sm 2,5ghz = 25tf mit 64bit und 54gbps = 432gb/s 16gb
Der gb106 dürfte bei etwa 48$ sein bei nur 85mm² 499€ als rtx6060 sein.
Ps6 wird 30tf haben und etwa q4 2026 kommen
kann sein das der n2 nochmal um 10% höher Takten kann also dann bei 2,8ghz ist

Diese hypothetische Ansatz muss man machen wenn man die Planung von nvidia erraten will.
Die rtx4060ti ist nicht optimal aber der beste kompromss mit 16gb und nur 288gb/s das ließe sich schnell mit 20gbps lösen
Was ich auch als 5060 erwarte gegen die 8gb Sku hilft es aber nicht
 
Zuletzt bearbeitet:
Ich verstehe nicht dass man heute im PC-GAMING überhaupt noch von fhd spricht.
Gut das deine Meinung nur deine Meinung ist und nichts was du anderen aufzwingen kann. Ich weiß nicht wie verblendet sein muss, das man nicht über den eigenen Tellerand schauen kann.
Das ist doch Müll.
Wie gesagt, einfach unterirdisch... Zumal eine PS5 in neuen Titeln auch keine bessere Optik bietet, von der man zuvor noch sprach.
Sicher gibts noch einige die kein Geld
Jetzt wird es noch unterirschischer, warum kein Geld ;) Das ist Müll und zwar bezogen auf eine arg beschränkte Sichtweise.
für einen 1440p >27 zoll Monitor haben und noch auf 24zoll fhd zocken. Ich kenne jedenfalls keinen.
Das interessiert aber im allgemeinen keinen. Es geht nicht um dich und mich, es geht um eine GPU die für eine Gewisse Zielgruppe ausgelegt ist. Egal was du darüber denkst.
Und ob die für ihren uralt low budget 100€ fhd Monitor
Und es geht absolut unterirdisch weiter. Das ist so klein ;)
eine 600€ rtx4070 brauchen halte ich für fraglich. Du kannst für dich alles so handhaben wie du willst. Aber mit einer unterbemittelten GPU in zu hohen Auflösungen zu spielen halte ich für fraglich ;). Nur um mal die andere Seite zu zeigen.

Meine rtx3060ti hängt an einem 5120x1440 Monitor und liefert in allen meinen games in hohen bis hohen >60fps.
Sicher, für Windows Kartenspiele brauche ich keine 3060ti. Für neue Spiele mit TopGrafik reicht die 3060ti in der Auflösung sicher nicht für konstante 60Fps und mehr. Nicht in Hohen,., bis sehr hohen Einstellungen.
Wenn NV oder andere behaupten dass man für 1440p umbedingt eine super teure rtx4090 dann ist dann reine Kundenaugenwischerei damit auch ja alle schön viel Geld ausgeben.
Nein, veraltete Grafik in hoher Auflösung ist nicht so mein Ding. Dann lieber aktuelle Grafik in etwas niedrigerer Auflösung.
Wer sagt 4090 für 1440p? Du kannst erstmal nutzen was du willst, für welche Auflösung auch immer.
Aber für 1440p ohne Überbreite wäre ohne Einschränkungen eine 4080 die richtige Wahl. (Was auch meine Wahl sein wird, oder die 7900XTX, aber die schon wieder mit Einschränkungen bei RT)
Für fhd würde ich jedem eine gebrauchte gtx1070 von ebay raten
ich würde dir auch lieber raten still zu sein, wenn du nicht über den Tellerand schauen kannst.
und fertig denn fhd zockt man wenn man ein extrem geringes Budget hat.
Unterirdisch. Wer bist du, das zu entscheiden.
Und das ganze raytracing lass ich mal aussen vor.
Wieder der nächste unüberwindbare Tellerand.
Das ist ein kleines optisches feature dass man gerne aktivieren kann wenn die gpu genug power hat. Aber so der optische Durchbruch denn man umbedingt haben muss ist es nicht.
Du meinst wie für andere 4k. Sorry, ich habe einige andere Monitore in den letzten Jahren auf dem Tisch gehabt. 4k, 1080p 144Hz und 1440p. Das ist so ein Hype den Angeber haben müssen, mehr nicht. Das beste ist, erstmal auf 1080p wenn überschüssige leistung da ist, mal in 4K auflösen und feststellen das das schon noch einiges bringt.

Mein persönlicher Weg ist 2560x1440p, aber dennoch kann ich jeden verstehen der mit einer 4070 1080p, oder anfänglich 1440p zocken will, genau wie jeden der nur in 4k zocken will. nur weil ich eine andere Vorstellung habe, bedeutet das nicht, das ich mich da nich reinversetzen , oder meinen Blickwinkel ändern kann.
Ein Spiel ohne RT dafür aber in höherer Auflösung mit max details etc sieht viel besser als als in niedriger Auflösung dafür mit Raytracing

Nein. Wäre deine Antwort aus einem anderen Blickwinkel.

Ich sage mal, für mich nicht. Lieber mit höchsten Einstellungen als in höherer Auflösung.

3060ti würde ich aktuell nur nutzen wollen, für 1080p mit Abstrichen. 4060ti nur für 1080p, für 1440p eigentlich eine 4070ti, oder 4080. Für 4k ab 4080, oder halt 4090.

Natürlich alles immer auch mit den AMD Gegenspielern. Also 4070ti ersetzt durch 7900XT und 4080 ersetzt durch 7900XTX, in Abhängigkeit von anderen Kriterien, wie VR zum Beispiel.
Die Spiele die ich zocke haben nix von dem. Dafür hab ich 5120x1440 auf 49". Das würde ich nicht missen. Auf Arbeit hab ich 24" fhd. Selbst zum arbeiten ist mir das zu wenig weshalb ich mir notdürftig mit 3 Monitoren beholfen haben. Hatte davor (vor 6/7 Jahren) 4k auf 28" mit ner gtx970. Die war dann zu schwach
Das folgende wollen wir mal herausarbeiten ;)
Kann man so nicht pauschal sagen.

Aber als nächstes kommt von dir
Due Auflösung hängt direkt mit der Bildschirmgrösse hab. Ich hab 49 Zoll ultrawide. Da ist 5120x1440 natürlich optimal. Fhd ist bei 24" ok, 27/28 ist für qhd passend. Ab 29" braucht man definitiv mehr als qhd sonst wirds zum pixelgeschubse.
Und schon leiferst du pauschale Aussagen, was deiner Meinung nach alle denken sollten.

ich arbeite auf 3x 27 Zoll 1080p Monitoren, da unsere Firma uns so ausgerüstet hat.

Spiele aktuell auf einem 1080p Monitor, hatte seiner Zeit einem 28 Zoll 4K Monitor zum Vergleich. Ich werden zum Zocken, nach Kauf meiner neuen GPU den Monitor wechseln zu 27, 0der 31,5 Zoll mit 1440p.
Vorher hatte ich 4k auf 28" das war schon geil. Auf Arbeit hab ich auch mikrige 24'/fhd und dafür 3 Monitore. Vorher hatte ich
Die Größe des Monitors die man haben und auch bezahlen will ist natürlich Geschmackssache. 49"/ultrawide braucht man nicht.
Wäre für mich nur etwas für die Arbeit. 49Zoll...
War für mich nur ein Spasskauf. Rein für den optimalen Blickwinkel ist der sicher zu breit. Was an den Rändern li+re abgeht nehm ich nicht mehr wahr.
Ähnlich seh ich es mit Rt/gefakten Effekten. Wenn ich die yt Vergleiche sehe, so ist der Unterschied marginal. Man hat in den letzten Jahren schon viel aus den "falschen" Reflektionen rausgeholt. Wenn ich die Wahl hätte 140fps/hz ohne RT oder 70fps/hz mit RT, so würde ich RT sofort deaktivieren.

Das kannst du gerne machen.

Ich persönlich werde RT immer nutzen sofern möglich, ansonsten kann ich auch weiter mit mittleren Details zocken, da der optische Utnerschied zu klein.

Weiter finde ich das dort wo RT gut eingesetzt wird, es schon deutlich für eine glaubwürdigere Beleuchtung sorgen kann. Soiegelungen sind auch nett.

Wobei ich dir auch Recht geben muss, das es auch gute Optik ohne RT gibt. Atomic Heart sieht auch recht gut aus.

Max Details ist aber jetzt mit RT.
 
Zuletzt bearbeitet:
Doch, die Folien sagen inhaltlich das, genau das und nichts anderes sollen sie aussagen:
Kannst du den entsprechenden Ausschnitt zitieren?
Das die Folien genau da aussagen sollen, versteht ja nun wirklich jeder Id...
Eine Begründung warum 128bit, wieso daran nur 1GB oder 2GB Chips funktionieren und wie hoch die effektive Bandbreite ist.

Einsparungen durch den L2 gegenüber der Speichermenge werden nicht angesprochen.
 
Zurück