News Geforce RTX 5090 (Ti): Gerüchte nennen 24.576 Shadereinheiten und 32 GiByte GDDR7-Grafikspeicher mit 512-Bit

Genau das, was ich auch shcon oft festgestellt habe. Ohne DLSS als Gehhilfe, wäre das eine miserable Performance, im Verhältnis zum Preis.
Wieso ist das überhaupt relevant? DLSS sieht besser aus als nativ, wieso sollte man DLSS nicht einschalten?
Das ist auch das was allgemein in der Debatte darum etwas untergeht. DLSS ist ja gut und schön aber es täuscht meiner Meinung nach deutlich darüber hinweg, dass das Verhältnis zwischen Preis und Leistung, wie eine Schere, auseinanderdriftet oder aber es zeigt gut auf, dass die beworbenen Features eben bei weitem nicht so gut laufen, wie es in solch einem Segment eigentlich sein sollte, ohne Hilfen.
Siehe oben.
Jep, genau so ist es.
Und zur GPU, ja, ich orientiere mich auch mehr auf die Rohleistung. RT/PT wird für mich dann erst interessant, wenn es a) sich deutlich sichtbar ohne Lupe und Slider von der regulären Berechnung abhebt und dann auch nativ gerendert wird, ohne Hilfen wie DLSS. Ich verweise an der Stelle noch einmal darauf, dass man hier den Hersteller dazu verhilft, die Margen künstlich zu erhöhen, ohne die Rohleistung im gleichen Maße anzuheben.

MfG
Du benötigst eine Lupe um zwischen Non RT und RT/PT zu unterscheiden?
Möglicherweise bist Du stark weitsichtig und Du weißt es einfach nicht?

Mal abgesehen davon dass die Rohleistung (Raster und Raytracing) zuletzt massiv gestiegen ist mit Lovelace.
 
Das Thema wie man Spiele testet wird in Zukunft sehr wichtig werden da dlss fsr und frame generation explizit ausgeschlossen werden müssen.
Daher wird es aufwendiger
Einmal Mindest settings nativ low und einmal maxed settings nativ jeweils ohne msaa sma taa.
Mit dem Hinweis das diese upscaler die perf verbessern. aber optische nachteile mitbringen.
Ansonsten wird das nicht mehr vergleichbar zwischen den gpu Generationen.
 
Aber auch mehr und mehr sinnfrei, nur auf Rohleistung zu schauen.
Doch, ich halte das sogar angesichts der eben v.a. damit auch begründeten Preise für extrem relevant. Sonst landen wir absehbar bei einem Stillstand der Hardware-Entwicklung, die mit Softwaretricks aufgehübscht, noch teurer angepriesen wird und letztlich einen allgemeinen Entwicklungsstillstand bedeutet, der jegliche Optimierung obsolet werden lässt. Technischer Fortschritt in der IT war bislang immer durch v.a. Verbesserung der Rechenleistung und Optimierung von Algorithmen / Software-Prozessen bestimmt. Mit dem neuen "Wunder- bzw. Allheilmittel" KI soll dies nun angesichts (angeblich) immer teurer werdender Entwicklungs- und Fertigungsprozesse gerichtet werden und letztlich wird etwas vorgetäuscht, was nicht da ist: nämlich Rechenleistung.

Konkret: Statt nativ z.B. Fotorealismus in 4k anzustreben, wird irgendwas bestenfalls in 1k gerastert und dann "intelligent", aber künstlich skaliert. Das ist an sich noch kein Problem, solange der optische Eindruck passt. Nur, dass für diese eigentlich 1k-Grafikkarten Preise aufgerufen werden, als ob es echte 4k-befähigte Grafikkarten wären. Das erinnert mich zunehmend an frühere Tricks a la RAM-Doppler in Software o.ä.. Das ist dann zunehmend die Simulation von technischem Fortschritt zu exorbitanten Preisen.
 
Ich meine so etwas wie etwa aus diesem Mod-Paket: https://www.nexusmods.com/starfield/mods/496
Da wurden zahlreiche Texturen für hohe Auflösungen deutlich optimiert und damit grafisch / optisch deutlich auch gegenüber dem Auslieferungsszustand verbessert, der m.M.n. eindeutig mit Blick auf die Leistungsfähigkeit der XBSX abgestimmt wurde - und mit u.a. dieser Mod zieht die Grafik etwa in meinem System in anspruchsvollen Bereichen wie Atlantis City dann fast 16 GB VRAM.
Na Klasse.
Und weil du darauf bestehst, dir ein blödsinniges ultra 8k Texture Pack zu installieren, ist also NVidia jetzt doof, weil die "zu wenig VRam" verbauen.
Nimm das 16k Texture Pack, dann reicht auch deine Karte nicht.
Alles unter 16k Texturen sieht ja auch total Kacke aus, nicht wahr?
Dein Anwendungsszenario ist vermutlich für 99.999% aller Benutzer vollkommen irrelevant!
Das ist nun eine Frage, was man unter "effizienter"versteht - mir fehlt da der direkte Vergleich, aber es kann sich dabei ja nur um die Befüllung, ggf. Auslagerung und wieder Freigabe handeln - denn wenn grafische Inhalte eine Menge X an VRAM anfordern/belegen, kann NV auch nicht viel mehr machen als solange VRAM zur Verfügung stellen, bis er ausgeht und dann wird im besten Fall ausgelagert...
FYI: NVidia hat die besseren Textur Kompressionsverfahren und benötigt deswegen weniger VRam, als andere Hersteller.
Auch hier nochmal: Mir geht es in meinen Ausführungen nicht primär um den absoluten Preis, sondern das Verhältnis aus Preis u. Leistung insbesondere auch innerhalb einer Generation. Mir z.B. taugt das schon lange nicht mehr. Einen Teil hat das Mining samt Pandemie zu den stark gestiegen Preisen beigetragen, der Rest ist einfach hartes Up-Selling, wo man halt mittlerweile zunehmend nicht wie bei früheren Generation mehr "Bang for the (same or less) Bucks" bekommen hatte, sondern sich die Hersteller den technsichen Fortschritt a) vergolden lassen und b) Effizienzgewinne bei der Herstellung auch ausschließlich zu ihrem eigene Profit verwendet werden.
Investiere deine eigene Kohle, dann bekommst du auch ein Mitspracherecht, was mit dem Profit zu geschehen hat!
Früher (also bis ca. in die frühen 2000er) hat sich nämlich die Computerbranche noch etwa gegenüber Autoherstellern damit gerühmt, wie stark die Kunden vom Entwicklungsfortschritt profitieren würden, auch finanziell - gab da diese schöne Aussage von Bill Gates in seinem Buch “Der Weg nach vorn”: “Wenn die Autoindustrie solche Fortschritte gemacht hätte wie die Computerindustrie, würden wir heute für 40 Mark ein Auto bekommen, das 0,3 l/100 km verbraucht.”

Heute will man sich auch hier analog der Automobilbranche jedes Feature am liebsten extra bezahlen lassen. Das Modell funktioniert halt, weil wir es etwa bei GPUs mittlerweile quasi mit einem Duopol zu tun haben, in dem die beiden Protagonisten sich offenbar die Claims sauber abgesteckt haben, so dass für jeden die optimale Marge herausspringt. Ich werte das auch erst Mal gar nicht (sondern berücksichtige das direkt in meinem Kaufverhalten) und wenn, dann müssten da Kartellbehörden drauf schauen. Sondern ich sehe halt eine Entwicklung, bei der künftig nur noch die "Reste" (auch hinsichtlich Produktionskapazitäten) für die Spielerschaft zu Spitzenpreisen angeboten werden und die Spitzenprodukte direkt ins B2B-Geschäft wandern, und dort noch mehr Marge generieren. Das ist betriebswirtschaftlich auch folgerichtig. Fragt sich nur, wielange damit ein PC Gamingmarkt eine Perspektive behält, die auch Spielehersteller animiert immer neue Grenzen auszuloten. Klar wird es weiterhin reichlich Leute geben, für die die aufgerufenen Preise eh Peanuts sind bzw. die es als unabdingbaren Invest ins Haupt-Hobby sehen, der nunmal anfällt, will man das aktuell Beste haben. Aber das ist so wie die Leserschaft hier im Forum eine verschwindende Minderheit. Man sehe einfach nur mal in die Steam-Surveys der jüngeren Zeit, was dort nach wie vor dominiert - und das dürfte angesichts der Nutzerzahlen von Steam durchaus representativ sein. Letztlich bleibt alles eine akademische Debatte, weil es keine nennenswwerten Einfl.ussmöglichkeiten auf die Produkt- wie Preis-Politik der Konzerne gibt. Einzig bei unzulässigen Preisabsprachen o.ä. könnten vllt. noch Kartellbehörden etwas ausrichten, aber auch nur dann, wenn ein entsprechender Nachweis geführt werden kann.
Solange die neuen GPUs weiterhin gekauft werden, darf man davon ausgehen, dass die Kunden die Preise mehr oder weniger angemessen finden.
Natürlich gibt es immer welche, die das anders sehen.
Es rennt bestimmt auch irgendwo jemand rum, der meint, ein Bugatti dürfte nur so viel kosten wie 10 Kaugummis.
Und es besteht immer noch die Möglichkeit, als Käufer auf den Markt einzuwirken, indem man bestimmte Produkte einfach nicht kauft.
Aber auch damit wird man sich nicht gegen die Mehrheit der anderen stemmen können.
Doch, ich halte das sogar angesichts der eben v.a. damit auch begründeten Preise für extrem relevant. Sonst landen wir absehbar bei einem Stillstand der Hardware-Entwicklung, die mit Softwaretricks aufgehübscht, noch teurer angepriesen wird und letztlich einen allgemeinen Entwicklungsstillstand bedeutet, der jegliche Optimierung obsolet werden lässt. Technischer Fortschritt in der IT war bislang immer durch v.a. Verbesserung der Rechenleistung und Optimierung von Algorithmen / Software-Prozessen bestimmt. Mit dem neuen "Wunder- bzw. Allheilmittel" KI soll dies nun angesichts (angeblich) immer teurer werdender Entwicklungs- und Fertigungsprozesse gerichtet werden und letztlich wird etwas vorgetäuscht, was nicht da ist: nämlich Rechenleistung.
Ich kaufe mit einer GPU zum Spielen keine Rechenleistung.
Ich will nur möglichst viele Bilder pro Sekunde.
Ob die das mit Rechenleistung machen, mit KI Upscaling, oder mit Voodoo und schamanistischen Ritualen, ist mir dabei völlig Latte.
Und möglicherweise liegt allein in der Entwiclung von Verfahren, die sowas leisten, auch ein Wert, nicht nur in der Herstellung von immer mehr Rechenleistung auf immer kleinerem Raum.
KI Upscaling und Raytracing sind gerade DER technologische Fortschrittsmoment überhaupt.
In diesem Zusammenhang von Stillstand und Stagnation zu labern ist einfach nur ignorant und vermutlich ausschliesslich durch Böswilligkeit und Neid zu erklären.
Konkret: Statt nativ z.B. Fotorealismus in 4k anzustreben, wird irgendwas bestenfalls in 1k gerastert und dann "intelligent", aber künstlich skaliert. Das ist an sich noch kein Problem, solange der optische Eindruck passt. Nur, dass für diese eigentlich 1k-Grafikkarten Preise aufgerufen werden, als ob es echte 4k-befähigte Grafikkarten wären. Das erinnert mich zunehmend an frühere Tricks a la RAM-Doppler in Software o.ä.. Das ist dann zunehmend die Simulation von technischem Fortschritt zu exorbitanten Preisen.
Wie bereits erwähnt, handelt es sich bei der Entwicklung von Verfahren, die so etwas anders als mit roher Rechengewalt zu bewerkstelligen imstande sind, um einen eigenständigen Wert.
Offenbar wollten die zig tausend Entwickler für ihre Arbeit daran ebenso bezahlt werden, wie die Leutchen, die in der Fab die Chips ätzen.
Du tust ja gerade so, als gäbe es so etwas wie "echte" 4k Karten.
Zeig mir doch mal eine.
Bis dahin weiss ich, was ich von solchen Äusserungen zu halten habe.
 
Zuletzt bearbeitet:
Na Klasse.
Und weil du darauf bestehst, dir ein blödsinniges ultra 8k Texture Pack zu installieren, ist also NVidia jetzt doof, weil die "zu wenig VRam" verbauen.
Nimm das 16k Texture Pack, dann reicht auch deine Karte nicht.
Alles unter 16k Texturen sieht ja auch total Kacke aus, nicht wahr?
Dein Anwendungsszenario ist vermutlich für 99.999% aller Benutzer vollkommen irrelevant!
Das ist das wirklich blödsinnigste Argument für zu wenig VRAM, das ich je gelesen habe: Es geht hier darum, dass die Texturen in einem Spiel Auflösung vermissen lassen, weil sie offenbar auf schwächere Konsolen-Hardware hin optimiert wurden und ich auf meinem PC-Monitor das jedoch mit entsprechend verbesserten, aber dann halt auch größeren Texturen beheben kann - das funktioniert aber nur solange die Grarfikkarte, diese Texturen auch verarbeiten kann.
FYI: NVidia hat die besseren Textur Kompressionsverfahren und benötigt deswegen weniger VRam, als andere Hersteller.
Ach ja - und diese komprimierten Texturen können dann auch unverändert und komprimiert an den Bildschirm übertragen werden, oder wie? Man müssen die bei AMD bescheuert sein, dass sie so viel VRAM verschwenden, wo doch ein paar Zeilen Code zur Komprimierung reichen würden. Entweder findet das verlustbehaftet statt (wie bei hoch komprimierten MP3, was sogar ein ungeschultes Gehör dann merkt) und Bildinformation bleibt dabei auf der Strecke - ja, dann kann ich mir die hoch aufgelösten Texturen sparen - oder es dient nur dazu ein zu schmalbandiges Speicherinterface (was auch bei einem Großteil der aktuellen GPUs zutrifft) zu kaschieren, kostet dann aber Rechenleistung, wenn diese Texturen häppchenweise wieder zur Bilddarstellung de-komprimiert werden müssen. Und warum hat dann eine 4090, die Rechenleistung satt hat, nicht auch nur 12 GB. Reicht doch angeblich, wenn die Komprimierung bei NV so genial ist?
Investiere deine eigene Kohle, dann bekommst du auch ein Mitspracherecht, was mit dem Profit zu geschehen hat!
Was soll denn das für ein Argument bzgl. der Verkaufspreise sein?
Solange die neuen GPUs weiterhin gekauft werden, darf man davon ausgehen, dass die Kunden die Preise mehr oder weniger angemessen finden.
Darauf könnte ich jetzt mit dem "Millionen-Fliegen"-Zitat antworten, aber geschenkt: Schön für dich, wenn Du das Geld nur so herumliegen hast, um es NV und seinen Aktionären in den Rachen zu werfen, um überteuerte Produkte zu erwerben. Ist jedem persönlich überlassen, was er mit seiner Kohle macht. Deshalb muss ich die aktuelle Preispolitik noch lange nicht gutheißen und Nicht-Akzeptanz führt dann halt auch bei mir zu Nicht-Kauf. Fertig. Wenn NV weiterhin Erfolg mit seiner Produkt- und Preispolitik hat, auch schön für NV und seine Aktionäre. Bei sich ändernden Marktbedingungen kann damit aber auch ganz schnell Ende Fahnenstange sein - gerade in der IT ist damit schon manch ehemals Großer richtig schnell baden gegangen. Und wenn du dann Aktien von dem Laden hast, kannst nur hoffen, dass du rechtzeitig umschichtest. Sollten etwa die USA ihr KI-Embargo gegen China konsequent weiter vorantreiben, ist schnell z.B. einer der wesentlichen Absatzmärkte gerade für Nvidias KI-Produkte futsch und dann könnten sie schnell wieder auf Umsätze durch ihre Gaming-Sparte angeweisen sein, haben dann aber ggf. ein komplettes Brot&Butter-Preissegment unterhalb 400€ sträflich vernachlässigt.
 
Zuletzt bearbeitet:
Das ist das wirklich blödsinnigste Argument für zu wenig VRAM, das ich je gelesen habe: Es geht hier darum, dass die Texturen in einem Spiel Auflösung vermissen lassen, weil sie offenbar auf schwächere Konsolen-Hardware hin optimiert wurden und ich auf meinem PC-Monitor das jedoch mit entsprechend verbesserten, aber dann halt auch größeren Texturen beheben kann - das funktioniert aber nur solange die Grarfikkarte, diese Texturen auch verarbeiten kann.
Es handelt sich trotzdem um willkürlich von dir festgelegte Kriterien und Grenzwerte.
Wenn du darauf bestehst, dass ein Textur Mod, das nur mit 768 Terabyte VRam überhaupt funktioniert erforderlich ist, damit es nicht nach billig Konsolengrafik aussieht, dann mach, was du willst.
Allen anderen sind so merkwürdig verdrehte Ansichten vollkommen egal.
Ach ja - und diese komprimierten Texturen können dann auch unverändert und komprimiert an den Bildschirm übertragen werden, oder wie? Man müssen die bei AMD bescheuert sein, dass sie so viel VRAM verschwenden, wo doch ein paar Zeilen Code zur Komprimierung reichen würden. Entweder findet das verlustbehaftet statt (wie bei hoch komprimierten MP3, was sogar ein ungeschultes Gehör dann merkt) und Bildinformation bleibt dabei auf der Strecke - ja, dann kann ich mir die hoch aufgelösten Texturen sparen - oder es dient nur dazu ein zu schmalbandiges Speicherinterface (was auch bei einem Großteil der aktuellen GPUs zutrifft) zu kaschieren, kostet dann aber Rechenleistung, wenn diese Texturen häppchenweise wieder zur Bilddarstellung de-komprimiert werden müssen. Und warum hat dann eine 4090, die Rechenleistung satt hat, nicht auch nur 12 GB. Reicht doch angeblich, wenn die Komprimierung bei NV so genial ist?
Informiere dich mal, bevor du so einen Unsinn postest!
Mehr Kommentar habe ich für so einen Unfug nicht übrig.
Was soll denn das für ein Argument bzgl. der Verkaufspreise sein?

Darauf könnte ich jetzt mit dem "Millionen-Fliegen"-Zitat antworten, aber geschenkt: Schön für dich, wenn Du das Geld nur so herumliegen hast, um es NV und seinen Aktionären in den Rachen zu werfen, um überteuerte Produkte zu erwerben. Ist jedem persönlich überlassen, was er mit seiner Kohle macht. Deshalb muss ich die aktuelle Preispolitik noch lange nicht gutheißen und Nicht-Akzeptanz führt dann halt auch bei mir zu Nicht-Kauf. Fertig. Wenn NV weiterhin Erfolg mit seiner Produkt- und Preispolitik hat, auch schön für NV und seine Aktionäre. Bei sich ändernden Marktbedingungen kann damit aber auch ganz schnell Ende Fahnenstange sein - gerade in der IT ist damit schon manch ehemals Großer richtig schnell baden gegangen. Und wenn du dann Aktien von dem Laden hast, kannst nur hoffen, dass du rechtzeitig umschichtest. Sollten etwa die USA ihr KI-Embargo gegen China konsequent weiter vorantreiben, ist schnell z.B. einer der wesentlichen Absatzmärkte gerade für Nvidias KI-Produkte futsch und dann könnten sie schnell wieder auf Umsätze durch ihre Gaming-Sparte angeweisen sein, haben dann aber ggf. ein komplettes Brot&Butter-Preissegment unterhalb 400€ sträflich vernachlässigt.
Vielleicht sollte NV dich als Manager engagieren; du scheinst ja jedenfalls sehr davon überzeugt, dass du alles besser weisst, als Leute, die seit Jahren für so etwas Millionengehälter scheffeln (was man denen nicht durchgehen lassen würde, wenn sie dabei nicht auch extrem erfolgreich wären).
 
Na Klasse.
Und weil du darauf bestehst, dir ein blödsinniges ultra 8k Texture Pack zu installieren, ist also NVidia jetzt doof, weil die "zu wenig VRam" verbauen.
Ja, wie zum beispiel bei den 4070ern. HighEnd Preise verlangen aber dann nicht mal angemessene 16 GB verbauen. Na klar, wer wenn nicht Nvidia sollte etwas dafür können?!
FYI: NVidia hat die besseren Textur Kompressionsverfahren und benötigt deswegen weniger VRam, als andere Hersteller.
Haha, was ist denn das für ein bescheidenes Argument etwas schönzureden, wo es nichts schönzureden gibt. Ist das aus einem Nvidia-Positionspapier? :-D
Solange die neuen GPUs weiterhin gekauft werden, darf man davon ausgehen, dass die Kunden die Preise mehr oder weniger angemessen finden.
Das macht an den Preis rein gar nichts besser, es legt nur dar, dass wegen ein paar Wenigen, die für alles bezahlen, alle viel mehr zahlen müssen.^^
Natürlich gibt es immer welche, die das anders sehen.
Es rennt bestimmt auch irgendwo jemand rum, der meint, ein Bugatti dürfte nur so viel kosten wie 10 Kaugummis.
Und es besteht immer noch die Möglichkeit, als Käufer auf den Markt einzuwirken, indem man bestimmte Produkte einfach nicht kauft.
Was für ein seichtes Argument, bei Autos hat man die Auswahl, an sehr vielen Alternativen, bei GPUs jedoch nicht. Das ist quasi ein Duopol und das kann man sehr schön an den Preisen erkennen. Nvidia dreht schon seit langem an der Preisschraube, von Gen zu Gen, labelt um und es gibt immer noch welche die das schönreden... unglaublich.^^
Ich kaufe mit einer GPU zum Spielen keine Rechenleistung.
Ich will nur möglichst viele Bilder pro Sekunde.
Na dann kauf halt midgen und lass deinen TV upscalen, wenn es dir nur um fps geht...^^
Ob die das mit Rechenleistung machen, mit KI Upscaling, oder mit Voodoo und schamanistischen Ritualen, ist mir dabei völlig Latte.
Siehe oben.
Und möglicherweise liegt allein in der Entwiclung von Verfahren, die sowas leisten, auch ein Wert, nicht nur in der Herstellung von immer mehr Rechenleistung auf immer kleinerem Raum.
KI Upscaling und Raytracing sind gerade DER technologische Fortschrittsmoment überhaupt.
Nö, RT ist viel zu früh, siehe zu wenig Rohleistung und Upscaling ist einfach nur ein verlustbehafteter workaround, damit man dieses angepriesene feature überhaupt nutzen kann und dient damit als Begründung für die hohen Preise. Durch FG bekommst du dann noch gratis eine höhere Latenz dazu, schöne neue Welt aber natürlich gut für Nvidia, die mit weniger Input deutlich mehr Profit machen können.
In diesem Zusammenhang von Stillstand und Stagnation zu labern ist einfach nur ignorant und vermutlich ausschliesslich durch Böswilligkeit und Neid zu erklären.
Aber genau so ist es und DLSS/FG und Co, werden das in Zukunft noch schlimmer machen, da diese die Stagnation kaschieren.

MfG
 
Doch, ich halte das sogar angesichts der eben v.a. damit auch begründeten Preise für extrem relevant. Sonst landen wir absehbar bei einem Stillstand der Hardware-Entwicklung, die mit Softwaretricks aufgehübscht, noch teurer angepriesen wird und letztlich einen allgemeinen Entwicklungsstillstand bedeutet, der jegliche Optimierung obsolet werden lässt. Technischer Fortschritt in der IT war bislang immer durch v.a. Verbesserung der Rechenleistung und Optimierung von Algorithmen / Software-Prozessen bestimmt. Mit dem neuen "Wunder- bzw. Allheilmittel" KI soll dies nun angesichts (angeblich) immer teurer werdender Entwicklungs- und Fertigungsprozesse gerichtet werden und letztlich wird etwas vorgetäuscht, was nicht da ist: nämlich Rechenleistung.

Konkret: Statt nativ z.B. Fotorealismus in 4k anzustreben, wird irgendwas bestenfalls in 1k gerastert und dann "intelligent", aber künstlich skaliert. Das ist an sich noch kein Problem, solange der optische Eindruck passt. Nur, dass für diese eigentlich 1k-Grafikkarten Preise aufgerufen werden, als ob es echte 4k-befähigte Grafikkarten wären. Das erinnert mich zunehmend an frühere Tricks a la RAM-Doppler in Software o.ä.. Das ist dann zunehmend die Simulation von technischem Fortschritt zu exorbitanten Preisen.
Du vermischt da für mich zu sehr Objektivität und deine subjektive Wahrnehmung.
Dir braucht das ja nicht gefallen. Objektiv zählt aber nur das Ergbenis.

Wenn die Trickserei also gu tgenug aussieht und sich die Leistung mit Tricks schnell genug entwickelt. Gibt es keinen Grund das nicht auch zu honorieren.

Auch durch die Entwikclung ist das in Grenzen zu erklären. Irgendwwer muss das ja auch entwickeln.

Das war auch immer so und schon immer in den GPU Preisen drin.

Es wird lediglich noch etwas verlagern, mehr Anteil des Preises entfällt auf die Entwicklung diverser Techniken und weniger Anteil der reinen Hardware.

Das ist aber objektiv erstmal völlig Latte für den Kunden.

Das Ergbnis zählt.
 
Informiere dich mal, bevor du so einen Unsinn postest!
Oh, mir sind einige Ideen und Konzepte dazu durchaus bekannt (https://research.nvidia.com/labs/rtr/neural_texture_compression/). Das ändert aber nichts an der Tatsache, dass ein Monitor mit komprimierten Texturen an sich, egal wie clever diese (z.B. durch Einsatz weiterer KI-basierter Verfahren und Algorithmen seitens NV) verwurstet werden, nichts anfangen kann. Also brauchts für vernünftige Performance Rechenleistung pur und auch ausreichend VRAM, um die Pixelraten Richtung Monitor aufzubereiten und durch zu schieben. Vielleicht in der Argumentation nicht immer von sich auf andere schließen.
 
Ja, wie zum beispiel bei den 4070ern. HighEnd Preise verlangen aber dann nicht mal angemessene 16 GB verbauen. Na klar, wer wenn nicht Nvidia sollte etwas dafür können?!
<500 Euro ist kein High End Preis.
Haha, was ist denn das für ein bescheidenes Argument etwas schönzureden, wo es nichts schönzureden gibt. Ist das aus einem Nvidia-Positionspapier? :-D
Dass Nvidia das bessere Vram Management hat ist unbestritten und auch von PCGH bestätigt.
Das macht an den Preis rein gar nichts besser, es legt nur dar, dass wegen ein paar Wenigen, die für alles bezahlen, alle viel mehr zahlen müssen.^^
Paar wenige?
Allein die RTX 4090 hat sich innerhalb von 2 Wochen 100.000 mal verkauft:
Na dann kauf halt midgen und lass deinen TV upscalen, wenn es dir nur um fps geht...^^
Vollkommen realitätsfremd Technologien wie DLSS und FSR mit TV Upscaler zu vergleichen.
Nö, RT ist viel zu früh, siehe zu wenig Rohleistung und Upscaling ist einfach nur ein verlustbehafteter workaround, damit man dieses angepriesene feature überhaupt nutzen kann und dient damit als Begründung für die hohen Preise. Durch FG bekommst du dann noch gratis eine höhere Latenz dazu, schöne neue Welt aber natürlich gut für Nvidia, die mit weniger Input deutlich mehr Profit machen können.
Definitiv nicht zu früh, ich habe in RT dreistellige FPS Zahlen dank DLSS und FG, es sieht fantastisch aus bei gleichzeitig hoher Framerate und das mit niedrigem Energieverbrauch.

Was Dir vorschwebt ist einfach vollkommen realitätsfremd.
Aber genau so ist es und DLSS/FG und Co, werden das in Zukunft noch schlimmer machen, da diese die Stagnation kaschieren.
@FiatRatio beschreibt das sehr gut:
In diesem Zusammenhang von Stillstand und Stagnation zu labern ist einfach nur ignorant und vermutlich ausschliesslich durch Böswilligkeit und Neid zu erklären.
 
<500 Euro ist kein High End Preis.
Die RTX 4070 für <500€ würde ich gerne sehen - außer vllt. bei dubiosen Ebay-Angeboten oder Leuten, die das Teil gebraucht gleich wieder verscheppern ,weil es halt doch nicht leistet, was das NV-Marketing verspricht. In den Händlerangeboten, die mir geläufig sind, geht es bei knapp unter 600€ los und dann schnell Richtung 700€. Aber vermutlich gehöre ich mit meinem schmalen 3k Netto einfach zu den Minderleistern und sozial Abgehängten, dass mir deutlich >600€ schon als Highendpreise erscheinen. Oder liegt es vllt. daran, dass ich mir mein Gehalt erarbeiten und daraus den gesamten Lebensunterhalt bestreiten muss und es nicht als Taschengeld zum verjuxen gesponsert bekomme?
 
Die RTX 4070 für <500€ würde ich gerne sehen - außer vllt. bei dubiosen Ebay-Angeboten oder Leuten, die das Teil gebraucht gleich wieder verscheppern ,weil es halt doch nicht leistet, was das NV-Marketing verspricht. In den Händlerangeboten, die mir geläufig sind, geht es bei knapp unter 600€ los und dann schnell Richtung 700€. Aber vermutlich gehöre ich mit meinem schmalen 3k Netto einfach zu den Minderleistern und sozial Abgehängten, dass mir deutlich >600€ schon als Highendpreise erscheinen. Oder liegt es vllt. daran, dass ich mir mein Gehalt erarbeiten und daraus den gesamten Lebensunterhalt bestreiten muss und es nicht als Taschengeld zum verjuxen gesponsert bekomme?
Stimmt, es sind 600 Euro, aber auch 600 Euro ist kein "High End" Preis.
Wer bestimmt denn schon was ein High End Preis ist?
 
Oh, mir sind einige Ideen und Konzepte dazu durchaus bekannt (https://research.nvidia.com/labs/rtr/neural_texture_compression/). Das ändert aber nichts an der Tatsache, dass ein Monitor mit komprimierten Texturen an sich, egal wie clever diese (z.B. durch Einsatz weiterer KI-basierter Verfahren und Algorithmen seitens NV) verwurstet werden, nichts anfangen kann. Also brauchts für vernünftige Performance Rechenleistung pur und auch ausreichend VRAM, um die Pixelraten Richtung Monitor aufzubereiten und durch zu schieben. Vielleicht in der Argumentation nicht immer von sich auf andere schließen.
Tatsache ist, dass die Verwendung von komprimierten Daten heutzutage oftmals performanter ist.
Die Prozessoren können viel schneller die entkomprimierten Daten bereitstellen, als das RAM die unkomprimierten Daten übertragen würde.
Zwar wird dann sowohl das RAM, als auch der Prozessor beschäftigt, aber dennoch liegt das Ergebnis früher vor.
Folglich ist es ziemlich schlau, das zu benutzen.
Und NVidia hat hier ein paar Patente auf Kompressionsverfahren, die besser sind, als alles, was AMD gerade hat.
Natürlich werden an den Monitor dann die aus den Texturen erstellten Frames übertragen (meistens unkomprimiert).
Trotzdem befinden sich die Texturen immer komprimiert im RAM und alle Verfahren arbeiten mit den komprimierten Texturen, aus o.g. Gründen.
Das gleiche Prinzip kann man bei Festplatten beobachten:
Eine Festplatte, die 200 MB/s unkomprimierte Daten übertragen kann, kann wesentlich höhere Übertragungsraten erzielen, wenn 200 MB komprimierte Daten übertragen werden, die dann von der CPU auf sagen wir 280 MB entpackt werden.
Du erhältst dadurch eine effektive Datenrate von 280 MB/s zum Preis einer minimalen Latenz.
Aber selbst mit dieser Latenz ist die Übertragung von 280 MB früher abgeschlossen.
Möglicherweise sind dir "einige Ideen und Konzepte" dazu ja bekannt, wirkt aber auf mich ein bisschen so, als könntest du die Glocken läuten hören, aber hättest keine Ahnung, wo sie hängen.

Durch FG bekommst du dann noch gratis eine höhere Latenz dazu
Auch absoluter Bullshit.
Du bekommst keine höhere Latenz.
Das Game läuft mit x Fps, und du bekommst dann auch die Latenz von x Fps (bspw. 1/60 Sekunde).
Wenn FG jetzt zwischen 2 Frames noch eine künstlich generierte dazwischenschiebt, bekommst du eben genau das: ein paar Bilder mehr.
Inputs sind in den generierten Frames natürlich nicht enthalten, d.h. die Latenz bleibt gleich, und zwar abhängig von den zugrundeliegenden "originalen" Fps.
Besser aussehen und flüssiger laufen tut es damit trotzdem.
Und es gibt viele Spiele, bei denen das mit der Latenz vollkommen egal ist (z.B. so gut wie jeder Singleplayer Titel), aber die gehobene Bildrate sich optisch angenehm bemerkbar macht.
 
Zuletzt bearbeitet:
Man muss schon ziemlich viele gerade sein lassen um das nicht zu sehen
Wieso nicht sehen? Bei der 4080 stimme ich ja zu, bei der 4090 halt nicht.
Einfach den Preis um 40% senken und auf den Preis der High End Karte 2080 Ti von vor 5 Jahren zurückgehen, ist sicherlich nicht wirtschaftlich.

Bei der 4080 erlauben das die Herstellkosten, kostet mittlerweile sicherlich unter 300 Dollar.

Die Preisentwicklung verlangt förmlich nach boykott, denn nichts anders motiviert Hersteller zu Anpassungen.
Die Preisentwicklung verlangt nach starker Konkurrenz.
Die Preise der 4080/4070(Ti) sind/sollten sogar noch höher sein und hauptsächlich deshalb weil AMDs Topmodell nicht performt, weit weniger als RDNA2.

. Kann ja jeder handhaben wie er will aber eine einzelne GPU zum Preis von zwei Gaminglaptops
Welche Gaminglaptops sollen das denn sein? 2x einer mit ner 4GB RTX 3050/2050 und Ryzen 3 CPU?
vor allem wenn man sich vor Augen hält, dass die Rohleistung nicht mal ausreicht um aktuelle Features zu nutzen
Die Rohleistung der 4090 ist absolut brachial. Eine der größten Sprünge der letzten Jahre und ein absolutes Allroundtalent. Damit laufen nicht nur Spiele wie auf einer Konsole.
und auf Upscaling gesetzt werden muss, um das überhaupt spielbar zu machen.
Raytracing packt die 4090 auch ohne Upscaling in so gut wie allen Titeln.
Aber man wäre ja einfältig das nicht zu aktivieren. Sieht besser aus und schaufelt Ressourcen frei.

Für Nvidia natürlich super, maximaler finanzieller Output trifft auf minimalen Ressourceneinsatz.

MfG
Den Ressourceneinsatz einer 4090 ist was Chipgröße und Machbarkeit/Wirtschaftlichkeit anbelangt, absolut bleeding edge.
AMDs Ressourceneinsatz war eher klamm.
Aber ich vermute es geht dir wieder darum sinnfrei längst widerlegten Unsinn als Gegenmeinung neu zu präsentieren.
 
Zuletzt bearbeitet:
Tatsache ist, dass die Verwendung von komprimierten Daten heutzutage oftmals performanter ist.
Die Prozessoren können viel schneller die entkomprimierten Daten bereitstellen, als das RAM die unkomprimierten Daten übertragen würde.
Zwar wird dann sowohl das RAM, als auch der Prozessor beschäftigt, aber dennoch liegt das Ergebnis früher vor.
Folglich ist es ziemlich schlau, das zu benutzen.
Und NVidia hat hier ein paar Patente auf Kompressionsverfahren, die besser sind, als alles, was AMD gerade hat.
Natürlich werden an den Monitor dann die aus den Texturen erstellten Frames übertragen (meistens unkomprimiert).
Trotzdem befinden sich die Texturen immer komprimiert im RAM und alle Verfahren arbeiten mit den komprimierten Texturen, aus o.g. Gründen.
Das gleiche Prinzip kann man bei Festplatten beobachten:
Eine Festplatte, die 200 MB/s unkomprimierte Daten übertragen kann, kann wesentlich höhere Übertragungsraten erzielen, wenn 200 MB komprimierte Daten übertragen werden, die dann von der CPU auf sagen wir 280 MB entpackt werden.
Du erhältst dadurch eine effektive Datenrate von 280 MB/s zum Preis einer minimalen Latenz.
Aber selbst mit dieser Latenz ist die Übertragung von 280 MB früher abgeschlossen.
Wenn das so super ist, warum ist dann die 600 € teure 4070 keine Kaufempfehlung eben wegen den mageren 12 GB?
Kompressionsverfahren hin oder her, zu wenig Vram ist und bleibt zu wenig Vram.

MfG
Doch, ich halte das sogar angesichts der eben v.a. damit auch begründeten Preise für extrem relevant. Sonst landen wir absehbar bei einem Stillstand der Hardware-Entwicklung, die mit Softwaretricks aufgehübscht, noch teurer angepriesen wird und letztlich einen allgemeinen Entwicklungsstillstand bedeutet, der jegliche Optimierung obsolet werden lässt. Technischer Fortschritt in der IT war bislang immer durch v.a. Verbesserung der Rechenleistung und Optimierung von Algorithmen / Software-Prozessen bestimmt. Mit dem neuen "Wunder- bzw. Allheilmittel" KI soll dies nun angesichts (angeblich) immer teurer werdender Entwicklungs- und Fertigungsprozesse gerichtet werden und letztlich wird etwas vorgetäuscht, was nicht da ist: nämlich Rechenleistung.

Konkret: Statt nativ z.B. Fotorealismus in 4k anzustreben, wird irgendwas bestenfalls in 1k gerastert und dann "intelligent", aber künstlich skaliert. Das ist an sich noch kein Problem, solange der optische Eindruck passt. Nur, dass für diese eigentlich 1k-Grafikkarten Preise aufgerufen werden, als ob es echte 4k-befähigte Grafikkarten wären. Das erinnert mich zunehmend an frühere Tricks a la RAM-Doppler in Software o.ä.. Das ist dann zunehmend die Simulation von technischem Fortschritt zu exorbitanten Preisen.
Sehr gut erkannt, genau darauf habe ich auch schon hingewiesen. 1k berechnen und 4k Leistung abkassieren ist schon dreist. Die Technik an sich ist i. O. nur stehen die Preise in keinem Verhältnis mehr.

MfG
 
Zuletzt bearbeitet:
Wenn das so super ist, warum ist dann die 600 € teure 4070 keine Kaufempfehlung eben wegen den mageren 12 GB?
Kompressionsverfahren hin oder her, zu wenig Vram ist und bleibt zu wenig Vram.
Wenn das keine Kaufempfehlung ist, warum ist dann die ASUS TUF Gaming GeForce RTX 4070 Ti 12GB aktuell die beliebteste und meistgekaufte Grafikkarte bei Hardwareschotte?
 
wenn es a) sich deutlich sichtbar ohne Lupe und Slider von der regulären Berechnung abhebt...
RT/PT hebt sich deutlich ab, ohne Lupe und Slider, mal von einigen wenigen AMD unterstützten Spielen, die es extrem spärlich einsetzen, abgesehen.
und dann auch nativ gerendert wird, ohne Hilfen wie DLSS.
Weil du ja sofort sehen würdest, dass das doofe DLSS an ist, wenn du schon kein RT oder gar PT bemerkst?:schief:
Ich verweise an der Stelle noch einmal darauf, dass man hier den Hersteller dazu verhilft, die Margen künstlich zu erhöhen, ohne die Rohleistung im gleichen Maße anzuheben.
Und ich verweise nochmal darauf, dass du Unsinn redest und die Rohleistung mit der 4090 seit Jahren wieder enorm zugelegt hat.
Ähnliche Sprünge sah man damals mit der 1080 Ti.
 
Wenn das keine Kaufempfehlung ist, warum ist dann die ASUS TUF Gaming GeForce RTX 4070 Ti 12GB aktuell die beliebteste und meistgekaufte Grafikkarte bei Hardwareschotte?
Warum kaufen Leute iPhones, obwohl sie bekannter Maßen teurer und nicht besser als andere Smartphones sind?

Bei PCGH wird bei dem Preis keine unmittelbare Kaufempfehlung abgegeben, eben wegen den 12 GB RAM, da das, gerade bei dem Preis, als zu wenig erachtet wird und nicht zukunftstauglich. Aber ok, Gebe ruhig 600 €+ für nicht zukunftstauglich aus, vielleicht bringt ja Nvidia auch noch bessere Kompressionsverfahren... :devil:

MfG
 
Warum kaufen Leute iPhones, obwohl sie bekannter Maßen teurer und nicht besser als andere Smartphones sind?
Wer behauptete das denn?
Ich nutze selber kein iPhone, aber auch das ist Unsinn.
Bei PCGH wird bei dem Preis keine unmittelbare Kaufempfehlung abgegeben, eben wegen den 12 GB RAM, da das, gerade bei dem Preis, als zu wenig erachtet wird und nicht zukunftstauglich. Aber ok, Gebe ruhig 600 €+ für nicht zukunftstauglich aus, vielleicht bringt ja Nvidia auch noch bessere Kompressionsverfahren... :devil:
Das stimmt ja wieder nicht, siehe PCGH Fazit:
Sieht man sich die wichtigsten Disziplinen zur Bewertung einer Gaming-Grafikkarte an, macht Nvidia fast alles richtig. Die Geforce RTX 4070 erreicht die Leistung der 2,5 Jahre alten RTX 3080, bringt 20 Prozent mehr Speicher mit und benötigt circa 130 Watt weniger Energie - das ist Fortschritt.
Sogar das Preis-Leistungs-Verhältnis stimmt bei der Geforce RTX 4070, gemessen an ihren Geschwistern und den nächstgelegenen Radeon-Grafikkarten (siehe oben) kann man objektiv nicht viel kritteln.
Das ist definitiv eine Kaufempfehlung.
 
Zurück