Special Geforce versus KI: Lässt Nvidia die Spieler jetzt im Regen stehen? Ich glaube nicht! [Kommentar]

"Lässt Nvidia die Spieler jetzt im Regen stehen? Ich glaube nicht !"

Wir wollen aber nicht glauben, sondern wissen (inkl. Fakten) ... ;-)
Der Gaming-Markt ist im Consumermarkt eine gigantische “Kuh mit prallem Euter” aus dem anstelle von Milch pures Gold kommt. Also wird es auch immer jemanden geben, der dieser “Gold-Kuh” mit einer Hand ein paar besonders saftige Halme vor die Schnauze hält, während die andere Hand natürlich umso gieriger nach den Zitzen greift…
Das war ein mal ...
 

Anhänge

  • Kuh Jensi.png
    Kuh Jensi.png
    390,2 KB · Aufrufe: 13
Das war ein mal ...
Falls diese Umfrage hier
https://extreme.pcgameshardware.de/...-du-derzeit-zum-spielen-q3-2023.637650/page-4
auch nur halbwegs repräsentativ ist, glaube ich, dass es für Hersteller wie NV hier in der Tat noch ordentlich was zu "melken" gibt, wir werden das sicher in ein paar Monaten erleben, wenn immer mehr Infos zur "Ada-Lovelace"-Nachfolgegeneration "geleakt" werden...solange trotz lauter werdendem Gezeter und Geschrei aus der Community am Ende immer noch so viele mitmachen, wird man sich bei NV sagen: "...da geht ja doch noch was..."
 
am Ende ist es ja +- die gleiche Architektur, nur das bei den Consumer-Karten Features gestrichen wurden
Nö, ist es mittlerweile nicht mehr. Hopper ist eine KI-Architektur mit gigantischer Leistung bei der Matrixberechnung, welche wiederum beim Gaming gar nicht hilft.
Gibt schon erste spezialisierte Hardware (https://cloud.google.com/edge-tpu)
Die wird nun eben mehr forciert werden.
"AI on the Edge" bedeutet vorhandene Modelle live auf dem Endgerät ausführen, nicht anlernen eines KI-Modells. Genau für das Lernen wird Hopper wiederum benutzt.
Es gibt interessante Alternativen bei sogenannten biologischen Chips, aber kleine Tensorcluster sind es nicht, die sind was für Smartphones, Überwachungskameras, etc., bzw. bei aktuellen consumer GPUs auch vorhanden und dort eben für DLSS zuständig.
 
"AI on the Edge" bedeutet vorhandene Modelle live auf dem Endgerät ausführen, nicht anlernen eines KI-Modells. Genau für das Lernen wird Hopper wiederum benutzt.
Es gibt interessante Alternativen bei sogenannten biologischen Chips, aber kleine Tensorcluster sind es nicht, die sind was für Smartphones, Überwachungskameras, etc., bzw. bei aktuellen consumer GPUs auch vorhanden und dort eben für DLSS zuständig.
Naja, am Ende des Tages ist AI einfach Lineare Algebra. Das ist ungefähr so wie damals, als sich GPUs etabliert haben: Sie waren einfach effektiver als CPUs bei vielen simplen parallelen Berechnungen, während CPUs vielseitiger waren. Wird es hier eben mittel- bis langfristig auch spielen. Man braucht keine Video Processing Unit, keine Bildausgabe, Pixel Shader,...
Jetzt aufs Anlernen bezogen.

Beim Endanwender werden es dann ASICs sein, wo das angelernte Modell in Hardware gegossen wird.
 
Naja, am Ende des Tages ist AI einfach Lineare Algebra. Das ist ungefähr so wie damals, als sich GPUs etabliert haben: Sie waren einfach effektiver als CPUs bei vielen simplen parallelen Berechnungen, während CPUs vielseitiger waren. Wird es hier eben mittel- bis langfristig auch spielen. Man braucht keine Video Processing Unit, keine Bildausgabe, Pixel Shader,...
Jetzt aufs Anlernen bezogen.

Beim Endanwender werden es dann ASICs sein, wo das angelernte Modell in Hardware gegossen wird.
Und nochmal: Der Punkt mit der Spezialisierung ist mit Hopper längst erreicht. Das IST ein reines Deep Learning ASIC.
 
Eine Geforce RTX 5090, welche den UVP der Geforce RTX 4090 von 1.949 Euro noch einmal in den Schatten stellt und zum Start mehr als 2.000 Euro kosten wird, kann ich mir aktuell durchaus vorstellen, oder wie seht ihr das?
Erwarte ich auch, deshalb ist FSR3 so wichtig. Damit kann ich meine 6800XT noch einige Jahre nutzen. Falls sie zeitnah die Grätsche macht, ist nur ein Ersatz in meiner zukunftigen Schmerzgrenze 400-450€ möglich, was Stand heute eine RX 7700XT wäre. Und da ist FSR3 Gold wert.
 
Die wenigsten machen das denke ich. Und die GPU Preise sind echt unverschämt teuer in meinen Augen.
Aber solange es ein Hobby ist, kann jeder entscheiden wie er seinem Hobby nachgeht und wieviel er bereit ist für seine GPU zu zahlen..

Es würde mit Sicherheit mehr Freude bereiten wenn es günstiger wäre.
Für mich ist gaming ein recht unwichtiges Hobby da ich ca. 5h/Woche oder weniger zocke. 8ch zocke dabei meist über Jahre oft nur 1 Titel. Mein PC ist daher meist für genau diesen einen titel optimiert.Ob NV/AMD hängt bei mir immer ganz einfach davon ab bei welchem ich mehr fps/€ bei genau diesem Titel. Der aktuell weder dlss noch fsr kann wäre mein nächster Kauf wohl AMD da man im reiner Rasterleistung dort das meiste bekommt.
 
Sorry, das ging an mir dann wohl vorbei. Haben die Teile aber nicht nach wie vor Decoder Einheiten? Oder sind die speziell für Training mit Bild-/Videomaterial?
Aber wirklich ausschließlich Decoder, garkeine Encoder mehr und auch quasi keine ROPs
Dem entsprechend können die Spiele auch quasi gar nicht mehr beschleunigen:
 
Upselling ist das Stichwort.
Auch ist generell die Produktion der Produkte nicht so extrem gestiegen wie deren UVP.

Was ist denn so massiv gestiegen? genau! das Gehalt der Managements, und zwar massiv! und das will bezahlt werden. Was die Produkte letztendlich Wert sind, interessiert doch keinen dort, denn der Wasserkopf will nur Gewinn, Gewinn und Gewinn und das unverhältnismäßig viel.
Und solange das noch möglich ist, ist die Gaming-Sparte auch nicht tot oder jemand anderes bedient sich dran. Oder denkt hier ernsthaft wer, Intel ging in den GPU Bereich, weil sie Samarita der Gamer sind? nein. Weil sich in der Sparte geile Gewinne erwirtschaften lassen und die Mehrheit der Consumer ist leider auch noch so blöd und bezahlt die Preise, anstatt mal nen Jahr die Füße still zu halten und auf 5 FPS zu verzichten.
Von daher, RTX5090 für >2000€ sind kein Problem, es wird genug Dumme/Egoisten geben, die dieses Vorgehen mit Kauf unterstützen wollen.
 
Na die, welche genug verdienen.
Oder welche nicht im Steuerloch Deutschland leben.
Ich verdien ca. 5.7 Brutto könnte mir aber jeden Monat ne GPU für 1k kaufen wenns mir das wert wäre.
Liegt daran, dass bei uns aus 5.7 Brutto ca. 5 Netto wird und nicht 3...

Was heißt bei uns? USA?
Dort wirst du dich aber auch komplett selbst um Krankenversicherung, Rente, Pflege im Alter, ect. kümmern müssen. ;)
Wenn du es nicht machst, hast du jetzt zwar viel Geld, lebst aber später auf der Strasse... :nicken:
Jap, geh mal für ne 4köpfige Familie einkaufen. Da sind 200-250€ aktuell gefühlt gar nix:ugly:

Und dann lebe im Osten, wo viele um den Mindestlohn herumkrebsen...

Gruß
Deshalb "liebe" ich, und vor allem unsere Politiker :lol:, diese Statistiken. ;)
Meine Güte, es geht um die Gamingsparte, und die Leute erzählen nur, was sie (oder nicht) verdienen.

...

Weil es letztlich um Konsum(-güter) geht mit (imm er weiter steigenden) Preisen für das das Geld da sein muss.
Aber klar, über Geld spricht man nicht, dass hat man einfach... :D
 
Zuletzt bearbeitet:
Zum Upselling gehört vorab auch noch das Uppricing und das Downgrading.
Soll heißen: man setzt den Preis auf die vormals höherwertig eingestufe Leistungsklasse, gleichzeitig verwendet man aber die technische Grundausstattung der vormals niedriger eingestuften Leistungsklasse.
Dadurch sorgt man dann gleich in doppelter Hinsicht für ein falsches Preis-Leistungsverhältnis, und der Käufer wird darauf hingewiesen, dass er mit einem viel besseren Produkt zu einem sehr hohen Preis alles zumindest spielbar bekommt, und die Verlockung ist, dass der Preis pro Bild ohne damals üblichen Aufschlag sogar gleich bleibt.
Wer sich das schönrechnet, hat trotz hohen Ausgaben bei der Grafikkarte eben wegen dem Vorhandensein der übrigen Komponenten sogar das bessere PL Verhältnis, und wer geizig ist, müsste also möglichst hochpreisig kaufen, um am Ende sogar zu sparen.
Das ist quasi die Geißen-Logik wie aus der Werbung. ^^
Sogar eine 4090 würde sich deshalb am meisten lohnen, weil der PC drumherum meinetwegen alleine 1000 Euro kostet, und wenn man statt 500 Euro dann 1500 Euro für die KArte zahlt, hat man bei dann 3facher FPS in UHD mit Raytracing pi pa po sogar mehr FPS pro Euro.
Und man hat die ganze Zeit die bessere Grafik udn muss nichts runterregeln etc, man hat also viel mehr Spaß an der Sache, und man kann auch mit dem Nachrüsten viel länger warten, was wieder Preisvorteile bringt.
Also eigentlich nur Vorteile, wenn das Konto gut gefüllt ist bzw. war.
Wahnsinn, gell?
 
Zuletzt bearbeitet:
Ich verstehe das Drama um "Geforce vs. KI" generell nicht... NV hatte nie nen Grund Geforce abzusägen

Doch hätten sie: Ganz einfach weil nicht genügend Produktionskapazitäten zur Verfügung stehen, da man mit KI Beschleunigern mehr Geld verdient, dürfte dieses Segment Priorisiert werden ... aufgeben wird nvidia den "normalen" Gamer aber nicht, schon alleine weil das KI Thema irgendwann wieder abflauen wird, denke ich, PC Spieler dürfte es aber noch ewig geben.
 
Zurück