@Thomas5010
Wieviel Prozent der Hardware einer modernen Karte sind spezielle KI-Cluster? Wenn die restlichen Komponenten also nicht mehr so wichtig werden, sollte die Hardware, also die nächsten physischen Karten, nicht mehr groß teurer werden. Da die Preise aber heftig gestiegen sind, für einen geringen Teil an KI, steht das für viele nicht mehr im Verhältnis zueinander. Also Preis und Hardware. Jetzt bleibt die Rasterperformance, also der grundsätzliche Rechendurchsatz aber die Grundlage für die KI-Ausgabeleistung. Sprich, wenn da zehn mal mehr gehen würde, dann hätte die darauf aufbauende KI eben auch viel mehr Möglichkeiten und das Ergebnis wäre größer.
Deshalb sollte die Rasterperformance immer weiter im Fokus stehen.
Ist doch auch klar. Aktuelle Spiele laufen nativ als Diashow. Stellt man DLSS/FSR ein, wird die Auflösung reduziert und mehr Bilder berechnet. Diese sähen grottig aus, würde die KI das Bild nicht nachberechnen/aufbereiten. Kommen wir so beispielsweise erst von 15 auf 60 fps, würde bei mehr Rasterperformance eben auch das Gesamtergebnis um den gleichen Faktor steigen. Im Beispiel x10, würden wir also von 150 auf 600fps kommen. Einfach nur mehr KI bringt aktuell nicht viel, wenn die Datenausgangslage (Raster) nicht mit steigt.
Viele haben sich beispielsweise von MCM versprochen dass diese Grundleistung wieder signifikant gesteigert wird. Warum nicht wieder mehrere GPUs auf einer Platine, oder beidseitig bestückt, oder wie zu Zeiten der 7950GX2 gar mehrere Platinen miteinander verbinden und die KI nutzen um die Probleme mit der Bildsynchronisierung von früher in den Griff zu bekommen?
Meiner ganz persönlichen Meinung nach, entwickelt sich die Nutzung von KI aktuell für uns enduser zu einer uns melkenden cashcow, ohne dass klassische Probleme angegangen, oder gar beseitigt werden die eine einfache Leistungssteigerung ermöglichen würden. Ja klar, aktuell steigert man hauptsächlich den ki Part, aber das eben zu Preisen die eine Verdoppelung, oder gar Vervierfachung der Hardware früher mitbrachten. Irgendwann kommt aber wieder der Punkt wo man die Hardware deutlich erweitern muss und dann haben wir uns an Preise gewöhnt die uns so schon nicht schmecken.
Man darf halt nicht vergessen, dass die Entwicklung eine KI echt teuer ist, aber wenn sie dann einmal steht und so wie hier, sich selbst trainiert und erweitert, sie eben kein Brot mehr frisst. Aktuell feiert man Kyi dafür, sich bessere und effizientere Chipdesigns auszudenken und auch hier spart man also fortwährend Kosten. Warum bitte wird diese Ersparnis also nicht durch krasse Leistungssteigerung zum gleichen Preis, oder durch gleiche Leistung zu günstigeren Preisen nicht bei uns umgesetzt?
Die Antwort ist klar.
Deshalb ist für uns Kunden die grundsätzliche Rechenleistung immer bessere/wichtiger als die der KI. Letztere ist vorrangig ein Werkzeug uns mit möglichst wenig Einsatz weiter und stärker zu schröpfen, leider.