Die PS5 wird solange supported, wie der Store mit der Kiste Geld abwirft, oder warum meinst Du, das die PS3 erst vor kurzem "gekillt" wurde?
Es gibt auch noch den GOG Store. Spiele anzubieten ist ja wieder was anderes wie Spiele für die PS3 zu entwickeln, das macht nunmal kaum mehr einer (es gibt tatsächlich Nischen, ein Kollege entwickelt nach wie vor fürf NES, Gameboy und Co.)
und
relativierst Du Dich ja selbst. Und habe nicht behauptet, das RT wegen der PS5 in Spielen für die PS6 nicht kommt. Es wird definitiv nicht in allen Spielen kommen.
Natürlich nicht in ALLEN, denn wie oben erwähnt, in den Gameboyspielen wirds nicht kommen. Es wird in 99% der Spiele kommen.
Es kommt genauso wie jetzt Rastern - das ist eben auch nicht in "allen" Spielen. Es wird nie in völlig allen kommen, so wie eben auch Rasterizing. Es ist dennoch die Zukunft, es führt kein Weg dran vorbei denn es hat sowohl auf der Anwender, als auch auf der Entwicklerseite Vorteile.
Hab selbst ne RT-fähige Grafikkarte und nutze es nicht/ so gut wie nie, weil einfach überflüssig und einfach kein bang for the bug.
Bang vor the BUCK meinst du vielleicht
?
Und: ja, ich hatte mit meiner Voodoo damals auch keine Shadereffekte eingeschaltet, ging halt auch schwer
Ob du es einschaltest bleibt ja dir überlassen. Spätestens wenn die Spiele von Grund auf mit RT designed sind, wirst du es verwenden müssen.
Ähnlich wie man dann irgendwann mal keine Spiele ohne TnL oder Shader -Karte spielen konnte
Und so denken eben auch die User außerhalb PCGH, ob Dir das jetzt gefällt oder nicht.
User/Spieler außerhalb von Tech-Bubbles wissen oft nicht was Raytracing ist. Sie wollen aber dennoch meist bessere Grafik. "Ob dir das gefällt oder nicht"
Nichts anderes zeigt die Umfrage mit KI.
Die Umfrage mit KI ist eine dumme Umfrage: ICH persönlich würde ungern extra zahlen für ein KI Produkt, ich würde es eben gerne "gratis" mitnehmen. Noch dazu wissen die meisten Leute nicht, was man mit KI alles macht oder machen kann. Und noch ironischer: die meisten Leute nutzen täglich KI und wissen es gar nicht. Vom Googlen übers Handyfoto....
Wenn ich mir angucke wieviel RT-Titel als Bugfest rausgekommen sind, hätten die Entwickler mal KI benutzen sollen, um den Code zu fixen, oder so.
du hast wohl noch nicht mit KI programmiert? Bis die KI Programmierung besser ist als ein guter Entwickler vergehen noch Jahre.
Allerdings kann ein guter Programmierer mit Hilfe tatsächlich Zeit sparen.
Es ist jedoch eher nicht anzunehmen, dass das großflächig zu besseren Produkten führt. Eher das Gegenteil: wenn man sich die Geldgierigen Manager ansieht führt es eher dazu dass die sagen "gut, du bist jetzt der Designer von dem SPiel" - "ok und die andern 100 leite ich?" - "nein, die werden gefeuert, wir brauchen die nicht, du generierst das jetzt alles mit KI".
Man könnte mit KI natürlich viel abwechslungsreichere Welten erstellen. Ich meine spiel doch mal herum mit den Top 5 Bildgeneratoren, lass dir Fantasy oder Cyberpunkwelten (oder ganz was neues) erstellen. Das ist wirklich genial was da theoretisch auf uns zukommen könnte.
In 20 Jahren werden ganze Spielabschnitte mit KI gemeinsam designed. Und zwar nicht so wie heute "prozedurale generierung" wie schon in vielen Spielen (Skyrim, No Mans Sky...) sondern tatsächlich AI generierte, abwechslungsreiche Levels. Aber bis dahin brauchts noch viel Entwicklung. Und was es eben vielleicht nicht braucht: viel KI Power im eigenen PC. Das wird ja wohl nach wie vor ausgelagert.
KI brauch ich nicht, muss es aber mitkaufen. Das Du den Punkt nicht verstehst?
wieso verstgeh ICH den Punkt nicht. Ich mach mich doch drüber lustig, dass es sowieso jeder mitbezahlt.
Und, dass in einem PC ein großer Teil der Features "mitgekauft" ist und 90% der User nicht brauchen.
Warum im Handy etc., warum Windows? Überflüssig! Was Du damit machst, ist auch irrelevant, da DU leider nicht den Querschnitt darstellst.
Ich weiß nicht: am Handy werden die Stimmen, der Ton bei Telefonie und Videos verbessert, es werden die Fotos verbessert und vieles mehr. Shazam, Rückwärtsbildsuche etc...
Das verwenden sehr viele. Milliarden nämlich.
Am PC verwende ich übrigens tatsächlich auch Stimm/Videoverbesserer, etwa in Meetings. Aber das ist eine Nische, zugegeben.
Ich verwende ab und zu LLMs, Roboter, ich verwende Autovervollsständigungen, Google Lens, Musikkreationsprogramme, Filter..
Ich verwende aber Google, etwa zur Informationsbeschaffung - du nicht? Da arbeitet im Hintergrund auch eine KI.
Und wenn Du RT/Fotorealismus brauchst, geh mal raus Wiese anfassen.
Seltsamer Kommentar. Für was hast du eine RT Fähige Grafikkarte, wenn dir gute Grafik nicht wichtig ist. Nimm doch eine Matrox G200, reicht doch! Ah du willst also auch gute Grafik.
Danke aber für den Tipp, ich hab ein Haus im Grünen, ich geh jeden Tag raus. Ich weiß auch daher wie "Grafik" in der Realität aussieht und, dass du das eben nur mit Raytracing ordentlich hinkriegst. Von daher wirst du in Zukunft entweder schlechte Grafik haben, oder realistische mit RT
KI-Prozessoren sind im Moment so uninteressant, wie RTX Grafikkarten in der Anfangszeit. Keiner wusste so wirklich, wofür sie gut sein sollen? Jetzt ist Raytracing nicht annähernd so wichtig, wie KI im Alltag.
Äh doch, das wussten schon welche, die sich mit Technik auskennen.
Allerdings waren die ersten Showcases für diejenigen die es nicht abschätzen konnten auch noch ungeeignet. Die ersten RTX Karten waren noch unperformant. Immerhin waren wohl nichtmal 10% der Chipfläche dem Raytracing gewidmet. Es war ein "Showeffekt" ähnlich wie früher die ersten Shadereffekte auf dem Wasser.
Auch heute sind wir noch nicht dort, wo Raytracing hin müsste. Eine 4090 ist nett, aber es braucht noch deutlich mehr Leistung, um Spiele von Grund auf für RT entwickeln zu wollen. Das ist dann natürlich ein Problem, schließlich brauchts zur MArktdurchdringung auch, dass viele es im PC haben und es sich leisten können. Somit wird einfach ein langsamer Wechsel passieren, wie zu höheren Auflösungen.
Aber er kommt unweigerlich. Wenn du in Cyberpunk Raytracing aus schaltest, vs Raytracing Max dann siehst du den Unterschied und das ist erst der Anfang, denn Cyberpunk ist ein Raster-Spiel bei dem Raytracing im Nachhinein "drangepappt" wurde. Ein Spiel bei dems von Vornherein miteinberechnet wird, ist wieder was anderes...
Denk (falls du dich erinnern kannst) an die ersten Shader-Spiele (2001) und die späteren, die Shader vorausgesetzt haben. Etwa Crysis.
Die lokalen KI Fähigkeiten eines Windows werden in 2-4 Jahren ordentlich an Fahrt aufnehmen. Erst einmal braucht es aber eine flächendeckende Verbreitung von AI Hardware. Die neuen Ryzen CPU´s setzen bereits auf AI Architektur. Auch bei Intel gibt es keine CPU´s mehr ohne integrierte Grafik (xe graphics).
ja, es wird noch Jahre daujern und wie so oft bei neuen Technologien, sind die ersten paar Generationen für die Tonne. Ganz im Ernst. Einen "KI PC" würde ich mir erst in 5 Jahren mal holen, wenn man schon in der 3. Generation oder ähnlichem ist. Da steht vorher noch eine wahre Leistungsexplosion an, bevor wir einmal ein Niveau erreicht haben, das sich dann kaum noch steigert.
Schau dir an, wie wenig TOPS die ersten Apple KI Prozessoren hatten, wo man heute steht und wo man noch hin will
Apple integriert KI in Kürze in ihr Betriebssystem (A17Po als Voraussetzung). Jeder wird es haben wollen, wenn es funktioniert.
Der Zug rollt...
ja, unausweichlich wird es einfach mal überall vorhanden sein, sofern es den Menschen ein Vorteil ist. Ansonsten wirds aber tatsächlich verrecken wie "Cortana"
RTX sind Strahlenberechnungen. Im Prinzip ist Raytracing ein Produkt von KI.
Nein, Raytracing hat nix mit KI zu tun. Es ist eigentlich simple, recht primitive Mathematik.
Glaub mir. Ich bin weder ein begnadeter Programmierer, noch ein besonders begabter Mathematiker, aber ich habs hingekriegt für meine Diplomarbeit einen Raytracer zu programmieren
Es geht um Strahlenverfolgung. Primitiv gesagt: du "schießt" einen Strahl los, er trifft auf ein Objekt, du speicherst welche Farbe das Objekt an diesem Punkt hat und in welchem Winkel dein Strahl auftrifft, ähnlich als würdest du einen Ball gegen die Wand knallen, der Strahl schießt dann im Austrittswinkel weiter... das ist wirklich sehr simpel. Aber enorm rechenaufwändig, daher kam das erst jetzt, nicht schon in den 80ern.
Und: KI wird am Ende benötigt um das Bildrauschen zu entfernen, aber mit Raytracingt hat das nicht direkt zu tun, nur mit der Praxistauglichkeit, sonst würde man nämlich 1000x mehr Leistung brauchen, bis man das Rauschen in Echtzeit los ist
Was die Welt begeistern wird sind KI Anwendungen die im Alltag einen Unterschied ausmachen und den Arbeitsalltag revolutionieren. Raytracing ist nur ein Bild-Algorhythmus, der aber zum Standard wird in PC-Games.
ja das ist er. Bzw. mein Tipp ist, dass wir die nächsten 15-20 Jahre noch Hybrid rendering haben, eine Mischung aus Rastern und Raytracing. Ob es "volles" Echtzeit-Raytracing jemals geben wird weiß ich nicht, eher kommt vorher die KI Bildgenerierung.