Turing RTX: RT-Cores können auch Töne berechnen

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Turing RTX: RT-Cores können auch Töne berechnen

Die neuen RT-Cores der Turing-GPU-Architektur von Nvidia, die auch in abgewandelter Form auf der erwarteten Geforce RTX 2080 zum Einsatz kommen dürften, können nicht nur für die Berechnung von Lichtstrahlen, sondern auch für die Ausbreitung von Sound in 3D-Umgebungen verwendet werden. Eventuell plant Nvidia also auch hier einen Standard für Spiele.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Turing RTX: RT-Cores können auch Töne berechnen
 
AW: Turing RTX: RT-Cores können auch Töne berechnen

Hervorragend dass Nvidia neue Standards setzt, so kann das gerne weitergehen.
AMDs Versuche waren da immer viel zu halbgar.
 
AW: Turing RTX: RT-Cores können auch Töne berechnen

Irgendwie sieht es immer mehr so aus als hätte sich nVidia lieber auf neue Features konzentriert die in aktuellen Spielen gar nicht verfügbar sind als wirklich auf mehr Rohleistung. Naja wir werden am Montag hoffentlich in Tests sehen was wirklich dahinter steckt, vielleicht irre ich mich ja auch.
Falls das alles nur in Gameworks verfügbar sein wird, dann aber nein danke :D
 
AW: Turing RTX: RT-Cores können auch Töne berechnen

oder das Thema Physikbeschleunigung :D
ne is cool... wenn es die CPU um 0,03 % entlastet, ist doch geil
 
AW: Turing RTX: RT-Cores können auch Töne berechnen

Solange ich den Ton über mein Soundinterface (USB) bekomme und nicht über HDMI/DP ist mir das egal, wer es berechnet. Wobei die CPU dem Ton wohl gut Faktor 100 mehr Leistung als jetzt zuordnen könnte und trotzdem würde sich die CPU langweilen.
 
AW: Turing RTX: RT-Cores können auch Töne berechnen

Hervorragend dass Nvidia neue Standards setzt, so kann das gerne weitergehen.
AMDs Versuche waren da immer viel zu halbgar.
Standards so wie Gameworks und G-Sync?

Na da freut sich die Industrie bestimmt!

Bevor sich das durchsetzt (siehe der TrueAudio Flopp), gibt es CPU-Audio-Middlewares, die Multithreading können und damit richtig krasssen Shit (EAX, anyone?) berechnen. Wesentlich sinnvoller und easy als Standard etablierbar, da die CPU-Kernzahlen eh stetig steigen und das Ganze auf x86 Hardware liefe, die jeder PC- und Konsolenspieler hat. Kommt dann aber frühestens mit der Ryzen CPU in der NextGen, da der Jaguar heute schon aus dem letzten Loch pfeift.
 
Zuletzt bearbeitet:
AW: Turing RTX: RT-Cores können auch Töne berechnen

Es gibt doch gar nicht die passende Nutzerschaft für ein großen Support. Mit ihren 50€ Headsets mit billigen 40mm Treibern, bringt das nicht viel.
 
AW: Turing RTX: RT-Cores können auch Töne berechnen

Standards so wie Gameworks und G-Sync?

Na da freut sich die Industrie bestimmt!

Bevor sich das durchsetzt (siehe der TrueAudio Flopp), gibt es CPU-Audio-Middlewares, die Multithreading können und damit richtig krasssen Shit (EAX, anyone?) berechnen. Wesentlich sinnvoller und easy als Standard etablierbar, da die CPU-Kernzahlen eh stetig steigen und das Ganze auf x86 Hardware liefe, die jeder PC- und Konsolenspieler hat. Kommt dann aber frühestens mit der Ryzen CPU in der NextGen, da der Jaguar heute schon aus dem letzten Loch pfeift.

Creative hat seit Jahren das gesamte EAX-/OpenAL-Feature-Set in Software realisiert. Nur ein Teil der hauseigenen Karten und kaum ein Soundblaster-gebrandetes Mainboard haben entsprechende Hardware-Einheiten, das macht alles die CPU. Über die Multi-Core-Optimierung bin ich unzureichend informiert, aber die Audigy machte damals schon weit mehr, als heutige Spiele in Anspruch nehmen und wurde in ihrer Eigenschaft als APU von Creative selbst mit "vier Pentium 4" verglichen, es sollte also heute bequem ein einzelner CPU-Kern selbst für sehr aufwendige Berechnungen ausreichen – falls irgend ein Spiele-Entwickler jemals Interesse zeigt. Solange AMD und Nvidia alle paar Jahren einen neuen proprietären Standard ausgraben, um etwas "neues" zu haben, anstatt einfach OpenAL zu implementieren, habe ich wenig Hoffnung.
 
AW: Turing RTX: RT-Cores können auch Töne berechnen

Ganz ehrlich:
Die Grafikkarte soll mir ein hübsches Feuerwerk zu annehmbaren Fps auf den Monitor zaubern. Dafür hat sie gefälligst jeden einzelnen Transistor zu nutzen. PhysX aus, Ton aus, sowas hat die Grafikkarte nicht zu belasten.
Für die Physik gibt es Beschleuniger von Ageia oder Lösungen, die auf der CPU laufen.
Für den Ton dedizierte Soundkarten (wobei die früher auch schon mal besser waren, ich denke mit Wehmut an meine Soundblaster Live! zurück) oder Onboardsound.
Weil AMD mit TruAudio ja so erfolgreich war, wird das bei NVidia darantiert ein Verkaufsargument werden *hust*
 
AW: Turing RTX: RT-Cores können auch Töne berechnen

Ganz ehrlich:
Die Grafikkarte soll mir ein hübsches Feuerwerk zu annehmbaren Fps auf den Monitor zaubern. Dafür hat sie gefälligst jeden einzelnen Transistor zu nutzen. PhysX aus, Ton aus, sowas hat die Grafikkarte nicht zu belasten.

So radikal sehe ichs zwar nicht aber da ist schon was dran. Der neue große Turingchip mit gerüchteweise rund 750 mm^2 hat "nur " ~4600 Shadereinheiten weil ja so viel tensorcores und Raytracingkram usw. dabei sein muss. Stelle man sich vor, eine solche Chipfläche wäre für mehr Shader genutzt worden, sprich brachiale Gamingleistung/Rasterizer. Da würden größenordnung 6000 Shader draufpassen und man hätte einschlißelich sonstiger Verbesserungen und Taktrate eine GTX1080Ti wohl um mehr als Faktor 2 (!) geschlagen.

...und ratet mal was passiert wäre, wenn AMDs Vega eine ernsthafte Konkurrenz oder gar schneller als eine 1080Ti gewesen wäre. Richtig. ;)
 
AW: Turing RTX: RT-Cores können auch Töne berechnen

Ich verstehe die Technik-Trends und Entscheidungen nicht. Erst waren Soundkarten notwendig, da das Mobo+CPU nur Piep-Töne von sich geben konnten. Dann wurden schöne Standards für Soundkarten entworfen und konnten so schöne Sachen wie 3D-Raumklang-Berechnung, gleichzeitig jedoch entschied man (M$) dass Sound auf CPU berechnet werden solle. Soundkarten hatte man weiterhin verwendet um die CPU zu entlasten, aber sind irgendwann dann außer Mode gekommen da M$ es erzwungen hatte auf der CPU zu berechnen. Und jetzt soll das auf der GPU passieren? wozu? jeder Mittelklasse OnBoard Soundchip ist doch dazu in der Lage das zu machen und die CPU hat in den meisten Spielen nicht mal 50% Auslastung.
 
AW: Turing RTX: RT-Cores können auch Töne berechnen

So radikal sehe ichs zwar nicht aber da ist schon was dran. Der neue große Turingchip mit gerüchteweise rund 750 mm^2 hat "nur " ~4600 Shadereinheiten weil ja so viel tensorcores und Raytracingkram usw. dabei sein muss. Stelle man sich vor, eine solche Chipfläche wäre für mehr Shader genutzt worden, sprich brachiale Gamingleistung/Rasterizer. Da würden größenordnung 6000 Shader draufpassen und man hätte einschlißelich sonstiger Verbesserungen und Taktrate eine GTX1080Ti wohl um mehr als Faktor 2 (!) geschlagen.
Die Zukunft der Spiele ist aber Raytracing und das sind halt jetzt die ersten Schritte dazu, auch wenn es noch lange dauern wird.
Und da funktionieren halt die normalen Shader-Cores nicht, bzw. sind viel zu langsam.
Schaut euch doch mal die Grafik der aktuellen Spiele an, da gibts schon lange keine großartigen Verbesserungen mehr.
 
Zurück