News Google Chrome: RTX Video Super Resolution kann Videomaterial hochskalieren

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Google Chrome: RTX Video Super Resolution kann Videomaterial hochskalieren

Mit der neuen Version von Google Chrome zieht Support für RTX Video Super Resolution (VSR) ein. Damit können Online-Inhalte wie Youtube-Videos von Nvidias KI-Technik hochskaliert werden, sodass auch ältere Clips ansehnlich werden. Lesen Sie daher im Folgenden mehr zu der Technik, ab wann es sie nutzbar gibt und wie sie aktiviert werden kann.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Google Chrome: RTX Video Super Resolution kann Videomaterial hochskalieren
 
Erneut ein künstlicher Vorteil für Nvidia, RTX Audio und PhysX lassen grüßen. Wäre schön, wenn AMD etwas ähnliches herausbringen würde, am besten für alle.

Die Technik an sich ist genial. Das konnte ich schon bei GeForce Now bestaunen, wo es einen gewaltigen Unterschied macht und ich habe nur eine alte GTX 1060.

PCGH schrieb:
Auch die erste Generation der RTX-Karten auf Touring-Basis, die RTX-2000-Modelle (...)

Wer kennt ihn nicht, Allan Touring, genialer Automobilingenieur und Vater des gleichnamigen Automodells. Häufig wird er mit dem Informatiker Alan Turing verwechselt. Da fragt man sich eigentlich, warum Nvidia nicht ihm die Serie gewidmet hat, aber Nvidia möchte stärker in den Automotivebereich einsteigen, deshalb wurde es Touring und nicht Turing.
 
Die Technik an sich ist genial. Das konnte ich schon bei GeForce Now bestaunen, wo es einen gewaltigen Unterschied macht und ich habe nur eine alte GTX 1060.
Du konntest also bei GeForce NOW bestaunen, wie relativ aktuelle Grafikkarten von Nvidia niedrig aufgelöste Youtube-Videos hochskaliert haben und dementsprechend beeindruckender waren? Und was genau hat Deine eigene GPU damit zu tun?
Für AMD spricht aktuell echt garnichts.
Außer wenn man unbedingt nicht merkbare 100eu sparen will und etliche Abstriche in Kauf nimmt.
Weil Du ständig am PC Deine GPU dazu nutzen möchtest Youtubevideos hochzuskalieren? Aha. Selbst Raytracing ist für viele immer noch recht uninteressant und im Rasterizing hat AMD teils P/L auf seiner Seite. Mir fallen da dementsprechend schon Gründe ein...
 
Du konntest also bei GeForce NOW bestaunen, wie relativ aktuelle Grafikkarten von Nvidia niedrig aufgelöste Youtube-Videos hochskaliert haben und dementsprechend beeindruckender waren?

Richtig!

Denn im Basisabo wird das Video in 1080p übertragen, man kann es dann allerdings hochskalieren lassen. Richtig aufgefallen ist es mir, als mir der Unterschied eben nicht mehr aufgefallen ist, da das ganze irgendwann neu eingeführt wurde. Bei Dingen, wie Kantenglättung, erledigt das eine hervorragende Arbeit, fast nicht von 4K zu unterscheiden. Auch sonst war der Algorithmus echt gut darin, das ganze aufzublasen. Lediglich bei diversen Feinheiten, wie Haaren, hat man schnell gemerkt, dass da keine zusätzlichen Details erzeugt wurden, da immer nur ein Bild verwendet wurde.

Dafür, dass das nur ein Upscaling des Videos war, hat mich das wirklich sehr beeindruckt.

Und was genau hat Deine eigene GPU damit zu tun?

Es ist nur ein einfacher Algorithmus gewesen und kein KI irgendwas, von dem Nvidia behauptet, es würde bei den RTX Karten stattfinden (zumindest bei RTX Voice war das nicht der Fall).

Weil Du ständig am PC Deine GPU dazu nutzen möchtest Youtubevideos hochzuskalieren?

Man muß jetzt nicht irgendwelche Nachteile zwanghaft schönreden. Videos ansehen gehört zu den beliebtesten Dingen und die Qualität ist nicht immer das absolute Optimum.. Von daher ist dieses Feld irre wichtig.

Für AMD spricht aktuell echt garnichts.
Außer wenn man unbedingt nicht merkbare 100eu sparen will und etliche Abstriche in Kauf nimmt.

Na, da trollt aber jemand die AMD Fanboys.

Eine RX 7900XTX ist in der Rasterleistung oft schneller, als eine RTX 4080. Wieviel VRAM haben die RTX 4080 und 4070Ti nochmal? Was kosten die RTX 4080 und 4070Ti? Da spricht schon einiges für AMD, nicht nur 100€.

Wer natürlich gut 2000€ raushauen will, der bekommt mit der RTX 4090 das ultimative Gesamtpaket. Wobei, was hat deine Karte für einen Monitoranschluss? Nur DP1.4? Sieht aus, als hätten wir doch noch etwas gefunden, in dem deine RTX 4090 abstinkt.
 
Zuletzt bearbeitet:
Richtig!

Denn im Basisabo wird das Video in 1080p übertragen, man kann es dann allerdings hochskalieren lassen. Richtig aufgefallen ist es mir, als mir der Unterschied eben nicht mehr aufgefallen ist, da das ganze irgendwann neu eingeführt wurde. Bei Dingen, wie Kantenglättung, erledigt das eine hervorragende Arbeit, fast nicht von 4K zu unterscheiden. Auch sonst war der Algorithmus echt gut darin, das ganze aufzublasen. Lediglich bei diversen Feinheiten, wie Haaren, hat man schnell gemerkt, dass da keine zusätzlichen Details erzeugt wurden, da immer nur ein Bild verwendet wurde.

Dafür, dass das nur ein Upscaling des Videos war, hat mich das wirklich sehr beeindruckt.



Es ist nur ein einfacher Algorithmus gewesen und kein KI irgendwas, von dem Nvidia behauptet, es würde bei den RTX Karten stattfinden (zumindest bei RTX Voice war das nicht der Fall).

Bitte was? Geforce Now ist ein Gamestreamingdienst und meines Wissens nach kein Dienst um Youtubevideos zu schauen. Zudem wird es da nicht schon länger so ein Feature geben, welches dann überhaupt keine Aufmerksamkeit bekommen hätte.

Deine GPU hat damit noch weniger zu tun, da Streaming, oh Wunder, auf deren Maschinen läuft und Du am Ende (fast) nur irgendwas zur Bildausgabe brauchst. Da ist es völlig wumpe wie stark bzw. schwach Deine 1060 ist.
 
Nimmt man als Nvidia-User gerne mit. Bin mal auf die Umsetzung gespannt. Das AI-Upscaling vom Nvidia-Shield mach jedenfalls eine gute Figur. Hoffe VSR wird ähnliche Ergebnisse liefern. =)
 
Eine RX 7900XTX ist in der Rasterleistung oft schneller, als eine RTX 4080. Wieviel VRAM haben die RTX 4080 und 4070Ti nochmal? Was kosten die RTX 4080 und 4070Ti? Da spricht schon einiges für AMD, nicht nur 100€
Ziemlich gleich auf.. bis man auf der rtx4080 in nem Spiel ReBar aktiviert .
Death space sind fast 25% FPS drin.
Und auch sehr viele andere Spiele profitieren sehr gut von ReBar(smart Access memory)

Leider aktiviert es Nvidia nicht per Default in dem entsprechenden Spiel Profilen.




Und selbst wenn die 7900xtx mal 5% schneller ist.. hat die rtx4080 doch einfach zuviele Vorteile..

-Featureset (dlss, dlaa, rtx Leistung.. Video upscaling und frame Generation)

- stabilere Treiber wo man auch Mal sowas wie 16x aniso forcieren kann (AMD kann das nur bis dx9)

-von Stromverbrauch und OC/UV Möglichkeiten Brauch ich denk ich nix schreiben. .. da gewinnt die Nvidia Karte mehr als eindeutig

Da sind die 100€ Aufpreis zur rtx4080 auch kein Beinbruch mehr im direkten Vergleich..
Und wenn ich mir die Preise so ansehe.. sind da schon keine 100€ Differenz mehr


Hinzukommt das selbst die günstigsten rtx4080 die gleichen kühler verbaut haben wie die 4090er.
Ergo total überdimensioniert für die 320W max Powerlimit, wenn da n 600w kühler auf den günstigsten costums drauf ist..

Find da erstmal ne 7900xtx mit so n fetten costum kühler .. da ist der Preisvorteil auch schon lange weg..


16gb vram sind natürlich nicht so schön viel wie 24gb aber in meinen Augen noch total okay für WQHD
 
Bitte was? Geforce Now ist ein Gamestreamingdienst und meines Wissens nach kein Dienst um Youtubevideos zu schauen.

RTX Video Super Resolution ist nicht nur für Youtube, im Gegenteil, man soll damit im Prinzip alles hochskalieren können. GeForce Now verwendet es schon.

Zudem wird es da nicht schon länger so ein Feature geben, welches dann überhaupt keine Aufmerksamkeit bekommen hätte.

Es wurde vor einiger Zeit darüber berichtet.

Deine GPU hat damit noch weniger zu tun, da Streaming, oh Wunder, auf deren Maschinen läuft und Du am Ende (fast) nur irgendwas zur Bildausgabe brauchst.

Ist mir klar.

Da ist es völlig wumpe wie stark bzw. schwach Deine 1060 ist.

Es geht darum, dass meine GTX 1060 nicht dieses KI Gedöhns hat, mit dem Nvidia gerne wirbt.

hat die rtx4080 doch einfach zuviele Vorteile..

Du hast die 8GB weniger VRAM und den DP 2.1 Anschluß vergessen. Beides spricht für AMD.

Hinzukommt das selbst die günstigsten rtx4080 die gleichen kühler verbaut haben wie die 4090er.
Ergo total überdimensioniert für die 320W max Powerlimit, wenn da n 600w kühler auf den günstigsten costums drauf ist..

Soweit ich weiß, sind die Karten wesentlich kleiner, als die RTX 4090, mit 600W ist da dann nichts.
 
Selber getestet oder nur nachgeplappert? Bei Ampere bringt es nämlich genau gar nichts, im 3DCenter Forum bei einem 4090 Nutzer ebenso nichts.
Selbst getestet in the Witcher next gen und MW2.. beides Mal gab's mehr FPS. (Vorallem mehr minfps)
Ich "plappere" sowas nicht einfach wenn ich's nicht selbst gesehen habe

Soweit ich weiß, sind die Karten wesentlich kleiner, als die RTX 4090, mit 600W ist da dann nichts.
Die Chips und die tdp sind kleiner..

Die kühler aber nicht.. die meisten Hersteller verbauen für ihre 4080 und 4090 den gleichen kühler..
Der ist auf der 4090 teils schon zu groß weil man Mal mit 600watt kalkuliert hatte in der Planung..
die 4080 schwitzt nichtmals

Du kannst dem Ding volle kanne Saft und takt(ca 370w mit ausgereizten Powerlimit) geben uns siehst trotzdem keine 60grad Hotspot Temperatur wärend du die lüfter kaum hörst
Du hast die 8GB weniger VRAM und den DP 2.1 Anschluß vergessen. Beides spricht für AMD.
Okay die 8gb RAM sind ärgerlich ganz klar.
Wobei es jetzt auf die Auflösung ankommt..
Für 4k sind die 16gb im Moment ausreichend.. für WQHD super

Genauso wie mit DP 2.1.. dafür muss es erstmal n Monitor geben der das Unterstützt..
4k 144hz mit DSC sind ja auf den älteren DP Anschlüssen ja nun auch kein Problem..
Bis das der Anschluss interessant wird ist die Karte auch schon längst ausgetauscht.
Bzw find mir erstmal n Monitor der DP2.1 nutzt
 
Zuletzt bearbeitet:
Eine RX 7900XTX ist in der Rasterleistung oft schneller, als eine RTX 4080. Wieviel VRAM haben die RTX 4080 und 4070Ti nochmal? Was kosten die RTX 4080 und 4070Ti? Da spricht schon einiges für AMD, nicht nur 100€.

Wer natürlich gut 2000€ raushauen will, der bekommt mit der RTX 4090 das ultimative Gesamtpaket. Wobei, was hat deine Karte für einen Monitoranschluss? Nur DP1.4? Sieht aus, als hätten wir doch noch etwas gefunden, in dem deine RTX 4090 abstinkt.

das AMD Lager hat schon immer nitpicking betrieben.
Mehr als DP1.4 brauche ich in 10 Jahren nicht, bis dahin habe ich zudem ne andere GraKa. Wer es braucht, kann ja AMD kaufen? DP1.4 kann ja bereits 8k.

die 7900XTX ist "oft" nur minimal etwas schneller. Beide sind zu langsam in 10 Jahren. Beides macht keinen Unterschied in 5 Jahren. Die 4080 kann ich auch noch übertakten und zieht trotzdem viel weniger Strom.
Dafür hat nvidia: DLSS, Reflex (was besser funktioniert) und "besseres" RT. Ich bin nichtmal RT fan.

RAM ist ein Argument, da ist nvidia einfach kernbehindert. Daher ist die 4070Ti auch extrem fragwürdig für den Preis. Die 16gb der 4080 werden auch in 5 Jahren kein Problem sein.

aber am Ende entscheidet es jeder selbst. ist ja kein Problem.
Aber ein Schnapper, nur weil man 100€ spart, ist das alles für mich nicht bei AMD.
 
Zuletzt bearbeitet:
das AMD Lager hat schon immer nitpicking betrieben.

Du kannst halt einfach nicht zugeben, dass du Unrecht hattest. Erst herumtrollen, dann herumjammern, eine Kombination, die ich besonders gerne habe.

Du hast folgendes behauptet:
Für AMD spricht aktuell echt garnichts.
Außer wenn man unbedingt nicht merkbare 100eu sparen will und etliche Abstriche in Kauf nimmt.

Das stimmt halt einfach nicht. Nun jammere nicht herum und schieb die Schuld auf denjenigen, der dich widerlegt hat. Wenn du dich so weit aus dem Fenster lehnst, dann bist du schuld und niemand anderes.

Mehr als DP1.4 brauche ich in 10 Jahren nicht, bis dahin habe ich zudem ne andere GraKa. Wer es braucht, kann ja AMD kaufen?

Hab ich mir bei meiner GTX 670 auch gedacht und dann ist mir die GTX 980Ti pünktlich vor dem MIningboom abgeraucht (wollte mir eigentlich die RTX 3080 20GB kaufen, die es bald geben sollte). So wurden es dann halt eben doch 2Jahre, in denen ich ganz froh wart, dass die GTX 670 einen DP 1.2 hat und ich so noch mit 4K60 unterwegs sein konnte.

DP1.4 kann ja bereits 8k.

Nur 8K30, bei allem anderen ist man komprimiert unterwegs. Bei den 4K240 Monitoren ist das ebenfalls so.

RAM ist ein Argument, da ist nvidia einfach kernbehindert.

Nvidia ist sich selbst der größte Konkurrent. Da kaufen dann einfach viele eine RTX 360, weil die 12GB VRAM hat und keine RTX 360Ti, mit nur 8GB. AMD hat das Problem nicht.

Die 16gb der 4080 werden auch in 5 Jahren kein Problem sein.

Kein Ahnung, in wie weit das dann begrenzt, Allerdings gibt es jetzt schon ein Spiel, das gerne 18GB hätte. In Forspoken ist das ein Vorteil. Die Vergangenheit hat gezeigt, dass mehr VRAM immer ein massiver Vorteil ist (zumindest in den letzten 10 Jahren).

Hast Du da einen Link zu, der das einwandfrei offiziell bestätigt?


 
Das Video wird mit 1080p übertragen und dann hochskaliert. Bei der Version mit KI ist es die gleiche Technik, wie bei dem hier.
In etwa in der Art wie es jeder Monitor/TV selbst kann. Außer Du hast halt eben doch eine neuere RTX-Karte im System.

Zudem hat das absolut NICHTS mit dem Hochskalieren von Videos zu tun, um das es hier geht. Nochmal: Geforce Now streamt Spiele, keine Youtubevideos.

Also wie gedacht eher einer Deiner wiederkehrenden Werbeposts für Geforce Now, nur hier leider ohne jede Substanz
 
Zurück