Freesync auf Nvidia: Nutzer bringt Monitor-Technik durch Trick zum laufen

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Freesync auf Nvidia: Nutzer bringt Monitor-Technik durch Trick zum laufen

Ein Reddit-Nutzer hat es, laut eigenene Angaben, durch einen Trick geschafft, eine Nvidia-Grafikkarte funktionstüchtig mit einem Freesync-Bildschirm zu verbinden. Dafür lässt er das Signal der Grafikkarte durch eine AMD APU ausgeben.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Freesync auf Nvidia: Nutzer bringt Monitor-Technik durch Trick zum laufen
 
Titel gelesen... jubelnd aufgeschrien... aufrechter hingesetzt... voller Vorfreude...

Angst bekommen, weiter zu lesen ... um dann doch wieder enttäuscht zurück zu sacken...

Samsung U32H850 - 4K VA Quantum Dot Display hier... vom Bild und den Farben her, das beste, was es in 32 Zoll gibt... leider nur Freesync
Davor X34A mit vergleichsweise "blasen" Farben und mauem Kontrast gehabt. Aber G-sync .

Wenn ich doch mal direkt am Laptop zocke, (120Hz Gysync) weiß ich wieder, wie viel uns an Spielequalität und Zufriedenheit, durch diesen Markt Kampf auch oft genommen wird.

Hoffentlich findet Intel, wenn sie in den GPU Markt kommen, nicht noch einen eigenen Intel Weg
 
Also ich bleib bei AMD. Ich finde es in allen Bereichen unfassbar nervig, wenn einzelne Hersteller immer eine Sondertour fahren müssen. Apple ist auch so ein Kandidat. Und die Aufpreise für G-Sync sind schon echt saftig teilweise (150€ und mehr). Das sehe ich schlicht nicht ein. AMD hat noch dazu die günstigeren Grafikkarten. Mich interessiert dabei sowieso mehr die Mittelklasse. Wer allerdings die Preise der neuen 2000er Reihe von Nvidia bezahlt, der hat dann vielleicht auch genug Geld für einen G-Sync Monitor übrig.

Nervig allerdings, wenn man in einigen Jahren doch mal wechseln will. Dann muss ein neuer Monitor her, wenn auf das Feature nicht verzichten will. Hoffentlich ändert Nvidia seine Meinung zu dem Thema eines Tages und greift auch auf den offenen Standard zurück. Das käme allen Nutzern nur zu Gute (nur eben Nvidias Gewinnmarge nicht).
 
Das ist doch nix neues.

Hatte am Arbeitsrechner auch schon öfter onboard Grafik + dedizierte GPU gleichzeitig aktiv. Sämtliche Anwendungen werden dann halt vom Primären Grafikadapter, also der Grafikkarte berechnet und eben an die jeweiligen Monitore ausgegeben.
Wenn ein Monitor am Onboard Anschluss hängt, kontrolliert eben alleinig die Onboard Grafik die Bildausgabe incl. Bild-Synchronisation. Das Bild wird dann von der Grafikkarte zur Onboard Grafik durchgeschleift.

Mich wunderts gerade, dass das scheinbar nicht vielen bekannt ist. Spziell mit FreeSync hätte ichs aber so oder so nicht gemacht, da ich einerseits keinen FreeSync Monitor habe und andererseits die CPU-Leistung einer APU zu gring ist. Und AMDs normale CPUs haben keine Grafikeinheit.

Genial wärs erst, wenn AMDs Ryzen Desktop CPUs Grafikeinheiten hätten. Dann könnte man mit jeder Nvidia Grafik FreeSync nutzen.

Dass Nvidia das unterbindet bezweifle ich stark. Rein über den Treiber ist es vermutlich gar nicht möglich, da Windows selbst die Displayadapter verwaltet. Nvidia müsste hier quasi abseits des Treibers tätig werden und dann aber allgemein die Nutzung zusätzlicher GPUs unterbinden, aber da würden wohl manche User mit MultiMonitor Systemen, denen die Anschlüsse der Grafikkarte nicht reichen, auf die Barrikaden gehen. Damit würde man eine essenzielle Windows funktion sabotieren. Nein, da wird nix passieren...
 
Sollte Intel mal Freesync unterstützen, kann man die iGPUS der i7-Prozessoren dafür nutzen. Dann hat man auch eine starke CPU.
 
Das ist doch nix neues.

Hatte am Arbeitsrechner auch schon öfter onboard Grafik + dedizierte GPU gleichzeitig aktiv. Sämtliche Anwendungen werden dann halt vom Primären Grafikadapter, also der Grafikkarte berechnet und eben an die jeweiligen Monitore ausgegeben.
Wenn ein Monitor am Onboard Anschluss hängt, kontrolliert eben alleinig die Onboard Grafik die Bildausgabe incl. Bild-Synchronisation. Das Bild wird dann von der Grafikkarte zur Onboard Grafik durchgeschleift.

Mich wunderts gerade, dass das scheinbar nicht vielen bekannt ist. Spziell mit FreeSync hätte ichs aber so oder so nicht gemacht, da ich einerseits keinen FreeSync Monitor habe und andererseits die CPU-Leistung einer APU zu gring ist. Und AMDs normale CPUs haben keine Grafikeinheit.

Genial wärs erst, wenn AMDs Ryzen Desktop CPUs Grafikeinheiten hätten. Dann könnte man mit jeder Nvidia Grafik FreeSync nutzen.

Dass Nvidia das unterbindet bezweifle ich stark. Rein über den Treiber ist es vermutlich gar nicht möglich, da Windows selbst die Displayadapter verwaltet. Nvidia müsste hier quasi abseits des Treibers tätig werden und dann aber allgemein die Nutzung zusätzlicher GPUs unterbinden, aber da würden wohl manche User mit MultiMonitor Systemen, denen die Anschlüsse der Grafikkarte nicht reichen, auf die Barrikaden gehen. Damit würde man eine essenzielle Windows funktion sabotieren. Nein, da wird nix passieren...[/QUOTE

Du solltest dir den Reddit Beitrag nochmal durchlesen zum einen zum anderen schonmal was von
2200g und 2400g gehört ? von dem 2200g ist ja auch die rede hier

Irgendwie scheint es als hättest du ein paar Komponenten nicht mitbekommen.

Hier berechnet die GTX 1060 das Bild und gibt es über die IGPU (2200G) an den Monitor weiter BEI AKTIVEM FREESYNC.
 
Zuletzt bearbeitet:
Wenn ich doch mal direkt am Laptop zocke, (120Hz Gysync) weiß ich wieder, wie viel uns an Spielequalität und Zufriedenheit, durch diesen Markt Kampf auch oft genommen wird.
Nutzt dein Notebook wirklich G-Sync oder setzt Nvidia bei Notebooks nicht schon lange auf adaptive Sync? :schief:
Also wenn Sie wollten, würde ich sagen, Sie könnten :P
Adaptive Sync fuer Notebooks: Nvidia arbeitet an G-Sync ohne Zusatzmodul - Golem.de

edit: wenn man jetzt ein Dual-Sockel AM4 Board hätte, könnte man einen Ryzen3 2200G nebst R7 2700X verpflanzen. 2080ti daneben und durchgeschleustes FreeSync RTX-Raytracing genießen :lol:
 
Aaaaach, wer kann sich noch an PhysX erinnern? Das lief damals auch über eine Nvidia-Zweitgraka mit z.B. einer AMD 5870. Wenn das Gleiche hier möglich wäre, würde ich mir vllt. eine kleine AMD-Graka dazukaufen.
 
Falls das nicht deaktiviert werden sollte würde es die Raven Ridge CPUs zu Gold Produkten machen. Weil man keine Teuren G-Sync Monitore mehr brauchen würde
 
Aaaaach, wer kann sich noch an PhysX erinnern? Das lief damals auch über eine Nvidia-Zweitgraka mit z.B. einer AMD 5870. Wenn das Gleiche hier möglich wäre, würde ich mir vllt. eine kleine AMD-Graka dazukaufen.

Theoretisch könnten sie die Tensacores auch als Zusatzkarte verkaufen und so die ganzen alten Grafikkarten aufwerten. Wird bloß nicht passieren da Nvidia doch Geld verdienen will
 
Welche wäre denn die günstigste AMD Grafikkarte, die man sich in einen PCIe slot stecken könnte, um das Signal einer GTX inkl. freesync auszugeben? Geht das auch? Kann das jemand Mal testen?
 
Welche wäre denn die günstigste AMD Grafikkarte, die man sich in einen PCIe slot stecken könnte, um das Signal einer GTX inkl. freesync auszugeben? Geht das auch? Kann das jemand Mal testen?

Radeon R7 260/260X, Radeon R9 285, Radeon R9 290/290X/295X2 haben vollen Freesync Support laut 3dcenter.org wenn es mit dedizierten Grafikkaren auch funktioniert wäre es natürlich noch besser ab Dienstag könnte ich es mit einer RX570 testen wobei bis dahin sich bestimmt schon von PCGH jemand findet der es mal testet
 
Falls das nicht deaktiviert werden sollte würde es die Raven Ridge CPUs zu Gold Produkten machen. Weil man keine Teuren G-Sync Monitore mehr brauchen würde

Jetzt braucht es dann nur noch CPUs die Vega IGPUs und eine starke CPU Seite gibt. Ein R7 mit einer kleinen Vega Grafik wäre was feines. Vega 3 etc
Weil ich dann doch lieber einen 6 Kerner und aufwärts mit einer GTX 1080 betreiben möchte :)
 
Wie schaut das mit dem Input lag aus?

Irgendwie traue ich dem noch nicht ganz über den Weg.

Active Sync - Monitor kommuniziert mit GPU - wann die Fame fertig gerendert wurde.
Wenn das nur so simpel wäre, wozu der Aufwand mit G-sync Modul?
Ich muss mich da mal reinlesen...

Doch wenn das stimmt ...

Ich hoffe die Redaktion wird das untersuchen!

Das wäre gut für AMD!
Mehr GPUs / APUs verkaufen... mehr Geld für Entwicklung...
Und ich könnte meinen Monitor endlich wie vom Hersteller gewollt, mit Active Sync betreiben!

Ich will keine Werbung machen, vielleicht nervt es schon manche, aber am Samsung U32H850 wenn man 32 Zoll - 4K haben will, führt kein Weg vorbei... QLED Farben... Kontrast... Wahnsinn
Komme vom X34A - bin da ziemlich verwöhnt, viele probiert... am Schluss wieder X34A geholt und gedacht, besser geht es wohl nicht ... Zumindest Ultrawide... warte ich halt auf Oled / Mikro-led
Doch war ich mit VA und IPS nie ganz zufrieden!

Erst als ich 4K QLED sah wusste ich warum: so habe ich es mir immer vorgestellt!

Nicht umsonst haben die neuen 2500€ 4K HDR 120HZ auch QLED aber nur 27 Zoll...
 
Zuletzt bearbeitet:
Wie schaut das mit dem Input lag aus?

Irgendwie traue ich dem noch nicht ganz über den Weg.

Active Sync - Monitor kommuniziert mit GPU - wann die Fame fertig gerendert wurde.
Wenn das nur so simpel wäre, wozu der Aufwand mit G-sync Modul?
Ich muss mich da mal reinlesen...

Doch wenn das stimmt ...

Ich hoffe die Redaktion wird das untersuchen!

Das wäre gut für AMD!
Mehr GPUs / APUs verkaufen... mehr Geld für Entwicklung...
Und ich könnte meinen Monitor endlich wie vom Hersteller gewollt, mit Active Sync betreiben!

Ich will keine Werbung machen, vielleicht nervt es schon manche, aber am Samsung U32H850 wenn man 32 Zoll - 4K haben will, führt kein Weg vorbei... QLED Farben... Kontrast... Wahnsinn
Komme vom X34A - bin da ziemlich verwöhnt, viele probiert... am Schluss wieder X34A geholt und gedacht, besser geht es wohl nicht ... Zumindest Ultrawide... warte ich halt auf Oled / Mikro-led
Doch war ich mit VA und IPS nie ganz zufrieden!

Erst als ich 4K QLED sah wusste ich warum: so habe ich es mir immer vorgestellt!

Nicht umsonst haben die neuen 2500€ 4K HDR 120HZ auch QLED aber nur 27 Zoll...

Hab auch einen QLED, sehr gute Geräte die Samsung damit produziert.

Die Gsyncmodule diene lediglich der Verschlüsslung des AdaptiveSync und stellen das LFC breit. Sonst sind die Teile zu nix nütze.
Das ist eh ein Witz was Nvidia da abzieht.Ein umgehen der Gsync Module wäre wirklich mal witzig.
 
Zurück