Freesync auf Nvidia: Nutzer bringt Monitor-Technik durch Trick zum laufen

Ich weiss nid. Habe noch eine r7 240 aber auch 2400G. Ich sollte mal mit testen beginnen, will aber windows 7. Geht win 7 nun auf der Raven Ridge?
 
Wenn sich das zuverlässig nachstellen lässt und nicht nur aufgrund glücklicher Umstände geklappt hat landet auch noch ein 2400g (oder Nachfolger) in meinem Sammelsurium, für die GTX1080. Ich hoffe doch schwer dem nimmt sich noch irgendein Hardwaremagazin an ohne von Team grün verklagt zu werden. :hail:
 
Also wenn ihr mir eine GTX 1080 zahlt, dann schreib ich euch gerne einen Testbericht mit zwei APUs und dGPU :ugly::D Kann ja mal NV fragen, ob sie das sponsorn würden :lol:
 
Ich will keine Werbung machen, vielleicht nervt es schon manche, aber am Samsung U32H850 wenn man 32 Zoll - 4K haben will, führt kein Weg vorbei... QLED Farben... Kontrast... Wahnsinn
Komme vom X34A - bin da ziemlich verwöhnt, viele probiert... am Schluss wieder X34A geholt und gedacht, besser geht es wohl nicht ... Zumindest Ultrawide... warte ich halt auf Oled / Mikro-led
Doch war ich mit VA und IPS nie ganz zufrieden!

Irgendwie gibt's den originalen u32h850 nicht mehr. Ich finde nur noch den LU32H850UMUXEN und laut Tests soll dieser schlechte reaktionszeiten haben. Trotzdem schaue ich mir den Preisverlauf des Samsung seit einem Jahr regelmäßig an. Schade dass dieser nicht unter 400€ fällt.


@Topic
Sehr interessant, vielleicht äußert sich Nvidia ja dazu.
 
Zuletzt bearbeitet:
@Redaktion...

Es wäre wirklich mal in unserer aller Interesse, das zu untersuchen.

Dies würde alles durcheinander bringen!

Es könnte Nvidia dazu zwingen, auch Freesync offiziell zu ünterstützen, oder zusehen wie AMD finanziell aufholt, durch diese "synthetischen" APU und GPU Käufe.

Es geht nicht nur um Monitore.
Der ganze aufbrechende Freesync TV Markt, ist auch noch stark im Kommen...

Tomb Raider / Witcher / Cyberpunk...
1080 / 2080... mit Freesync am 4K HDR Ferseher mal genießen können.

Aber auch die vielen Samsung Qled Fans, hätten plötzlich, nach dem Acer X27 Qled und dem Asus PG27UQ Qled - das optisch schönste Bild.
zu einem vertretbaren Preis - mit funktionierendem Freesync!
Für rund 2000€ weniger.

Abseits von 120Hz und HDR - Was das Bild beim X27 / PG27UG so viel sehenswerter, optisch sofort herausragend macht, ist nunmal QLED und G-Sync.
Das ist mir 2000€ Aufpreis nicht wert.

4K mit mehr als 60FPS in Ultra, dauert noch bis 7nm Karten kommen - Bei Abenteuer Titeln wie Witcher, Wildlands, Tomb Raider ...
HDR braucht auch noch 1 - 2 Jahre...

Natürlich haben andere, wichtigere Spezifikationen auf die sie Wert legen - 120+ Hz / Imput Lag / Reaktionszeiten / Blickwinkel ...

Ich brauche nur satte Farben, sehr guten Kontrast und eine flüssige Optik.

Was weniger mit dem Monitor zu tun hat: Aber wiederum nach einer Nvidia GPU verlangt, trotz Freesync Monitor - kein Kantenflimmern, gerade bei filigranen Objekten (Zäune, Antennen...)
Deswegen klingt auch Deep-Learning-Kantenglättung (DLAA / DLSS) höchst interessant.

Lasst das Thema bitte nicht untergehen
 
Zuletzt bearbeitet:
Das ist doch nix neues.

Hatte am Arbeitsrechner auch schon öfter onboard Grafik + dedizierte GPU gleichzeitig aktiv. Sämtliche Anwendungen werden dann halt vom Primären Grafikadapter, also der Grafikkarte berechnet und eben an die jeweiligen Monitore ausgegeben.
Wenn ein Monitor am Onboard Anschluss hängt, kontrolliert eben alleinig die Onboard Grafik die Bildausgabe incl. Bild-Synchronisation. Das Bild wird dann von der Grafikkarte zur Onboard Grafik durchgeschleift.

Mich wunderts gerade, dass das scheinbar nicht vielen bekannt ist. Spziell mit FreeSync hätte ichs aber so oder so nicht gemacht, da ich einerseits keinen FreeSync Monitor habe und andererseits die CPU-Leistung einer APU zu gring ist. Und AMDs normale CPUs haben keine Grafikeinheit.
Ich hab davon noch nie gehört, und dachte immer, die Grafikeinheit, an die ich anstecke, muss auch das Bild berechnen.

Wenn ich mehrere GPUs (ohne Crossfire/SLI) im PC hab, rechnet dann auch immer nur eine Grafikkarte, und alle anderen schleifen nur das Bild durch, wenn ich einen Bildschirm an einen Anschluss anstecke, der nicht zur primären Grafikkarte gehört?

Und wenn das geht, würde mich interessieren, wieviel zusätzliche Latenz das bedeuten würde, wenn ich zB das Bild von einer 1080Ti durch eine AMD RX 550 leite.
 
Zuletzt bearbeitet:
Ich hab davon noch nie gehört, und dachte immer, die Grafikeinheit, an die ich anstecke, muss auch das Bild berechnen.

Wenn ich mehrere GPUs (ohne Crossfire/SLI) im PC hab, rechnet dann auch immer nur eine Grafikkarte, und alle anderen schleifen nur das Bild durch, wenn ich eienn Bildschirm an einen Anschluss anstecke, der nicht zur primären Grafikkarte gehört?

Und wenn das geht, würde mich ineressieren, wieviel zusätzliche Latenz das bedeuten würde, wenn ich zB das Bild von einer 1080Ti durch eine AMD RX 550 leite.

Mit mehreren dedizierten GPUs habe ich das noch nicht ausprobiert, müsste aber genauso funktionieren. Displayadapter bleibt halt Displayadapter. Ob Onboard oder dediziert wird ja unter Windows nichtmal direkt unterschieden...

Die Latenz... da muss ich raten, weil ich keine Messwerte kenne. Aber ich kann mir nicht vorstellen, dass es großartige Latenzen gibt. Schließlich sind bei 60 Hz 1 Frame verzögerung ganze 16,6 ms. Das ist fast schon ne kleine Ewigkeit, wenn man bedenkt, was in der Zeit alles passiert. Sehe keinen Grund, warum das ausgeben auf ner anderen GPU da großartig verzögerungen verursachen sollte. Du kannst innerhalb von 16 ms ja selbst auf ne mechanische HDD zugreifen und Daten auslesen. Daher würds mich wirklich wundern, wenn da ne Latenz zustandekommt, die auch nur ansatzweise zu einem Frame verzögerung führt. Selbst bei 144 Hz halte ich es für unwahrscheinlich.

Aber ohne Messwerte nur Mutmaßungen...
 
nVidia arbeitet mit Sicherheit schon daran dem einen Riegel vor zu schieben, da sollte man sich keine großen Hoffnungen machen.
 
Ich möchte aber keinen 4 Kerner mehr, als nächstes ist ein 12 Kerner geplant. Ich habe zwar noch eine RX480 aber nicht genug Slots auf dem Board frei :/
 
Ich habe gerade diesen Frankenstein Build gekauft.

1950X-Threadripper

4 x 8GB Kingston Memory 3333 Mhz/16-18-18-18-36

GPUs 3x
-Nvidia: 1080 Ti
-Nvidia 1050 TI
-AMD WX 3100

MB: X399 Taichi

Wasserkühlung 2x
- 115i von Corsair für CPU.
- Corsair 75i für 1080Ti GPU

2 x Western Digital nVm 256 SSD
3 TB HD von WD Black

Netzteil: 750W Corsair



1080ti mit 1050ti G-sync über die
AMD WX 3100 ->Freesync


Diese Konfiguration ist ... komisch... aber wenn alles gut läuft gebe ich nächste Woche Bescheid ...
 
Zuletzt bearbeitet:
Radeon R7 260/260X, Radeon R9 285, Radeon R9 290/290X/295X2 haben vollen Freesync Support laut 3dcenter.org wenn es mit dedizierten Grafikkaren auch funktioniert wäre es natürlich noch besser ab Dienstag könnte ich es mit einer RX570 testen wobei bis dahin sich bestimmt schon von PCGH jemand findet der es mal testet

Und, mal getestet mittlerweile?
 
Da wird es bestimmt bald ein "Update" geben, und dann geht das nicht mehr.
Man möchte die Spieler ja davor schützen, für viel weniger Geld ein angenehmes Spielerlebnis zu bekommen.
 
Da wird es bestimmt bald ein "Update" geben, und dann geht das nicht mehr.
Man möchte die Spieler ja davor schützen, für viel weniger Geld ein angenehmes Spielerlebnis zu bekommen.

Da kann man nichts updaten denke ich, zumindest die APU lässt sich nicht einfach so aussperren.
 
Das Thema ist für mich grad das spannendste seit Ewigkeiten. Endlich wieder richtig freie Monitorwahl wäre ein Traum.
Schade dass die Nutzung von 2 dGPUs noch eingeschränkt ist durchs Game, aber immerhin hab ich die benötigte Auswahl schon in mehreren Optionsmenüs gesehen.
Und da werden sich schon Wege finden, das auszubauen.

Und Intel, wo bleibt euer A-Sync Treiber!
 
Das ist doch dann eigentlich auch nicht schlecht für NVidia. Dann kaufen mehr Leute NVidia GPUs. AMD verkauft auch mehr RX550er und weniger am oberen Ende. Und vermutlich paar APUs mehr. Die Verkäufe von G-Sync Displays könnten zurückgehen.
 
Zurück