AMD Freesync: Entsprechende Monitore noch in diesem Jahr?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Freesync: Entsprechende Monitore noch in diesem Jahr?

Auf der Siggraph 2014 verriet Richard Huddy, Chief Gaming Scientist bei AMD, gegenüber Techreport, dass Freesync-Bildschirme wohl kaum teurer als herkömmliche Monitore sein werden. Da bereits erste Testexemplare hergestellt wurden, sind marktfertige Modelle sogar noch in diesem Jahr möglich. Wahrscheinlicher ist allerdings ein Launch im ersten Quartal 2015.

[size=-2]Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und NICHT im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt. Sollten Sie Fehler in einer News finden, schicken Sie diese bitte an online@pcgameshardware.de mit einem aussagekräftigen Betreff.[/size]


lastpost-right.png
Zurück zum Artikel: AMD Freesync: Entsprechende Monitore noch in diesem Jahr?
 
:daumen: Die 100 Euro +aufwärts Gebühr, eines Monitors, für einen popeligen Chip, der nur für die Verwendung der proprietäre G-Sync Technik in Verbindung mit einer nVidia Karte funktioniert, ist es mir nicht wert.
Da warte ich lieber auf Freesync welches sich an den VESA Standard richtet und mit jeder Grafikkarte funktioniert.
 
:daumen: Die 100 Euro +aufwärts Gebühr, eines Monitors, für einen popeligen Chip, der nur für die Verwendung der proprietäre G-Sync Technik in Verbindung mit einer nVidia Karte funktioniert, ist es mir nicht wert.
Da warte ich lieber auf Freesync welches sich an den VESA Standard richtet und mit jeder Grafikkarte funktioniert.
Bin ich auch für - sehe ich auch so.
 
Mittlerweile finde ich es offensichtlich, dass AMD schon länger mit diesem Standard geplant hat und Nvidia AMD mit dem FPGA in die Parade gefahren ist, als damals die Dokumente von AMD gestohlen wurden.
 
Und das wäre auch mit einer Nvidia-Grafikkarte möglich?
Wenn ja, dann kann ich nur "Well played AMD" sagen.
Jepp, da das im neuen VESA-Standard verankert ist, kann jeder Hersteller sich entscheiden, das zu unterstützen, ohne Lizenzgebühren zahlen zu müssen, etc. Ich glaube sogar, es gab bereits eine Ankündigung von Nvidia, dass sie das unterstützen wollen. Was sehr zum Vorteil der Gamer wäre - in ein paar Jahren wird schließlich jeder neue Monitor FreeSync unterstützen, steht ja nun im Standard ;) Offen Standards f.t.w. :daumen:

Mittlerweile finde ich es offensichtlich, dass AMD schon länger mit diesem Standard geplant hat und Nvidia AMD mit dem FPGA in die Parade gefahren ist, als damals die Dokumente von AMD gestohlen wurden.
Wäre zwar gut denkbar, dass es echt so gewesen ist (hätte Nvidia das schon etwas länger geplant, hätten sie sich gewiss nicht für den sündhaft teuren FPGA entschieden, sondern in der Zwischenzeit einen ASIC fertigen lassen). Aber sehr in die Parade gefahren sind sie AMD damit ja bislang nicht :D Wieviel Prozent der weltweiten PC-Gamer nutzen G-Sync (nicht in diesem Forum, hier sind die Leute ja recht fortschrittlich im Vergleich)? Das dürfte bei maximal 1-2% liegen...
 
Jepp, da das im neuen VESA-Standard verankert ist, kann jeder Hersteller sich entscheiden, das zu unterstützen, ohne Lizenzgebühren zahlen zu müssen, etc. Ich glaube sogar, es gab bereits eine Ankündigung von Nvidia, dass sie das unterstützen wollen. Was sehr zum Vorteil der Gamer wäre - in ein paar Jahren wird schließlich jeder neue Monitor FreeSync unterstützen, steht ja nun im Standard ;) Offen Standards f.t.w. :daumen:
Leider hat NVidia es schon wieder dementiert das sie Freesync unterstützen wollen, naja freie Standards sind halt nicht ihr Ding.. deshalb nehme ich auch lieber AMD weil ich so ein verhalten nicht unterstützen will.
 
Leider hat NVidia es schon wieder dementiert das sie Freesync unterstützen wollen, naja freie Standards sind halt nicht ihr Ding.. deshalb nehme ich auch lieber AMD weil ich so ein verhalten nicht unterstützen will.
Echt? Das wäre schade. Hast du ne Quelle?

Ich denke mal, in spätestens 1-2 Jahren wird Nvidia es gewiss unterstützen, wenn auch "heimlich" (also ohne groß Pressemitteilungen zu verschicken, oder so). Es ist schließlich im neuen VESA-Standard. Nvidia wird sich nicht die Blöße geben, den neuen VESA-Standard nicht vollständig umzusetzen... Dann könnte die Konkurrenz immer sagen "Im Gegensatz zu Nvidia erfüllen wir diesen Industriestandard" ^^
 
Echt? Das wäre schade. Hast du ne Quelle?

Ich denke mal, in spätestens 1-2 Jahren wird Nvidia es gewiss unterstützen, wenn auch "heimlich" (also ohne groß Pressemitteilungen zu verschicken, oder so). Es ist schließlich im neuen VESA-Standard. Nvidia wird sich nicht die Blöße geben, den neuen VESA-Standard nicht vollständig umzusetzen... Dann könnte die Konkurrenz immer sagen "Im Gegensatz zu Nvidia erfüllen wir diesen Industriestandard" ^^

Sollte NV dies tun wäre ihr GSync Standart bedeutungslos und somit auch alle sich berreits auf dem Markt befindenden GSync Monitore überflüssig, dann würden einige Vertragspartner wie ASUS NV in den .... treten.
 
vielleicht wird es auch einen art Treiber Hack geben, der dies ermöglicht. Ich meine wenn der Display Port und der Monitor das unterstützt, sollte es doch umsetzbar sein. Wartet erstmal ab, wenn die G Sync Monitore wie Blei im Regal liegen bleiben, wird schon ein umdenken statt finden.
 
:daumen: Die 100 Euro +aufwärts Gebühr, eines Monitors, für einen popeligen Chip, der nur für die Verwendung der proprietäre G-Sync Technik in Verbindung mit einer nVidia Karte funktioniert, ist es mir nicht wert.
Da warte ich lieber auf Freesync welches sich an den VESA Standard richtet und mit jeder Grafikkarte funktioniert.

Exakt so sehe ich das auch :daumen:
 
Freesync kann G-Sync nie das Wasser reichen, weil's ja nicht von NVidia kommt und viel zu billig ist.:lol:
Was erlaubt sich AMD da eigentlich, sowas günstiges zu entwickeln/wiederzufinden wo NVidia seine Kunden doch so verarschen will? Böses AMD!!!!!:ugly:

Ich will mir schon 5 Jahre nen neuen Monitor kaufen, aber jedes Mal wird irgendwas tolles eingeführt und ich warte und warte und warte...Wie lang hält denn bloß so'n Monitor, wenn meiner mal kaputt ist, MUSS ich ja endlich mal kaufen.:daumen:
 
Ich lach mich kaputt, FreeSync ist nicht so gut wie G-Sync obwohl es keiner außer der AMD-Ingeniuere gesehen hat. :lol:.

Was manche für Schwachsinn schreiben, daher gilt.



ForumRunner_20141013_210901.gif
 
Gibt's da jetzt eigentlich schon zuverlässige Aussagen, welche GPUs das ganze unterstützen werden? Einmal hieß es, dass auch ältere Karten das ganze unterstützen, dann les ich wieder dass die 285 die erste Karte ist, die es unterstützt. Wäre für meinen GPU Kauf zur Weihnachtszeit durchaus interessant zu wissen.

Edit: SpeCnaZ, falls du dich auf Eckism beziehst solltest du nochmal Ironie/Sarkasmus studieren. :)
 
Gibt's da jetzt eigentlich schon zuverlässige Aussagen, welche GPUs das ganze unterstützen werden? Einmal hieß es, dass auch ältere Karten das ganze unterstützen, dann les ich wieder dass die 285 die erste Karte ist, die es unterstützt. Wäre für meinen GPU Kauf zur Weihnachtszeit durchaus interessant zu wissen.

Wenn ich das richtig verstanden habe, kann Freesync jede Karte ab der HD 7xxx Serie, die R9 285 ist nur die erste, welche diese Technik bei variablen Bildraten ermöglicht, da gibt es wohl noch einen Unterschied. Bitte korrigieren wenn ich falsch liege.
 
Gibt's da jetzt eigentlich schon zuverlässige Aussagen, welche GPUs das ganze unterstützen werden? Einmal hieß es, dass auch ältere Karten das ganze unterstützen, dann les ich wieder dass die 285 die erste Karte ist, die es unterstützt. Wäre für meinen GPU Kauf zur Weihnachtszeit durchaus interessant zu wissen.
GCN 1.0 kann die Bildiwederholrate mit Freesync auf 24/48 Hertz setzen für Filme und Co. - variabel kann die Rate aber hier nicht angepasst werden (wie es für Spiele nötig wäre).
GCN 1.1 aufwärts soll neben dem Festsetzen der Rate auf 24/48 Hertz auch "adaptive Sync" also die dynamische Anpassung beherrschen.
 
Danke Mark für die Info, hab da nur noch das Problem mit dem Wort "soll". So habt ihr ja auch in dem Test der 285 schon geschrieben:
"Zu guter Letzt handelt es sich bei der Radeon R9 285 laut AMD um die erste Grafikkarte, welche "Project Freesync" unterstützt, das als Adaptive Sync in den Displayport-Standard 1.2a aufgenommen wurde. Dieser Punkt ist pikant, da AMD vor einigen Monaten meldete, dass auch die GCN-1.1-Chips R7 260(X) und R9 290(X) nach einem Treiber-Update dazu in der Lage sind. PC Games Hardware bleibt diesbezüglich natürlich am Ball."

Hoffe, da gibt es bald was verlässliches. Wenn wirklich noch vor Weihnachten so nen Monitor kommt könnt ihr das ja sicherlich selbst bestätigen/widerlegen. Für mich wäre nämlich der Aufpreis (bzw das schlechtere P/L) der 285 zu verkraften, wenn ich dann nächstes Jahr nen Monitor mit FreeSync holen könnte. Da ich so gut wie keine Ego-Shooter (außerhalb vom Coop) zocke würde ich sicherlich meistens auch mit 40-50 fps glücklich werden. 30 sind leider auch mit Gamepad teils hart an der Grenze, aber um ständig die 60 halten zu können muss man oftmals ganz schön an der Grafik drehen (bei ner 7850@FHD).
 
Danke Mark für die Info, hab da nur noch das Problem mit dem Wort "soll". So habt ihr ja auch in dem Test der 285 schon geschrieben:
"Zu guter Letzt handelt es sich bei der Radeon R9 285 laut AMD um die erste Grafikkarte, welche "Project Freesync" unterstützt, das als Adaptive Sync in den Displayport-Standard 1.2a aufgenommen wurde. Dieser Punkt ist pikant, da AMD vor einigen Monaten meldete, dass auch die GCN-1.1-Chips R7 260(X) und R9 290(X) nach einem Treiber-Update dazu in der Lage sind. PC Games Hardware bleibt diesbezüglich natürlich am Ball."

Hoffe, da gibt es bald was verlässliches. Wenn wirklich noch vor Weihnachten so nen Monitor kommt könnt ihr das ja sicherlich selbst bestätigen/widerlegen. Für mich wäre nämlich der Aufpreis (bzw das schlechtere P/L) der 285 zu verkraften, wenn ich dann nächstes Jahr nen Monitor mit FreeSync holen könnte. Da ich so gut wie keine Ego-Shooter (außerhalb vom Coop) zocke würde ich sicherlich meistens auch mit 40-50 fps glücklich werden. 30 sind leider auch mit Gamepad teils hart an der Grenze, aber um ständig die 60 halten zu können muss man oftmals ganz schön an der Grafik drehen (bei ner 7850@FHD).
Das Problem ist, dass AMDs Aussagen diesbezüglich "etwas" verwirrend sind ...
 
Zurück