• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Freesync 2: AMD stimmt auf Smart-TVs ein, Benq EX3203R vorgestellt

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Freesync 2: AMD stimmt auf Smart-TVs ein, Benq EX3203R vorgestellt

In einem Blog-Beitrag hat sich AMD dem Thema Freesync gewidmet. Inzwischen soll es über 350 Monitore mit einer Unterstützung für die variable Bildwiederholrate geben, 265 davon sind in Deutschland erhältlich. Freesync werde 2018 im Falle von Smart-TVs ein größeres Thema, zudem hat Benq den EX3203R mit Freesync 2 vorgestellt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Freesync 2: AMD stimmt auf Smart-TVs ein, Benq EX3203R vorgestellt
 

CD LABS: Radon Project

Volt-Modder(in)
Wenn AMD doch bitte mal auf Monitore einstimmen würden, die FreeSync2 und DisplayPort 1.4 ausnutzen würden...
...könnte man auch vor mir aus gerne fürs Marketing FreeSync3 nennen, auch wenn es natürlich (genau wie FreeSync2) eigentlich im Kern immer noch das gleiche wie beim originalen FreeSync wäre.
 

Bevier

Volt-Modder(in)
Wenn AMD doch bitte mal auf Monitore einstimmen würden, die FreeSync2 und DisplayPort 1.4 ausnutzen würden...
...könnte man auch vor mir aus gerne fürs Marketing FreeSync3 nennen, auch wenn es natürlich (genau wie FreeSync2) eigentlich im Kern immer noch das gleiche wie beim originalen FreeSync wäre.

Einer der gewichtigsten Gründe, warum ich von jedem neuen Monitor enttäuscht bin: DP 1.4 gibt es seit mittlerweile 2 Jahren, die Anzahl der erhältlichen Bildschirme kann man immer noch an einer Hand abzählen und wirklich bezahlbar ist von den wenigen auch kein einziger.
Dazu dann die ständigen Missverhältnisse von Größe zu Auflösung (über 30 Zoll reicht WQHD eben nicht mehr), dafür aber hohe Bildwiederholraten oder aber annehmbare Auflösung bei 60 Hertz aber NIE beides zusammen... -.-
 

Mango2Go

PC-Selbstbauer(in)
Ich weiß nicht. Ist zwar ein bisschen traurig. Auf der anderen Seite reicht DP 1.2 halt für die meisten Anwender. 144Hz bei 1440p (bzw. wie ich ja kürzlich gelernt hab mehr bei 8bit Farben) und 60Hz in 4K. Mehr brauchen die meisten halt nicht. 4K ist immernoch ein Nischenmarkt und bei 1440p hat man wenig Vorteile von mehr Bandbreite (144Hz reichen ja). Also warum Budget dafür raushauen? Aus Gewerblicher sicht nachvollziehbar, als Kunde schade.
 

michelthemaster

Software-Overclocker(in)
Was mir noch fehlt, ist ein TV oder Monitor mit Freesync, 10 Bit oder 8 Bit + FRC (oder wie das heißt) und mindestens 100Hz... Irgendwie tut sich da gar nix am Markt, es gibt lustigerweise sogar TVs mit 100Hz Panel, mangels ordentlicher Anbindung (HDMI 2.0) können diese jedoch nur 100Hz in 1080p wiedergeben :ugly:

Grüße

Micha
 

XD-User

PCGH-Community-Veteran(in)
Also bei einer fiktiven PS5 kann mein nächster Fernseher gerne Free-Sync haben samt HDR :D
 

Hatuja

Software-Overclocker(in)
Ich verstehe immer diese gejammer um Version der Anschlüsse nicht. Mir ist es total egal, welchen Anschluss der Monitor hat, solange ich ihn damit an meine Grafikkarte anschließen kann.
Die Hersteller wählen den Anschlusstyp und die Version nach dem aus, was der Monitor kann und am günstigsten ist.
Wie oft habe ich schon gelesen, auch auf anderen Webseiten, "Der 1080p-Monitor ist eigentlich super, aber weil er nur HDMI2.0 oder Displayport 1.3 hat, ist er doch Mist und ich kaufe ihn nicht..."
Die Spezifikationen des Panels werden sich nicht aufgrund des Anschlusses ändern. Aktuelle 4K Displays würden keine 200Hz darstellen können, nur wenn sie plötzlich Displayport 1.4 hätten.
Verpasse ich da was oder kapieren viele einfach nicht, dass die Panel-Spezifikationen nicht am Anschluss hängen?
 

Palmdale

BIOS-Overclocker(in)
Hm, is ja wunderschön, dass es drölfundfünfzig Monitore gibt, nur fehlen halt die bezahlbaren, passenden Grafikkarten dazu. Turing könnte im Q3 dem Umkreisen von Vega eine neue Dimension verpassen, was also bringt ein z.B. UHD Monitor mit Freesync, wenn halbwegs passende Frameraten (freesync beginnt teilweise erst ab 48hz) von derzeit verfügbaren Grafikkarten nicht erreicht werden? Ganz zu schweigen vom Preis, der kleine Aufpreis von Vega64 zur Ti is ja eigentlich geschenkt, die Neustaffelung von 1080 & Co bei Turing bleibt abzuwarten. Und dann? Mining AMD, Gaming Nvidia? Wo es doch nur Ablenkung gewesen sein soll und das Kerngeschäft unverändert Gamer sind? Ich weiß ja nich
 

Mango2Go

PC-Selbstbauer(in)
Hm, is ja wunderschön, dass es drölfundfünfzig Monitore gibt, nur fehlen halt die bezahlbaren, passenden Grafikkarten dazu. Turing könnte im Q3 dem Umkreisen von Vega eine neue Dimension verpassen, was also bringt ein z.B. UHD Monitor mit Freesync, wenn halbwegs passende Frameraten (freesync beginnt teilweise erst ab 48hz) von derzeit verfügbaren Grafikkarten nicht erreicht werden? Ganz zu schweigen vom Preis, der kleine Aufpreis von Vega64 zur Ti is ja eigentlich geschenkt, die Neustaffelung von 1080 & Co bei Turing bleibt abzuwarten. Und dann? Mining AMD, Gaming Nvidia? Wo es doch nur Ablenkung gewesen sein soll und das Kerngeschäft unverändert Gamer sind? Ich weiß ja nich

Du weißt das A) nicht jeder auf Ultra spielen muss und B) 4K Monitore nicht nur zum zocken da sind oder C) Nicht jeder immer die neusten AAA Games spielt und D) für die Xbox One S/x Freesync Support in der Beta ist? Je mehr Auswahl desto besser.
Meistens sind die Min Hz für Freesync in 4K auch nicht bei 48, eher bei 40. In 1440p sind viele mit 48-X Range dabei aber 48 FPS in 1440p mit einer Vega sind gut machbar. So schaut das ganze für 4K aus:

Screenshot_2018-05-05-14-17-49.png

Sprich, das geht schon. 40 FPS in 4K sind schon machbar. Oft genug auf Ultra, Ab und an mit einem Ultra/High mix. Auf einer 1080 schafft man auch vieles auf 4K Ultra/High. Das und die Kombination mit dem Freesync Support auf der Xbox One X machen es doch begrüßenswert, dass es viele Freesync-Monitore gibt.

Abgesehen davon weiß noch keiner zuverlässig was Touring kann oder wann die kommen. Bis jetzt gibt es einen Haufen Gerüchte. Warte doch erstmal ab was Touring bringt und dann was Navi bringt. Dann sehen wir weiter.

Der Aufpreis zur TI wechselt von der Größenordnung auch mal, G-Sync mit 4K bleibt recht teuer. Es kommt halt immer drauf an was man braucht, will oder sich leisten kann.
Die Preise für GPUs werden gerade ja besser. Mal schauen was die Zukunft da bringt. Die 580 ist ja fast(!!!) wieder im Normalbereich z.B. Mal schauen wo der Vega-Preis jetzt hingeht. Vielleicht bleibt es so, vielleicht wird es schlimmer, vielleicht besser. Die nächsten Wochen/Monate werden es zeigen.
 
Zuletzt bearbeitet:

CD LABS: Radon Project

Volt-Modder(in)
(...)Wie oft habe ich schon gelesen, auch auf anderen Webseiten, "Der 1080p-Monitor ist eigentlich super, aber weil er nur HDMI2.0 oder Displayport 1.3 hat, ist er doch Mist und ich kaufe ihn nicht..." (...)
Ausgehend davon, dass du dabei wahrscheinlich von <240hz sprichst: Ja, ist natürlich doof, dass es solche Deppen gibt. Das hat aber nichts mit dem zu tun, worüber wir hier sprechen.

BTW: DP 1.3 und 1.4 sind quasi das gleiche, du meintest wohl 1.2, das würde passen.

Die Spezifikationen des Panels werden sich nicht aufgrund des Anschlusses ändern. Aktuelle 4K Displays würden keine 200Hz darstellen können, nur wenn sie plötzlich Displayport 1.4 hätten.
Verpasse ich da was oder kapieren viele einfach nicht, dass die Panel-Spezifikationen nicht am Anschluss hängen?
Ja, du verpasst was:

  • Diverse UHD60-Panel würden aber auch etwas mehr als 60hz mitmachen, zum Beispiel 80hz, was schon (mit GSYNC/ FreeSync) ein ordentlicher Gewinn wäre.
  • Die Scaler haben bedeutend mehr Timing-Spielraum mit mehr Bandbreite. Das ist voll egal, wenn man sich eh nur bei LowResLowRefreshRate befindet, nicht aber am Rande des mit DP1.2/ HDMI2 möglichen.
  • Viele WQHD- und UWQHD-Monitore bewegen sich momentan superhart am Limit, sodass in manchen Pseudo-Werks-OC-Modi die Bildqualität leidet.
  • Die ersten Modelle, die DP1.4 auch nur etwas ausnutzen würden, brächten mehr Innovationsdruck für neue Panel.
Genug Gründe? Oder will jemand anders weiter kramen?
 

BigYundol

Software-Overclocker(in)
4k@120Hz OLED mit FreeSync2 incoming <3

Leider aber wohl frühestens 2019 mit den ersten HDMI 2.1-TVs :/

Bei den aktuellen 2018er-Q/OLEDs kann man ja nur mit 1080p 120Hz über den Displayeingang fahren...
 

IronAngel

BIOS-Overclocker(in)
Ich denke nicht das 4k Monitore ein Nischenmarkt sind, so groß ist der Unterschied nicht mehr, ab 27 Zoll gibt es sowieso mehr 4k Monitore als WHQD.

Ich find es auch schade das scheinbar nicht möglich ist aktuelle Display Ausgänge zuverwenden.
 

Pu244

Lötkolbengott/-göttin
Ich persönlich warte immer noch auf 4K Monitore, mit 144Hz und 10 Bit, zu halbwegs bezahlbaren Preisen (um die 1000€). Solange werde ich mich wohl mit meinem Übergangsmonitor (1280@1024, dafür sogar mit 75Hz) herumschlagen, da soll noch mal jemand sagen, 720p Tests wären weltfremd.

Abgesehen davon weiß noch keiner zuverlässig was Touring kann oder wann die kommen. (...). Warte doch erstmal ab was Touring bringt und dann was Navi bringt. Dann sehen wir weiter.

Der arme Alan Mathison Turing, erst wurde er in den Selbstmord getrieben und jetzt schänden haufenweise Leute seinen Namen. Das hat er wirklich nicht verdient, der Mann war ein Genie und keine Variante eines BMW.
 

Mango2Go

PC-Selbstbauer(in)
Ich persönlich warte immer noch auf 4K Monitore, mit 144Hz und 10 Bit, zu halbwegs bezahlbaren Preisen (um die 1000€). Solange werde ich mich wohl mit meinem Übergangsmonitor (1280@1024, dafür sogar mit 75Hz) herumschlagen, da soll noch mal jemand sagen, 720p Tests wären weltfremd.



Der arme Alan Mathison Turing, erst wurde er in den Selbstmord getrieben und jetzt schänden haufenweise Leute seinen Namen. Das hat er wirklich nicht verdient, der Mann war ein Genie und keine Variante eines BMW.

Ja, sorry für den verschreiber^^ Die Aussage bleibt jedoch xD
 

Nasenbaer

Software-Overclocker(in)
Der arme Alan Mathison Turing, erst wurde er in den Selbstmord getrieben und jetzt schänden haufenweise Leute seinen Namen. Das hat er wirklich nicht verdient, der Mann war ein Genie und keine Variante eines BMW.
Jo ganz schlimm. In der deutsche Synchro von Big Bang Theory nannte Sheldon ihn sogar mal Alan Turning.
Da würde er sich vermutlich tatsächlich im Grab umdrehen. ^^

Andererseits wurde man im Studium mit dämlichen Hausaufgaben rund um Programme für die Turingmaschine gequält. So gesehen darf er auch mal leiden. :)

@Topic
Ich frag mich ob Nvidia irgendwann mal den GSync Kram aufgibt. Wenigstens beides sollten sie unterstützen. Die Auswahl an Freesync Endgeräten ist einfach viel größer.
 

Mango2Go

PC-Selbstbauer(in)
Jo ganz schlimm. In der deutsche Synchro von Big Bang Theory nannte Sheldon ihn sogar mal Alan Turning.
Da würde er sich vermutlich tatsächlich im Grab umdrehen. ^^

Andererseits wurde man im Studium mit dämlichen Hausaufgaben rund um Programme für die Turingmaschine gequält. So gesehen darf er auch mal leiden. :)

@Topic
Ich frag mich ob Nvidia irgendwann mal den GSync Kram aufgibt. Wenigstens beides sollten sie unterstützen. Die Auswahl an Freesync Endgeräten ist einfach viel größer.

Warum sollten sie? G-Sync läuft doch^^ Da würden sie ihr eigenes Produkt Kannibalisieren...^^
 

SuddenDeathStgt

Software-Overclocker(in)
Das wär aber auch ein herber Schlag & ein weiterer Sargnagel für AMD u. früher oder später werden bzw. müssen die Grünen mindestens "zweigleisig fahren"....;-)
Kann das irgendwie eh nicht verstehen, denn techn. ist das möglich & somit würde man ein gewichtiges Argument für eine AMD-Graka im Keim ersticken. :devil::D

@Topic
Für Konsolen-User herrlich & hoffentlich bietet Samsung für meine Glotze noch neue, aktuellste Connectboxen an, dann natürlich mit aktuellste Schnittstellen. Ist halt dann nur die Frage, ob das auch mein VA-Pannel wuppen würde....
 

Palmdale

BIOS-Overclocker(in)
Du weißt das A) nicht jeder auf Ultra spielen muss und B) 4K Monitore nicht nur zum zocken da sind oder C) Nicht jeder immer die neusten AAA Games spielt und D) für die Xbox One S/x Freesync Support in der Beta ist? Je mehr Auswahl desto besser.
Meistens sind die Min Hz für Freesync in 4K auch nicht bei 48, eher bei 40. In 1440p sind viele mit 48-X Range dabei aber 48 FPS in 1440p mit einer Vega sind gut machbar. So schaut das ganze für 4K aus:

Anhang anzeigen 996528

Sprich, das geht schon. 40 FPS in 4K sind schon machbar. Oft genug auf Ultra, Ab und an mit einem Ultra/High mix. Auf einer 1080 schafft man auch vieles auf 4K Ultra/High. Das und die Kombination mit dem Freesync Support auf der Xbox One X machen es doch begrüßenswert, dass es viele Freesync-Monitore gibt.

Abgesehen davon weiß noch keiner zuverlässig was Touring kann oder wann die kommen. Bis jetzt gibt es einen Haufen Gerüchte. Warte doch erstmal ab was Touring bringt und dann was Navi bringt. Dann sehen wir weiter.

Der Aufpreis zur TI wechselt von der Größenordnung auch mal, G-Sync mit 4K bleibt recht teuer. Es kommt halt immer drauf an was man braucht, will oder sich leisten kann.
Die Preise für GPUs werden gerade ja besser. Mal schauen was die Zukunft da bringt. Die 580 ist ja fast(!!!) wieder im Normalbereich z.B. Mal schauen wo der Vega-Preis jetzt hingeht. Vielleicht bleibt es so, vielleicht wird es schlimmer, vielleicht besser. Die nächsten Wochen/Monate werden es zeigen.

Naja

A) es muss nicht jeder auf Ultra spielen, nur gibts halt im Grünen Lager derzeit mehr Leistung für weniger Geld. Das Argument geht also eigentlich an der Sache vorbei, wenn man grad Grafikkarte und Monitor neu anschaffen möchte
B) Wenn nicht zum zocken, wozu dann freesync? Die Kombination setz ich mal voraus. Dass die Monitorhersteller das als Marketing-Pluspunkt einfach mit beifügen, klar. Nur nutzen muss man es eben auch, der Scaler an sich muss das ja dennoch können und ist teurer im Vergleich zu dem ohne freesync (die Lizenzgebühr von Nvidia mit Zusatzgerät fehlt halt) :huh:
C) Geht argumentativ an der Sache vorbei (zur Erinnerung, mehr Leistung für weniger Geld bei Nvidia)
D) Wer nutzt eine Xbox X am Monitor? Denn die neuen TVs schlagen ordentlich zu Buche, wenn man sich die bisher bekannten Preise zu Gemüte führt.

Das man mit einer 580 gut spielen kann, bestreite ich ja nicht. Denn wie du korrekt anmerkst, isses immer auf den Einzelfall abzustellen: Welche Games, welche Qualität, welches Budget? Allerdings gibt es halt aktuell keinen Ausblick auf das nach Vega und genau darauf hab ich abgestellt. FHD ist noch der Standard, doch PCGH oder CB deuten ja an, dass es sich langsam über WQHD zu UWQHD/UHD hin entwickelt. Das allerdings macht in meinen Augen aber mit AMD Fragezeichen auf, mit was man zukünftig aufrüsten könnte, wenn man denn mit einem Freesync-Monitor liebäugelt (oder selbst die Fraktion, die derzeit mit einer 580 zwischenparkt und eigentlich High-End kaufen wollte).

Sicherlich weiß man über Turing noch nichts konkretes, der gesunde Menschenverstand lässt aber annehmen, dass es mehr Leistung für gleiche Leistungsaufnahme bzw. gleiche Leistung bei geringerer Leistungsaufnahme bringen wird. Anderenfalls könnte man sich die Veröffentlichung sparen und niemand hätte Grund zum Wechseln. Ich selbst z.B. kanns kaum erwarten, die 1180Ti zu kaufen, wenn sie denn auf die Welt kommt > UWQHD als Qualitätsfetischist will befriedigt werden. Bei Nvidia ist das womöglich nur eine Frage des Preises im Jahr 2019, bei AMD braucht man sich die Frage erst gar nicht stellen. Das war mein eigentlicher Kern meines Posts - gerade hier bräuchte man ebenso dringend Konkurrenz! Vielleicht ja Intel, allerdings werden die mMn eher im Low/Mid-Budget Bereich AMD das Wasser abgraben und nicht ad hoc ins High-End gegen Nvidia. Wenn Nvidia wirtschaftlich müsste, könnten sie die Preise auch niedriger ansetzen
 

Julian1303

PCGH-Community-Veteran(in)
Hmm ja Tvs ist ja schön und gut, nur warte ich immer noch auf "meinen" neuen Monitor, der an allen Ecken und Kanten stimmig ist mit Bild und Ausstattung. Widescreen 21:9 so ab 32" und leicht curved (Radius so 1800 eventuell etwas mehr). Und bitte MIT DP 1.4 und HDMI 2.0b. Hoffe wenn AdaptiveSync / FreeSync 2 endlich mal kommt das solche Monitore auch kommen. :hail: In FHD langweilt sich mein Roter Teufel.
 

Mango2Go

PC-Selbstbauer(in)
Naja

A) es muss nicht jeder auf Ultra spielen, nur gibts halt im Grünen Lager derzeit mehr Leistung für weniger Geld. Das Argument geht also eigentlich an der Sache vorbei, wenn man grad Grafikkarte und Monitor neu anschaffen möchte

Naja, G-Sync relativiert den Preis für die GPU sehr schnell. Ohne Sync ist ne 1080 billiger ja, mit G-Sync aber halt n gutes Eck teurer. Eine 1080ti + Monitor ist immer teurer. Sprich AMD + Adaptive Sync ist oft durchaus billiger als Nvidia + Adaptive Sync.

Nachdem du gesagt hast man kommt mit AMD schwer in die Bereiche wo Freesync dann zieht, ist das mit den Settings ziemlich genau auf dein Argument abgestimmt, kommt unten nochmal was ;)

B) Wenn nicht zum zocken, wozu dann freesync? Die Kombination setz ich mal voraus. Dass die Monitorhersteller das als Marketing-Pluspunkt einfach mit beifügen, klar. Nur nutzen muss man es eben auch, der Scaler an sich muss das ja dennoch können und ist teurer im Vergleich zu dem ohne freesync (die Lizenzgebühr von Nvidia mit Zusatzgerät fehlt halt) :huh:

Du missverstehst da was. Man kann sich nen 4K Screen kaufen weil man ihn für Multitasking Aufgaben haben will an der Workstation (Viel platz und so, 4K Bilder nativ darstellen, usw. usw.), man aber auch auf ihm zocken will. Dann hat man 4K zum Arbeiten und kann mit Freesync zocken. Der 4K Screen funktioniert ja auch mit niedrigerer Auflösung. Sprich man kann billig beides haben. Bei Nvidia kannst du nur teuer beides haben.

C) Geht argumentativ an der Sache vorbei (zur Erinnerung, mehr Leistung für weniger Geld bei Nvidia)

Um dich nochmal zu zitieren:

was also bringt ein z.B. UHD Monitor mit Freesync, wenn halbwegs passende Frameraten (freesync beginnt teilweise erst ab 48hz) von derzeit verfügbaren Grafikkarten nicht erreicht werden?

Also nein. Das ist ziemlich genau der Punkt. Auf gemischten Settings sind 48 FPS in UHD easy drinnen und bei älteren oder auch non AAA Titeln mit niedrigeren Anforderungen auch. Wenn du so ne Aussage machst solltest du nicht behaupten die Antwort ginge an deiner Aussage vorbei^^ Man kommt an die FPS. Oft sogar auf Ultra. Wobei wie gesagt 40 meistens der Grenzwert für UHD Freesync ist.

D) Wer nutzt eine Xbox X am Monitor? Denn die neuen TVs schlagen ordentlich zu Buche, wenn man sich die bisher bekannten Preise zu Gemüte führt.

Jemand der wenig Platz hat oder noch Zuhause bei den Eltern Wohnt und die Konsole im eigenen Zimmer will. Außerdem kann es halt bei der Neuanschaffung eines Fernsehers nach beispielsweise einem Umzug sein. Jemand der Kinder hat und das Ding in seinem Büro hat um Ruhe von den Kids zu haben. Gibt es alles. Sonst würde Microsoft das nicht einbauen.

Das man mit einer 580 gut spielen kann, bestreite ich ja nicht. Denn wie du korrekt anmerkst, isses immer auf den Einzelfall abzustellen: Welche Games, welche Qualität, welches Budget? Allerdings gibt es halt aktuell keinen Ausblick auf das nach Vega und genau darauf hab ich abgestellt

Kann man so stehen lassen.

FHD ist noch der Standard, doch PCGH oder CB deuten ja an, dass es sich langsam über WQHD zu UWQHD/UHD hin entwickelt.

Ach, das sagen die Leute schon lange. Aber das dauert noch. 1080p ist immernoch die breite Masse. 4k und 1440p sind bei steam immernoch echt weniga.

Das allerdings macht in meinen Augen aber mit AMD Fragezeichen auf, mit was man zukünftig aufrüsten könnte, wenn man denn mit einem Freesync-Monitor liebäugelt (oder selbst die Fraktion, die derzeit mit einer 580 zwischenparkt und eigentlich High-End kaufen wollte).

Fragezeichen gibt es immer. Navi kann der große Wurf oder auch ein Griff ins Klo werden. Aber mal doof gesagt: Auch Turning kann ein Fail sein. (Glaube ich zwar nicht, aber auch Nvidia hat sich in der Vergangenheit schon verrannt)

Sicherlich weiß man über Turing noch nichts konkretes, der gesunde Menschenverstand lässt aber annehmen, dass es mehr Leistung für gleiche Leistungsaufnahme bzw. gleiche Leistung bei geringerer Leistungsaufnahme bringen wird. Anderenfalls könnte man sich die Veröffentlichung sparen und niemand hätte Grund zum Wechseln. Ich selbst z.B. kanns kaum erwarten, die 1180Ti zu kaufen, wenn sie denn auf die Welt kommt > UWQHD als Qualitätsfetischist will befriedigt werden. Bei Nvidia ist das womöglich nur eine Frage des Preises im Jahr 2019, bei AMD braucht man sich die Frage erst gar nicht stellen. Das war mein eigentlicher Kern meines Posts - gerade hier bräuchte man ebenso dringend Konkurrenz! Vielleicht ja Intel, allerdings werden die mMn eher im Low/Mid-Budget Bereich AMD das Wasser abgraben und nicht ad hoc ins High-End gegen Nvidia. Wenn Nvidia wirtschaftlich müsste, könnten sie die Preise auch niedriger ansetzen

AMD kann uns vielleicht überraschen. Vielleicht kommt Vega 20 für Gaming und wird ein Knaller. Vielleicht geht Navi ab wie Schnitzel. Vielleicht passiert weder das eine noch das andere. Vielleicht wird die neue Nvidia-Gen auf 2019 verschoben. Ist alles möglich, wir wissen es nicht.
 
Zuletzt bearbeitet:

CD LABS: Radon Project

Volt-Modder(in)
Naja

A) es muss nicht jeder auf Ultra spielen, nur gibts halt im Grünen Lager derzeit mehr Leistung für weniger Geld. Das Argument geht also eigentlich an der Sache vorbei, wenn man grad Grafikkarte und Monitor neu anschaffen möchte
B) Wenn nicht zum zocken, wozu dann freesync? Die Kombination setz ich mal voraus. Dass die Monitorhersteller das als Marketing-Pluspunkt einfach mit beifügen, klar. Nur nutzen muss man es eben auch, der Scaler an sich muss das ja dennoch können und ist teurer im Vergleich zu dem ohne freesync (die Lizenzgebühr von Nvidia mit Zusatzgerät fehlt halt) :huh:
C) Geht argumentativ an der Sache vorbei (zur Erinnerung, mehr Leistung für weniger Geld bei Nvidia)
D) Wer nutzt eine Xbox X am Monitor? Denn die neuen TVs schlagen ordentlich zu Buche, wenn man sich die bisher bekannten Preise zu Gemüte führt.
(...)
Deine gesamte Argumentation geht leider selber voll an der Sache vorbei:
A) Und weitere Szenarien existieren nicht in deinem Marktbild? Nur der Displaykauf steht an würde mir da direkt einfallen...
...wer zum Beispiel eine Nano hat und momentan auf einem 1080p60er hauptsächlich LoL zockt und ansonsten viel mit Texten arbeitet, für so jemanden wäre ein 2160p144er super. Das ist jetzt nur ein ganz triviales
B) Da stand was von auch zum nicht zocken, nicht nur zum nicht zocken.
C) Siehe A & B
D) Das tun so schon viele und würden natürlich noch viel mehr, wenn es ein KillerFreeSync-Display gäbe, das auf GamingOnConsole zugeschnitten wäre. (also 10bit, 1000nits, FRC und LowInputLag bieten würde.

Der gesamte Rest des Postings detailliert die frühere Argumentation bloß noch aus und geht daher genauso dran vorbei.
 
F

FortuneHunter

Guest
@Topic
Ich frag mich ob Nvidia irgendwann mal den GSync Kram aufgibt. Wenigstens beides sollten sie unterstützen. Die Auswahl an Freesync Endgeräten ist einfach viel größer.

Sei doch froh dass es nicht so ist, ansonsten wären AMD (und einigen Fanboys) beim VEGA-Release die Argumente ausgegangen. ;)

Btw, wie man hier sehen kann, ist es schon essentiell eine größere Freesync-Range als 40-60hz bei 4K zu haben:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 

Mango2Go

PC-Selbstbauer(in)
Sei doch froh dass es nicht so ist, ansonsten wären AMD (und einigen Fanboys) beim VEGA-Release die Argumente ausgegangen. ;)

Btw, wie man hier sehen kann, ist es schon essentiell eine größere Freesync-Range als 40-60hz bei 4K zu haben:
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Kommt auf die Situation an. So einfach. Eine bessere Range ist natürlich wünschenswert. Hat ja keiner bestritten^^ Aber 40-60 ist immernoch besser als kein Freesync nachdem man Freesync bei Problemein einfach ausschalten kann. Es ist nicht essentiell, es ist aber definitiv Wünschenswert. Im schlimmsten Fall hast du das Ergebnis was du ohne Freesync hast. Im besten Fall gutes Adaptive Sync. Ist abgesehen davon noch in der Beta wenn mich nicht alles täuscht. Sprich es könnte sich noch was tun. (Könnte != Muss). Bei Dark Souls merkt man es deswegen weil es halt auf einem Non-LFC Monitor getestet wird, aber auch sowas gibt es mit Freesync. Da ist nur die Frage ob die Xbox LFC kann. Auf dem PC wird das glaube ich vom Treiber gehandelt und auf der PS könnt das anders laufen.
 
Zuletzt bearbeitet:
F

FortuneHunter

Guest
Kommt auf die Situation an. So einfach. Eine bessere Range ist natürlich wünschenswert. Hat ja keiner bestritten^^ Aber 40-60 ist immernoch besser als kein Freesync nachdem man Freesync bei Problemein einfach ausschalten kann.

Besser wäre es eine Range von 30 - Max. Monitor Hz zu haben, was GSync gewährleistet. GSync-Module kosten die Hersteller was (und die geben die Kosten auch weiter), aber der Grund dürfte auch in der Range liegen. Nur sehr wenige Freesync Monitore gehen runter bis 30 FPS und davon beherrscht keine UHD-Monitor diese Range (Liste AMD).

Du missverstehst da was. Man kann sich nen 4K Screen kaufen weil man ihn für Multitasking Aufgaben haben will an der Workstation (Viel platz und so, 4K Bilder nativ darstellen, usw. usw.), man aber auch auf ihm zocken will. Dann hat man 4K zum Arbeiten und kann mit Freesync zocken. Der 4K Screen funktioniert ja auch mit niedrigerer Auflösung. Sprich man kann billig beides haben. Bei Nvidia kannst du nur teuer beides haben.

Leute die 4K Monitore zum arbeiten nutzen haben in der Regel keine Billigmodelle. Hier ist GSync/Freesync Nebensache. Da kommt es auf Farbraum/Farbechtheit etc an und da bist du schnell mal bei ein paar 1000 €.
 
Zuletzt bearbeitet:

Mango2Go

PC-Selbstbauer(in)
Besser wäre es eine Range von 30 - Max. Monitor Hz zu haben, was GSync gewährleistet. GSync-Module kosten die Hersteller was (und die geben die Kosten auch weiter), aber der Grund dürfte auch in der Range liegen. Nur sehr wenige Freesync Monitore gehen runter bis 30 FPS und davon beherrscht keine UHD-Monitor diese Range (Liste AMD).

Die 30 min sind nicht so wichtig, das LFC aber in diesem Fall weil dann Frame-Doubling funtioniert und das kompensiert das ganz gut. Du brauchst halt 2.5x die Min-Range als Max-Range. Der Trick bei G-Sync ist nicht das die range von 30 angeht, sondern dass LFC standardmäßig dabei ist. Das ist schon cool.

Leute die 4K Monitore zum arbeiten nutzen haben in der Regel keine Billigmodelle. Hier ist GSync/Freesync Nebensache. Da kommt es auf Farbraum etc an und da bist du schnell mal bei ein paar 1000 €.

Jeder fängt mal an. Wenn du den für Multitaksing haben willst weil er groß ist (hab ich auch erwähnt) ist dir der Farbraum egal. Als Designer kann es wichtig sein, muss es aber nicht (kommt drauf an was du machst, selbst wenn du Designer bist dann halt wofür du designs machst). Nicht bei jeder beruflichen Nutzung ist der Farbraum entscheident. Die Sache ist, dass du die Möglichkeit hast billig einen zu bekommen der das hat und das ist einfach nicht schlecht. Ob du sie nutzt ist die andere Sache. Klar hat alles Vor- und Nachteile. Der Punkt ist, das macht eine große Varianz an Freesync-Monitoren ja nicht unnötig. Und das war auch der Kern. Einer meiner Kollegen Arbeitet halbtags und macht nebenher Design-Aufträge und macht das mehr so als Hobby mit dem er Geld macht. Der hat den selben Monitor wie ich und der ist von der Farbwiedergaben ok, aber nicht großartig. (Ok meiner ist jetzt auch kein 300€ Monitor sondern einer für 400€ aber das ist auch noch nicht die Welt für 4K).
 
Zuletzt bearbeitet:

CD LABS: Radon Project

Volt-Modder(in)
(...) Leute die 4K Monitore zum arbeiten nutzen haben in der Regel keine Billigmodelle. Hier ist GSync/Freesync Nebensache. Da kommt es auf Farbraum/Farbechtheit etc an und da bist du schnell mal bei ein paar 1000 €.
Für jemanden, der 4K zum Arbeiten mit Texten oder mit sonstigen monochrome Vektorgrafiken nutzt, sind Farbraum und Farbechtheit erst einmal ziemlich egal. Und das sind verdammig viele Jobs. (Programmierung, Verwaltung, Layouting, Autoren, ...)
Und mit ziemlich egal meine ich deutlich unbedeutender als für Gaming...
...und mir ist kein Desktop-4K-Panel bekannt, was derart miserabel wäre, dass es sich für Gaming disqualifizieren würde, ergo auch keines, was sich für oben genannte Szenarien disqualifiziert.
 

SilentHunter

Software-Overclocker(in)
Sei doch froh dass es nicht so ist, ansonsten wären AMD (und einigen Fanboys) beim VEGA-Release die Argumente ausgegangen. ;)

Btw, wie man hier sehen kann, ist es schon essentiell eine größere Freesync-Range als 40-60hz bei 4K zu haben:

Der ewig gleiche Nonsens und dämliches Gewäsch .Wenn ein offener "sehr viel günstigerer" Standard an den anderen Properitären überteuerten Lösungen nicht nutzbar ist obwohl er auch Schnittstellenseitig besser/aktueller da steht kommt jedesmal die Range Keule .Wenigsten ein vermeintlicher Vorteil an den sich geklammert wird wie der ertrinkende an einerGummiente .
Ich kann viele Hersteller bei der Range verstehen .Je niedriger die garantierte Range muss auch eine meist ein paar Cent/€ teurere hochwertigere Elektronik rein obwohl die meisten dort verbauten in der Regel weiter als die Werksangaben runterkämen .Für meist 30 statt 40 oder 48Hz untere Grenze muss man sich ja den horrenden Aufpreis schönreden können .Wer sich mit seinem Freesync etwas beschäftigt richtung Treibermod wird höchstwahrscheinlich erstaunt sein das da einiges noch nach unten gehen sollte .

Apropos ich habe meinen LG 4K Freesync Monitor nur mit etwas Zeitaufwand mit Treibermod auf 10 - 60 Hz stabil am laufen .Werksangabe liegt bei 40 - 60Hz .Hier im Forum dokumentiert .Den Thread dürft ihr euch gerne selber raussuchen .Habe noch von keinem G Sync bisher mal etwas ähnliches mitbekommen .

Mfg

Edit:
Die 30 min sind nicht so wichtig, das LFC aber in diesem Fall weil dann Framed-Doubling funtioniert und das kompensiert das ganz gut. Du brauchst halt 2.5x die Min-Range als Max-Range. Der Trick bei G-Sync ist nicht das die range von 30 angeht, sondern dass LFC standardmäßig dabei ist. Das ist schon cool.
Hier muss ich dir leider wiedersprechen .Bei einem 60Hz Monitor ist eine Untergrenze von 30Hz leider sinnvoll .Da Framedouble erst unter 30Hz einsetzt weil alles über 30Hz würde die max. 60Hz zwangsläufig übersteigen .Die restlichen 10 - 18 Hz bei einem 60Hz Moni müssen dann mit Vsync kompensiert werden mit all seinen Nachteilen .Framedoppelung ist mittlerweile bei Freesync aber genauso Standard wie im GSync .
 
Zuletzt bearbeitet:

Mango2Go

PC-Selbstbauer(in)
Der ewig gleiche Nonsens und dämliches Gewäsch .Wenn ein offener "sehr viel günstigerer" Standard an den anderen Properitären überteuerten Lösungen nicht nutzbar ist obwohl er auch Schnittstellenseitig besser/aktueller da steht kommt jedesmal die Range Keule .Wenigsten ein vermeintlicher Vorteil an den sich geklammert wird wie der ertrinkende an einerGummiente .
Ich kann viele Hersteller bei der Range verstehen .Je niedriger die garantierte Range muss auch eine meist ein paar Cent/€ teurere hochwertigere Elektronik rein obwohl die meisten dort verbauten in der Regel weiter als die Werksangaben runterkämen .Für meist 30 statt 40 oder 48Hz untere Grenze muss man sich ja den horrenden Aufpreis schönreden können .Wer sich mit seinem Freesync etwas beschäftigt richtung Treibermod wird höchstwahrscheinlich erstaunt sein das da einiges noch nach unten gehen sollte .

Apropos ich habe meinen LG 4K Freesync Monitor nur mit etwas Zeitaufwand mit Treibermod auf 10 - 60 Hz stabil am laufen .Werksangabe liegt bei 40 - 60Hz .Hier im Forum dokumentiert .Den Thread dürft ihr euch gerne selber raussuchen .Habe noch von keinem G Sync bisher mal etwas ähnliches mitbekommen .

Mfg

Edit:

Hier muss ich dir leider wiedersprechen .Bei einem 60Hz Monitor ist eine Untergrenze von 30Hz leider sinnvoll .Da Framedouble erst unter 30Hz einsetzt weil alles über 30Hz würde die max. 60Hz zwangsläufig übersteigen .Die restlichen 10 - 18 Hz bei einem 60Hz Moni müssen dann mit Vsync kompensiert werden mit all seinen Nachteilen .Framedoppelung ist mittlerweile bei Freesync aber genauso Standard wie im GSync .

Ja bei 60Hz, aber da reichen eben 30 nichtmal. Bei 60 braucht man 24 für LFC damit die Korrektur greift, dass die 60Hz eben nicht gesprengt werden. Aber wenn der Monitor ne 45-144Hz Range hat z.B. läuft das genauso gut. Das ist ja die Crux mit LFC.^^
 

SilentHunter

Software-Overclocker(in)
Hä ? 30 oder weniger x 2 macht max .60 oder weniger .Keine Ahnung was du mit 24 hantierst .Wenn meine max. Range das doppelte der Syncuntergrenze beträgt gibts keine Probleme mit Framedoppelung unterhalb der min. Range .
 

Mango2Go

PC-Selbstbauer(in)
Hä ? 30 oder weniger x 2 macht max .60 oder weniger .Keine Ahnung was du mit 24 hantierst .Wenn meine max. Range das doppelte der Syncuntergrenze beträgt gibts keine Probleme mit Framedoppelung unterhalb der min. Range .

Schau mal in die AMD Paper^^ da steht Max Range muss 2.5x Min-Range sein^^ So ist das eben bei Freesync.

60 / 2.5 ist 24^^ Daher die 24 Hz.

https://www.google.de/url?sa=t&sour...FjABegQICBAB&usg=AOvVaw2vyQAuOQXDOoB5E6yBOIEM

Ist ein PDF.
 

SilentHunter

Software-Overclocker(in)
Sry dann solltest du dich das nächstemal etwas verständlicher und nachvollziehbarer ausdrücken dann gibts auch keine Missverständnisse .

Mfg
 

Mango2Go

PC-Selbstbauer(in)
Sry dann solltest du dich das nächstemal etwas verständlicher und nachvollziehbarer ausdrücken dann gibts auch keine Missverständnisse .

Mfg

Ich bitte freundlichst um Verzeihung ;) Aber das mit der 2.5er Marke hab ich ein paar Posts vorher schonmal angemerkt ;)

Die 30 min sind nicht so wichtig, das LFC aber in diesem Fall weil dann Frame-Doubling funtioniert und das kompensiert das ganz gut. Du brauchst halt 2.5x die Min-Range als Max-Range. Der Trick bei G-Sync ist nicht das die range von 30 angeht, sondern dass LFC standardmäßig dabei ist. Das ist schon cool.
 

Gurdi

Kokü-Junkie (m/w)
Puh, das ist aber ein herber Schlag für den PC. Wenn Konsolen in 4k via dynamischen Scaling in der Freesyncrange bleiben können, dann ist das schon ne Ansage.
@Palmdale: In allen Spielen auf meiner Platte kommt die V64 quasi immer über 40Fps im Max Out in 4k.
Vermintide 2 , Sniper Elite 4, Prey, Dirt 4, Shadow of War, Sudden Strike 4 etc.
Lediglich in Warhammer 2 läuft dass nicht ohne Resscale. In ordentlich programmierten Spielen wie Forza, Battlefront, Wolfenstein etc. ist dass auch kein Problem für die Leistungsklasse.

@Fortune: Was hat dein Video jetzt mit der Syncrate eines Pc´s zu tun?
 
F

FortuneHunter

Guest
Puh, das ist aber ein herber Schlag für den PC. Wenn Konsolen in 4k via dynamischen Scaling in der Freesyncrange bleiben können, dann ist das schon ne Ansage.
@Palmdale: In allen Spielen auf meiner Platte kommt die V64 quasi immer über 40Fps im Max Out in 4k.
Vermintide 2 , Sniper Elite 4, Prey, Dirt 4, Shadow of War, Sudden Strike 4 etc.
Lediglich in Warhammer 2 läuft dass nicht ohne Resscale. In ordentlich programmierten Spielen wie Forza, Battlefront, Wolfenstein etc. ist dass auch kein Problem für die Leistungsklasse.

@Fortune: Was hat dein Video jetzt mit der Syncrate eines Pc´s zu tun?

Im Prinzip das was du ansprichst. Die XBOX One X schafft es eben nicht immer in der Rage zu bleiben. Im Gegensatz zum PC hast du aber eben keine Möglichkeit diesen Abfall zu kompensieren indem du Einstellungen veränderst.
Und wir reden hier von Monitoren nicht von Grafikkarten. Im Video ist öfter zu sehen, wie die Rate unter die Freesyncrange fällt und die XBOX Framedoubling versucht, der Monitor dieses aber nicht unterstützt und es daher trotzdem zum stottern kommt.

Damit wären wir dann auch hier:
Die 30 min sind nicht so wichtig, das LFC aber in diesem Fall weil dann Frame-Doubling funtioniert und das kompensiert das ganz gut. Du brauchst halt 2.5x die Min-Range als Max-Range. Der Trick bei G-Sync ist nicht das die range von 30 angeht, sondern dass LFC standardmäßig dabei ist. Das ist schon cool.
Ja für Verwendung des GSync Moduls in einem Monitor ist es Vorschrift das er LFC unterstützt. Das ist aber längst nicht bei allen Freesync-Monitoren der Fall.

Hier mal ein interessanter Artikel von Computerbase: Eizo FS2735 und Asus PG279Q im Test: FreeSync und G-Sync waren nie besser (Seite 4) - ComputerBase

Apropos ich habe meinen LG 4K Freesync Monitor nur mit etwas Zeitaufwand mit Treibermod auf 10 - 60 Hz stabil am laufen .Werksangabe liegt bei 40 - 60Hz .Hier im Forum dokumentiert .Den Thread dürft ihr euch gerne selber raussuchen .Habe noch von keinem G Sync bisher mal etwas ähnliches mitbekommen .
Super gratuliere. Ist ja nicht so, dass man als normaler Käufer nicht gerne basteln würde und mal eben einen kleinen Treibermod macht. Und das du es von keinem GSync gehört hast, dürfte daran liegen das hier das Modul ähnliche Spielereien verhindern würde und dass es bei GSync Out of the Box funktioniert wie es soll und keine Bsatellösung nötig ist.

Aber als AMD-Käufer muss man eben Basteln, damit die Eigenschaften mit denen AMD groß wirbt auch erreicht werden.
AMD wirbt mit Energieeffizenz und Leistung schneller als eine GTX1080 ... Man muss die Karte nur undervolten um das Ziel zu erreichen.
Freesyncmonitore erreichen die Range nicht ... Modifizieren wir eben mal die Range mittels MOD.

Das Problem, dass ich dabei sehe: Nicht jeder Käufer ist ein Enthusiast der gerne bastelt. Der große Anteil der Käufer möchte einfach Komponenten, die die Eigenschaften auch von Anfang an erfüllen wenn sie eingebaut oder genutz werden. Basteln ist etwas das man in den 80er und 90ern in Kauf nehmen musste wenn man mit einem PC spielen wollte. Aber spätestens seit Windows XP und Plug and Play sollte das eigentlich der Vergangenheit angehören.

Schön das Du deinen Monitor auf diese Range getrimmt hast und Gurdi mittels undervolting und overclocking die Vega 64 nah an die Performance einer GTX1080Ti gebracht hat ... Nur ihr seit eben Bastler und Enthusiasten denen es Spaß macht sich stundenlang damit auseinanderzusetzen. Wahrscheinlich auch weil es euch gestört hat, dass es eben nicht funktioniert.

Aber kann es sich AMD leisten (oder streben sie es an), dass nur ein paar Kunden in der Lage sind das Potential ihrer tollen Hardware auch zu nutzen. Grade wenn man wichtige Marktanteile zurückerobern wills muss man auf die breite Masse der Kunden abziehlen und nicht nur auf den erfahrenen Kunden. Schließlich ist es diese Masse, die einen eine ausreichende Menge Karten abkauft, damit man das Ziel erreicht.

Ich kann es dir nur aus Gamersicht schildern. Ich möchte Produkte die so funktionieren wie sie sollen ohne groß zu basteln. Sie sollen Energieeffizent sein, damit sie einfach und leise zu kühlen sind, denn das permanente Geräusch eines rauschenden Lüfters stört mein Spielerlebnis. Außerdem soll das Sync-Verfahren den Bereich ab 30 Hz abdecken. Wie es letzendlich technisch funktioniert interessiert mich erstmal zweitrangig. Das es funktioniert ohne das ich es merke ist das was ich will und das was ich eben zur Zeit nur bei NVidia bekomme.

Glaub mir anders wäre es mir auch lieber. Eine größere Auswahl schadet nie.
 

Mango2Go

PC-Selbstbauer(in)
Im Prinzip das was du ansprichst. Die XBOX One X schafft es eben nicht immer in der Rage zu bleiben. Im Gegensatz zum PC hast du aber eben keine Möglichkeit diesen Abfall zu kompensieren indem du Einstellungen veränderst.
Und wir reden hier von Monitoren nicht von Grafikkarten. Im Video ist öfter zu sehen, wie die Rate unter die Freesyncrange fällt und die XBOX Framedoubling versucht, der Monitor dieses aber nicht unterstützt und es daher trotzdem zum stottern kommt.

Wie wäre es damit. Verwende einen nicht 4K Monitor für die Xbox One? Da gibt es genug mit LFC? Es ist ja nicht so als würde die Konsole nur mit 4K Funktionieren. Für Konsolen gilt vermutlich das selbe wie für PCs. 4K ist im Moment ne Randerscheinung.

An einer Vega muss man nicht Basteln. Man kann. Vega 64 + Freesync ist halt billiger bis gensuso teuer im Vergleich mit einer 1080 mit G-Sync. So einfach. Und Vega und eine 1080 sind auf einem Niveau von der Leistung. (Nicht von der Effizienz). Sprich beides ist eine valide Option. Es ist ja nicht so als gäbe es keine LFC-Screens. Und Leute die 4K wollen sind dann in der Regel auch die Bastelbereiten.
 

Gurdi

Kokü-Junkie (m/w)
@Fortune: Gut, deine Argumente sehe ich ja ein. Im Bezug auf Freesync und XBox ist es aber eigentlich kein großer Nachteil, noch ist nichts darauf angepasst.
Wenn die neue Generation an Konsolen von Haus aus Sync unterstützt und die passenden Fernseher nach und nach unters Volk kommen ist das ein deutliches Pfund für die Konsolen, vor allem in Verbindung mit 4K.

Ich hatte es ja bereits angeschnitten, eine dynamische Auflösungsskalierung in Verbindung mit Freesync könnte die Konsolen auf ein ganz neues Level hieven.
Da spielt dann die mindestrate in Hz eigentlich keinen so große Rolle mehr, die Engine würde einfach die Auflösung skalieren um permanent auf dem Fps Niveau zu bleiben, spiele wie Mordor:Shadow of War beherrschen dass bereits.

Der übliche "Konsolen Bob" würde das eh nicht mitkriegen.
 

SilentHunter

Software-Overclocker(in)
Im Prinzip das was du ansprichst. Die XBOX One X schafft es eben nicht immer in der Rage zu bleiben. Im Gegensatz zum PC hast du aber eben keine Möglichkeit diesen Abfall zu kompensieren indem du Einstellungen veränderst.
Und wir reden hier von Monitoren nicht von Grafikkarten. Im Video ist öfter zu sehen, wie die Rate unter die Freesyncrange fällt und die XBOX Framedoubling versucht, der Monitor dieses aber nicht unterstützt und es daher trotzdem zum stottern kommt.

Damit wären wir dann auch hier:

Ja für Verwendung des GSync Moduls in einem Monitor ist es Vorschrift das er LFC unterstützt. Das ist aber längst nicht bei allen Freesync-Monitoren der Fall.

Hier mal ein interessanter Artikel von Computerbase: Eizo FS2735 und Asus PG279Q im Test: FreeSync und G-Sync waren nie besser (Seite 4) - ComputerBase


Super gratuliere. Ist ja nicht so, dass man als normaler Käufer nicht gerne basteln würde und mal eben einen kleinen Treibermod macht. Und das du es von keinem GSync gehört hast, dürfte daran liegen das hier das Modul ähnliche Spielereien verhindern würde und dass es bei GSync Out of the Box funktioniert wie es soll und keine Bsatellösung nötig ist.

Aber als AMD-Käufer muss man eben Basteln, damit die Eigenschaften mit denen AMD groß wirbt auch erreicht werden.
AMD wirbt mit Energieeffizenz und Leistung schneller als eine GTX1080 ... Man muss die Karte nur undervolten um das Ziel zu erreichen.
Freesyncmonitore erreichen die Range nicht ... Modifizieren wir eben mal die Range mittels MOD.

Das Problem, dass ich dabei sehe: Nicht jeder Käufer ist ein Enthusiast der gerne bastelt. Der große Anteil der Käufer möchte einfach Komponenten, die die Eigenschaften auch von Anfang an erfüllen wenn sie eingebaut oder genutz werden. Basteln ist etwas das man in den 80er und 90ern in Kauf nehmen musste wenn man mit einem PC spielen wollte. Aber spätestens seit Windows XP und Plug and Play sollte das eigentlich der Vergangenheit angehören.

Schön das Du deinen Monitor auf diese Range getrimmt hast und Gurdi mittels undervolting und overclocking die Vega 64 nah an die Performance einer GTX1080Ti gebracht hat ... Nur ihr seit eben Bastler und Enthusiasten denen es Spaß macht sich stundenlang damit auseinanderzusetzen. Wahrscheinlich auch weil es euch gestört hat, dass es eben nicht funktioniert.

Aber kann es sich AMD leisten (oder streben sie es an), dass nur ein paar Kunden in der Lage sind das Potential ihrer tollen Hardware auch zu nutzen. Grade wenn man wichtige Marktanteile zurückerobern wills muss man auf die breite Masse der Kunden abziehlen und nicht nur auf den erfahrenen Kunden. Schließlich ist es diese Masse, die einen eine ausreichende Menge Karten abkauft, damit man das Ziel erreicht.

Ich kann es dir nur aus Gamersicht schildern. Ich möchte Produkte die so funktionieren wie sie sollen ohne groß zu basteln. Sie sollen Energieeffizent sein, damit sie einfach und leise zu kühlen sind, denn das permanente Geräusch eines rauschenden Lüfters stört mein Spielerlebnis. Außerdem soll das Sync-Verfahren den Bereich ab 30 Hz abdecken. Wie es letzendlich technisch funktioniert interessiert mich erstmal zweitrangig. Das es funktioniert ohne das ich es merke ist das was ich will und das was ich eben zur Zeit nur bei NVidia bekomme.

Glaub mir anders wäre es mir auch lieber. Eine größere Auswahl schadet nie.

Darf ich mal herzhaft über deine Argumentation lachen ? Was du hier als Kritik anbringst klingt wie der nackte Hohn für das System PC und seinen grossen Möglichkeiten .Einen Treiber modden zu können sehe sicher nicht nur ich generell eher als Vorteil den als Nachteil .Selbst ein Laie würde das in einer halben Stunde hinbekommen wenn er wollte .Für die sehr gute Treibermodanleitung hier mal vielen Dank an die Redaktion von PCGH . Über die konservativen Grundeinstellungen der Hersteller in bezug der Freesyncrange ihrer Produkte kann man sich leider oft nur wundern .
Genauso wie jeder der in irgendeiner Art und Weise mal eine seiner Komponenten OC hat oder dies mal möchte sich darüber wundern muss was du dir da zusammengereimt hast "Der große Anteil der Käufer möchte einfach Komponenten, die die Eigenschaften auch von Anfang an erfüllen wenn sie eingebaut oder genutz werden. Basteln ist etwas das man in den 80er und 90ern in Kauf nehmen musste wenn man mit einem PC spielen wollte.Aber spätestens seit Windows XP und Plug and Play sollte das eigentlich der Vergangenheit angehören." Das sich das schon recht anmaßend ließt geht bestimmt nicht nur mir so . Das OC von CPUs und Grakas ist in deinen Augen grundsätzlich eigentlich sinnfrei und völlig überbewertet .Irgendjemand sollte die Hersteller darüber informieren das sie sich aufgrund deiner Aussage in Zukunft die Mühe OC fähige oder sonstwie modbare Produkte herzustellen sparen können .
 
Zuletzt bearbeitet:
Oben Unten