AMDs RX Vega 64 ist da und ich ... Das meinen PCGH-Redakteure

Nee, ich würde Adaptive-Sync idR nicht abschalten und AMD User brauchen das schon dreimal nicht abschalten.

In dem Youtube Video wird stuss gemessen.
Man kann kein Button to Pixel(!) vergleich mit einer derart unterschiedlichen (RX570 vs gtx1080) Hardware machen.
Das einizgste was dieses Video zeigt ist, dass selbst eine deutlich langsamere RX570 @FreeSync erschreckend gut mit eine gtx1080 @gSync mithalten kann.

Das einzige was du grade unter Beweis stellst ist deine absolute Unwissenheit ... Man kann sehr wohl diesen Vergleich anstellen, wenn beide Karten auf 142 FPS limitiert sind und was Satz Nummer 2 angeht:

HUST:
Unbenannt.PNG

Quelle: RX 580 und RX 570 im Test: Testverfahren, Spiele-Benchmarks, Fazit

Addier auf die GTX1070 (die am oberen Ende der Skala) noch mal 20% drauf und dann reden wir noch mal über "Eine RX570 kann erschreckend gut mit einer GTX1080 mithalten". Für den Test im Video wurden wahrscheinlich einige Einstellungen zurückgeschraubt um die 144 FPS bei der RX570 zu gewährleisten.
Die RX570 ist hier wahrscheinlich schon am Keuchen, während sich die GTX1080 die Eier schauckelt und erstmal runtertaktet.
Nimm mal die Rote Brille ab und stell dich der Realität. Ist ja echt nicht mehr schön hier. :nene:

@Fortune Hunter
Ich kann und will einfach nicht glauben dass das jemand wirklich ernst meint!
Du siehst er meint es durchaus ernst. :lol:
 
Das einzige was du grade unter Beweis stellst ist deine absolute Unwissenheit ... Man kann sehr wohl diesen Vergleich anstellen, wenn beide Karten auf 142 FPS limitiert sind und was Satz Nummer 2 angeht:
Stuss!
Wenn du die FPS limitierst bedeutet dies mitnichten dass an EINEM Bild länger gerechnet wird, die GKarte "gönnt" sich zwichen den Bildern "einfach" nur ne längere Pause. Insofern ist ein Button to Pixel vergleich mit so unterschiedlicher Hardware einfach sinnfrei.
HUST:

Addier auf die GTX1070 (die am oberen Ende der Skala) noch mal 20% drauf und dann reden wir noch mal über "Eine RX570 kann erschreckend gut mit einer GTX1080 mithalten". Für den Test im Video wurden wahrscheinlich einige Einstellungen zurückgeschraubt um die 144 FPS bei der RX570 zu gewährleisten.
Die RX570 ist hier wahrscheinlich schon am Keuchen, während sich die GTX1080 die Eier schauckelt und erstmal runtertaktet.
Nimm mal die Rote Brille ab und stell dich der Realität. Ist ja echt nicht mehr schön hier. :nene:


Du siehst er meint es durchaus ernst. :lol:
Doppelt HUST
Genau darum geht es doch, der Vergleich ist stuss da die Hardware leistungstechnisch zu unterschiedlich ist. Aber wie das Video zeigt kann eine deutlich langsamere FreeSync Karte selbst mit einer extrem schnelleren gSync Karte im Bezug auf adaptive Sync noch erschreckend gut mithalten. -Jetzt klar?
 
Stuss!
Wenn du die FPS limitierst bedeutet dies mitnichten dass an EINEM Bild länger gerechnet wird, die GKarte "könnt" sich zwichen den Bildern "einfach" nur ne längere Pause. Insofern ist ein Button to Pixel vergleich mit so unterschiedlicher Hardware einfach sinnfrei.

Doppelt HUST
Genau darum geht es doch, der Vergleich ist stuss da die Hardware leistungstechnisch zu unterschiedlich ist. Aber wie das Video zeigt kann eine deutlich langsamere FreeSync Karte selbst mit einer extrem schnelleren gSync Karte im Bezug auf adaptive Sync noch erschreckend gut mithalten. -Jetzt klar?

Zu deinem Doppel Hust: Wenn ich die Frames auf 35 FPS limitiere, dann kann auch eine GTX1050 in adaptive Sync noch gut mit einer RX570 mithalten (vorausgesetzt der Freesyncmonitor bekommt es auf die Kette so weit runter noch zu synchronisieren, was ein großer Anteil eben nicht auf die Kette bekommt).

Ehrlich ... mach dich erstmal schlau, bevor du versuchst weiter zu diskuttieren. Jedes weiter Wort von dir in diesem Zusammenhang mach die Sache für dich nur noch peinlicher.

Auf dieser Grundlage hat für mich eine Diskussion keinen Sinn mehr.
 
AW: AMDs RX Vega 64 ist und ich ... Das meinen PCGH-Redakteure

Hier stand viel zu viel, mein genereller Standpunkt bzgl. Newsqualität ist ja eigentlich bekannt.
Sorry noch an Carsten, ich scheine das in den falschen Hals bekommen zu haben.
Der ganze Ve(rsa)ga - {(C)by mad-onion} Schmu} hat mich dermassen aufgeregt, dass ich überempfindlich und voreilig, sowie unfreundlich wurde.
Dafür wie gesagt nochmals Bittte um Entschuldigung.
 
Zuletzt bearbeitet:
Zu deinem Doppel Hust: Wenn ich die Frames auf 35 FPS limitiere, dann kann auch eine GTX1050 in adaptive Sync noch gut mit einer RX570 mithalten (vorausgesetzt der Freesyncmonitor bekommt es auf die Kette so weit runter noch zu synchronisieren, was ein großer Anteil eben nicht auf die Kette bekommt).
Naja, eine gtx1050 vs RX570 @Adaptive-Sync wäre zumindest ein deutlich fairer vergleich als es eine RX570 vs gtx1080 @Adaptive-Sync ist.
Und was die Range angeht gibt FreeSync ja auch die tatsächliche panel refresh range an, wärend bei gSync gemogelt wird. GSync Range von 30-144Hz bedeutet nämlich mitnichten das die wirkliche PanelRefreshRate auch bis 30Hz runter geht. Es ist bei gSync nur Marketing.

Ehrlich ... mach dich erstmal schlau, bevor du versuchst weiter zu diskuttieren. Jedes weiter Wort von dir in diesem Zusammenhang mach die Sache für dich nur noch peinlicher.

Auf dieser Grundlage hat für mich eine Diskussion keinen Sinn mehr.
Dito
 
Zuletzt bearbeitet:
Die Headline passt schon. Lasse dich nicht verunsichern. ^^
Ich hab sie ja inzwischen auch geändert. Der Fehler war schon arg peinlich.

Ah ja, ich sehe schon... das tangiert den Herren peripher!
Um es mal auf gut Deutsch zu sagen: Blödsinn – und zwar komplett. Du interpretierst da etwas in meine am Sonntag morgen um 1:30 Uhr geschriebene Posts hinein, was da nicht steht. Desinteresse unter anderem - guck auf die Uhrzeit, meinst du ich kriege das extra bezahlt?? Warum sollte ich da etwas ändern und hier noch posten, wenn es mich nicht interessieren würde? *kopfschüttel*
 
Zuletzt bearbeitet:
Die Vega 56 ist für mich die interessantere Karte. Sie sit billiger, liegt auf dem Region einer 1070 und bietet evtl die komplette Freischaltung, wie bei meiner R9 Fury. Hoffentlich kann ich eine günstig ergattern.
 
Hast du dir den ganzen Text durchgelesen? Sie sagt zwar dass sie schon viel im Bereich der Treiber geschafft haben (nicht nur auf Vega bezogen, sondern auf Radeon, also Crimson usw.), aber sie kommt nicht umher auf Begrifflichkeiten wie "it's am matter of getting the focus and getting it done" zurück zu greifen. Im vorigen Verlauf sagt sie aber, dass bereits der Focus auf die Entwicklung von Zen bis einschließlich der Serverplattform liegt.
Gut, das ist natürlich Interpretationssache, gerade die Gewichtung mancher Aussagen. Eine Firma die etwas zu verlieren hat und sich ihre Aussagen schwer überlegen muss, die sagt nicht aus Spaß, dass sie Ihren Fokus erst finden müssen, geschweige denn es auch noch zu schaffen das fertig zu bekommen. Das stellt umgekehrt ja in Aussicht, dass sie noch gar keinen Plan haben (weshalb sie lobt, dass grundsätzlich schon was am Treiber passiert ist) und dass selbst wenn sie den dann haben, trotzdem die Chancen 50/50 stehen, dass es nicht fertig wird. Wäre die Situation auch nur im geringsten so auszulegen, dass man Begriffe wie sollten und müssen weglassen könnte, dann hätte man das vermieden. Warst du mal auf einer Messe, oder hast mit Verkäufern gesprochen? Die versprechen einem immer Gott und die Welt, obwohl sie teilweise wissen dass sie das nicht einhalten können. Lisa ist in so einer Situation wo sie die Zukunft des Unternehmens bestimmen kann und sagt trotzdem, dass sie erst einmal schauen (ja man könnte fast meinen, überhaupt mal anfangen müssten) da was zu unternehmen. Was denkst du ist los wenn der Aufsichtsrat mit dieser Einstellung nicht zufrieden wäre? Was sagen die Aktionäre? Nein, bei solchen Gesprächen muss man versuchen sich so rosig wie möglich darzustellen, ohne sich wirklich in die Karten schauen zu lassen. Sie hat sich aber angreifbar gemacht. Das ist nichts, was man freiwillig tut.
Wie ebend aber schon zugegeben, dass ist tatsächlich interpretationsfähig und ich habe die Worte des Autors etwas zu direkt genommen. Ich kenne es aber auch nicht anders, als dass man wirklich bemüht ist (an solcher Stelle) sich bloß nicht zu weit von der Wahrheit zu entfernen, einfach um nicht im nachhinein angeprangert und ggf. verklagt zu werden.

Zum Teil mit dem Ableiten was man von Vega erwarten konnte...
Na einfach das was sie gesagt hat, nämlich dass man erst mal einen Fokus/ein Ziel finden müsste (also noch nichts handfestes hat, ein halbes Jahr vor eigentlich erwarteten neuen Karten) und aus der finanziellen Situation heraus, konnte man sich das doch ausmalen. Wenn ein Handwerker was bei dir reparieren will und hat weder Werkzeug dabei, noch den Fehler gefunden, wie hoch schätzt du dann die Chance ein, dass er gleich fertig wird und das hinbekommt?

Im Laufe des Jahres kam Polaris, dann die info dass kein HighEnd mehr 2016 kommt (obwohl ja Refreshs angesagt waren), dann kam der Refresh von Polaris, verspätet und auch etwas hinter den Erwartungen. Danach gabs Infos über Probleme beim HBM und erste ANzeichen, dass Vega ein Fury Refresh sein könnte. Als Krönung weitere Verzögerungen und die "gefühlt besser als 1080"minimal-PR-Tour. Danach hätte absolut jeder mMn nicht mehr viel erwarten dürfen. Meine Erwartungen gingen schon mit Polaris Flöten. Fury wurde noch als 4K Kaarte verkauft und hat sich die ersten anderthalb Jahre auch wirklich gut gehalten, bis dann die Speicherfresser kamen. Die frametimes sind noch immer sehr gut. Sieht man gut in den GTX und Vega Videos. Polaris hatte plötzlich ungewohnt viel Leistung (für GCN) in 1080p, dafür in höheren Auflösungen nichts mehr an Zugewinn. Gerade in Zeiten von immer höheren Auflösungen, nativ wie VSR und höheren refreshrates, konnte die neue Ausrichtung nur ein schlechtes Omen sein (immerhin hatten in den Tests, die hohen Auflösungen bisher Punkte gut gemacht). Na und jetzt sehen wir ja was los ist. Selbst in hohen Auflösungen Auslastungsprobleme.
Und da ist der Punkt, weswegen ich der Behauptung davor nicht zustimme.
Der Chef hat eben nicht "offen" im Januar gesagt, dass man die Erwartungen im Rahmen halten sollte oder das die Entwicklung auf ein Minimum gedrosselt wurde.
Das kann man höchstens indirekt ableiten und auch dann existiert weiterhin ein großer Spielraum, wo Vega 10 hätte landen können.
Wo man es dann schon einschätzen konnte, war mit dem Launch der Vega FE-Version und mit dem FreeSync Marketing, aber das war schon relativ kurz vor dem Launch.

----

Bezüglich der Architektur hat AMD nichts verändert, was den Einfluss von höheren Auflösungen negativ beeinflusst.
Teilweise und das ist nur positiv zu bewerten, wurden Flaschenhälse bei der Geometrie-Performance und kleinen Workloads verbessert, weswegen der Zugewinn bei höheren Auflösungen prozentual kleiner ausfällt, als früher.
So etwas stellt aber keine neue Ausrichtung dar, die man als negatives Omen deuten konnte.

Nee, ich würde Adaptive-Sync idR nicht abschalten und AMD User brauchen das schon dreimal nicht abschalten.
[...]
Brauchen ebenso wenig G-Sync User abschalten oder sollten Sie es wegen 0,1% Leistungsverlust tun?

[...]
Und was die Range angeht gibt FreeSync ja auch die tatsächliche panel refresh range an, wärend bei gSync gemogelt wird. GSync Range von 30-144Hz bedeutet nämlich mitnichten das die wirkliche PanelRefreshRate auch bis 30Hz runter geht. Es ist bei gSync nur Marketing.
[...]
Die tatsächliche Panel-Refresh-Range hängt immer vom Monitor ab und soweit ich das überblicke haben viele FreeSync-Monitore eine gleiche oder kleinere Range, als G-Sync Monitore.
Bei keinem refreshed das Panel unter 30 Hz, sondern bei beiden wird Frame-Doubling verwendet (um in der adaptiven Range zu bleiben), wobei das bei FreeSync erst durch ein Treiber-Update eingeführt wurde und nur für Monitore gilt, wo der Max-Refresh mindestens doppelt so hoch ausfallen muss, wie der Min-Refresh.
 
Zuletzt bearbeitet:
AW: AMDs RX Vega 64 ist und ich ... Das meinen PCGH-Redakteure

Wer nicht im Verlag oder im Home-Office ist, kann nunmal keine aktuellen Meinungen schreiben.

Nach dem Vega Hype Train kommt der Vega Sarkasmus-Train. Wollte auch aufspringen, aber es kam wohl genau so "gut" an wie bei den anderen^^
 
...Brauchen ebenso wenig G-Sync User abschalten oder sollten Sie es wegen 0,1% Leistungsverlust tun?
Es waren gSync User die schrieben, dass sie es abschalten um mehr Leistung/weniger Latenz zu bekommen. Es ist aber auch Fakt, dass FreeSync weniger Leistung kostet.
Deshalb: Wenn sich das abschalten bei gSync nicht lohnt, dann braucht man FreeSync schon dreimal nicht abschalte, es kostet ja weniger/keine Leistung.

Die tatsächliche Panel-Refresh-Range hängt immer vom Monitor ab und soweit ich das überblicke haben viele FreeSync-Monitore eine gleiche oder kleinere Range, als G-Sync Monitore.
Bei keinem refreshed das Panel unter 30 Hz, sondern bei beiden wird Frame-Doubling verwendet (um in der adaptiven Range zu bleiben), wobei das bei FreeSync erst durch ein Treiber-Update eingeführt wurde und nur für Monitore gilt, wo der Max-Refresh mindestens doppelt so hoch ausfallen muss, wie der Min-Refresh.
Gsync Monitore werden mit einer Range ab 30Hz beworben, nur ist dies aber oft schlicht gelogen -zumindest im Bezug auf die PanelRefrechRate.
 
Frame Doubling muss vom Monitor unterstützt werden, also immer nachlesen ob er LFC kann.
Monitore/TVs mit Freesync 2 werden dies aber alle haben, da Pflicht. (Was'n Glück)

Ob jetzt Sync bis unter 30Hz geht, oder LFC greift , ist mir persönlich ziemlich schnuppe ;)
Interessant ist das eh nur für Spiele, welche ein 30er Lock haben, oder für die paar Wenigen, welche gerne mit Low FPS -> HQ spielen. (Meine Meinung)

Ich persönlich finde Freesync vor allem toll zwecks den Min-FPS, bzw. Einbrüchen,
idR. stelle ich so ein, dass ich die 60fps knapp halte, wenn's doch mal drunter geht (IdR. nie unter 40), ist Freesync echt ne Erlösung.
Aber das handhabt wohl jeder auf seine Art ;)
 
LFC ist doch ein Feature des Treibers. Die Voraussetzung ist lediglich eine ausreichend große Freesync Range des Monitors (max ≥ 2x min).
 
AMD hat ne Liste online, da steht dabei welcher Monitor das kann und welcher nicht.
Soweit ich informiert bin, ist's Monitorabhängig, klingt eigentlich auch plausibel zwecks der Freesync 2 Specs.
Aber man möge mich gerne genau aufklären, bin da auch net 100% im Bilde.

Gelesen habe ich noch wo, dass LCF grundsätzlich überall gilt, ab 2,5x
 
Ihr merkt aber schon dass ihr seit gefühlten 20 Beiträgen im Offtopic gelandet seid oder?

Gesendet von meinem SM-G930F mit Tapatalk
 
AW: AMDs RX Vega 64 ist und ich ... Das meinen PCGH-Redakteure

Ich schon, das ist der Unterschied. Wenn ich ein G-Sync Modul im Monitor habe, will ich es auch nutzen können. Herkömmliches VSync ist so ... Last-Gen.

Schon man hat ja dafür auch bezahlt.
Auf eine rote Karte hätte ich schon mal lust. Kaufe grün seit der TNT2. Müsste AMD aber ein richtigen Knaller abliefern das ich mir eine rote kaufe und auf G-Sync verzichte. Danach sieht es leider nicht aus. ;)
 
Zurück