AMD: Partnertreffen am 23. April behandelt Navi und neue Ryzen-CPUs

Nein ich sprach ja nicht von 8C/16T sondern der Unterschied zwischen 2C/4T und 4C/8T, von 4C aufwärts skaliert da natürlich nichts mehr, aber darunter schon noch, ein Dualcore ist offensichtlich merklich schlechter als ein Quadcore.
 
Nein ich sprach ja nicht von 8C/16T sondern der Unterschied zwischen 2C/4T und 4C/8T, von 4C aufwärts skaliert da natürlich nichts mehr, aber darunter schon noch, ein Dualcore ist offensichtlich merklich schlechter als ein Quadcore.
Da sind's die selben 10%: 27 vs 30 FPS Min. 32,9 vs 36,3 FPS Avg.
Da ist der größte Nachteil des 2-Kerners eher der Einbruch, wenn man im Hintergrund einen Stream oder Discord laufen hat.
 
Dein Link geht nicht.

Da verbirgt sich ein GIF mit einem jubelnden Kind bei einer Sportveranstaltung, ich glaub das war Absicht, typischer Duvar eben :D

@sterreich

Hmm ja das zeigt immerhin dass selbst schlechtest optimierte Spiele auf einem Dualcore heute merklich schlechter laufen als auf einem Quadcore :ka:
 
Könnte der nicht das properitäre GSync-Modul haben und gleichzeitig unabhängig davon Freesync unterstützen? Technisch möglich? Lizenztechnisch nachdem zurückrudern von Nvidia sollte das doch auch eher wahrscheinlich geworden sein. Aber gut möglich auch dass es einfach zwei verschiedene Modelle geben kann.

Wobei ich mich frage, wer GSync jetzt noch braucht, Freesync funktioniert mt meiner Vega an dem 144Hz-Monitor tadellos, und ab Pascal ist das ja jetzt auch unterstützt :ka:
 
Ich bin sehr gespannt auf die Ankündigungen. Schließlich will man ja wissen, welche Hardware künftig in seinem Rechner steckt ;)

Wobei ich mich frage, wer GSync jetzt noch braucht
Niemand. Aber ich denke, dass es eine Zeit lang noch Monitore gibt, weil sich der Marketingbegriff sicherlich in einigen Köpfen eingeprägt hat.

Aber das wird nicht mehr so lange gehen, weil weder AMD- noch Intel-GPUs damit jemals laufen werden. Wer also eine gewisse Ahnung hat, wird sich das nicht kaufen.
 
GSync war eine Totgeburt. NV wollte einfach ein eigenes Programm fahren.

AMD hat dagegen open Source genutzt und das wird jetzt von allen verwendet.

Aber irgendwie passt es auch zu NV.

PysX = Totgeburt durch kauf von Agesa
GSync = Totgeburt weil Open Source Alternative da
RT = schlechter Witz, da keine Karte genug Leistung dafür hat

Und ja, AMD/ATI hat auch einiges falsch gemacht in der Vergangenheit.
 
RT hat auf jeden Fall Zukunft. Und irgendwann mußte ja ein Anfang gemacht werden.
In 2 Jahren sieht das bestimmt schon anders aus.

Technisch ist RT nichts neues, es wurde nur ersetzt über die Jahre. Vor 20 Jahren war es Standard in jedem Spiel.

RT ist nichts anderes als Lichteinfluss welcher nicht im Bild ist immer noch weiter mit berechnet wird und nicht ausgeblendet.

Früher war es in den meisten Spielen so, das zu jeder Zeit alles im Raum mit berechnet wurde, egal ob gebraucht oder nicht. Davon wurde dann Abstand genommen im mehr Leistung zu generieren.

Und heute wird ein Hype um RT gemacht, dabei ist es weder neu, noch innovativ noch sonst was. Es ist eine alte Technik die wieder kommt.
 
Technisch ist RT nichts neues, es wurde nur ersetzt über die Jahre. Vor 20 Jahren war es Standard in jedem Spiel...
...und heute wird ein Hype um RT gemacht, dabei ist es weder neu, noch innovativ noch sonst was. Es ist eine alte Technik die wieder kommt.
Das verwirrrt mich etwas. :what:
 
Soweit ich weiß ist das bis heute unmöglich, weil 2 unterschiedliche Scaler verbaut werden müssten.

Wenn man beide verbaut sollte das zumindest aus technischer Sicht kein Problem sein. Die Frage ist, ob die Leute wenn der Monitor FreeSync kann, noch mal 500€ extra für GSync zahlen wollen.
 
PysX = Totgeburt durch kauf von Agesa
GSync = Totgeburt weil Open Source Alternative da
RT = schlechter Witz, da keine Karte genug Leistung dafür hat
Das sehe Ich etwas anders:

Bei PhysX ist nur der GPU Teil eine Totgeburt geworden. Und auch nur, weil NV es nicht über sich gebracht hat OpenCL zu unterstützen. Der CPU Teil jedoch gehört zu den besseren Engines.

G-Sync: Definitiv am sterben. Ev. bleibt an ende noch eine 'Zertifizierung' für Adaptive-Sync Monitore. Den Scaler dürfen die aber nicht mehr al zu lange bauen.

RT-Cores sind ganz klar ein Technischer Fortschritt. Aber noch in der ersten Version. Da wird sicher noch was gehen, aber vermutlich ist die erste Kartengeneration dann einfach zu schwach in 2-3 Jahren wenn Raytracing langsam Fahrt aufnimmt und ggf. auch auf Allen GPU's läuft ( zumindest für High-end Traying, z.B. Reflektionen), für Schatten und Beleuchtung dürften die Karten sich eventuell sogar ziemlich gut halten.

Ich denke nicht das AMD die nächsten 2-3 Jahre schon eigene 'RT-Cores' einbauen wird, da werden Sie eher versuchen die ausnutzung iIhrer GPU's mit RT zu verbessern. Da liegt ja noch Leistung brach.
 
Zurück