Radeon RX 6000 und Geforce RTX 3000 im Latenzvergleich: Was bringen große Caches und Latenzen?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Radeon RX 6000 und Geforce RTX 3000 im Latenzvergleich: Was bringen große Caches und Latenzen?

Bei Grafikkarten wird das Thema Caches und deren Latenzen oft nicht in der Breite betrachtet wie andere Aspekte. Bei Chips & Cheese stellte man sich nun die Frage, wie die Entwicklung über die letzten Jahre generell war und inwieweit sich Radeon RX 6000 und Geforce RTX 3000 unterscheiden.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Radeon RX 6000 und Geforce RTX 3000 im Latenzvergleich: Was bringen große Caches und Latenzen?
 
Deswegen läuft meine Vega so gut :D
Topic: Interessantes Thema und könnte tatsächlich in Zukunt noch wichtiger werden > Softwareentwicklung.
Gruß T.
 
Doch was bringt das in der Praxis? Der Autor von Chips & Cheese nimmt aufgrund der besseren Latenz für Anfragen zwischen L2 und L0 Cache bei der Radeon an, dass daraus die grundlegend etwas bessere Performance der Radeons in niedrigeren Auflösungen resultiert.
Hier wäre interessant zu sehen welcher Bereich welche Auflösung betrifft, leider schweigt sich die Quelle darüber aus.
 
Naja ... so lange das nicht unter 20 ms sinkt ...

Die ns hier(hab ich das richtig gesehen, auf dem Bild ?) ... keine Ahnung, was das überhaupt für ne Auswirkung beim Zocken für sagen wir mal 70 fps haben soll. Das sind ja nicht mal 10 ms(wären 10 ms 100 fps ?).

Is ms nicht schon ne tausendstel Sekunde, oder sowas ? Und was is dann ns ?

Mal eben in wiki gucken ....


edit:

Öhm ... ja ! :D

1.jpg


:confused:


edit2:

Ok, sagen wir mal, meine 3080 wäre jetzt ganze 100 ns "langsamer" als eine XY.

Das wären dann 0,00000001 Sekunde ? Oder so ?

Was is das dann in FPS ? :D

Ich rate mal: 0 (Null)


edit: Sry, ich weiß auch nicht, was heute wieder in meinem Kaffee war ! ;)
Kaffee 3.jpg



Ja und was bringt jetzt?
Zeitvertreib beim Kaffee, würd' ich sagen.
 
Zuletzt bearbeitet:
Ob´s jetzt ne Nanosekunde oder Millisekunde sind ist auch egal.
Mein ICE in den Nerven ist mit ü30 schon lange abgefahren ^^
 
Wo anders habe ich gelesen, dass sich dies nur auf niedrige Auflösungen auswirkt, wer also in UHD spielt wird davon wenig bis nichts mitbekommen, da der Cache zu klein ist.
 
Hier wäre interessant zu sehen welcher Bereich welche Auflösung betrifft, leider schweigt sich die Quelle darüber aus.
Hohe Auflösung interessiert eher Bandbreite, FPS eher Latenz.Das sind eher grundtendezen, da hängt natürlich deutlich mehr dran.

Am Ende ist es vom Workload abhängig, wie die Balance zwischen Latenz, Bandbreite und Rechenleistung auszusehen hat.
 
Wie soll man auch 100 ns mitkriegen ? Dass man das überhaupt messen kann, finde ich schon faszinierend.


edit:

1.jpg



edit: In der Tat fänd ich das schon fast interessanter, womit man solche geringen Unterschiede wie 7ns, oder 100ns genau misst.
Das is echt spannend.

hat eine Testmethode mit OpenCL entwickelt

edit:

Was wären denn die 7ns Unterschied, aus dem Anfangsbereich in Sekunden ?

0,000000007 Sekunde ?
edit: Eine ms wären ja 0,001. Also weit, weit weg davon.

Ja, da muss man ziemlich genau und flink sein, mit der Stoppuhr. ;)
 
Zuletzt bearbeitet:
Naja ... so lange das nicht unter 20 ms sinkt ...

Die ns hier(hab ich das richtig gesehen, auf dem Bild ?) ... keine Ahnung, was das überhaupt für ne Auswirkung beim Zocken für sagen wir mal 70 fps haben soll. Das sind ja nicht mal 10 ms(wären 10 ms 100 fps ?).

Is ms nicht schon ne tausendstel Sekunde, oder sowas ? Und was is dann ns ?
Es kommt nicht nur darauf an, wie schnell etwas passiert, sondern auch wie oft es benötigt wird ;) Cache-Zugriffe hast du im Prinzip bei fast jeder noch so kleinen Berechnung
 
Was wären denn die 7ns Unterschied, aus dem Anfangsbereich in Sekunden ?

0,000000007 Sekunde ?
edit: Eine ms wären ja 0,001. Also weit, weit weg davon.

Ja, da muss man ziemlich genau und flink sein, mit der Stoppuhr. ;)
Irgendwie hab ich die ganze Zeit gehofft dass ihr nur schlechte Witze macht aber das Thema schon verstanden habt. Da das anscheinend nicht so ist und Speicherlatenzen mit Framelatenzen verwechselt werden hier ein Denkanstoß:

Taktet doch euren RAM von 3600 mal auf 1866MHz runter. Dadurch erhöht sich die Latenz von grob 80 auf 160ns. Sind ja nur 0,00000008s Unterschied, das merkt man ja ganz sicher nicht... :rolleyes:

Es würde auch sicher keiner merken, wenn die Latenzen 10 mal so hoch wären und die GPU 50% der Zeit auf Daten warten müsste und die Auslastung nie über 50% käme. Sibd ja nurn paar Nanosekunden.
 
Es kommt nicht nur darauf an, wie schnell etwas passiert, sondern auch wie oft es benötigt wird ;) Cache-Zugriffe hast du im Prinzip bei fast jeder noch so kleinen Berechnung

Ja, ich denke da kommen auch noch viel mehr Sachen zusammen, bis dann wirklich das eine Bild auf dem Monitor erscheint, weswegen ich mich gefragt habe, was das im normalen Zockbereich bei sagen wir z.B. 50-100 fps so für Auswirkungen hat, die 7ns, oder die 100ns.

Beim Zocken geht's doch um Bilder pro Sekunde. Wobei ich da schon froh bin, wenn ich über 60-70 fps habe.
Machen da 100ns den Braten fett ?

Taktet doch euren RAM von 3600 mal auf 1866MHz runter. Dadurch erhöht sich die Latenz von geob 80 auf 160ns. Sind ja nur 0,00000016s Unterschied, das merkt man ja ganz sicher nicht...
Is das echt so einfach vergleichbar ?
Summiert sich das so derbe auf echt spürbare Unterschiede(also jetzt bei dem GPU Speicher) ?

Ich meine ... ob ich mit 60 oder 100 fps zocke, da merk ich den Unterschied.
Was machen denn da die 100ns dann in FPS aus ?
 
Zuletzt bearbeitet:
Dein Prozi muss tausende von Berechnungen machen, um 1 Bild für dein Game rauszudrücken.
Sagen wir 100 FPS (=10ms Zeit für einen Frame)
Man darf also maximal 10 ms brauchen, eher <<10ms, Grafikkarte möchte sicher auch noch rechnen.
Gehen wir von einer 10.000 Berechnungen aus, die alle im RAM angefragt werden müssen.
10.000 * 200 ns = 2 ms. Die CPU wartet für seine Operationen alleine schon gesamt 2 ms, ohne selbst Arbeit zu erledigen.

Ist natürlich eine Milchmädchen Rechnung, denn zwischendrin kommen andere Funktionen hinzu wie Out of Order execution usw. Aber das sollte doch reichen um die ns in Relation zu bringen.
 
Ok, danke. Es geht also um ein Vielfaches des Unterschiedes.

Trotzdem würde mich am Ende des Tages mal ein echtes Zockbeispiel interessieren, bezüglich des gezeigten Unterschieds(im Bild des Artikels), da ich einfacher Zocker bin.
Und Zocker checken die FPS.

Verstehe ich das also richtig, dass man den Unterschied konkret dieses Vergleichs(oben im Bild) im Endergebnis gar nicht genau sagen kann, da ja ganz viele andere Einflüsse auch noch hereinfließen und man gar nicht weiß, wo wie viele Berechnungen statt finden ?

Also einfacher gesagt: Weniger Latenz is besser und wenn man genug fps hat, hat man genug fps.
 
Was machen denn da die 100ns dann in FPS aus ?
Wenns blöd läuft den Unterschied obs 150 oder 5 fps sind.

Ihr müsst verstehen dass es keinen direkten Zusammenhang gibt, genausowenig wie es einen zwischen beispielsweise cpu takt und fps gibt. Je nach Spiel, Einstellungen, Situation usw kanns völlig egal sein ob deine CPU mit 2 oder 4 GHz läuft - oder ersteres wird unspielbar ruckelig.
 
Zurück