Kann auch an der AMD Plattform liegen.
Aber ja doch. Es könnte auch an der AMD-Plattform liegen, die PCI-E 4.0 tatsächlich unterstützt, dass ich da keinen Intel reingepflanzt habe…
Gruß,
Phil
Kann auch an der AMD Plattform liegen.
2.0 vs. 3.0? Bittesehr:Wie sieht denn der Unterschied zu PCIe 2.0 aus? Plane meinem i7 4790k die RTX3080 zur Seite zu stellen, sowie einen Asus PQ43“ als 4K/144hz Monitor zu nutzen damit die RTX3080 auch was zu tun hat
Ich bin begeistert. Insbesondere die sehr detaillierten Temperatur- und die fundierten Lautstärkemessungen überwältigen mich. Wie konnte mir das entgehen.Schau mal hier:
Geforce RTX 3080: Custom-Designs in der Übersicht - Taktraten, Kühlung, Powerlimits, erste Leistungstests [Update]
Großes Update - Geforce RTX 3080: Übersicht der Herstellerdesigns sowie erste Leistungstests von Custom-Designs (Asus, Gigabyte, Palit, MSI, Inno3D, Zotac).www.pcgameshardware.de
Gruß
Noch fundierter wäre ein Vergleich mit IGP gewesen. Es geht hier um eine RTX 3080 und nicht um Minimalkarten der Vergangenheit .....2.0 vs. 3.0? Bittesehr:
Bitte, dir auch noch einen scheenen Tach Manche Leute...Ich bin begeistert. Insbesondere die sehr detaillierten Temperatur- und die fundierten Lautstärkemessungen überwältigen mich. Wie konnte mir das entgehen.
Mit Intel Board und CPU zu testen als Gegenstück halte ich auch für wesentlich Praxisnäher. Denke das Intel trotz PCIe 3.0 besser abschneidet. Und das von Jemand der selbst ein X570 Board besitzt.Zusätzlich wäre eine Intel Plattform als Referenz Wert für PCIe 3.0 noch interessant. Digital Foundry hat z.B. mit der AMD Plattform im GPU Limit auch einen minimalen Performance Vorteil für PCIe 4.0 gemessen während die Intel Plattform trotz PCIe 3.0 im GPU Limit genauso schnell war.
aha, und wie soll das pcgh Team mit einem 10900K PCIE4.0 simulieren? es geht hier ja um den Unterschied zwischen PCIE 3.0 und 4.0, nicht um Schwanzgrössenvergleiche zwischen CPUs....
In der einzigen Auflösung die mich interessiert und in der ich seit (2x) GTX970 bis Heute spiele (gefühlt schon seit Ewigkeiten ), in 4K, hält sich der Zugewinn mit 0 bis 4 %, und 1,7% Durchschnitt, äußerst in Grenzen.
Direct Storage könnte interessante Änderungen mit sich bringen in der Hinsicht.Wegen +5% brauch ich mir keine neue Plattform zulegen und schon garnicht wenn ich mit einem 10900k u.a. 9900k die gleiche Leistung erreichen kann.
Den Hype um PCIe4 verstehe ich wenn es um Anwendungen geht, aber nicht beim Gaming.
Bei Crysis Remastered beispielsweise.Interessant wäre hier vielleicht auch noch was passiert, wenn der VRAM in einem Setting ausgeht - und ausgelagert wird.
Der Verrückte bin eindeutig ich.Danke für den Test! Da sieht man genau die 2-5%, die zu erwarten waren. Dann also ein PCIe 4.0 System und das Powerlimit etwas gesenkt, dann reicht mein 550W Dark Power Pro 11 zusammen mit einem ZEN 3 Achtkerner.
Wer nach diesem Test noch ein neues PCIe 3.0 System kauft, ist ihm selber schuld. Jetzt muss man nur noch einer RTX 3080 bekommen, aber bevor es Kühlertests der Modelle gibt, halte ich mich zurück.
Aber ja doch. Es könnte auch an der AMD-Plattform liegen, die PCI-E 4.0 tatsächlich unterstützt, dass ich da keinen Intel reingepflanzt habe…
PCI-E 4.0 macht also die Bildausgabe geschmeidiger, auch wenn die eigentlichen Bildraten nur geringfügig verbessern. Mit Blick in die Zukunft und die Aussicht auf noch polygonreichere, komplexere Spielwelten sowie hoffentlich außerdem besserer Mehrkernauslastung, die vielkernigen CPUs dann wünschenswerter Weise auch erlaubt, hohe Bildraten zu erzielen, erscheint PCI-E 4.0 recht nützlich - insbesondere, wenn Sie Geschmeidigkeit bei der Bildausgabe genießen.
Vor ein paar Tage hat TechPowerUp den selben Test mit 23 Spielen gemacht. Die kamen aber nur auf 1 % Differenz zwischen 4.0 und 3.0, selbst der Unterschied zu PCIe 2.0 war nur 4 % https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-pci-express-scaling/27.html
NVIDIA GeForce RTX 3080 PCI-Express Scaling
NVIDIA Ampere finally brings PCI-Express 4.0 support to the high-end graphics market. The new interface promises twice the bandwidth of PCI-Express 3.0. We've setup an AMD Ryzen 3900XT system to test how various PCIe generations and lane widths affect gaming performance.www.techpowerup.com
Man kann mit der Intel Plattform wohl selbst auf PCIE 2.0 zurückschalten und verliert trotzdem nur 4% Leistung.
Weiß nicht wie PCGH es geschafft hat, da teilweise 5% rauszukitzeln, andere kommen auf 1% im Schnitt in Full HD, oder hat man sich etwa, anders als im Text verlautbart Kirschen herausgepickt, weil man das falsch gewählte Testsystem nicht einräumen möchte?
Man kann mit der Intel Plattform wohl selbst auf PCIE 2.0 zurückschalten und verliert trotzdem nur 4% Leistung.
Weiß nicht wie PCGH es geschafft hat, da teilweise 5% rauszukitzeln, andere kommen auf 1% im Schnitt in Full HD, oder hat man sich etwa, anders als im Text verlautbart Kirschen herausgepickt, weil man das falsch gewählte Testsystem nicht einräumen möchte?
Und der Abstand in 4K liegt ja schon bei dem 3,25 fachen was Computerbase in 4K gemessen hat und bei mehr als dem doppelten was Techpowerup gemessen hat.
Der Verrückte bin eindeutig ich.
Welche andere Erkenntnis als "ist egal ob 3.0 oder 4.0" erwartest du?Ja stimmt, im absoluten GPU Limit wo wir in 4k einfach mal ausgehen, wäre ein Vergleichswert eines 10900k Systems nicht nur interessant gewesen, sondern überlebenswichtig, für die Messung. Um am Ende wirklich eine Aussage treffen zu können. So ist es leider nicht mehr, als eine Behauptung.
Ich wünschte PCGH würde das noch nachholen.