News Großer Performancesprung mit 26 GB/s: Micron stellt erste PCIe-6.0-SSD vor

Sehr schnelle Ladezeiten und Levelwechsel und immer voller vRAM selbst bei Titan-Karten und sehr hohe RAM Auslastung. Lief super fluffig.
Was passierte? Schlechte Tests attestierten dem Spiel einen exorbitanten Speicherverbrauch und werteten ab weil man unendlich viel vRam braucht. Der Shitstorm ging los.
Dann wurde das streaming rausgepatcht. Das Spiel lief wieder mit 1 GB vRam, der SystemRAM war wieder größtenteils leer und die Ladezeiten wieder verzehnfacht. Und die Leute kauftens wieder weil der "vRAM Bug" behoben war.
Zum Glück ist die Star Citizen Community das genaue gegenteil.
Die SC Community besteht zum Großteil aus Hardware Enthusiasten.
In SC Discord oder Reddit wird dass Spiel mit 8Gb Vram und 16GB Ram von 99% aller User als Unspielbar bezeichnet wenn neue Leute fragen ob ihre Hardware ausreicht.
32GB Ram sind da Minimum, und unter 5800X3D CPU Leistung geht mit dem Game garnichts ist sich die Community einig.
Die Optimalen Empfehlungen sind immer 64GB vom schnellsten Ram, die schnellste m2 nvme und 7800X3D.
64GB werden empfohlen da dass Game direkt 48Gb voll macht nach dem Einloggen.
Auch verschlingt es Vram.
Für 1080p schon 12GB Vram.
Schon vor 9 Jahren, gab es Reddit Posts wo von einer Titan bereits 10,8GB Vram für das Spiel beansprucht wurde.
Es liegt am game nicht an der Festplatte. Die Entwickler haben es mistig programmiert. Anderes kann man dazu nicht sagen.
Kann ich mir nicht vorstellen. Es ist wie ich oben bereits sagte. Die entwickler bauen keine dinge ein wie "Warte 30 Sekunden einfach so". Es wird die ganze zeit was geladen, sieht man auch daran dass die Ram Belegung jede Sekunde größer wird.
Einmal in SC einloggen haut mir meine kompletten 32GB Ram voll.
SC ist bekannt dafür dass es 48GB benötigt. Daher muss bei nur 32GB immer die Festplatte als Cache hinhalten.
Es ist Fordernd, das heißt aber nicht das es schlecht Programmiert ist.
Ich hab in dem Game bis zu 577fps mit meiner RX6800.
Leuten mit schwachen Rechnern mag es vorkommen wie Schlecht Programmiert, aber ihre Hardware ist einfach zu Langsam.
Das Spiel profitiert auch von mehr als 8 CPU Kernen. 6 Kerne ist eig schon zu wenig für das Spiel, weil da halt so viel gleichzeitig passiert. Das heißt nicht dass das Spiel schlecht Programmiert ist.
Es passiert einfach mehr als in anderen Games gleichzeitig.
Meine GPU ist jedenfalls immer 99% ausgelastet, und meine CPU auch zu 70%.
Dass muss ein Game erstmal schaffen bei einem 5800X3D. Bei Forza hab ich deutlich weniger CPU Auslastung weil das Spiel einfach wesentlich weniger Komplex ist.
 
Zuletzt bearbeitet:
@DevouringKing
Deine Argumentation ist einfach immer nur "Kann ich mir nicht vorstellen" oder "Kann ich bei diesem einen Game nicht Nachvollziehen".

Es gibt 100 Benches wo gezeigt wird, dass schnellere Festplatten etwas bringen wenn der CPU Flaschenhals entfernt wird wie z.B. mit direct Storage.

Und wie ich bereits gesagt habe. Das Entpacken von Dingen wird bei Games mit einer 0815 Library erledigt welche nicht das Ziel hat, 100% CPU Auslastung zu verursachen.


Da unten hats nen schönen Screenshot der SSD Loadingtimes vergleicht in Forspoken Benchmark Szene.

PCGH hat das gleiche gemacht mit dem Spielstart. Dort ist es weniger Auffällige, da dort noch mehr passiert als nur Daten zu laden.

 
Und wie ich bereits gesagt habe. Das Entpacken von dingen wird bei Games mit einer 0815 Library erledigt welche nicht das Ziel hat, 100% CPU Auslastung zu verursachen.
Okay dann wird dies die Quintessenz sein, welche bei mir die Verwirrung auslöst.
Jetzt denke ich, dass ich es besser verstanden habe. Danke.
Fragt sich nur, wieso die Entwickler eine Handbremse einprogrammieren für das Entpacken der Dateien.
Quasi so als ob sie in die Engine schreiben: "Beim entpacken dieser Daten bloß nicht über 5000mb/s gehen.
Welchen Sinn hätten solche Einschränkungen ?
Vor allem da Entwickler auch wissen das Hardware ständig schneller und besser wird.
 
Fragt sich nur, wieso die Entwickler eine Handbremse einprogrammieren für das Entpacken der Dateien.
Quasi so als ob sie in die Engine schreiben: "Beim entpacken dieser Daten bloß nicht über 5000mb/s gehen.
Welchen Sinn hätten solche Einschränkungen ?
Vor allem da Entwickler auch wissen das Hardware ständig schneller und besser wird.

Du unterschätzt die Komplexität eines Spiels bzw. eines Entpackungsvorganges.
Wenn alle diese Libraries jedesmal händisch Programmiert und Optimiert werden würden, hätten wir eine Durchschnittliche Entwicklungszeit von über 10 Jahre bei jedem Game.
Mit Multithreading kannst du z.B. in einen Lock reinlaufen. Der eine Kern beansprucht eine Datei und lockt diese, kann aber nicht weiterarbeiten bis ein anderer Kern ihm Infos gegeben hat. Dieser jedoch benötigt die selbe Datei aber aufgrund des Locks kann er nicht darauf zugreiffen.

Falls du selber Benchen willst, gibt es da diesen komischen Avocado Test der dazu da ist zu Zeigen, wie schnell deine SSD mit Direct Storage ist.

 
Mit Multithreading kannst du z.B. in einen Lock reinlaufen. Der eine Kern beansprucht eine Datei und lockt diese, kann aber nicht weiterarbeiten bis ein anderer Kern ihm Infos gegeben hat. Dieser jedoch benötigt die selbe Datei aber aufgrund des Locks kann er nicht darauf zugreiffen.
Würde dies nicht bedeuten: Mehr CPU Takt = schnellere Lese/Ladezeiten ?
 
Wenn du im CPU limit bist dann ja.
Aber wenn du einen Deadlock hast, kann das Programm nicht weiterarbeiten und 2 cores sind blockiert.
Ich bin jetzt wieder verwirrt.
Bedeutet Deadlock dass ein CPU Kern warten muss bis der andere CPU Kern fertig gerechnet hat ?
Müsste dies nicht auch bedeuten, dass ein CPU Kern mit mehr Takt, dies schneller fertig rechnet ?
Also der Deadlock müsste doch kürzer sein bei einem Zen 4 @ 4ghz im vergleich zu einem Zen 4 @ 3ghz oder ?
Eine CPU verrichtet ja immer Konstant viel Arbeit pro Takt.
Und wir gehen nicht vom CPU Limit aus. Wie darf ich dass dann verstehen dass ohne CPU Limit, nichts schneller wird ?
 
Hast du eine These warum ein Spiel nur mit 10.240MiB/s lädt und nicht schneller ?

Ich weiß nicht, warum die ein Upgrade von 2.500 MB/s auf 10.000 MB/s vorgeschlagen hast. Aber abgesehen davon, dass ich auf binäre Einheiten zur einfacheren Verrechnung mit den Speicherkapazitäten umgestellt habe, habe ich deine Werte 1:1 übernommen und nur erklärt, warum in diesem Beispiel ein 400-Prozent-Vorteil nur knapp über 4 Prozent Vorteil bei der Ladezeit bringen könnte.

Kann ich mir nicht vorstellen. Es ist wie ich oben bereits sagte. Die entwickler bauen keine dinge ein wie "Warte 30 Sekunden einfach so".

Klassischerweise bauen die Entwickler eher Dinge ein wie "Zeige Video/Standbild/XYZ für 30 Sekunden", was für die Ladezeit den gleichen Effekt hat. Und richtig übel sind Spiele (DRM sei dank mittlerweile fast alle), die Teile des Contents online auslagern. Wenn beim Ladevorgang erstmal etwas über einen Server verifiziert, koordiniert oder von dort nachgeladen werden muss, haben SSD und CPU halt keinen Einfluss mehr auf diesen Prozess. Es gibt durchaus Titel, da steigt die Ladezeit mit der Server-Auslastung.
 
Nun ja das ist sehr interessant. Nur wie sieht es dann aus wenn man 2 x das selbe Programm startet. Es vorher rund 50 % der CPU maximal belastet und dann wenn man beide startet verliert man zwar etwas an Geschwindigkeit im einzeln aber dafür ne deutlich bessere MC leistung sowie auch was gut mit CPU takt s kaliert.
was sagt ihr denn dazu? und trotzdem keine deutliche Steigerung durch eine die noch schneller fesplatte und ram. was sagt ihr dazu. habt ihr so ein fall schon mal gehabt oder nicht wo einfach nur die CPU immer schneller werden muss und nicht der Rest.
 
Klassischerweise bauen die Entwickler eher Dinge ein wie "Zeige Video/Standbild/XYZ für 30 Sekunden", was für die Ladezeit den gleichen Effekt hat. Und richtig übel sind Spiele, die Teile des Contents online auslagern. Wenn beim Ladevorgang erstmal etwas über einen Server verifiziert, koordiniert oder von dort nachgeladen werden muss, haben SSD und CPU halt keinen Einfluss
Das stimmt. Aber jetzt bin ich neugierig.
Ich frag mal meinen Kumpel mit Zen 1+ wie viele Sekunden Ladezeit er beim Starten von SC bis zum Hauptmenü hat wenn er später Online ist.
Hat hier jemand zufällig einen Zen 4 und Star Citizen und kann den Test auch machen ?
Ich komme jedes mal auf exakt 60 Sekunden mit meinem Zen 3 5800X3D.
 
Ich bin jetzt wieder verwirrt.
Bedeutet Deadlock dass ein CPU Kern warten muss bis der andere CPU Kern fertig gerechnet hat ?
Müsste dies nicht auch bedeuten, dass ein CPU Kern mit mehr Takt, dies schneller fertig rechnet ?
Also der Deadlock müsste doch kürzer sein bei einem Zen 4 @ 4ghz im vergleich zu einem Zen 4 @ 3ghz oder ?
Eine CPU verrichtet ja immer Konstant viel Arbeit pro Takt.
Und wir gehen nicht vom CPU Limit aus. Wie darf ich dass dann verstehen dass ohne CPU Limit, nichts schneller wird ?

Der Deadlock ist ein komplettes Blockieren. Daher wird auch nicht alles im Multithreading gemacht, weils die Komplexität um ein vielfaches erhöht.

Was du beschreibst ist nur eine Abhängigkeit und ganz normal im Multithreading.

Sagen wir du hast ein Programm um Dateien zu vergleichen.

Kern 1 hat die Aufgabe eine Datei zu lesen und als Variable A zu speichern.
Weil dir langweilig war hast du nun diese Aufgabe Multithreaded.
Kern 2 hat die aufgabe Variable A mit Datei2 zu vergleichen.

Diese Prozesse starten nun Zeitgleich.
Kern 1 Blockiert Datei1 für andere Prozesse (nennt sich Mutex) damit diese nicht verändert werden kann beim Lesen.
Jetzt ist Kern 2 schneller als Kern1 und blockiert die Variable A. Kern 1 kann jetzt also nicht in A schreiben und muss warten.

Jetzt passiert eine von zwei Sachen. Die Variable A ist auf einen Leeren Wert gesetzt oder sie ist Null.

Beim Leeren Wert vergleicht Kern 2 nun A mit Datei2. Bei Null kriegst du einen Nullpointer error und das Programm stürtzt ab.

In komplexeren Beispielen kann es sein das du zwei abhängige Blockaden hast.

Das z.B. Kern1 A und B blockiert und C benötigt jedoch Kern2 C blockiert um B zu schreiben aber da B durch Kern1 blockiert ist, warten beide Kerne unendlich lange da der andere jeweils seine Aufgabe nicht beenden kann.
Dies nennt sich Deadlock. Das Programm ist quasi "tot" da es nicht mehr weitergehen kann.


Hier das Beispiel, mit dem in der Schule gelernt wird, wie schwer es sein kann einen Deadlock zu verhindern bei Simplen beispielen.


The problem was designed to illustrate the challenges of avoiding deadlock, a system state in which no progress is possible. To see that a proper solution to this problem is not obvious, consider a proposal in which each philosopher is instructed to behave as follows:
  • think unless the left fork is available; when it is, pick it up;
  • think unless the right fork is available; when it is, pick it up;
  • when both forks are held, eat for a fixed amount of time;
  • put the left fork down;
  • put the right fork down;
  • repeat from the beginning.
With these instructions, the situation may arise where each philosopher holds the fork to their left; in that situation, they will all be stuck forever, waiting for the other fork to be available: it is a deadlock.
 
Zuletzt bearbeitet:
Der Deadlock ist ein komplettes Blockieren. Daher wird auch nicht alles im Multithreading gemacht, weils die Komplexität um ein vielfaches erhöht.

Durch was wird der Deadlock denn beeinflusst ? Rechenkraft der CPU oder ?
Kann ja nicht sein das ein Intel Pentium 4 Dual Core und ein Zen 5 mit 2 Kernen gleich lang für etwas benötigen wegen diesem "Deadlock".
Oder ?

Ich habe übrigens mal Reddit durchforstet, und hunderte Topics gefunden die meine These untermauern.
Die Ladezeiten werden nur von der Festplatte beeinflusst.
Sagen auch Tausende von Kommentaren dadrunter.
Hier 3 Beispiele.
Bild 1: HDD 10 Min um bis ins Hauptmenü zu gelangen (Mit gleicher CPU wie ich sie habe)
Bild 2: SSD 6 Min um ins Hauptmenü zu gelangen.
Bild 3: Noch eine SSD und 5 Min um ins Hauptmenü zu gelangen.
Da bin ich mit meiner Nvme m2 ja richtig schnell mit nur 60 Sekunden.

Also habe ich ja jetzt den Beweis dass es die ganze zeit nicht an der CPU lag, sondern nur an den Festplatten.
Dann machen aber diese ganzen PCGH Tests keinen Sinn die besagen, 2500mb/s pcie 3 platte ist keine einzige Sekunde schneller im Laden als die 21.000mb/s pcie 5.0.
Also sind die Tests von PCGH anscheinend mit zu wenig fordernder Software gemacht wurden.
Schade das PCGH Festplatten Tests nicht mal mit so einem Intensiven Spiel wie Star Citizen macht.
Da würde mich echt mal interessieren wie die Ladezeiten sich unterscheiden zwischen pcie 3.0 und 5.0

In den Kommentaren sagten die leute, Star Citizen benötigt zwangsweise mindestens eine SSD mit Sata 3.
Alles darunter sei nicht Optional. Eigentlich ist auch dies zu langsam sagen die Leute. Pcie 3.0 Nvme ist fast schon Minimum.
Aber muss grad schon etwas lachen.
Wir diskutieren hier 3 Seiten lang, und am ende bin ich die ganze Zeit im Recht gewesen.
Kaum zu glauben. Hätte nicht gedacht das ich so viel Ahnung gehabt hätte :D

@PCGH_Torsten macht mal richtige Tests in Zukunft :)

Kann ja nicht sein das zwischen einer Sata 3 und meiner Platte, die 5x schneller ist, 5 Minuten Ladezeit unterschied sind, und gleichzeitig zwischen einer Platte die 10x schneller als meine ist, nicht mal eine Sekunde unterschied zu meiner ist.
 

Anhänge

  • SC Loading HDD 10 min.jpg
    SC Loading HDD 10 min.jpg
    54,4 KB · Aufrufe: 27
  • SC Loading ohne nvme 6 minuten.jpg
    SC Loading ohne nvme 6 minuten.jpg
    60,7 KB · Aufrufe: 11
  • SC Loading ohne nvme 5 minuten.jpg
    SC Loading ohne nvme 5 minuten.jpg
    79,3 KB · Aufrufe: 13
  • SC unplayable on HDD.jpg
    SC unplayable on HDD.jpg
    74,6 KB · Aufrufe: 14
Zuletzt bearbeitet:
Kann ja nicht sein das ein Intel Pentium 4 Dual Core und ein Zen 5 mit 2 Kernen gleich lang für etwas benötigen wegen diesem "Deadlock".
Liest du überhaupt was ich schreibe?
DEADLOCK wie der Name schon sagt, ist das töten des Programmes weil es zwei Abhängigkeiten gibt welche sich NIEMALS auflösen.
Beide Kerne warten auf den jeweiligen anderen. Das hat auch nichts mit Geschwindigkeit zu tun.
Ein Ryzen 7 7800x3d wartet einfach schneller als ein Pentium. Jedoch warten beide unendlich lange.

Und zu deinem "Im Recht"
Schwachsinn. Es kommt halt aufs Spiel drauf an. Dann verwendet Star Citizen Direct Storage daher siehst du auch keine CPU Last und daher macht es auch einen Unterschied. Hier gibts keine Universalwahrheit.
 
Du kannst z.B. Datei 1 Anfordern. Sobald Datei 1 fertig geladen ist Datei 2 Anfordern etc.
Oder du kannst Datei 1-100 gleichzeitig Anfordern. Obwohl die "netto" Lesegeschwindigkeit die gleiche ist, hast du jedesmal diesen kleinen Unterbruch wo du das Lesen abschliesst, überprüfst und die nächste Datei anforderst.
Dies dürfte sich aber auch verschnellern bei einer Festplatte die auf einmal 25.000 mb pro Sekunde liest, im vergleich zu einer die nur 2500 mb pro Sekunde liest.
Tut es aber nicht laut den Tests. Warum ?

Eine Datei anfordern ohne zu übertragen geht zum Beispiel 0.2ms (Es muss im Filesystem die richtige stelle gesucht werden, das Laufwerk hat eine Latenz etc). 1 MB mit 2500MB zu übertragen geht 0.4ms.
0.2 ms + 1 MB/ 2500 MB/s * 1000 ms/s = 0.5ms

Bei einer 10 mal schnelleren SSD wird 0.14ms benötigt.
0.2 ms + 1 MB/ 25000 MB/s * 1000 ms/s = 0.24ms

Ist also nur 2.1 mal schneller

Wenn die Latenz höher ist, oder bei kleineren Dateien übertrage werden, hast du praktisch kein Performancegewinn mehr.

saphira33 hat beschrieben, dass anstatt nur 1 Daten anzufordern, kann man 100 Dateien anfordern. Das braucht einiges mehr RAM, aber man versteckt die Latenz (Latency hiding). Auf dem baut genau das Direct Stream Interface auf.

BTW: NVMe sind eigentlich genau optimiert auf solche parallele Zugriffe. Sie haben dafür eine viel tiefere Queue als eine SSD über SATA.
 
Wir haben keine Unendlichen Ladezeiten.

Deadlock hat nichts mit Ladezeit zu tun sondern mit CPU Multithreading.

Sag ich ja die ganze Zeit. Mehr CPU Takt = schnelleres Laden, und du sagst Nein.
Hab ich nicht. Ich habe gesagt schnellere CPU = Schnelleres laden WENN du in einem CPU Bottleneck bist.

Ein CPU Deadlock ist einfach fertig da lädt nichts mehr.
Und diese Gefahr ist, warum standardlibraries verwendet werden...
 
Hab ich nicht. Ich habe gesagt schnellere CPU = Schnelleres laden WENN du in einem CPU Bottleneck bist.
Okay aber was hat das mit dem Thema jetzt zu tun ?
Meine frage war ja, bringt diese PCIE 6.0 Festplatte kürzere Ladezeiten in Star Citizen vom Launcher ins Hauptmenü. Da ist keine Onlinebedingte Verlangsamung und auch kein Logo, kein Video, einfach nur Pures Laden.

Wir wissen bisher folgendes:
HDD Lädt da je nach Topics die ich gelesen habe 10-18 Minuten. (10 Min war noch das schnellste was ich fand)
SSD,s mit 520mb/s laden da im schnitt 5-6 Min.
Nvme,s mit 2500mb/s 60 Sekunden. (Meine WD Blue SN550 ist also ca 500% so schnell von den Rohdaten, und hat auch 500% der Leistung der SSD was die Ladezeit betrifft, das passt perfekt)

5800X3D ist beim Laden nicht mal ansatzweise im CPU Bottleneck.
Dümpelt bei 5-35%~ All Core durchschnittlich rum die eine Minute.

Wir wissen aus Tests dass eine Pcie 5.0 Crucial T7 12400MB/s lesen kann.
Also 500% schneller als meine.
Also was spricht dagegen dass sich die Ladezeiten nochmal massiv verkürzen ?
Zb um 20 Sekunden von 60 auf 40 Sekunden ?
Laut den Tests von PCGH, verkürzt sie bei einem anderen Spiel aber nicht mal um eine Sekunde.
Das ist irgendwie irreführend oder ?
Und daher schrieben hier auch User, dass diese PCIe 6.0-SSD mit ihren 26.000mb/s wohl auch kaum was bringen wird.
Das kann ich mir nicht vorstellen nach diesen extremen unterschieden die ich in Star Citizen beobachte.
Evtl liegts auch einfach an der Software die PCGH zum testen verwendet hat.
Macht evtl weniger Sinn wenig fordernde Software zum Testen neuster Hardware zu verwenden.
Es sollte schon Software sein, die fordernd ist.
 

Anhänge

  • pcgh billigtest.jpg
    pcgh billigtest.jpg
    48,7 KB · Aufrufe: 26
Zuletzt bearbeitet:
Kein Spiel ist darauf Programmiert, eine Mindestzeit an Millisekunden abzuwarten nachdem Datei XY geladen wurde, bevor dann die nächste Datei geladen wird.
Ein Programm arbeitet nicht so.

Es ist eine generelle Ineffizienz. Das Spiel fordert die Datei an, bearbeitet sie und wenn es damit fertig ist (was verhältnismäßig lange dauert, dann wird die nächste angefordert usw.. Wenn man diesen Flaschenhals beseitigen wollte, dann müßte man optimieren, etwa schon die nächste Datei im vornherein laden usw.. Das ist Aufwand und den spart man sich.

Latenzen unterschiede haben diese SSD,s nicht.

Da sieht man, dass du keine Ahnung hast. SSDs sind unterschiedlich schnell, diese Reaktionszeit ist einer der Hauptunterschiede und auch der Grund, warum billige SSDs auch mit höherer Transferleistung schlechter abschneiden können.

Megahertz bedeutet eine Million Zyklen pro Sekunde.
Pro Megaherz liest DDR5 Ram 16 Bit pro Sekunde.

Wir sind bei MT, also Megatransfers. MHz gibt es seit DDR1 nicht mehr, also vor über 20 Jahren. Und auch da ist es eine Wissenschaft für sich. Wenn man z.B. bei DDR1 400 zwei sehr ungünstig gelegene Bits auslegen will, dann sinkt die reale Leistung auf 20MT, also 5%, bei neuerem RAM ist es noch schlimmer.

Fragt sich nur, wieso die Entwickler eine Handbremse einprogrammieren für das Entpacken der Dateien.
Quasi so als ob sie in die Engine schreiben: "Beim entpacken dieser Daten bloß nicht über 5000mb/s gehen.
Welchen Sinn hätten solche Einschränkungen ?

Es wird da nichts eingebaut, sondern nur nicht optimiert. Optimieren kostet Zeit und braucht fähiges Personal. Beides kostet Geld und ist knapp. Also läßt man das ganze sein, wenn es nicht nötig ist.

Vor allem da Entwickler auch wissen das Hardware ständig schneller und besser wird.

Gehen wir mal auf dein Eingangsbeispiel ein: bei einer SATA SSD hat man 37sec Ladezeit, bei den PCIe SSDs 11sec.

Wo ist es nun sinnvoller zu optimieren:
a) bei den SATA Besitzern, damit auch Leute, mit langsamerer SSD schneller laden können.
b) bei den PCIe SSDs, damit die Leute, die ein paar hundert Euro verpulvern, noch 1-2 sec schneller sind.

Die Antwort ist klar a), die Leute mit PCIe SSDs laden schon schnell, also sind die völlig egal. In dem Fall wird man wohl lange optimiert haben, damit das ganze mit SATA überhaupt in 37sec lädt und nicht in ein paar Minuten.

Fun Fact: die Zeit, die wir alle mit der Diskussion verpulvert haben. wird man wohl mit keiner PCIe 5.0 SSD wieder reinholen können, auch wenn sie 1-2 sec schneller wäre.
 
hm ja das stimmt, welche ssd ist denn aktuell zu empfehlen wenn es am Ende nicht auf die transfer ankommt weil ich kenne mich bei Festplatten nicht aus und habe daher ne OEM nvme gekauft gehabt und dafür die quitting bekommen in form von Teil defekt und damit weniger Leistung insgesamt bei einer ssd was man so haben kann. Ich weiß also nicht worauf ich achten muss um das beste aus der ganzen sache zu holen. ne mir geht es nicht um die ladezeiten beim zocken sondern beim entpacken von winrar, bei Videos bearbeiten usw.
 
Kannst dir die mühe sparen, hab die Diskussion schon dadurch beendet, dass ich nachweisen konnte dass sich die Ladezeitn bei Star Citizen zwischen einer SSD mit 520mb/s und einer nvme mit 2500mb/s um 500% verkürzt haben, was auch genau dem Zahlenwert entspricht.

Der PCGH Test mit Super Mario Gameboy Software und deswegen nur 1 Sek unterschied zwischen einer SSD mit Sata (500mb/s) und PCIE 5.0 (12400mb/s) ist daher total irreführend gewesen.
PCGH sollte einfach mal richtige Männersoftware wie Star Citizen zum Testen verwenden.
Daher als Fazit: 3 Seiten, alle gegen mich, und ich hatte am Ende doch recht.

@PCGH_Torsten ich hoffe ihr lernt daraus und nehmt in Zukunft Star Citizen zum Testen von Spieleladezeiten.
Das würde diesen neuen Festplatten viel mehr abverlangen, und könnte viel mehr Auswirkungen haben als mit Gameboy Benchmarks.
Oder ist euch das zu Extrem und ein Fall für PCGH-Extreme :D
Verzeiht mir meinen hohen Anspruch, komme aus dem Hardwareluxx Forum, und da sind wir sehr anspruchsvoll.
Nur damit ihr mal einen Dimensionalen vergleich habt.
Die Sata III MX500 unten im Bild, lädt da 9 Sekunden. Bei Star Citizen würde sie 320 Sekunden Minimum Laden nur um ins Hauptmenü zu kommen.
Wie Tim Taylor schon sagte: "Wir brauchen mehr Power"
Das sind Kindergarten Benchs. Wir brauchen was für echte Krieger.
 

Anhänge

  • pcgh billigtest.jpg
    pcgh billigtest.jpg
    48,7 KB · Aufrufe: 16
Zuletzt bearbeitet:
Zurück