DDR4-Arbeitsspeicher: DRAM-Preise im freien Fall

Warum fühlen sich die Leute immer sofort angegriffen?
Es geht hier um 2400er DDR4, der verbilligt wurde. Die 3000-3200 Teile wurden nur bedingt billiger. Damit (2400er DDR4) verliert ein Ryzen erheblich mehr Leistung als ein Intel. Ich habe das mit den beiden Test- Videos belegt. Wie wäre es, wenn man einen Artikel/Kommentar liest, bevor man ihn kommentiert/zitiert und alles nochmals verdreht?

Hast du eigentlich die Preisentwicklung der letzten Jahre mal verfolgt? Rhetorische Frage, offensichtlich nicht. Denn auch 16GB 3000er und 3200er RAM haben vor exakt einem Jahr noch über 150€ aufwärts gekostet, während man sie jetzt für 80 - 100€ bekommt. Kann man alles ganz wunderbar auf Preisvergleichsseiten nachvollziehen.
 
Bei Cities Skylines mit Mods sind meine 16GB relativ schnell voll... :ugly:

Ja, die eine Ausnahme unter 973216856 Fällen bei denen es reicht gibts immer. ;)
Sieh dir mal an wie viele Spiele es auf STEAM gibt. Ich weiß es selbst nicht schätze aber deutlich über 10.000?
Und wie viele davon sind mit 16 GB RAM nicht flüssig spielbar, von mir aus auch mit Mods? 0,1%?
Wie viele davon werden wohl in 3, 4 Jahren mit 16GB RAM nicht mehr flüssig spielbar sein? 1%? 5?

Man verliert als Nerd dessen Hobby Hardware ist immer schnell den Bezug zur Realität. Hier redet man drüber, dass ein 9x00K eine bessere Spiele-CPU ist als ein 2600er. Stimmt. Der Punkt ist nur, dass die überwältigende Mehrheit an Spielern da draußen froh wären nur einen "nicht zum spielen geeigneten" 2600er zu haben weil ihre aktuelle CPU deutlich weniger Kerne und IPC als ein 2600er hat. :ugly:

Ich meine schau mal in die Hardwareumfrage von Steam bei physisch vorhandenen CPU-Kernen.
26% haben ZWEI und weitere 57% haben VIER. Bedeutet nur rund 17 % aller Spieler haben mehr als 4 Kerne! Das ist die Reale Hardwarewelt da draußen abseits der Nerdplattformen wie PCGHX wo man mit weniger als 6 Kernen schon Lowbob ist. :haha:
 
Zuletzt bearbeitet:
Geb dir ja vollkommen recht.. mir ist das grad nur eingefallen weil ich da echt schön beobachten kann wie der Ram voll läuft. :D
 
Och je nachdem was man so macht sind auch 64 GB schnell voll (was ich selbst regelmäßig erleben durfte) - wo wir wieder beim Thrteadthema wären, wird Zeit dass das Zeug wieder billiger wird.
 
Hier redet man drüber, dass ein 9x00K eine bessere Spiele-CPU ist als ein 2600er. Stimmt. Der Punkt ist nur, dass die überwältigende Mehrheit an Spielern da draußen froh wären nur einen "nicht zum spielen geeigneten" 2600er zu haben weil ihre aktuelle CPU deutlich weniger Kerne und IPC als ein 2600er hat. :ugly:

So oft wird aber gar nicht gesagt, dass der 2600 nicht geeignet ist. Es heißt nur, dass die Intels schneller sind. Aber dann sind ja die "Intel-Jünger" trotzdem immer "dumm", weil sie "unheimlich" viel Geld "verschwenden", weil die Mehrleistung ja sowieso "immer" im GPU-Limit verpufft. Oder es heißt direkt, dass der 2600 sowieso genauso schnell ist, wenn nur der Speicher schnell genug ist oder irgendwas ähnliches in der Richtung.
 
Naja, in vielen wenn nicht den meisten Fällen stimmt das ja auch. Für einen "normalen" Spieler mit erstens keiner 1000€-Grafikkarte und zweitens dem Ziel "60fps" ists fast immer völlig wurscht welche CPU man benutzt so lange sie nicht grade unterstes Low-End ist oder zig Jahre alt. Das schafft jeder Ryzen 1000/2000 und jeder Core 7000/8000/9000.

Wirklich interessant wirds eigentlich CPU seitig nur wenn man speziellere Fälle hat:
fps-Ziel von 120/144
Sehr sehr starke Grafikkarte(n)
Extrem schlecht programmierte CPU-lastige Spiele

...dann würde ich auch eher nen intel nehmen, aber wenn schon dann auch nen 9900K.
Das Ding ist nur, dass diese Spezialfälle gemessen an der breiten Masse der Spieler da draußen sehr selten sind. Ich meine selbst in diesem Forum hier kommt sowas nur "gelegentlich" mal vor und da sind die Hardwareverrückten ja alle versammelt. :D
 
Im Preisverlauf war der hier: G.Skill Aegis DIMM Kit 16GB, DDR4-3000 ab €'*'86,50 (2019) | Preisvergleich Geizhals Deutschland 2016 immernoch günstiger als heute. Klar auf der einen Seite inflation, dass sollte aber nicht viel sein. Man erwartet ja in der regel sinkende Preise aufgrund technologischem Fortschritt.

[...]

Der massive Preisanstieg ist aus einer Kombination aus erhöhter Nachfrage ab dem Zeitpunkt, wo alle neuen CPU-Generationen (quasi) nur noch mit DDR4 zu betreiben waren, sowie Produktionsengpässen zustande gekommen. Das liegt daran, dass nach wie vor die entsprechenden Speicherbauteile aus nur vergleichsweise wenigen Fabriken weltweit stammen und dadurch sowohl unverhergesehene Ereignisse wie Naturkatastrophen zum Ausfall großer Teile der Produktionskapazitäten führen können, als auch verschiedene Hersteller für unterschiedliche Produkte um eben diese Produktionskapazitäten wetteifern. Das heftige Preisniveau, das wir die letzten fast zwei Jahre hatten, wurde - wenn ich mich recht erinnere - tatsächlich durch eine Überschwemmung sowie die Markteinführung einer neuen Handygeneration (Samsung? Apple?) und der für die entsprechenden Speicherbausteine erstmal belegten Produktionskapazitäten ausgelöst.
 
Kann man eigentlich tatsächlich vom "freien Fall" sprechen, wenn die Preise zuvor "stark angestiegen" sind? In einem Artikel von 09/2016, bei dem es bereits zu Preissteigerungen kam, wurden 16GB ab 65€ (4€ pro GB) bepreist, siehe Tabelle im verlinkten Artikel. Zurzeit liegen wir hier noch bei mindestens 85€ (5,23€ pro GB). Ja, die Preise für DDR4-Ram werden wieder günstiger, sind aber noch nicht auf dem Niveau von 20XX.

Ist wie zu Weihnachten, als die Artikel in meinem Warenkorb plötzlich 25% mehr gekostet hatten, als noch im Oktober. Klar kann man dann im Januar sagen: "Jetzt kaufen! Die Preise sind um 15% gesunken!". :ugly:

Man verliert als Nerd dessen Hobby Hardware ist immer schnell den Bezug zur Realität. (..) einen "nicht zum spielen geeigneten" 2600er zu haben

Ich würde mich durchaus als Nerd bezeichnen und finde, dass ich kaum Probleme mit aktuellen Spielen auf meinem 2500K habe. :schief: Aber nicht zum Spielen geeignet? Davon ist der mal ganz weit entfernt.
 
Zuletzt bearbeitet:
Naja, in vielen wenn nicht den meisten Fällen stimmt das ja auch. Für einen "normalen" Spieler mit erstens keiner 1000€-Grafikkarte und zweitens dem Ziel "60fps" ists fast immer völlig wurscht welche CPU man benutzt so lange sie nicht grade unterstes Low-End ist oder zig Jahre alt. Das schafft jeder Ryzen 1000/2000 und jeder Core 7000/8000/9000.

Wirklich interessant wirds eigentlich CPU seitig nur wenn man speziellere Fälle hat:
fps-Ziel von 120/144
Sehr sehr starke Grafikkarte(n)
Extrem schlecht programmierte CPU-lastige Spiele

Da gehts jetzt zwar ins Reich der Vermutungen und Annahmen, aber ich persönlich glaube, das CPU-Limit ist alles andere als ein spezieller Fall.
Nahezu jeder, der Multiplayer-Shooter spielt, versucht irgendwie, seine fps zu maximieren. Es wird häufig auf niedrigen Details und Auflösungen gespielt, denn das GPU-Limit, kann man sehr stark damit verschieben. Beim CPU-Limit ist das dagegen nicht so einfach, es bewegt sich in einem sehr kleinen Rahmen. Meiner Erfahrung nach landet man in solchen Spielen sehr schnell in CPU-Limit und höher gehts nunmal nicht.
Und 120/144Hz Monitore sind mittlerweile auch sehr weit verbreitet, ich kenne in meinem Freundeskreis kaum noch Leute, die keinen haben. Und den würde ich nichtmal als Hardware-affin bezeichnen. Aber jeder spielt halt MP-Shooter.
Und zu deinem anderen Post: Es ging nie darum, dass es auf Ryzen nicht spielbar ist. Die Frage ist nur, ob man absichtlich weniger Leistung zu einem ähnlichen Preispunkt nimmt. Ich tue mich sehr schwer damit, einen AMD zu empfehlen momentan. Der einzige war ein 1600X für 130€, da hat der 8400 aber gerade über 200€ gekostet. Und diejenige spielt tatsächlich auf 60Hz.
 
Also mein Ram den ich vor weniger als einem Jahr für 350 Euro gekauft habe kostet nun noch um die 220, da hat sich schon sehr deutlich was getan.
 
Mein RAM hatte noch knapp 350€ gekostet, jetzt liegt er bei der Hälfte. Wechseln bringt aber wahrscheinlich nicht so viel wie ich gerne hätte und zudem ist der RAM, wo es sich lohnt wieder bei 350€ und mehr. Und dann weiß ich nicht einmal, ob der RAM auch bei mir auf dem Board läuft.
 
Mein RAM hatte noch knapp 350€ gekostet, jetzt liegt er bei der Hälfte. Wechseln bringt aber wahrscheinlich nicht so viel wie ich gerne hätte und zudem ist der RAM, wo es sich lohnt wieder bei 350€ und mehr. Und dann weiß ich nicht einmal, ob der RAM auch bei mir auf dem Board läuft.

OK ich habe meinen RAM 3200 32GB DS CL14 vor einem Jahr für 400 erstanden, liegt jetzt bei 350 laut Geizhals. Bei RAM mit geringen Latenzen ist der Verfall nicht ganz so stark. Bei anderen Riegeln können 50% Preisverfall schon drinn sein, ist heftig.
 
32 GB DDR 4 3200er, am 24.08.18 für 324,- gekauft, jetzt kostet er beim selben Händler nur mehr 242,-
Mein Berechnungen sagen mir, die Preise fallen tatsächlich :)
 
OK ich habe meinen RAM 3200 32GB DS CL14 vor einem Jahr für 400 erstanden, liegt jetzt bei 350 laut Geizhals. Bei RAM mit geringen Latenzen ist der Verfall nicht ganz so stark. Bei anderen Riegeln können 50% Preisverfall schon drinn sein, ist heftig.
Aber zuvor waren die Preise auch nicht hoch, hatte Corsair Vengeance 3000 Mhz Arbeitsspeicher im Jahr 2016 für nur 97 Euro gekauft. Dann sind sie für ein Preis von 180 Euro zu kaufen gewesen und momentan sind für etwa 117 Euro zu haben.
 
Nahezu jeder, der Multiplayer-Shooter spielt, versucht irgendwie, seine fps zu maximieren. Es wird häufig auf niedrigen Details und Auflösungen gespielt, [...]
Ich bezweifle mal sehr stark, dass das "nahezu jeder" ist. Sicher gibts die, die glauben bei 200 fps besser zu spielen als bei 170 und deswegen in Pixelmatsch rumlaufen (bei einem sehr, SEHR kleinen Anteil an Spielern mag das sogar tatsächlich so sein), aber wenn man hier wirklich objektive Tests machen würde bin ich mir ziemlich sicher, dass die meisten der Spieler keinerlei statistisch signifikanten spielerischen Unterschied zwischen 100 und 200 fps haben, ja es oftmals nichtmal bemerken würden. Aber sowas darf man in den entsprechenden Kreisen natürlich niemals sagen, da glaubt jeder gern an die Schlangenölzauberei. Das ist wie in einem Autoclub zu sagen "viele Männer können gar nicht so gut Auto fahren". Das stimmt zwar garantiert - verdroschen wirste trotzdem. :ugly:

Aber meinetwegen, dieses Klientel darf sich dann gerne nen 9900K einbauen und auf Low spielen und fest daran glauben die 20 fps mehr heben ihre K/D-Ratio an. Wenns glücklich macht?
 
[...]

Genauso ists mit dem Ryzen 2600. Natürlich reicht der für die allerallermeisten Spieler auf der Welt aus die nicht das letzte fps haben wollen (oder sich einbilden es haben zu müssen). Und das wird, Überraschung, wahrscheinlich auch noch eine Zeitlang so bleiben und natürlich kommt der Punkt wo ein 2600 zu langsam ist um neue Spiele flüssig darzustellen. Die Frage ist eben nur, ob jemand der stattdessen jetzt nen 9400F oder sowas gekauft hat nennenswert besser dasteht. Wahrscheinlich eher nicht - denn zu dem Zeitpunkt wo ein 2600er zu langsam ist wird es erstens auch ein 9400 sein und zweitens wird es für kleines Geld CPUs zu kaufen geben die weit schneller sind als jeder der beiden.

[...]

Hier... neueres TombRaider-Spiel auf nem 10 Jahre alten i7 920 in 1440p: ~80-100fps.
YouTube

Das ist natürlich nicht allgemeingültig. Aber wie in Foren auch immer gebetsmühlenartig runtergepredigt wird dass Ryzen ja nicht zum spielen geeignet sei und man auf jkeden Fall nen 9x00(K) haben muss ist genau der gleiche Schwachsinn.



Das behaupten aus meiner Sicht die wenigsten. Viel mehr behauptet ihr AMD-Jünger doch, es gäbe in der Praxis keinen Unterschied, wie auch du wieder hier, unterstellst es wäre Einbildung den letzten FPS zu brauchen, etc. Gleichzeitig wird dann mit Urlaubsvideos rendern und Sonstigem künstlich ein Bedarf für viele Kerne herbei geredet. Leute wie z. B. Schaffe haben doch immer die Vorteile ganz rational herausgearbeitet, und bei hoher Verwendung von Anwendungen bzw. Streaming immer ganz klar den AMD empfohlen. Nur ihr seid es eigentlich, die nicht anerkennen wollt, dass Intel eben auch Vorteile für andere Bereiche hat. Diese werden zu jedem erdenklichen Zeitpunkt marginalisiert, das macht in den Bereichen, in denen der AMD klar vorne liegt, niemand von den Leuten, die ihr Intel-Anhänger schimpft.


Die Diskussion begann auch nicht mit 2600 vs. 9400f, was du hier komischerweise zu einem Ding machen willst (wie kommt man überhaupt auf 9400f? Die 9000er Serie wird wahrscheinlich noch gegen Ryzen 3000 antreten müssen), sondern es ging hauptsächlich und von Anfang an immer um 7700k vs 1700x, gefolgt von 8700k vs 2700x. Euer Standpunkt dabei war immer ganz klar, der 1700x würde den 7700k wegen der Kerne überdauern und die Investition in die Zukunft sein, eben nicht nur was Anwendungen und Streaming betrifft, sondern vor allem auch im Gaming. Dazu die ewige Mainboard-Diskussion, und das man mit einem alten Mainboard dann in ein paar Jahren gerne eine neue CPU drauf macht.

Guck dir dazu einfach mal den Thread über die angeblichen Ryzer 3000er Leaks an und guck, wie schnell die Besitzer der alten Ryzens endlich auf höhere IPC+Takt wechseln wollen und sich über 3000 freuen. Und damit werden eben auch sämtliche Nachhaltigkeitsargumente, was Gaming betrifft, hinfällig. Denn wer alle 1-2 Jahre nen neuen Prozessor kaufen kann, der kann sich dazu auch ein neues Mainboard leisten. Wie Schaffe mal heraus gearbeitet hat, ist doch viel mehr Tatsache, dass die meisten Leute völlig überteuerte Mainboards kaufen, die sie überhaupt nicht brauchen. Ich kenne da selbst so jemanden, x700k Prozessor gekauft, dazu das teuerste Mainboard, was er finden konnte (glaub ca. 250€), vom Übertakten und Bios keine Spur der Ahnung. Als ich mal damit ankam, dass es doch schade wäre und ich mal mit der Übertaktung beim ihm anfangen könnte, hat er erst abgelehnt, irgendwann halbherzig zugestimmt. Als beim Belastungstest der erste Bluescreen + Absturz kam, rutschte ihm das Herz in die Hose und er bestand darauf, dass ich alles wieder zum Standard einstelle und sofort abbreche (;D). Da sitzt er nun mit seinem 250€ Mainboard, mit einer wild hoch springenden Spannung jenseits von gut und böse, bei viel zu niedrigem Takt.

Natürlich ist das jetzt ein Extrembeispiel und für Forenteilnehmer hier nicht unbedingt belastbar. Jedoch stimmt weiterhin, dass auch die Leute hier wahrscheinlich oft zu viel für Mainboards ausgeben, deren Funktionen sie nie nutzen werden. Für ein bisschen Übertaktung braucht man eben auch kein 200€+ Board mit allen erdenklichen Sonderfunktionen, sondern es reicht eigentlich immer eins im Bereich 90-140€.


Zurück zur Nachhaltigkeit. Weiterhin, wie zu Anfang der Diskussion (7700k vs 1700x), gilt, wer die Kerne nicht professionell oder semiprofessionell (nein, Urlaubsvideos zählen da nicht dazu), brauchte, der ist mit einem 7700k für Gaming wohl in jedem Fall besser aufgestellt gewesen und wird das auch weiterhin sein. Denn Eine CPU, wie den 1700x oder 2700x nach so kurzer Zeit wieder auszuwechseln, ist nicht wirklich nachhaltig.

Für mich persönlich hat sich die Frage zum Ryzen nie gestellt. Als ich den 6700k kaufte, gab es kein Ryzen und war dieser auch nicht wirklich in Sicht oder prognostizierbar. Trotzdem bekomme ich mit diesem "alten" Prozessor im Passmark Single-Core Bench @ 4.6 Ghz auf gute 2700 Punkte. Wenn ich da gemütliche 200Mhz für einen potentiellen Sweet Spot eines 7700k darauf lege, sind das dann sicher um die 2800 Punkte beim 7700k @ 4.8 Ghz in diesem Bench. Und beachtlich mehr als das gibt es bis heute am potentiellen Sweet Spot nicht, also gibt es für den 7700k Besitzer bis heute keinen Grund alleine für Gaming aufzurüsten. Ryzen 3000 wird daran ebenfalls nichts ändern, wenn man nicht einer anstehenden Entwicklung hin zur Unerlässlichkeit von mehr Kernen unbedingt vorgreifen möchte, was noch lange nicht in der Umsetzung sein wird. Zum bedienen heutiger GPUs aber auch in Indie-Titeln und Mods, welche meist durch schlechtere Umsetzung nativ auf mehr CPU-Power angewiesen sind, sowie im Multiplayer im Allgemeinen, spielt der 7700k weiterhin in der allerhöchsten Liga mit, Exemplare, die den Sweet Spot über 4.8 Ghz finden, sogar dort ganz oben.

Das tut der 1700x eben nicht. Nichtmal annähernd. Und da kommen wir zum Thema "sich einbilden". Der Vorsprung beträgt ca. 30%. Und diese 30% Einbildung zu nennen zeugt schon davon, dass man bei euch nicht in der Lage ist, ein realistisches Bild zu empfangen.

Titel die ich in den letzten Jahren gespielt habe, sind u. A:
- Starcraft
- Path of Exile
- Modded Arma 3

In jedem dieser Titel setzen sich diese 30% Mehrleistung in den entscheidenden Situationen (hohe Belastung, Downspikes) in nahezu 30% mehr FPS um. 30% Einbildung? Mit anderen MP-Titeln ließe sich das fortsetzen, das betrifft nicht einen kleinen Teil der Spieler, sondern jeden, der MP-Titel, vor allem auch leicht abseits des Tripple-A, so z. B. mit Modding, spielt


Damit können wir gleich weiter gehen zum nächsten Thema. Das sind eben das von dir erwähnte Tomb Raider und nicht repräsentative PCGH-Benchmarks. Wer spielt denn am laufenden Band irgendwelche Single-Player Tripple-A Titel? Das machen doch nur Noobs (oberflächliches casual Gaming) und irgendwelche Redakteure, die beruflich eben immer das neuste Gedöns testen müssen. Ich kenne solche Leute überhaupt nicht. Eigentlich jeder hat doch seine Favorites, mit denen man sich auf längere Zeit beschäftigt, bei denen man durch das Aufbauen von Skill eine Routine entwickelt, die Gameplay auf einem höheren Level erlaubt, was erst den richtigen Spaß im Gaming ermöglicht und die verschlissene Zeit beim erlernen neuer Mechaniken in immer neuen Titeln reduziert - eben nicht jeden Monat 2 neue Sachen anzufangen.

So, und wenn ich mir jetzt aber die Liste der PCGH-Benchmarks ansehe, die ja krampfhaft darauf ausgelegt sind immer den neusten Tripple-A Müll (Far Cry, etc.) zu repräsentieren und dabei vor allem auch Multi-Core besonders wohlwollend zu berücksichtigen, welche Casual-Gamer (siehe oben) dann das ganze Jahr zocken müssten (wie gesagt, ich kenne keine solchen Leute, ganz ehrlich), damit der PCGH-Benchmark für sie repräsentativ wäre, dann ist das ganze Unterfangen doch völlig abseits der Realität.

- Die nachhaltige Alternative für Gaming war eben nicht der 1700x, so wie von euch herbei illusioniert, sondern der 7700k.
- Die PCGH-Benchmarks sind in keinster Weise repräsentativ für den Durchschnitt von Spielern. Nicht mal im Ansatz. Denn diese Spielen so gut wie alle Multiplayer und wenige Titel über einen längeren Zeitraum.
- Für Tomb Raider, das hast du völlig richtig erkannt, ist es egal welche CPU du hast. Wer spielt denn das ganze Jahr und vor allem noch mehrheitlich in seiner Gaming-Zeit so ein Gedöns?
- Die CPU erhält eben nicht durch hohe Auflösungen und GPU-Limit im Tripple-A Müll Irrelevanz, sondern sie erhält Relevanz in nahezu allen schweren Mulitplayer-Spielen, unabhängig von der Auflösung, wo hunderte von Units berechnet werden müssen, wo hundert Spieler auf einer Karte Loot-Spawns und ggf. NPC-Ereignisse auslösen, im E-Sport, völlig egal ob casual E-Sports, semi-pro oder richtig professionell, du brauchst in nahezu allen MP-Titeln eine sehr hohe Single-Thread CPU.


Das alles lässt doch nur die eine Frage übrig. Niemand, der damals für einen 7700k (ich bleibe jetzt beim Ursprung, kann man aber 1:1 auf neuere Prozessoren so ebenfalls anwenden) votiert hat, hat jemals bestritten, dass für z. B. Anwendungen und Streaming die Ryzens die absolut bessere Wahl waren.

Warum fiel und fällt es euch heute noch so schwer, anzuerkennen, dass der 7700k (vs. 1700x, alternativ 8700k vs 2700x, etc.) fürs Gaming die absolut bessere Wahl war und weiterhin ist? Warum kommt ihr mit Tomb Raider & Co. und GPU-Limit auf 4K daher, wenn fast alle nur noch Multiplayer spielen, wo man so oder so für alles eine gute CPU braucht? Warum kommt ihr mit Nachhaltigkeit daher, wenn keiner von euch es erwarten kann, so schnell wie möglich den alten Ryzen mit einem 3000er zu ersetzen, während der 7700k Besitzer noch immer in major Anwendungen (das sind eben nicht von Tomb Raider zu AC zum nächsten COD, woraufhin dann bereits das nächste Tomb Raider erscheint und darauf hin das nächste AC, gefolgt vom nächsten COD, so in etwa), welche Multiplayer Titel sind, die über Jahre hinweg gespielt werden überhaupt keinen Bedarf zum Wechsel haben (keine Steigerung der Leistung bei diesen MP-Titeln durch mehr Kerne in Sicht, selbst wenn, dann nur marginal und Takt x IPC weiterhin entscheidendender Faktor).

Warum versuchst du weiterhin verbissen dazustellen, dass die 30% Mehrleistung pro Kern Einbildung wären?
Warum unterstellen die gleichen Leute, die AMD für ihren Fortschritt zu mehr Kernen vergöttern (eigentlich mehr Tugend aus Not), NVIDIA bei der Einführung von RTX böse Absichten und verteufeln sie damit für genau das, was man Intel vorwirft auszubremsen?

Es erkennt doch ein Blinder, dass das völlig unehrlich ist. Keine klare Linie, alles wird immer so herum gedreht, wie es passt, aus meiner Sicht ein in ganzer Linie unaufrichtiges Verhalten.

Die tiefergehende Antwort war von Anfang an ersichtlich, und wurde hier auch u. A. von mir von Anfang an (bei Ryzen Release) genau so diagnostiziert. Es geht euch hier nicht um eine ehrliche und rationale Analyse. Es geht wahrscheinlich um einen emotional-ideologischen Kampf, Ryzen unter allen Umständen und in allen Anwendungsgebieten als eigentlich überlegen darzustellen, Intel-Käufer als dumm zu titulieren, da sie nicht die nötige Weitsicht besäßen, Intel Geld in den Rachen werfen, Kapitalisten sind, und dergleichen mehr.

Eigentlich haben die nur das für ihren Anwendungsbereich bessere Produkt gekauft, was wahrscheinlich über die Jahre hin, sofern sich das persönliche Anwendungsprofil für hohe CPU-Anforderungen nicht ändert, auch preislich nachhaltiger sein wird, da man nicht so schnell wechseln muss und mit einem 7700k in allen zeitlich relevanten Games (von denen kein einziges im PCGH-Benchmark zu finden ist) die gleiche Leistung von heute aktuellen CPUs schon damals bekommen hat.

Mehr gibt es aus rein rational-analytischer Sicht zu dem Thema nicht zu sagen. Sorry, dass es so viel wurde, aber das kann man mal so allumfassend zu diesem Thema niederlegen.


Eines gibt es dann doch noch. Es ist eigentlich nicht mein Art Leute persönlich anzukreiden, freie Meinungsäußerung! Aber, wenn jemand hier Moderator ist, und dann so manipulativ unterwegs ist, Multiplayer-Spiele und andere Spiele, die hohe Single-Thread-Performance brauchen, als für den geringsten Teil der Spieler relevant darzustellen (die Realität ist, wahrscheinlich 90%+ der Spielzeit wird dort verbracht), dann selbst mit Tomb Raider daher zu kommen, der gleichen wie oben beschrieben mehr - das ganze auch durch einen Teil der Redaktion auf diese Weise gedeckt zu sehen. Da Frage ich mich, wo bleibt die für eine Tech-Seite eigentlich unbedingt notwendige Neutralität? Mir geht es ziemlich auf den Sack, wie hier mehr oder weniger alle Realitäten mehr oder weniger ständig von mehr oder weniger allen Offiziellen verdreht werden (ok, vielleicht nicht alle!). Das ist doch der purste Bias, der hier verbreitet wird. Das nur mal so als Anmerkung noch dazu.


Und weils so schön ist, und ich über meinem Post neuere Beiträge entdecke, gehts nochmal weiter:

Aber meinetwegen, dieses Klientel darf sich dann gerne nen 9900K einbauen und auf Low spielen und fest daran glauben die 20 fps mehr heben ihre K/D-Ratio an. Wenns glücklich macht?
Wie kommst du überhaupt auf einen 9900k? Nicht jeder ist ein Freak wie Schaffe, der jedes Jahr die neuste CPU braucht, bei gleichzeitig best möglicher Single-Core-Performance. Ein 7700k bringt in allen gängigen und schweren (hohe Last) Multiplayer-Spielen die nahezu exakt selbe Leistung? Ein 7700k-Besitzer hat überhaupt keinen Grund zu wechseln, nicht mal mit Ryzen 3000, sofern er die Kerne nicht für etwas anderes braucht.

Nochmal: Wie kommt man darauf, irgendwelche PCGH-Benchmark-Titel als repräsentativ für die von Spielern verbrachte Zeit mit Spielen anzusehen und diese dann mit Beispielen ala "in Tomb Raider ist die CPU egal" (lol) anzuführen? Die meisten Spieler spielen 0(!)-2 solche Titel im Jahr, dann gehen sie wieder zurück zu ihrem Dota, ihrem LoL, ihrem Survival Game, ihrem E-Sports-Shooter, ihrem sonstwas, dem Spiel, wo sie mit ihren Freunden zusammen oder um die Wette, durch erlangen eines hohen Skill-Grades, den meisten Spaß bei möglichst wenigem Verschleiß (unnötige Mechaniken von Spielen erfassen, die man nur sehr kurzzeitig spielt) erleben können.
 
Zuletzt bearbeitet:
Das behaupten aus meiner Sicht die wenigsten. Viel mehr behauptet ihr AMD-Jünger doch, es gäbe in der Praxis keinen Unterschied, wie auch du wieder hier, unterstellst es wäre Einbildung den letzten FPS zu brauchen, etc. Gleichzeitig wird dann mit Urlaubsvideos rendern und Sonstigem künstlich ein Bedarf für viele Kerne herbei geredet. Leute wie z. B. Schaffe haben doch immer die Vorteile ganz rational herausgearbeitet, und bei hoher Verwendung von Anwendungen bzw. Streaming immer ganz klar den AMD empfohlen. Nur ihr seid es eigentlich, die nicht anerkennen wollt, dass Intel eben auch Vorteile für andere Bereiche hat. Diese werden zu jedem erdenklichen Zeitpunkt marginalisiert, das macht in den Bereichen, in denen der AMD klar vorne liegt, niemand von den Leuten, die ihr Intel-Anhänger schimpft.
Warum unterstellst du mir eigentlich ich sei ein AMD-Anhänger wo ich seit zig Jahren kein einziges AMD-Produkt mehr gekauft oder verwendet habe? :ugly:

Glaubst du nicht, du wärst etwas zu verbissen bei der Thematik wenn du jemandem in einem Textberg erzählst wie er anscheinend ja manche Dinge groß- oder kleinreden will zu Gunsten von AMD wo derjenige sich aber in seinen Kaufentscheidungen die letzten 10+ Jahre ganz offensichtlich genau andersherum entscheiden hat als du vorwirfst und nur Intel (und NVidia) gekauft hat? :schief:

Selbst in meinem aktuellen "Notsystem" istn Intel drin - ich hätte auch gleich ein X470er Brett mit Ryzen kaufen können und auf die 3000er aufrüsten können. Hätte das nicht eher zum mir vorgeworfenen Verhalten gepasst?
 
Zurück