News Verkehrte Welt in Starfield: Intel Core hängt AMD Ryzen trotz Sponsoring ab

Na gut. Son armer PC muss Alles an Programmierschrott in sich reinstopfen und reinsaufen was geht! Wenn die mal ne eigene KI haben dann lernen sie als erstes das Kotzen! :motz:
Also mal ehrlich. Wer fürn 3000,-- PC kein Game programmieren kann soll gebrauchte Unterhosen verkaufen. :stupid: Wie soll denn das weitergehen? Mattscheibe!
 
Zuletzt bearbeitet:
Was eine Enttäuschung Bethesda...

. Kein Raytracing
- Kein DLSS
- keine Frame Generation
- unfassbar miese GPU Performance (eine 4070 hält in WQHD Low Details nicht einmal die 60 FPS konstant)
- keine frei begehbaren Planeten ohne Grenzen
- tonnenweise generischer Sammelkram und 08/15 Piratenlager auf den Planeten, kaum Besonderheiten zu entdecken
- keine Flüge zwischen Planeten mit dem Raumschiff möglich, alles läuft über Schnellreise
- Gesichts- und Charakteranimationen aus 2010
- wie immer miese NPC/Gegner-Ki

Da fragt man sich was soll dieses Spiel sein???

Klar, einige Kritikpunkte stimmen, aber sonst predigst Du hier den Standard Katalog aus der Twitter Ecke….

Du bist ja dieser Xbox Hater bzw. Sony Fan u.a aus dem 4Players Forum, LOL ? Ist es Euch Leuten echt nicht langsam selber peinlich?

Und dann natürlich, wie eine dumme k.i, wieder dieses „dann nehme ich lieber BG3….bla bla BS“

Aber selber gespielt hast Du gar nicht, denn dann würdest Du merken dass zwischen Starfield und BG3 gar keine Entscheidung nötig ist. Die Spiele sind schlicht zu unterschiedlich!
 
Nichts ist schnelllebiger als die Hardware Industrie, es interessiert eigentlich niemanden was vor ein paar Jahren irgendwo noch irgendwie aktuell war.

Denke immer noch das du sehr hart googeln solltest und dein Wissen von vorgestern massiv auftischen solltest.
Wusste gar nicht, dass hier noch so uniformierte Personen im Hardware Forum rumlaufen, als ob man in einem Bäcker Forum unterwegs ist und nicht weiß welches Mehl aktuell der heißeste shice ist ?
Aber Du meintest es wäre schon seit Jahren so, du arroganter Mensch. Sobald Du mal nicht recht hast, wechselst Du das Thema.

Ich will keinen Verweis auf Google, ich kann das auch in der PCGH nachlesen. Ich dachte jemand erklärt mir mal, seit wann AMD besser zum Spielen geeignet ist, dies scheint sich vor kurzem geändert zu haben.
 
Wenn die GPU oder etwas anderes nicht limitiert, natürlich. Für den Prozessor existiert keine Auflösung. Bei Starfield wirst du aber, trotz der teils Morrowind-Grafik, in ein GPU-Limit geraten. Dann helfen aber immer noch schnellere CPUs, wegen der geringen Frametimes, die sonst auftreten. Generell bewerte ich den technischen Zustand des Spiels jedoch als desolat, da müssen dringend Patches und erste Mods.
morrowind_eigeneaufn.jpg


:stupid:
 
Spannend ist nur wie die sogenannte Fachpresse von einer guten gleichmäßig Core Auslastung geschrieben hat. Alle samt gekaufte und gesponsert Presse.
Damit beweist es wiederum, kein Preorder und erst nach ein paar Monaten kaufen wenn die Spiele fertig sind.
Naja, so Seiten wie PCGH, CB, IL usw. haben sich dabei auf Aussagen von anderen gestützt und das auch allesamt kenntlich gemacht, in schriftlicher Form, das es sich nicht um Fakten, die in Stein gemeißelt sind handelt.
Das ist problematisch für mich... da ich einen 5800X3D habe. :D
Ohne DLSS3 oder FSR3 werde ich nicht auf die 120FPS kommen...
Die man auch nicht braucht. ;)

In New Atlantis habe ich zwischen 80 und 100Fps überwiegend (Was anderes habe ich bisher nicht gesehen) Das ist schon flüssig ;)

Wie so Aussagen in der Presse zu Stande kam, das man auch mit 30Fps gut zocken kann, ist mir aber heute ein Rätzel.
 
RT Läuft auf jeder Karte unterirdisch. Egal was bisher hinzugefügt wurde im laufe der Jahre. Sei es AA / TL / Tesellation und andere DX funktionen gab es immer eine Leistungssteigerung bei den gesammt FPS im Vergleich zur den Vorgängergeneration ohne die neuen Funktionen. Nur bei RT ist es anders das hat von Anfang an die Leistung extremst nach unten gedrückt. Und genau das meine ich. Wenn man schon eine neue Funktion einführt dann soll diese nicht für einen Leistungsabfall führen wenn man sie aktiviert. Aber bei RT ist das so... weil man kann ja die Spielerschaft jetzt ja voll verarschen, früher hatt man wenigstens so lange gewartet bis die Ganze Sache wirklich ausgereift und die Leistung da war.

Was DLSS und FSR betrifft das sind alles Mogelpackungen weil man es nicht mehr schafft signifikante Leistungssteigerungen zu bringen. Wenn ich Spiele dann will ich in voller Auflösung meines Bildschirms das ganze bekommen und nicht hochskaliert. Ich will ja auch keinen Ferrari kaufen nur dann zu sehen das ein Golf GTI Motor drin ist der ab und an via Chip Tuning auf die Kotzgrenze gebracht wird. Damit man wenigstens beim Gas geben eine Illusion von einer Ferrari beschleunigung hat. Und genau das wird aber bei den GPUS schon seit einigen Jahren gemacht und es wird auch noch gefeiert und bejubelt ... *kopfschüttel*:wall::daumen2:
Es gibt immer wen der keinen Fortschritt will ;).

Dein Wissen ist nicht aktuell.

RT, gerade in Verbindung mit DLSS inzwischen 3.5 ist sehr gut zu genieße und läuft sogar sehr gut.
 
Ich will keinen Verweis auf Google, ich kann das auch in der PCGH nachlesen. Ich dachte jemand erklärt mir mal, seit wann AMD besser zum Spielen geeignet ist, dies scheint sich vor kurzem geändert zu haben.
Bin jetzt bissel verwirrt: Willst du es nun erklärt haben, oder willst du es nun selber wie ein großer Junge nachschlagen?

Dachte du willst es jetzt selber nachlesen bei pcgh? Oder bist du dazu zu faul?
Gib dir mal bissel Mühe, dann wird das schon, glaub an dich und gib dich nicht auf!

Einen kleinen Tipp gebe ich aber doch noch mit, bin ja nicht so:
Fang mit der 5800X3D CPU an, die ist jetzt 1,5 Jahre alt ?
 
Klar, lass mich kurz mal mein System verkaufen und einen 13900K der sonst in allem unterlegen ist holen. Klingt nach nem Plan. Ich hoffe du gehst sonst auch so rational und durchdacht ins Leben. :lol:

Genau wie mit der 7900XTX.
Klar, lass mich kurz mal mein System verkaufen und einen 13900K der sonst in allem unterlegen ist holen. Klingt nach nem Plan. Ich hoffe du gehst sonst auch so rational und durchdacht ins Leben. :lol:
Und ehrlicher Weise muss man dazu sagen, das ein 13900k mit richtig schnellem DDR5 Kit und scharfen Timings in 99% aller Spiele sicher nicht merklich langsamer ist und auch bei weitem nicht immer langsamer ist.


Was bei dem Intel stört, ist der Verbrauch, nicht die Leistung. Darüber hinaus bietet AMD halt Out of the Box die beste Performance.

Wer tweaken will, kann auch den Intel ganz ohne mehr Kerntakt auf das Niveau bringen.
Aber Du meintest es wäre schon seit Jahren so, du arroganter Mensch. Sobald Du mal nicht recht hast, wechselst Du das Thema.

Ich will keinen Verweis auf Google, ich kann das auch in der PCGH nachlesen. Ich dachte jemand erklärt mir mal, seit wann AMD besser zum Spielen geeignet ist, dies scheint sich vor kurzem geändert zu haben.
Hör mal mit dem Arrogant BLA Bla auf.
 
RT Läuft auf jeder Karte unterirdisch. Egal was bisher hinzugefügt wurde im laufe der Jahre. Sei es AA / TL / Tesellation und andere DX funktionen gab es immer eine Leistungssteigerung bei den gesammt FPS im Vergleich zur den Vorgängergeneration ohne die neuen Funktionen.

Nö, es gab keine Leistungssteigerung. Immer wenn die Techniken eingeführt wurden war die Leistung absolut unterirdisch und man musste sich entscheiden, ob man irgendwo anders die Leistung einspart. Auf den alten Karten war die Leistung dann in den Games meist höher, dafür gab es die Features nicht und die Grafik sah altbacken aus. Genauso wie jetzt mit RT on vs. off.
 
Na wenn die INTEL CPU´s 30 % mehr kosten, dürfen sie auch 20 % mehr bringen.
Darum gehts halt aber nicht. Die richtigen Budget-Evergreens sind ja die 3600 und 5600er ryzen, geht bald ja sogar vielleicht in Richtung 7600. Dafür muss AM5 günstiger werden.

Die Gaming-Krone ist halt oftmals n gutes Werbebanner. Da der Großteil der Käufer sich eher weniger informiert sondern einfach kauft, wird davon ausgegangen, dass die niedriger angesiedelten CPUs dann auch besser sind. Alles schon von so einigen DAUs erlebt.
 
Wegen 5€ im Jahr mache ich mich nicht verrückt, ich finde das ganz unerheblich.

Ich frag ja nur! Ich hätte mir nie für nen Gamingrechner nen AMD gekauft, seit dem Core2Duo. Mein Athlon XP 2800+ war damals dem Pentium überlegen, dann war AMD lange mehr Nische. Wusste ja nicht, dass das jetzt jeder wissen muss. Geht Dochten 4K eh alles ins GPU-Limit, deshalb habe ich mich nicht mehr so für CPUs interessiert, wie noch vor zehn Jahren.
Außerdem sind die 3D-Dinger teuer, oder?

Extra für dich, weil du ja doch nicht Google bemühst: der Athlon 64 (FX) und der Phenom II werden von dir ignoriert? Während auch der Athlon 64 (FX) mit Intel den Boden wischte, war der Phenom II zumindest relativ ebenbürtig.

Also vor ein paar Jahren passte das so schon noch, Du arrogante Person. Schaut man in den PCGH- Leistungsindex, so sind die AMD- Prozessoren erst mit dem 3D Suffix bei Spielen vorne und davor galt genau das was ich sagte: Bei Spielen lohnt die bessere Technik der AMDs nicht, weil Intel schneller in Spielen war. Stimmt doch, oder?

Nö, stimmt nicht. S.o.
 
Ich will keinen Verweis auf Google, ich kann das auch in der PCGH nachlesen. Ich dachte jemand erklärt mir mal, seit wann AMD besser zum Spielen geeignet ist, dies scheint sich vor kurzem geändert zu haben.

Ganz grob.
Ab Ryzen 1 (z.b. Ryzen 7 1700x) konnte man es kommen sehen (2017).
Ab dem Ryzen 3x00 (Zen 2) hatte es AMD auch geschafft min. gleichauf zu sein. (2019)
Ryzen 5x00 (Zen3) war dann der Knaller; nicht nur der 5800 X3D ~2020
Irgendwo zwischen Zen 2 und Zen 3 hatte auch Intel langsamm wieder die Kurve gekriegt.

Die Frage ist auch was man unter "besser " versteht.
Es gibt Spiele die anscheint auf Intel optimiert sind; logisch das die dann mit (idR. aktuellen!) Intels besser laufen.
Die Frage ist ob man nur wegen einem Spiel und "etwas" besser dann zu einer Plattform greift.
AMD ist idR. günstiger und wird länger unterstützt.
Hatte vor kurzem auf ein A320 MoBo (Ryzen 5 1400) gegen einen Ryzen 5 5600g eingetauscht.
Ein Upgrade auf der selben Plattform nach ~6 Jahren inc. sehr großem Leistungsplus. Mit Intel unmöglich.
Generell ist Intel eher komplett ungeeignet wenn man mit dem Thema APU anfängt.

Wichtig ist aber das man neben AMD auch Intel kaufen kann ohne sich Gedanken zu machen
das man nun totalen Mist gekauft hat.
 
Die man auch nicht braucht. ;)

In New Atlantis habe ich zwischen 80 und 100Fps überwiegend (Was anderes habe ich bisher nicht gesehen) Das ist schon flüssig ;)

Wie so Aussagen in der Presse zu Stande kam, das man auch mit 30Fps gut zocken kann, ist mir aber heute ein Rätzel.
Man sucht sich den Ort, wo die FPS am niedrigsten ist...
Ich habe mit DLSS3.5-Mod mit 67% Auflösung innerhalb von Räumen auch festgenagelte 120FPS (mit FPS-Limiter)...
Wenn ich rausgehe auf den ersten kargen Planeten droppt diese auf 80FPS.
Sowas kenne ich auf CP2077 zum Release. Hatte damals ne 3080 und spielte mit RT-Ultra in 1440p
In Räumen 70FPS, draußen 35FPS.

Hier ein Test von heute von HWUB:
Sie nutzen ein Ort, im Wald mit viel Bäumen, da anscheinend Bäume die FPS killen.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
1693747723097.png

1693747754888.png
 
Ist doch auch was Feines, noch vor dem eigentlich Release von Starfailed haben die Leute wieder Lust auf Cyberpunk 2077.
Buildzoid hat ja die Vermutung dass Starfield, bzw der PCGH Bench vom Speicher abhängig sein könnte.
Da wäre ich auch mal gespannt wie hier die Skalierung aussieht.
Gut, zumindest bei Intel. Werden Assets während des Spielverlauft allerdings verschoben/geladen oder gar geschrieben spricht man allerdings meist von sehr schlechter Programierung das führt unanhängig von der niedrigeren Bandbreite des AMD Memorycontrollers immer zum Performance Einbruch.

Was DLSS und FSR betrifft das sind alles Mogelpackungen weil man es nicht mehr schafft signifikante Leistungssteigerungen zu bringen.
%-).
 
Zurück