News Starfield: Überraschendes Beta-Update vor allem mit DLSS-Fixes

Gibt's ernsthaft noch Leute die sich für Starfield interessieren.
Gefühlt ist das Game bereits nach 2-3 Wochen völlig weg gewesen - keine Beiträge auf YT, kaum Streams auf Twich, keine Medienberichterstattung.

Ich glaube solche 0815-Games ziehen heute einfach nicht mehr.

Überhaupt wird sowieso alles versenkt wo Microsoft seine Finger im Spiel hat. Im wahrsten Sinne des Wortes???
 
Naja wenn man bedenkt dass im Schnitt eine RTX-4090 50% teurer als einer RX-7900 XTX ist, dann habe ich doch zur richtigen Karte gegriffen. Zumal mir interpolierte AI Mogeleien nicht zusagen, ich will reine native Auflösung gerechnete Bilder, basta! Ohne Fragmente, Shadowing usw.
Wenn du auf RT verzichten kannst, möchtest hast du den besten Kauf getätigt ;)
Kein Unternehmen dieser Welt, nein, in unserem Sonnensystem würde zugeben, das sie etwas verhindert haben, um das andere Unternehmen zu benachteiligen.

Das kannst du nicht aus einem Spiel ausmachen, die 4090 ist schon die bessere GPU von beiden in allen Hinsichten.
Ich meine man kann festhalten, das die 4090 nativ, ohne DLSS, ohne RT nicht 50% schneller ist, oder?
Sag das den Leuten, die hier ständig ihren völlig sinnfreien Bias ausleben.
Ach komm, bias bias bias bias bias bias... Das ist so unterirdisch. Du bist nicht meiner Meinung, bist du biased ;) Ich hau mich weg.
 
Zuletzt bearbeitet:
"The plot thickens".

Von -8% zu +23% nur durch ein Game Update (kein Treiber, also auch nicht Nvidia, involviert!) lässt sich eigentlich nur mit "überhaupt nicht mit Nvidia Karten getestet / optimiert" oder "absichtliche Handbremse aufgrund Sponsoring" erklären.

Wir werden nie herausfinden was von beidem es war. Die Tendenzen bei "AMD Sponsored Games" diesbezüglich lassen sich aber ganz leicht aufzeigen.
 
Eindeutig nur wegen einem Spiel, wo die GPU mal nicht ihr volles Potenzial zeigt, warum auch immer, kann man die jetzt nicht als langsam bezeichnen.
Gut bei COD MW3 laufen die NV auch nicht gut trotz Partnerschaft.
Zu Starfield kann ich nur sagen das Intels Gpu Abteilung auch erst zum Release Zugang zum Spiel hatte. Ich glaube in einem GN Video wurde das von Steve gesagt der bei Intel Nachgefragt hatte.
Würde auch das Whitelist rBar erklären.
"The plot thickens".

Von -8% zu +23% nur durch ein Game Update (kein Treiber, also auch nicht Nvidia, involviert!) lässt sich eigentlich nur mit "überhaupt nicht mit Nvidia Karten getestet / optimiert" oder "absichtliche Handbremse aufgrund Sponsoring" erklären.

Wir werden nie herausfinden was von beidem es war. Die Tendenzen bei "AMD Sponsored Games" diesbezüglich lassen sich aber ganz leicht aufzeigen.
FarCry6 hust...hust...
 
Das Fine Wine Prinzip funktioniert.

Aktuell betrifft es auch nur die 5700XT
Es funktioniert, betrifft aber nur die 5700XT? Fragliches Argument.
Die 5700XT hat ein paar Prozent gut gemacht, ja. Ich würde mal schätzen um die ~5%.
Sie hat dafür kein RT, kein DLSS und keine Mesh Shader. In Alan Wake 2 kackt sie dann ab.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Die 2070 Super ist da im Schnitt nach wie vor gut 5% vorne.
Die RDNA 2 Generation kommt gerade erst in diesen Bereich - aber auch hier siehst du bereits teilweise in aktuellen Games diesen Effekt. 6900XT auf 3090 Niveau.
Das 3D Center hat zumindest keine Änderungen im Leistungsindex über X Tests ermitteln können.
Ist noch das gleiche wie bei Launch.
 
Ach komm, bias bias bias bias bias bias... Das ist so unterirdisch. Du bist nicht meiner Meinung, bist du biased ;) Ich hau mich weg.
So ein Quatsch, aber das weißt Du auch selbst. :schief:
Reicht das nicht, wenn die das tun? Deine Stichelei ist keinen deut besser. Das provoziert doch nur eine Reaktion.
Und dennoch kritisierst Du mich und nicht jene Personen. ;)

Aber gut, lassen wir das. Kann Dich grundsätzlich verstehen.
 
Es funktioniert, betrifft aber nur die 5700XT? Fragliches Argument.
Die 5700XT hat ein paar Prozent gut gemacht, ja. Ich würde mal schätzen um die ~5%.
Sie hat dafür kein RT, kein DLSS und keine Mesh Shader. In Alan Wake 2 kackt sie dann ab.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Die 2070 Super ist da im Schnitt nach wie vor gut 5% vorne.

Das 3D Center hat zumindest keine Änderungen im Leistungsindex über X Tests ermitteln können.
Ist noch das gleiche wie bei Launch.
Sag ich ja die 6900XT ist noch nicht alt genug, sie kommt jetzt erst in den Bereich.
Das Fine Wine Prinzip meint immer nur die Karten die sehr alt sind.
Wie du schon sagst um die 5%.

Mal gucken wie nächstes und übernächstes Jahr die 6800XT / 6900XT vs 3080 und 3090 in GTA 6 etc abschneiden.
 
Damit erübrigt sich dann auch jeder Vorwurf gegenüber AMD, da es ja offenbar niemals Beweise für oder gegen diesen Vorwurf geben wird.
Es gibt sogenannte Indizienbeweise. AMD wird zu diesem Thema gefragt und sie weichen aus, auf erneute Nachfrage sagen sie "kein Kommentar". Nach 2 Monaten kommen sie aus der Deckung und erzählen das gleiche wie Nvidia, das sie das nicht verhindern würden, etwas was sie ganz am Anfang schon hätten sagen können und nach dem Shitstorm bekommen alle AMD Sponsored Games DLSS. Wie kann man gegenüber Angaben von Firmen so unkritisch sein wie du?
Nur viele (nicht alle, nur die Unvernünftigen ;) ) Nvidianer pochen halt darauf, "dass es so ist", eben ohne Beweise.
Eigentlich pochst nur du darauf, dass es auf jeden Fall anders sei, obwohl dafür gar nichts spricht und AMD´s Kommunikation etwas ganz anderes gezeigt hat. Zudem kann es in niemanden Interesses sein, dass Upscaling Technologien nicht von allen implementiert sind. Damit kann man auch Alan Wake 2 kritisieren, denn da sollte FSR3 definitiv von der Partie sein. Da FSR2 aber dabei ist, würde ich das eher auf den unfertigen Status schieben als auf die Entwickler oder Nvidia.
Aber gut, wer's braucht um im Leben glücklich zu werden. :schief:
Bitte liefere mir den Beleg, dass AMD unverzüglich reagierte und nicht 2 Monate schwieg.
Allerdings bezichtigen diese Personen dann allesamt AMD der offenen Lüge, da sie es ja offiziell abgestritten haben.
Wenn sie die Vertragsinhalte mittlerweile geändert haben, lügt AMD nicht.
Und wenn ich erst ausweiche und danach "Kein Kommentar" folgt, habe ich wo gelogen? Erklärs mir. Ich verstehe deinen Gedankengang einfach nicht.
Nvidia hat einfach rBAR nicht von Anfang an aktiviert...
Ja, weil sie erst überprüfen müssen, ob rBAR in diesem Spiel nicht zu einem Performancedrop führt.
Deshalb ist das standardmäßig off.

Da muss nicht wie Du behauptest, der Spielehersteller entweder sabotieren oder zumindest nicht optimieren.
Zeige mir anhand eines Zitats wo ich das behauptet habe.
Das ist ganz alleine von Nvidia zu vetreten. Wenn sie hier Performance verschenken, dann kann nur einer was dafür nämlich Nvidia.
Nvidia ist für die Aktivierung von rBAR verantwortlich, ich wüsste nicht wo ich Gegenteiliges gesagt hätte. Zeig es mir bitte.
Sag ich ja die 6900XT ist noch nicht alt genug, sie kommt jetzt erst in den Bereich.
Und Woher möchtest du das wissen, wenn es weder bei Vega, der FuryX, der Radeon VII noch bei RDNA2 so war?
Und wenn du wirklich mit vielleicht ~5% der 5700XT argumentierst und das als "Fine Wine" verkaufen möchtest, ist das reichlich dünn, und riecht wieder nach Einseitigkeit.
 
Zuletzt bearbeitet:
Eindeutig nur wegen einem Spiel, wo die GPU mal nicht ihr volles Potenzial zeigt, warum auch immer, kann man die jetzt nicht als langsam bezeichnen.
What, hab ich nicht, oder? ;)

Ich meinte nur, das zum Beispiel die 4090 im Raster, laut PCGH Test "nur" 28% schneller ist, als die 7900XTX und nicht 50%, oder mehr.

Person XY schrieb, das der Preis 50% höher sei, aber nicht die Leistung und dem habe ich beigepflichtet.
Ist völlig egal in dem Fall was die kostet sie ist schneller, selbst wenn es nur 5% ist.
Es ging um eine Aussage, die hier getätigt wurde und nein, ich bin mir sicher, das es bei vielen nicht nur um Hauptsache, mehr Leistung geht.
 
Und dennoch kritisierst Du mich und nicht jene Personen. ;)

Ja natürlich, weil ich das gerade eben von Dir gelesen habe.

Und wenn ich 2 Sachen in Foren nicht leiden kann, dann sind es Kommentare über "Fanboys" und "ewig Gestrige".
Äußere Dich zu einem Sachverhalt einfach faktisch und nicht polemisch und dann ists doch gut.
Nur weil andere das machen ist das noch lange kein Grund das selbst auch zu tun.
Geh doch einfach mal mit gutem Beispiel voran...
Im übrigen könntest Du andere Meinungen oder Kritik einfach mal annehmen, anstatt die Schuld nur bei anderen zu suchen.
 
"The plot thickens".

Von -8% zu +23% nur durch ein Game Update (kein Treiber, also auch nicht Nvidia, involviert!) lässt sich eigentlich nur mit "überhaupt nicht mit Nvidia Karten getestet / optimiert" oder "absichtliche Handbremse aufgrund Sponsoring" erklären.

Wir werden nie herausfinden was von beidem es war. Die Tendenzen bei "AMD Sponsored Games" diesbezüglich lassen sich aber ganz leicht aufzeigen.
Ich habe einige Details vergessen, weil das eben nicht mein Täglich Brot ist, aber...

Stark vereinfacht, ist die Nvdia Architektur an einer bestimmten Stelle zum Beispiel dafür vorgesehen, 64 Aufgaben parallel abzuarbeiten um effizient zu arbeiten. Bei AMD sind es zum Beispiel 16.

Die Engine von Starfield teilt aber nur in 11 Aufgaben auf.

Damit werden beide Architekturen theoretisch schlecht ausgelastet, aber bei AMD ist das Problem kleiner.
Wenn Nvidia jetzt die Aufgaben per Treiber besser verteilt bekommt, auf zum Beispiel 32 Aufgaben, dann würde das den Sprung mit Leichtigkeit erklären.

Die Zahlen sind nicht zu genau zu nehmen, da ich das vor 6 Wochen gelesen habe, aber vom Prinzip her...
 
Man hat auch einfach keinen Bock mehr in solchen Threads zu kommentieren, wenn sich alle immer die Rübe einschlagen.

Da kann man schon verstehen, dass sich da einige raushalten, weil es einfach nervt. Das wiederholt sich quasi in jedem zweiten News-Artikel.

Beide Hersteller haben ihre Daseinsberechtigung und jeder soll das kaufen, was er möchte. Ich habe bis 2020 in meinem bisherigen "Hardwareleben" ausschließlich ATI-/AMD-Karten und fast nur Intel-CPUs genutzt. Jetzt ist es eben anders herum. Es steht ein anderer Name drauf und macht dennoch alles, was es soll.

Es ist am Ende des Tages nur Hardware. Strafft Euch mal.
 
Zurück