News Starfield: AMDs Gaming-Chef gibt an, Nvidias DLSS nicht zu blockieren, aber Geld fließt trotzdem

Danke für den Hinweis! Das wusste ich bisher noch nicht und ist ein massiver, zusätzlicher Grund, weshalb ich an der Technik kein Interesse habe.
Das stimmt so einfach nicht. Die Latenz ist nicht sooo relevant und mit FG ist sie idR. auch besser als nativ, aber schlechter als mit DLSS+Reflex. Aktuell haben AMD User ne schlechtere Latenz als du mit FG.

Statt Beschleuniger hinzuzufügen, damit ein niedriger aufgelöstes Bild höher gerechnet werden kann, sollte man sich eventuell überlegen, mehr Shader hinzuzufügen, damit man besser nativ rendern kann und dieses Zeug nicht braucht.
Und genau das funktioniert so eben nicht. Mehr Shader bringen nicht mehr wirklich viel Performance. Man hat aktuell schon Probleme die ganzen Shader auszulasten, deshalb ja RT und DLSS.
 
Was heißt denn nicht brauchen? Wenn damit eine bessere Performance und sogar fast gleiche oder bessere Bildqualität drin steckt begrüße ich das sehr.
In 4K ist die Bildqualität für mich einwandfrei. Und ich habe keine Performanceprobleme. Als ich noch WQHD hatte, habe ich die Spiele oft in 4K gesupersamplet. VSR - Virtual Super Resolution hieß das. Damit konnte man selbst in WQHD eine gute Bildqualität erreichen.
Endlich gibt es vernünftige Alternativen zum einfachen Rastern.
Es wurde Komplexität hinzugefügt, während weiterhin gerastert wird. Das ist keine "Alternative".
Noch dazu kann mit DLSS Energie eingespart werden, da das Ganze deutlich effizienter erledigt werden kann.
Das stimmt. Mehr Energie (bis zu 50%) könnte man aber sparen, wenn man die Karten einfach ein klein wenig niedriger takten würde.
Noch mehr Shader bedeuten noch mehr Energiebedarf und oft auch Auslastungsprobleme.
Ich sehe das so, dass es ruhig noch einige Shader mehr geben darf, solange Rasterization die dominierende Technik ist. Und dann wird es sowieso in Pathtracing über gehen, wo man komplett andere Anforderungen an die Hardware haben wird. Wenn ich heute ein Spiel entwickeln würde, würde ich nur auf Pathtracing setzen.
 
Aktuelle Konsolenspieler, ein großer Teil der PS4 Spieler nutzt mittlerweile die PS5, genauso wie bei der Xbox.
Momentan kommt die Switch laut VGChartz auf etwa 130 Millionen Verkäufe, PS5 auf etwa 40 und Xbox auf knapp 23 Millionen.
Und wenn man bedenkt dass es allein auf Steam etwa ~140 Millionen aktive User gibt und Nvidia's Marktanteil hier bei 75% liegt kann man sich den Rest denken,
Die Switch ist last Gen und wird Starfield wohl nie abspielen können aufgrund der komplett veralteten Technik von NVIDIA. Daher erstmal komplett am Thema vorbei.

Das Bethesda DLSS nicht implementieren will ist doch gut und richtig. Und das sage ich mit einer RTX2080 im Gehäuse.

Warum? Weil NVIDIA Softwarepolitik komplett fürn A**** ist. Das man Frame Generation jetzt schon auf eine Generation beschränkt hat ist für die meisten Publisher schon Warnung genug.

Man will in Zukunft nicht 10 verschiedene Sorten DLSS implementieren, nur weil NVIDIA den Leuten das Geld aus der Tasche ziehen will.

Ich hoffe DLSS wird von den Gamingentwicklern komplett fallengelassen und man konzentriert sich nur noch auf FSR, welches dann über Zeit nur besser wird, sodass man DLSS nicht mehr vermissen wird.
 
In 4K ist die Bildqualität für mich einwandfrei. Und ich habe keine Performanceprobleme. Als ich noch WQHD hatte, habe ich die Spiele oft in 4K gesupersamplet. VSR - Virtual Super Resolution hieß das. Damit konnte man selbst in WQHD eine gute Bildqualität erreichen.
Und verbrätst dafür unmengen an Energie und das absolut ineffizient. Btw. ist dein 4K Bild nicht nativ, sondern vermutlich mit TAA und DLSS/FSR sind TAA so gut wie immer überlegen. Du kannst TAA so einfach gar nicht abschalten in den aktuellen Titeln. Blöd gelaufen, hm? ;)

Auf CB hat mal jemand gezeigt, wie das echte native Bild aussehen würde:
So spielt niemand ernsthaft.

Es wurde Komplexität hinzugefügt, während weiterhin gerastert wird. Das ist keine "Alternative".
Prozesse dauern nun mal. Du kannst auch nicht von heute auf morgen sämtliche Fahrzeuge durch E-Autos tauschen.

Ich sehe das so, dass es ruhig noch einige Shader mehr geben darf, solange Rasterization die dominierende Technik ist. Und dann wird es sowieso in Pathtracing über gehen, wo man komplett andere Anforderungen an die Hardware haben wird. Wenn ich heute ein Spiel entwickeln würde, würde ich nur auf Pathtracing setzen.
Deine Vorstellungen sind völlig realitätsfremd. Weder AMD, noch Nvidia werden jahrzente lang in ihrem Kämmerchen an RT forschen, um es dann irgendwann perfekt präsentieren zu können. Das kostet unmengen an Geld und in der Zeit verdienen sie daran gar nichts. Mal ganz davon ab, dass der Markt nicht instant umswitcht, sondern träge ist. So oder so würde es Jahre dauern, bis sich RT am Markt etabliert.

Das Bethesda DLSS nicht implementieren will ist doch gut und richtig. Und das sage ich mit einer RTX2080 im Gehäuse.

Warum? Weil NVIDIA Softwarepolitik komplett fürn A**** ist. Das man Frame Generation jetzt schon auf eine Generation beschränkt hat ist für die meisten Publisher schon Warnung genug.
So viel Unfug in einem Post.
Nvidia hat FG nicht auf die aktuelle Generation beschränkt. Entwickler können es defacto sogar für andere Karten aktivieren, aber machen es nicht, weil sie zu schwach dafür sind. Das wurde hier schon x mal erklärt, sogar von Nvidia selbst. Hört auf mit euren bescheuerten Verschwörungstheorien.
Ich kann auch nicht nachvollziehen, welchen Nachteil es hätte, wenn zusätzlich noch DLSS und XeSS implementiert werden.

Es macht für dich als Endanwender auch null Unterschied, ob die Technik Open Source ist oder nicht.
Der Anspruch "hauptsache Open Source, Rest Müll" ist so dermaßen engstirnig und falsch.
Ich möchte nichts, nur weil es Open Source ist, sondern weil es technisch gut ist und da ist DLSS nun mal überlegen. Selbst die Entwicklung schreitet schneller voran als beim Open Source Gegenstück.
Also was bringt mir der Open Source Aspekt? Gar nichts.

Ich hoffe DLSS wird von den Gamingentwicklern komplett fallengelassen und man konzentriert sich nur noch auf FSR, welches dann über Zeit nur besser wird, sodass man DLSS nicht mehr vermissen wird.
Da Nvidia 80% Marketshare hat, wirst du damit leben müssen und das ist gut und richtig ;)
 
Zuletzt bearbeitet:
Ich finde immer wieder sehr interessant, wie heiß die Thematik diskutiert wird. Da sieht man gut, wer "vom Fach" ist und wer nicht.

Als die ersten Vorwürfe mit der willkürlich zusammengewürfelten Liste kamen, da konnte man sich eigentlich nur am Kopf kratzen, da expliziter Ausschluss von Rendertechnik eigentlich nicht gängigem B2B entspricht. Wie immer hat man dann recht schnell bemerkt, welche Techfluencer für Clicks auf das Thema springen, welche wirklich Kontakte haben und welche selbst Erfahrung aus dem Bereich mitbringen, die letzten haben sich fast ausschließlich gar nicht zu dem Thema geäußert.

Dass es so lange keine harte, belastbare Aussage zu dem Thema gab, liegt übrigens schlicht und einfach daran, dass die bei den relevanten Stellen aufschlagen muss und dafür muss eine gewisse Pertinenz erreicht werden. Selbst dann werden wahrscheinlich im Hintergrund noch Prüfungen starten, damit man nicht aus einfacher Unwissenheit ob der Firmengröße eine technische Falschaussage macht, weil in einem kleinen Einzelfall einmal von der Norm abgewichen worden ist.

In jedem Fall ist jetzt ebendiese harte, belastbare Aussage da und jeder darf damit umgehen, wie er will. Im Zweifelsfall sollte man aber daran denken, wie groß die Firmen und die Strukturen sind und wie schwierig sich B2B Kommunikation selbst für kleine Partner gestalten kann.

Ein wiederholtes Argument möchte ich aber ganz gerne entkräftigen hier:
Bei der Größe, dem Umfang und dem Budget (Zeit, Geld und Personenäquivalenzen), das bei dem Projekt Starfield eingeflossen ist, kann man sehr stark davon ausgehen, dass die letzten Meilensteine mit einem Architektonischen Fokus schon lange abgeschlossen worden sind. Auch wenn es einige Aktivitäten geben wird, die dort wahrscheinlich noch weiterlaufen.
Während der Adaption der eigenen in-house Engine für das Projekt wird sich also der zuständige Architekt oder das zuständige Team dafür entschieden haben, welche Rendermodule zusätzlich integriert werden und welche nicht. Dabei gibt es Aufwandabschätzungen nach Komplexität die Aufwände beinhalten, die für Laien nicht direkt ersichtlich sind. Ich mutmaße jetzt, dass zu diesem Zeitpunkt die Entscheidung Pro-FSR geschehen ist. Wahrscheinlich hat man damals sogar noch FSR 1.0 im Fokus gehabt und dies dann zu einem späteren Zeitpunkt nach einer entsprechenden Impact Analyse und Umplanung auf FSR 2.0 gehoben.

Dass es mehr oder minder fähige Personen gibt, die die Technik ja in wenigen Tagen in die Spiele modden mag sein. Die Form und Qualität dieser Mods entspricht in der Branche im besten Fall einem sogenannten MVP (Minimal Viable Product, einer Mindestumsetzung), in der Regel allerdings eher einem PoC (Proof of Concept). In einem großen Softwareentwicklungsprojekt wie Starfield liegen dort allerdings andere Prozesse, andere Maßstäbe zugrunde. Dort gibt es zunächst eine technische Abschätzung, ob es überhaupt noch Möglich ist, eine Impact Analyse, die grob den Aufwand und die nötigen Ressourcen abgrenzt, und selbst wenn dann die Entwicklung startet, so entstehen neben der puren Implementierung noch Aufwände für die Absicherung des Features, grob gesagt, dass alles soweit funktioniert und keine Fehler irgendwo im Spiel dadurch auftreten.

Dieser Aufwand wird gerne von den leidenschaftlichen Konsumenten, uns Spielern in dem Fall, übersehen. Und das ist Schade.

Aber gut, die Meldung von AMD ist draußen und meine Hoffnung ist, dass jetzt endlich mal diese sinnlose Vergiftung in der Berichterstattung absackt und den Menschen, die sich aufrichtig auf das Spiel freuen, das nicht von irgendwelchen selbsternannten Experten, Techfluencern, Forentrolls und Fanboys madig geredet wird.


In dem Sinn, liebe Grüße

IcheBins
 
Ich verstehe den Aufschrei nicht um DLSS3 bei Starfield. AMD-Techniken zu unterstützen ist doch nicht schlecht, sind offenen Techniken. Außerdem nimmt man so auch die Konsolen mit. Wen FSR3 auch auf NV-Karten unterstützt wird ist die Unterstützung von FSR klar für die Entwickler die bessere Wahl, man nimmt Alles mit und spart Entwicklungskosten. NV ist doch mit ihrem Exklusiv Schei... selber schuld.
 
Btw. ist dein 4K Bild nicht nativ, sondern vermutlich mit TAA und DLSS/FSR sind TAA so gut wie immer überlegen.
Ich verwende TAA, es sei denn, ich habe zu wenige FPS. Dann schalte ich auf MSAA oder FXAA. Und da, wo nur MSAA vorhanden ist, schalte ich in der Regel von 8x auf 2x.
In 4K sehe ich sowieso ab 2x MSAA keinen Unterschied mehr. Egal, was ich darüber wähle. Edit: In WQHD, und erst recht in 1080p war das noch anders. In 1080p sah alles ohne 8x MSAA komplett Grütze aus. Und selbst mit 8x noch Grütze genug, dass man fast Augenschmerzen bekommt. In WQHD war auch teils 8x MSAA noch nicht genug. Erst in 4K braucht man es nicht so sehr, wie es verfügbar wäre.
Ich würde schon sagen, dass ich in 4K so gut wie keine Verschlimmbesserungen mehr brauche.
 
Ich verwende TAA, es sei denn, ich habe zu wenige FPS. Dann schalte ich auf MSAA oder FXAA. Und da, wo nur MSAA vorhanden ist, schalte ich in der Regel von 8x auf 2x.
In 4K sehe ich sowieso ab 2x MSAA keinen Unterschied mehr. Egal, was ich darüber wähle.
Hast du meinen Post überhaupt gelesen?
In den neuen Spielen mit RT gibt es kein MSAA und erst recht kein nativ.
Da hast du die Wahl zwischen TAA oder DLSS/FSR und letzteres ist TAA nachweislich überlegen in Sachen Bildqualität.
In RDR2 ist DLSS ebenfalls besser als MSAA, TAA oder FXAA.

Deine uraltspiele, die sich selbst in 4K auf einer 4070 langweilen, bieten eh kein DLSS.

Als die ersten Vorwürfe mit der willkürlich zusammengewürfelten Liste kamen, da konnte man sich eigentlich nur am Kopf kratzen,
Die Liste war nicht willkürlich und es gab mehrere. Alle zeigten das gleiche Bild.
Du bist also schon mal nicht vom Fach? ;)

da expliziter Ausschluss von Rendertechnik eigentlich nicht gängigem B2B entspricht.
Der explizite Ausschluss der Konkurrenz und ihrer Software/Techniken ist gängige Praxis in B2B.
Woher ich das weiß? Ich arbeite im B2B Bereich.

Dass der AMD-Chef sich nicht hinstellen und sagen wird, dass sie aktiv andere ausschließen ist doch wohl klar?
Es kann doch hier niemand ernsthaft angenommen haben, dass AMD sowas jemals zugeben wird. Das wäre Marketingtechnisch eine Vollkatastrophe für AMD.

...sind offenen Techniken.
Und was bringt mir das? Nichts. Durch AMDs Move muss ich aber auf FG verzichten und FSR3 wirds für Starfield erstmal nicht geben.
Richtig gut...nicht. Danke dafür AMD!

Wen FSR3 auch auf NV-Karten unterstützt wird ist die Unterstützung von FSR klar für die Entwickler die bessere Wahl, man nimmt Alles mit und spart Entwicklungskosten.
Das stimmt nicht. Für den Entwickler macht es keinen Unterschied und das wurde schon mehrfach dargelgt.
 
Zuletzt bearbeitet:
@PCGH

Keine Sorge, der Artikel ist ganz okay geschrieben. Die Aussage von dem Herrn ist so schwurbelig, dass man kaum anders darstellen kann, was nun gesagt wurde und was nun Tatsache ist.

Er sagt etwas, wo man eine gehörige Schippe Skepsis mit einrühren muss und seine Aussage wörtlich so wiederzugeben, entspräche nicht dem (aus der Mode geratenem) journalistischem Ethos.

Ich bin ganz froh über solche Mitteilungen. Diese zeigt, wie schmierig AMD ist und so gesellt es sich eben 1:1 zu Nvidia. Keine riesige Überraschung, aber dass man jetzt sich als hohes Tier von AMD noch so anstellt und gezielt schwammigen Bullshit labert, welche durchaus entgegen dem sonst propagiertem Image von AMD kämpft, ist lesenswert.
 
FSR 3 wird halt auch auf alten RTX2000er Karten und älteren AMD Karten laufen.
Das sind also keine Verschwörungstheorien.
FSR3 ist nicht FG und wie es läuft wissen wir nicht, also doch, denn echte Entwickler behaupten was anderes:

NVIDIA verarscht die Leute, wenn sie sagen es wäre nicht möglich diese Technik auf älteren Grafikkarten zum laufen zu bringen. Das du den Marketingsprech von NVIDIA verteidigst ist für einen NVIDIA Fanboy nicht wirklich verwunderlich.
Wow, du wirst direkt persönlich und raget rum, aber ich bin der Fanboy? Alles klar.
Ich verteidige Nvidia nicht, sondern schenke echten Spieleentwicklern mehr glauben, als irgendeinem Forenuser, der mit Verschwörungstheorien umsich wirft und null Praxiserfahrung mit der Technologie vorzuweisen hat.

NVIDIA verarscht die Leute, wenn sie sagen es wäre nicht möglich diese Technik auf älteren Grafikkarten zum laufen zu bringen.
Das haben sie nie gesagt. Das Gegenteil war sogar der Fall, aber sie wollen es nicht auf älteren Karten laufen lassen, weil es nichts bringt. Die Hardware ist zu schwach.
 
FSR3 ist nicht FG
https://www.computerbase.de/2023-08...ion-laeuft-offiziell-ab-rx-5000-und-rtx-2000/
AMDs FidelityFX Super Resolution wird auf allen Grafikkarten lauffähig sein. Offiziell wird „Frame Generation“, AMD nennt die eigene Version „Fluid Motion Frames“ (FMF), ab einer Radeon-RX-5000- (RDNA 1) und ab einer GeForce-RTX-2000-Grafikkarte (Turing) lauffähig sein, generell kann diese aber auch auf allen anderen Grafikkarten von Nvidia Pascal, über AMD GCN bis hin zu Intels Arc genutzt werden. AMD garantiert aber nur auf den unterstützen GPUs das bestmögliche Erlebnis.
Das haben sie nie gesagt. Das Gegenteil war sogar der Fall, aber sie wollen es nicht auf älteren Karten laufen lassen, weil es nichts bringt. Die Hardware ist zu schwach.
Case closed. NVIDIA sind einfach nur greedy b.... . Das ist auch nicht mehr zu verteidigen.
"Hardware zu schwach". Wie ich schon sagte. Du kannst auch nur wie ein Papagei Marketingsprech nachreden.
AMD beweist das der Gegenteil der Fall sein wird. NVIDIA ist nur auf Gewinnmaximierung aus.
 
Solche Verträge mit Entwickler gibt es bei NV zu hauf. Jetzt kommt ein Spiel wo ein NV-Spielzeug nicht mit dabei ist und sofort werden die Buschtrommeln rausgeholt. Ich gehe da eher Richtung Intel und AMD, entweder Techniken die offen für Alle sind oder gar nicht. Wir Spieler profitieren von offenen Techniken mehr aber das scheint man gekonnt zu übersehen.

Letztendlich helfen die NV-exlusiven Techniken nur NV bei ihrer Preispolitik, da habe ich kein Mitleid.
 
https://www.computerbase.de/2023-08...ion-laeuft-offiziell-ab-rx-5000-und-rtx-2000/


Case closed. NVIDIA sind einfach nur greedy b.... . Das ist auch nicht mehr zu verteidigen.
"Hardware zu schwach". Wie ich schon sagte. Du kannst auch nur wie ein Papagei Marketingsprech nachreden.
AMD beweist das der Gegenteil der Fall sein wird. NVIDIA ist nur auf Gewinnmaximierung aus.
Ich poste dir die Erfahrungen eines Spieleentwicklers und du kommst mir mit "Marketingsprech".
Was ist los mit dir?
AMD hat noch gar nichts bewiesen, denn es gibt keine Tests zu FSR3, weil es noch nicht existiert.
Case closed.

Wir Spieler profitieren von offenen Techniken mehr aber das scheint man gekonnt zu übersehen.
Erläutere doch endlich, wo du profitierst. Es spielt für dich und mich keine Rolle, ob etwas Open Source ist.
Absolut gar keine.
 
Ich poste dir die Erfahrungen eines Spieleentwicklers und du kommst mir mit "Marketingsprech".
Was ist los mit dir?
AMD hat noch gar nichts bewiesen, denn es gibt keine Tests zu FSR3, weil es noch nicht existiert.
Case closed.


Erläutere doch endlich, wo du profitierst. Es spielt für dich und mich keine Rolle, ob etwas Open Source ist.
Absolut gar keine.
?
Simpel wenn du für Technik A eine Karte von Hersteller A benötigst, für Technik B eine Karte von Hersteller B. Da kannst du Dir je nachdem welche Technik ein Spiel unterstützt eine Karte des jeweiligen Herstellers kaufen. Das klingt nach Bullshit. Oder du spielst nur Spiele die die Techniken unterstützen was du halt gerade für Hardware verbaut hast. Offene Techniken die jeder nutzen kann und fertig.

Starfield wird mit FSR auf NV-Karten genauso gut laufen wie auf AMD-Karten. Also warum der Aufschrei, weil ein paar FPS weniger dabei rumkommen? Schade!
Chilllt und genießt Starfield, das läuft schon auf NV Karten.
 
@PCTom das hat mit Open Source aber nichts zutun. DLSS könnte auch Open Source sein und würde trotzdem die Tensor Cores voraussetzen und somit nicht auf AMD laufen.

Starfield wird mit FSR auf NV-Karten genauso gut laufen wie auf AMD-Karten.
Oder genau so schlecht und das ist das Problem. Siehe Jedi Survivor.

Also warum der Aufschrei, weil ein paar FPS weniger dabei rumkommen? Schade!
Genau deswegen ja. Es wäre mehr möglich gewesen ohne wirklichen Mehraufwand (Nixxes).
Warum gibt man sich immer nur mit dem nötigsten zufrieden, wenn es um AMD geht?
 
Ich verstehe ja auch die NV-Fans. Man kauft zu völlig überzogenen Preisen die Unterstützung quasi mit.

Wenn es jedes Mal einen Aufschrei geben würde, wenn ein Spiel NV Exklusiv Techniken verwendet. Wir müssten diese Erde verlassen, weil es zu laut wäre.

Einfach mal damit abfinden das nicht bei NV die 100%tige Unterstützung mitgekauft hat? Ihr macht ja gerade so als wäre das Spiel auf NV-Karten dann unspielbar.
 
Erläutere doch endlich, wo du profitierst. Es spielt für dich und mich keine Rolle, ob etwas Open Source ist.
Absolut gar keine.
Open Source führt zu besserer Code Qualität, höherer Sicherheit, längerem Support, mehr Innovation und breiterem Wissen über die Technologie.

Denke den Vorteil von Open Source Software muss man wirklich nicht weiter ausführen.
 
Als die ersten Vorwürfe mit der willkürlich zusammengewürfelten Liste kamen, da konnte man sich eigentlich nur am Kopf kratzen,
Die Liste war nicht willkürlich und es gab mehrere. Alle zeigten das gleiche Bild.
Gab es da mehrere? Mir war so, als wäre der ganze Stein durch wccftech (der Artikel hier) in Rollen gebracht worden, von Hardware Unboxed aufgegriffen worden und so dann durch die Szene gerollt.

Du bist also schon mal nicht vom Fach? ;)
?

da expliziter Ausschluss von Rendertechnik eigentlich nicht gängigem B2B entspricht.
Der explizite Ausschluss der Konkurrenz und ihrer Software/Techniken ist gängige Praxis in B2B.
Woher ich das weiß? Ich arbeite im B2B Bereich.

Konkurrenztechnik ausschließen kann ich unterschreiben, allerdings müsste dafür Starfield von Anfang an als großes Kooperationsprojekt zwischen den beiden Firmen gestartet und gelaufen sein mit entsprechender Technologiehoheit seitens AMD.
Und das hätte wiederum doch größere Auswirkungen auf die Übernahme von Bethesda seitens Microsoft gehabt.
Für mich sieht es nach einem klassischen Marketingpartnerschaftsdeal aus, sprich es gibt Ansprechpartner auf beiden Seiten für diverse Belange, NDAs für Partneringenieure die evtl. über diese Ansprechkanäle bei der Integration von Rendermodulen unterstützen und vielleicht ein bisschen Leihhardware mit ungenauer Rückgabesituation.

Dass der AMD-Chef sich nicht hinstellen und sagen wird, dass sie aktiv andere ausschließen ist doch wohl klar?
Es kann doch hier niemand ernsthaft angenommen haben, dass AMD sowas jemals zugeben wird. Das wäre Marketingtechnisch eine Vollkatastrophe für AMD.
Ich finde den Posten generell schon interessant. "Chief Architect of Gaming Solutions" weckt bei mir eine gewissen Erwartungshaltung, die etwas entgegen dem "and Gaming Marketing", das darauf folgt, ist.
Aber es wird wahrscheinlich bei dem Kerngeschäft für AMD gar nicht so einfach gewesen sein, die Strukturen für den wachsenden Softwarebereich zu etablieren.

Warten wir mal ab, wie das Spiel wird. Leider liegt das bei mir hinter einem so großen Backlog, das wird es wohl erst kurz vor TES6 auf meinen Rechner schaffen. Hoffentlich kommt bis dahin noch eine VR Version nachgeliefert, nach SkyrimVR wäre das eine schöne Sache.


LG

IcheBins
 
Zurück