Battlefield 5: Radeons sollen überdurchschnittlich gut laufen

AW: Battlefield 5: Radeons sollen überdurchschnittlich gut laufen

Habe niemals behauptet das Microsoft Dice daran hindern würde könnte mir trotzdem vorstellen das die Implementierung von DX12 in so einem großen Shooter entlohnt wird, genau sagen kann das allerdings niemand da wir keine internen sind.
HBAO ist praktisch seit Jahren in jedem größeren Spiel bzw. AAA Titel enthalten und zähle ich nicht zu Gamework was es 2008 so auch nicht gab, außerdem läuft HBAO ähnlich gut auf Karten beider Lager.
Ganz sicher wird da niemand entlohnt.

HBAO+ läuft auch auf beider Lager ähnlich gut und ist Teil von Gameworks.
Ist das jetzt schlecht oder egal?

Das hätte man als Verantwortlicher (Unterzeichner) im Vorfeld bedenken sollen.

Edit:
Genau so wie man vielleicht darüber nachdenken sollte, ob man erst triggert/baitet, dann mit eigenen Erfahrungen relativiert und am Ende nicht entscheidenden Infos (Testsysteme/Voraussetzungen/Umstände) nennt.

Edit2:
Und was mich schon länger stört, ist die pauschale Aburteilung von DX12 als "schlecht laufend" obwohl es in den überwiegenden Fällen die GeForce-Karten betrifft und häufig die Radeon-Karten selbst laut den eigenen/vorliegenden Benchmarkwerten unter DX12 nicht langsamer laufen als unter DX11.
Als Verantwortlicher schaue ich was sich bei meiner Arbeit effektiv ändert oder mich einschränken könnte.
Leute die ständig Mumpitz im Kopf haben existieren so oder so, wenn nicht bei diesem Thema, kommt der nächste allergische Schock von einem kleinem Staubkorn beim nächsten Thema.
Das merkt man jedes mal, ist auch nur ein Satz nicht so formuliert oder dargestellt wie es eine Gruppe haben möchte, hängen sich schon mehrere Leute darauf auf, ganz egal wie objektiv oder unvoreingenommen der Redakteur an die Sache ran ging.
Bei so Themen wie dem NDA hat man doch schon von Anfang an verloren und ist nur der grundlos strahlende Held, wenn er dem grotesken Weltbild entsprechender Leute folgt.

Und DX12 lief zu Beginn bei Radeons mit unsauberen Frametimes:
Battlefield 1 PC: Benchmarks im Single- und Multiplayer, Direct X 12 [Update 4]

[...]
Aber der Gameworks-Groll bezieht sich ja auch nicht auf das steuerbare Feature HBAO. Ich rege mich viel mehr auf wenn in Titeln wie Witcher 3 ein Nvidia Clothing, oder auch Nvidia Destruction versteckt eingebaut wird.
Diese Effekte treten in jeder Spielszene auf (Geralts Kleidung, Segel von Flößen oder Booten - na, erinnert Ihr euch an die PCGH-Vids wo eine RX480 auf dem See mit Segel-Floß getestet wird??^^, Zerstörung von Objekten und und und)
Das ist dann echt mies weil vllt sogar noch gesagt wird, wir haben Gameworks-Effekte deaktiviert, aber in Wahrheit sind die beiden von mir angesprochenen ( NV-Seitig verschlossenen) Technologien gar nicht deaktivierbar und bilden so bewusst eine eingebaute Bremse für Radeons.
Nvidia Clothing/Destruction läuft bei TW3 auf der CPU und ist ein Sub-Modul von PhysX.
PhysX findet sich bei enorm vielen Spielen als CPU-Middleware.

Der Source-Code wird von Nvidia auch seit einigen Jahren unter einer EULA für Entwickler auf GitHub zugänglich gemacht.
 
AW: Battlefield 5: Radeons sollen überdurchschnittlich gut laufen

In The Crew 2 sind die Schatten von Nvidia ja auch durchaus zu gebrauchen und verbrauchen sogar auf Pascal dabei mehr Leistung.
 
AW: Battlefield 5: Radeons sollen überdurchschnittlich gut laufen

Zum Glück stehts gut für die Roten, anders rum wäre hier wieder was los gewesen.
Nochmal Schwein gehabt.

da sieht man. alles eine frage der optimierungsmöglichkeit.
ich wette, dass nvidia viel geld bezahlt, dass die games auf nvidia karten besser läuft.
 
AW: Battlefield 5: Radeons sollen überdurchschnittlich gut laufen

Ich bin selbst gespannt die die Karten im Ferigen Spiel abschneiden, vor allen wie meine doch angestaubte 290x abscheiden wird.
BTW, hat jemand für die oben genannte Karte FPS Werte in FHD?
 
AW: Battlefield 5: Radeons sollen überdurchschnittlich gut laufen

Ist doch mal ne gute Nachricht für Radeon-Nutzer. :)
Wobei ich persönlich weiter lieber auf NVidia setze. Im Schnitt sind deren Karten halt immernoch flotter und stromsparender, zumal Turing vor der Tür steht.


Weder mit meiner R9 270, HD7950 oder R9 290X hatte ich durch Mantle auch nur den geringsten Performanceschub durch Mantle...
Und was DX12 angeht: Scheinbar scheint DX12 wohl doch nicht so der heilige Gral zu sein, praktisch alle DX12-Games liefen von der Performance her mieser wie der DX11-Renderpfad.

Mantle hat bei meiner 290x gute 20-25% mehr Leistung + viel bessere Frametimes gebracht, DX11 fühlte sich danach immer direkt sehr rucklig und unruhig an.

Ganz sicher wird da niemand entlohnt.

Ganz sicher wird da niemand entlohnt.

HBAO+ läuft auch auf beider Lager ähnlich gut und ist Teil von Gameworks.
Ist das jetzt schlecht oder egal?


Wüste nicht wie du das sicher sagen kannste ohne beim Entwicklungsprozess oder Microsoft angestellt zu sein aber ok möchte mich da auch auf keine große Diskussion einlassen.
Warum sollte mich HBAO+ stören wenns auf beiden Lagern nahezu gleich gut läuft, mich stören nur andere Effekt von Gameworks und die sind dir bestimmt auch bekannt, da muss man sich nur mal wieder an den Witcher und das übermäßig eingesetzte Hairworks erinnern...
 
AW: Battlefield 5: Radeons sollen überdurchschnittlich gut laufen

Ich vermute auch das frostbite vielleicht Probleme hat mit dx12, mantle lief Top in bf4, seitdem sie auf dx12 setzten läuft das nichts mehr und das ist jetzt seit Battlefield 1 so.
 
AW: Battlefield 5: Radeons sollen überdurchschnittlich gut laufen

Vergleichen wir mal:
RX 580 hat ca. 6,2 TFLOPS - GTX 1060 hat ca. 4,4 TFLOPS. Das macht also dann ca. 41% Unterschied in der Rechenleistung. Klar kann die RX 580 somit deutlich schneller sein, wenn der Spieleentwickler seine Arbeit gut macht, weil der NV-Trick einfach mehr ROPs einzubauen, natürlich nur solange greift, wie die Shaderauslastung schlecht skaliert (Also in grafisch schwächeren bis mittelmäßigen Spielen).
Allerdings ist 50% trotzdem hoch bemessen. 30-40% halte ich für realistischer. Kann also durchaus sein, dass sich da noch was tut.

Bei der Gelegenheit möchte ich auch mal der kürzlich veröffentlichten Darstellung von Computerbase widersprechen, die behauptet, dass Nvidia die Shader besser auslasten könnte. Nvidia hat selbstverständlich die gleichen Probleme, große Mengen von Shadern auszulasten. Nur hat eine AMD RX Vega56/64 64 ROPs - also so viele wie eine GTX 1080. Was passiert also, wenn ein Spiel schlecht programmiert ist und bei 1.000 Shadern schon dicht macht? -> Eben, es kommt nur noch darauf an, wie schnell das Bild durch die Rasterpipeline kommt. Und somit ist die Vega64 in dem Szenario gleich lahm wie eine GTX 1080. Da die ROP-Leistung mit dem allgemeinen Takt skaliert, sogar tendenziell eher leicht langsamer, weil die GTX 1080 einen höheren Takt fährt.
Im Umgekehrten Fall, bei einem sehr gut optimierten AAA-Titel, muss sehr viel berechnet werden, bis endlich mal ein Bild bei den ROPs bearbeitet wird. Dann ist die Rechenleistung der Shader relevant und eine RX Vega(~13 TFLOPS) kann auf der Höhe einer 1080 Ti/Titan Xp(~12 TFLOPS) landen. Im Fall der Vega kommt aber noch hinzu, dass das Speicherinterface tendenziell auch nicht extrem üppig ist und der VRAM ebenfalls "eng bemessen". D.h. Wenn sie höhere Auflösungen wie 4K fährt, steigt wieder die Wahrscheinlichkeit bei den ROPs oder dem VRAM in Limits zu kommen.

Edit: Übrigens lassen sich natürlich daraus auch Rückschlüsse ziehen. So ist es bei AMD-Karten besonders sinnvoll, wenn man mit weniger AntiAliasing leben kann(z.B. mit 2560x1440) und dafür die Shader"-qualität"/"-komplexität" und darauf einflussnehmende Effekte in den Grafikeinstellungen hoch schraubt.

Edit2: Allerdings möchte ich nicht unerwähnt lassen, dass ich mich jetzt auf die AVG-FPS bezogen habe. Natürlich boosten Grafikkarten mit vielen ROPs gerne mal sehr viele Bilder durch, was die höchste und mittlere FPS-Rate steigert. Aber die minimale FPS-Rate ist meist davon unbeeindruckt, weil die Min. FPS in der Regel dann entstehen, wenn das Limit bei den Shadern oder der CPU ist. Somit ist eine Karte mit vielen hoch getakteten Shadern natürlich insgesamt besser als eine mit vielen ROPs, da die mit vielen ROPs bei schwächerer Shaderleistung zu niedrigeren Min.-FPS neigt.
Dass z.B. PCGH und andere in der Regel die AVG-FPS betrachten, erklärt natürlich auch, warum es für NV sinnvoll ist, so viele ROPs einzubauen. Bei AMD ist das anders, sie verkaufen ihre Grafikchips auch an Sony und Microsoft und die zahlen natürlich nicht für irgendwelche AVG-FPS-Werte in Benchmarks, sondern für hohe Min-FPS, damit der Zocker ein flüssiges Bild hat. (mind. 30FPS als Richtwert)
 
Zuletzt bearbeitet:
AW: Battlefield 5: Radeons sollen überdurchschnittlich gut laufen

Nvidia Clothing/Destruction läuft bei TW3 auf der CPU und ist ein Sub-Modul von PhysX.
PhysX findet sich bei enorm vielen Spielen als CPU-Middleware.

Der Source-Code wird von Nvidia auch seit einigen Jahren unter einer EULA für Entwickler auf GitHub zugänglich gemacht.

Magst recht haben, dass PhysX-Features in TW3 CPU-seitig unterstützt werden, meinen Informationen nach werden Sie auf GeForce-GPU´s in diesem Titel aber standardmäßig von der GPU beschleunigt. (Da gab es viel Gesprächsstoff zum Witcher ReLease. Kepler-PhysX-Bug und so Geschichten)
Die enormen Vorteile einer PhysX Beschleunigung durch die GPU sind uns dann bekannt.

Und hier liegt genau das Problem. Ermöglicht Nvidia nun wirklich den Zugriff auf Source-Code um PhysX auf allen GPU´s beschleunigen zu können? Oder ermöglichen Sie Entwicklern in Wahrheit nicht nur, dieses zugegebenermaßen wirklich tolle Feature, in Ihre Software implementieren zu können,
was dann zwar toll aussieht, aber zeitgleich für all uns Gamer bedeutet "Freu dich wenn du eine Nvidia hast! Mit ner Radeon gehst du leider nicht über Los und streichst +20 FPS ein, sondern nutzt den Umweg über die CPU!?" :D

Da Frage ich mich dann wirklich, muss Nvidia mit Software-Reglementierungen die Leistung in Spielen für uns Gamer dirigieren?

Und es liegt nicht daran, dass AMD Physik grundsätzlich nicht auf einer GPU berechnen könnte, wie beispielsweise die Havok-Engine zeigt, oder man auch im kürzlich erschienenen Wreckfest sehen kann!
AMD demonstrates Havok with GPU acceleration


Naja, ich wünsche mir, dass wir nach dem BF V Release nicht über sowas diskutieren müssen und das einfach ein wirklich rundes Spiel mit vielen geilen Maps wird :daumen:
 
Zuletzt bearbeitet:
AW: Battlefield 5: Radeons sollen überdurchschnittlich gut laufen

Weiß mann denn mittlerweile ob die severauswahl per dedizierte Server möglich sein wird oder wird man auf einen willkürlich geworfen?
Wenn es nicht möglich ist Spielmodi und Server zu wählen ist es eh schon gestorben für mich egal wie gut es läuft.
 
AW: Battlefield 5: Radeons sollen überdurchschnittlich gut laufen

Um so öfter ich mir das Thread-Thema oben durchlese mach ich mir echt sorgen das da was nicht stimmen kann mit unseren Radeons.
ich bete dafür das es schnell mit dem nächsten Treiber gefixt wird bevor noch was schlimmeres passiert.
 
AW: Battlefield 5: Radeons sollen überdurchschnittlich gut laufen

Sniper Elite war eines der ersten Mantle Spiele und als ich mir meine R7 260X gekauft habe , gabs genau das spiel als Code zur Karte und da hat das auch sehr wohl knapp um 20 % extra gebracht !
Also wie man sagen kann Mantle haette nichts gebracht interessiert mich dann doch . gerade mit einer eh eher mittelklasse Karte war das einfach nur der Hammer Fresync und Mantle und Sniper Elite lief wie geleckt ;)

Was die Graka vergleiche angeht hab ich schon oft gesagt das ich die ziemlich beknackt finde , eben weil die AMD Karten bei Kantenglaettung ziemlich einbrechen , wer wie ich auf WQHD spielt und daher eher drauf verzichten kann wird auch mit einer Radeon viel spass haben und vielleicht sogar schneller unterwegs sein als die Nvidia Konkurrenz , was leider aus denn meisten vergleichen so nicht rauszulesen ist ...7
 
AW: Battlefield 5: Radeons sollen überdurchschnittlich gut laufen

[...]
Wüste nicht wie du das sicher sagen kannste ohne beim Entwicklungsprozess oder Microsoft angestellt zu sein aber ok möchte mich da auch auf keine große Diskussion einlassen.
Warum sollte mich HBAO+ stören wenns auf beiden Lagern nahezu gleich gut läuft, mich stören nur andere Effekt von Gameworks und die sind dir bestimmt auch bekannt, da muss man sich nur mal wieder an den Witcher und das übermäßig eingesetzte Hairworks erinnern...
Weil es nicht sehr viel Sinn ergibt.
Es gibt etliche AAA-Spiele pro Jahr mit Abermillionen Entwicklungskosten, wie groß müsste der Topf sein, um die Mehrheit davon zu bestechen und attraktiv für eine DX12-Implementierung zu sein bzw. dann Vulkan-Support ausschließen?
Solche Details könnte man auch nicht auf Dauer verbergen, dass würde leaken.
Und im Gegenteil, abseits von einer Bestechung um Vulkan zu verhindern, könnte MS doch ganz positiv und aktiv finanziellen Support für eine DX12 bewerben, aber das machen sie nicht, MS gibt Fremd-Entwicklern kein Geld um eine spezifische API zu implementieren.

HairWorks kann man gerne schlecht finden, ich finde es technisch auch nicht gut, aber häufig wird GameWorks pauschal gleich als das Damoklesschwert über die Radeon-Performance gehoben.
Wie viele GameWorks Titel gibt es, wo Radeon-Nutzer besonders leiden müssen und muss überhaupt jemand leiden, wenn die GameWorks-Effekte zu 99% der Fälle optional sind?
Im Teich der ganzen Spiele ist der Prozentsatz mit GameWorks-Effekten ziemlich gering, noch geringer wenn wir von starken Herstellerkontrast reden, ist der Aufriss der auch schon vorab deswegen unternommen wird, nicht ein wenig übertrieben?

Vergleichen wir mal:
RX 580 hat ca. 6,2 TFLOPS - GTX 1060 hat ca. 4,4 TFLOPS. Das macht also dann ca. 41% Unterschied in der Rechenleistung. Klar kann die RX 580 somit deutlich schneller sein, wenn der Spieleentwickler seine Arbeit gut macht, weil der NV-Trick einfach mehr ROPs einzubauen, natürlich nur solange greift, wie die Shaderauslastung schlecht skaliert (Also in grafisch schwächeren bis mittelmäßigen Spielen).
Allerdings ist 50% trotzdem hoch bemessen. 30-40% halte ich für realistischer. Kann also durchaus sein, dass sich da noch was tut.

Bei der Gelegenheit möchte ich auch mal der kürzlich veröffentlichten Darstellung von Computerbase widersprechen, die behauptet, dass Nvidia die Shader besser auslasten könnte. Nvidia hat selbstverständlich die gleichen Probleme, große Mengen von Shadern auszulasten. Nur hat eine AMD RX Vega56/64 64 ROPs - also so viele wie eine GTX 1080. Was passiert also, wenn ein Spiel schlecht programmiert ist und bei 1.000 Shadern schon dicht macht? -> Eben, es kommt nur noch darauf an, wie schnell das Bild durch die Rasterpipeline kommt. Und somit ist die Vega64 in dem Szenario gleich lahm wie eine GTX 1080. Da die ROP-Leistung mit dem allgemeinen Takt skaliert, sogar tendenziell eher leicht langsamer, weil die GTX 1080 einen höheren Takt fährt.
Im Umgekehrten Fall, bei einem sehr gut optimierten AAA-Titel, muss sehr viel berechnet werden, bis endlich mal ein Bild bei den ROPs bearbeitet wird. Dann ist die Rechenleistung der Shader relevant und eine RX Vega(~13 TFLOPS) kann auf der Höhe einer 1080 Ti/Titan Xp(~12 TFLOPS) landen. Im Fall der Vega kommt aber noch hinzu, dass das Speicherinterface tendenziell auch nicht extrem üppig ist und der VRAM ebenfalls "eng bemessen". D.h. Wenn sie höhere Auflösungen wie 4K fährt, steigt wieder die Wahrscheinlichkeit bei den ROPs oder dem VRAM in Limits zu kommen.

Edit: Übrigens lassen sich natürlich daraus auch Rückschlüsse ziehen. So ist es bei AMD-Karten besonders sinnvoll, wenn man mit weniger AntiAliasing leben kann(z.B. mit 2560x1440) und dafür die Shader"-qualität"/"-komplexität" und darauf einflussnehmende Effekte in den Grafikeinstellungen hoch schraubt.

Edit2: Allerdings möchte ich nicht unerwähnt lassen, dass ich mich jetzt auf die AVG-FPS bezogen habe. Natürlich boosten Grafikkarten mit vielen ROPs gerne mal sehr viele Bilder durch, was die höchste und mittlere FPS-Rate steigert. Aber die minimale FPS-Rate ist meist davon unbeeindruckt, weil die Min. FPS in der Regel dann entstehen, wenn das Limit bei den Shadern oder der CPU ist. Somit ist eine Karte mit vielen hoch getakteten Shadern natürlich insgesamt besser als eine mit vielen ROPs, da die mit vielen ROPs bei schwächerer Shaderleistung zu stärkeren Min.-FPS neigt.
Dass z.B. PCGH und andere in der Regel die AVG-FPS betrachten, erklärt natürlich auch, warum es für NV sinnvoll ist, so viele ROPs einzubauen. Bei AMD ist das anders, sie verkaufen ihre Grafikchips auch an Sony und Microsoft und die zahlen natürlich nicht für irgendwelche AVG-FPS-Werte in Benchmarks, sondern für hohe Min-FPS, damit der Zocker ein flüssiges Bild hat. (mind. 30FPS als Richtwert)
Da kommt aber effektiv etwas mehr zusammen, als der reine ROP-Durchsatz und die Threadskalierung.
Ganz am Anfang steht das Frontend und Nvidia hat dort ebenso Vorteile bezüglich des Durchsatzes dank der höheren Taktraten und mehr Einheiten, je nach Konkurrenzmodell.
Auch scheint Nvidia allgemein die Dreiecke besser über die SMs verteilen zu können und interne State-Changes laufen laut Entwicklerstimmen problemloser ab.
AMD nennt selber bei ihrem Front-End Probleme im Zusammenhang mit der Workgroup-Launch-Rate pro SE und vielen CUs.
AMD rate.jpg


Ich kenne keine Angaben über die Launch-Rate von einem GPC pro Takt, aber da Nvidia massiv weniger ALUs besitzt und SMs ist eher anzunehmen, dass Nvidia ihre GPUs viel schneller mit Arbeit befüllen kann und weniger Leerphasen dank kurzer Arbeitslast besitzt.

Bei den Shadern hat Nvidia auch prinzipbedingt weniger Verschnitt, da Nvidia eine Arbeitsgranularität von 32 Threads pro Workgroup hat und das hilft auch bei divergenten Code-Abschnitten.

Auch schafft Nvidia ziemlich brutale Durchsatzraten bei der Beyond3D-Suite was die Texturbandbreite bei komprimierten Farbwerten betrifft, bei Nvidia scheint die ganze Pixel-Pipeline deutlich effektiver zu arbeitet, als bei AMD.
Benchmarks und Fazit

Nvidias L1 Texture-Cache ist auch effektiv gesehen 50% größer, 2x 24KB pro 128 ALUs vs. 1x16KB pro 64.


Teilweise kann man zynisch sagen, es ist schön wenn der Entwickler seine Arbeit gut macht, aber es wäre auch schön wenn die Hardware ihre Arbeit gut machen würde. ;)

Magst recht haben, dass PhysX-Features in TW3 CPU-seitig unterstützt werden, meinen Informationen nach werden Sie auf GeForce-GPU´s in diesem Titel aber standardmäßig von der GPU beschleunigt. (Da gab es viel Gesprächsstoff zum Witcher ReLease. Kepler-PhysX-Bug und so Geschichten)
Die enormen Vorteile einer PhysX Beschleunigung durch die GPU sind uns dann bekannt.

Und hier liegt genau das Problem. Ermöglicht Nvidia nun wirklich den Zugriff auf Source-Code um PhysX auf allen GPU´s beschleunigen zu können? Oder ermöglichen Sie Entwicklern in Wahrheit nicht nur, dieses zugegebenermaßen wirklich tolle Feature, in Ihre Software implementieren zu können,
was dann zwar toll aussieht, aber zeitgleich für all uns Gamer bedeutet "Freu dich wenn du eine Nvidia hast! Mit ner Radeon gehst du leider nicht über Los und streichst +20 FPS ein, sondern nutzt den Umweg über die CPU!?"
biggrin1.gif


Da Frage ich mich dann wirklich, muss Nvidia mit Software-Reglementierungen die Leistung in Spielen für uns Gamer dirigieren?

Und es liegt nicht daran, dass AMD Physik grundsätzlich nicht auf einer GPU berechnen könnte, wie beispielsweise die Havok-Engine zeigt, oder man auch im kürzlich erschienenen Wreckfest sehen kann!
AMD demonstrates Havok with GPU acceleration


Naja, ich wünsche mir, dass wir nach dem BF V Release nicht über sowas diskutieren müssen und das einfach ein wirklich rundes Spiel mit vielen geilen Maps wird
daumen.gif
Das Verhalten könntest du bei einer schwachen CPU oder GPU aber nachweisen, wenn das PhysX-Modul anstatt auf der CPU auf der GPU laufen würde.
Es ist aber nur CPU-PhysX:
The Witcher 3: Wild Hunt Graphics, Performance & Tweaking Guide | GeForce

Es gibt PhysX-Effekte die werden über einen CUDA-Solver auf der GPU berechnet und das läuft eben nur bei Nvidia, egal ob der Code selber einsehbar ist oder nicht.
Die neusten Physik-Middlewares von Nvidia wie Flex und Flow laufen aber über DX11/12 (Vulkan) und werden von jeder GPU beschleunigt.

Ich würde bzw. hätte mich auch gefreut, wenn Nvidia Middleware für alle finanzieren würde, aber dazu sind sie nicht verpflichtet und Nvidia investiert eine Menge.
Da die Effekte in Bezug auf die GPU in 99% der Fälle optional sind, wird einem das Nvidia-Zeug nicht aufgezwungen und man kann selber entscheiden, ob es einem das Wert ist, egal welche GPU man besitzt.
Ohne Nvidia wären die Effekte sowieso erst gar nicht implementiert worden.

Man könnte auch den anderen Herstellern vorwerfen, wieso die nicht soviel machen und ihr Brot mit allen herstellerneutral teilen?


Havok FX ist übrigens früh gestorben, es gab 2014 einen vagen Ausblick über zukünftige Entwicklungen mit der GPU, aber danach habe ich nichts mehr mitbekommen:
Physik-Engine Havok 2014.1 auf Quadcore-CPU mit Leistungssprung, Gameplay-Physik auf dem Vormarsch

Was bei Wreckfest verwendet wird, läuft sehr wahrscheinlich auch auf der CPU.
 
Zuletzt bearbeitet:
AW: Battlefield 5: Radeons sollen überdurchschnittlich gut laufen

Immer wieder ein Bashing Artikel wert , AMD Fanboys vs Nvidia Fanboys vs Intel Fanboys immer wieder Lustig zu lesen wie sich meist Erwachsene wie Kinder gegenseitig wegen ihrer Grafikkarten anmachen ist nichts anderes wie in Auto Foren oder sonstige..... ich für meinen Teil kaufe immer das was mir die Beste Performance verspricht bei Games , ich will weder Nvidia noch AMD unterstützen weil es mir ehrlich gesagt schei.. egal welcher Hersteller auf meiner Graka oder CPU steht.

Schön das AMD hier die Nase vorn hat ist bis jetzt aber eher vereinzelnd, deshalb für die breite masse an Games bleibe ich erstmal bei Nvidia... da ich BF V sowieso meiden werde wie Hardline damals, für mich sieht es wie ein RE-SKIN Game aus und WW2 Gähn brauche ich nicht!

Und an die AMD Fans , AMD ist sicherlich kein armer kleiner Hersteller ich meine die statten jede Konsole mit ihren Chips aus, also sollte AMD endlich stärkere Grafikkarten auf den Markt bringen, sonst kann Nvidia leider so weiter machen mit den Preisen..
 
AW: Battlefield 5: Radeons sollen überdurchschnittlich gut laufen

Da fehlen bestimmt noch die Gameworks Effekte um AMD und die älteren Nvidia Karten auszubremsen.

Klar, dieses Zeug erklärt, wieso der Leistungsvorsprung von der GTX 1080 Ti von 40% gegenüber der GTX 1080 sich in fast verflüchtigt. oder was? Schon dass die GTX 1080 von der RX Vega 64 überholt wird offeriert, wer mit angezogener Bremse unterwegs ist.

Diesbezüglich hinterfragt sich, wer hier wem bremst:

Ich hatte mit meiner 1060 im Durchschnitt ca. 45 Fps auf Hoch in 2k!
Xenon 1231v3 // 32GB RAM

Grausam! Eine solche Hardware hätte ich längst reklamiert, weil sie vor Bugs nur so stinkt.

Wie läuft es aktuell im SLI? Ich gehe mal davon aus dank Frostbite top Scaling aber eine Bestätigung wäre gut. :)

Grundsätzlich gar nichts mehr. Nvidia hat die Abschaffung dessen offiziell verkündet und der Trend der aktuellsten Titel bestätigt dies. Ubisoft setzt mit seinen Engines das SLI sowieso bloß halbherzig um. Ubisoft bedient sich sowieso bloß der Technologien anderer, zu 90% alles erkauft, von selbst stellt derjenige Saftladen, welcher schon in fast so erbärmlich ist wie Steam, nichts auf die Beine oder es kommt nicht viel dabei herum. Ich meine, ein SLI aus der GTX 1070 auf dem Niveau von der GTX 1080 ist in den meisten Games Alltag und dazu finde ich nur ein Wort - Schande! Das Scalable Link Interface ist tot und bei Ubisoft sowieso!
 
Zuletzt bearbeitet:
AW: Battlefield 5: Radeons sollen überdurchschnittlich gut laufen

Kein Spiel das ich plane zu spielen, aber schön zu hören dass meine RX580 damit keine Probleme hätte :)
 
AW: Battlefield 5: Radeons sollen überdurchschnittlich gut laufen

CoD:WWII, BF1 und BF5 interessieren mich dem Retro-Szenario wegen überhaupt nicht. Das Geld für Wichtigeres aufgespart wie bspw. zum Teil in das Oehlbach NF Y-Sub 800 investiert, was pragmatischer ist.
 
AW: Battlefield 5: Radeons sollen überdurchschnittlich gut laufen

Hier ist echt das reinste Propaganda-Forum, geschürt von Agitation und Intrige!
Dass die GeForce-Karten schon jetzt nur in bis zur Hälfte von ihrer wahren Leistung erbringen ist doch offensichtlich daran, dass die RX Vega 64 an die GTX 1080 Ti herankommt und dass derjenige User da oben mit nur lachhaften 45 FPS herumdümpelt.
Wobei diese Aussage tendenziell falsch ist - Die GTX 1080 Ti wird nicht eingeholt sondern sie verliert in bis zur Hälfte von ihrer Leistung. Heran kommt daran also gar nichts. Wie kontraproduktiv ist dieser Axiom hinsichtlich der Radeons!? Dass die beiden Seiten sich schwächen ist doch Nonsens.
Und fangen wir nicht an über ein Novum zu diskutieren. Schon Battlefield 3 ist ein Pro-Radeon-Game gewesen. Die Betonung ist im Inflektiv bewusst gewählt - Denn alles ändert sich irgendwann.
 
Zuletzt bearbeitet:
AW: Battlefield 5: Radeons sollen überdurchschnittlich gut laufen

Nvidia kommt nichtmal mit Besch... weiter.:ugly::lol:
 
Zurück