AMD: Partnertreffen am 23. April behandelt Navi und neue Ryzen-CPUs

Nuja, UE4 ist eben technisch Schrott, da kann Intel nur durch den hohen Takt unendlich weit davon ziehen, was anderes ist das nicht und wenn AMD dort aufschließen kann, ist der Nachteil nur noch minimal. Und aktuell sieht es verdammt gut aus, 5 GHz werden wohl zu erreichen sein, bei deutlich geringerem Verbrauch. Klar, wird Intel im Endeffekt bei solchen mies programmierten Extremfällen überlegen sein, weshalb das als einziges gültiges Beispiel der Intel-Fans immer wieder im Forum zittiert wird, selbst wenn bei jedem anderen Spiel AMD überlegen wäre...

Die UE4 ist eben kein Schrott und mit State of the Art. Nur weil Version 4 seit Jahren am Markt ist bedeutet das nicht das sie nicht auf dem aktuellen Stand ist (v4.22). Entwickler haben vollen Sourcecode Zugriff und können auch beliebig parallelisieren. Der Wunschgedanke vieler ist die endlose Parallelisierung, die es nur einfach nicht gibt in dieser Branche. Und AMD forciert gewiss nicht die Spieler bei ihren universal CPUs.
Die Entwickler schauen halt auch das die Spiele auf durchschnittlicher Hardware sauber laufen können, sonst passt der Absatz nicht.
 

Du glaubst jetzt aber nicht ernsthaft, daß die CPU 500W gezogen hat?

Ich weiß nicht was da gemessen wird, aber sicher nicht der reale Verbrauch.
Komischerweise zieht hier die CPU mit höheren Clock Speed und höherer Performance ganze 250W weniger. Zumindest wenn man der Software glaubt.

Der schwächere Score dürfte von einer Stock CPU stammen bei der im Windows auf Höchstleistung gestellt war. Die 3.8GHz all Core und die 4.4GHz Turbo sprechen dafür. Der Score paßt auch.
Wenn auf ausgeglichen steht (bei meinem Test), dann sieht es so aus. 1.2GHz ohne Last, 3.8GHz all core und 4.4GHz einzel Kern Turbo. Cache 1.1GHz ohne Last und 3GHz mit Last.
Und ich kann Dir versichern, daß er dabei keine 300W zieht, wie hier angezeigt :D.
 

Anhänge

  • 2.PNG
    2.PNG
    407,3 KB · Aufrufe: 78
  • SI++++.PNG
    SI++++.PNG
    113,9 KB · Aufrufe: 84
Die UE4 ist eben kein Schrott und mit State of the Art. Nur weil Version 4 seit Jahren am Markt ist bedeutet das nicht das sie nicht auf dem aktuellen Stand ist (v4.22). Entwickler haben vollen Sourcecode Zugriff und können auch beliebig parallelisieren. Der Wunschgedanke vieler ist die endlose Parallelisierung, die es nur einfach nicht gibt in dieser Branche. Und AMD forciert gewiss nicht die Spieler bei ihren universal CPUs.
Die Entwickler schauen halt auch das die Spiele auf durchschnittlicher Hardware sauber laufen können, sonst passt der Absatz nicht.

Schwachsinn, keine halbwegs aktuelle Engine unterstützt weniger als 4 Threads. Da ist die UE4 eben absolut mittelalterlich.
 
Ich denke es ist weniger die Engine als das was die Programmierer daraus machen können und auf die API kommt es auch noch drauf an.

Ich finds witzig wie hier immer alle schreien was für schei** Engine oder schei** Programmierer oder wer halt auch immer Schuld ist wenn ein Game nicht auf mindestens 16 Kerne skaliert... :rollen:
 
  • Like
Reaktionen: hfb
Der Wunschgedanke vieler ist die endlose Parallelisierung, die es nur einfach nicht gibt in dieser Branche.

Es muss nicht unendlich sein. Das Problem ist halt, wenn gar keine Parallelisierung da ist, so dass nicht mal ein Quadcore voll genutzt wird.

Die BeamNG Alpha ist genauso schlecht parallelisiert. Es wird nur ein Kern genutzt. Bei mehreren Fahrzeugen bricht dann die Bildrate enorm ein. Während man bei einem Fahrzeug um die 60 FPS hat, sind es bei 6 Fahrzeugen nur noch um die 10 FPS.
Dabei könnte man sehr gut jedem Fahrzeug einen extra Thread geben. Kommunikation zwischen den Fahrzeugpysik-Threads wäre praktisch nur bei einer Kollision nötig. Die Position selbst, kann auch der Mainthread mit machen.
 
Die Software "da draußen" ist weitesgehend auf Intels gebaut und optimiert worden. Ist ja nicht so, daß sie stumpf gegen x86 kompilieren und das Ergebnis nehmen. Nein, schon im Code wird heftigst auf Architekturen optimiert und da nimmt man nunmal erst die verbreitetste (Core). Allerdings kann man EPIC schon anlasten, daß sie nicht wenigstens eine Engineversion rausgebracht haben, die auch auf Ryzens optimiert wurde. Zumindest hab ich davon nix gelesen. Daß die Entwickler auch noch Spielraum haben, steht außer Frage. Schließlich nehmen die nicht einfach fertige Frameworks, sondern meist daß, was sowieso schon in ihren Schubladen liegt, bzw. angepasste Versionen davon. Aber gut, die Hw ist mitllerweile so leistungsfähig, daß einfach alles mit Leistung erschlagen wird, bzw. räumt kaum noch eine Firma Zeit fürs Bugfixing und Optimieren ein.

Edit: AMD hält nicht umsonst Vorträge ab, wie man Code auf Ryzen optimiert. Z.B. auf der GDC.
 
Es muss nicht unendlich sein. Das Problem ist halt, wenn gar keine Parallelisierung da ist, so dass nicht mal ein Quadcore voll genutzt wird.

Die BeamNG Alpha ist genauso schlecht parallelisiert. Es wird nur ein Kern genutzt. Bei mehreren Fahrzeugen bricht dann die Bildrate enorm ein. Während man bei einem Fahrzeug um die 60 FPS hat, sind es bei 6 Fahrzeugen nur noch um die 10 FPS.
Dabei könnte man sehr gut jedem Fahrzeug einen extra Thread geben. Kommunikation zwischen den Fahrzeugpysik-Threads wäre praktisch nur bei einer Kollision nötig. Die Position selbst, kann auch der Mainthread mit machen.

In Final Fantasy XIV ist das auch so, wenn mehr Spieler in der gleichen Gegend sind hat ein Thread ordentlich zu schuften. Wundert mich aber nicht, vermutlich werden alle anwesenden Spieler in einer Schleife aktualisiert, danach ist das Update abgeschlossen und der Game Loop muss nur noch rendern. Da das jedes mal pro Frame passiert geht es mit mehr Threadleistung schneller. Wenn das neue Addon kommt geht's wieder los mit den Spielermassen.
 
@yummycandy: Kann man performancekritische Libs nicht doppelt bereitstellen? Irgendwie sowas wie Multivendor Path...

Natürlich sind die Compiler extrem wichtig. Die meisten Spiele sind auf Intel optimiert.
 
Die Software "da draußen" ist weitesgehend auf Intels gebaut und optimiert worden. Ist ja nicht so, daß sie stumpf gegen x86 kompilieren und das Ergebnis nehmen. Nein, schon im Code wird heftigst auf Architekturen optimiert und da nimmt man nunmal erst die verbreitetste (Core). Allerdings kann man EPIC schon anlasten, daß sie nicht wenigstens eine Engineversion rausgebracht haben, die auch auf Ryzens optimiert wurde. Zumindest hab ich davon nix gelesen. Daß die Entwickler auch noch Spielraum haben, steht außer Frage. Schließlich nehmen die nicht einfach fertige Frameworks, sondern meist daß, was sowieso schon in ihren Schubladen liegt, bzw. angepasste Versionen davon. Aber gut, die Hw ist mitllerweile so leistungsfähig, daß einfach alles mit Leistung erschlagen wird, bzw. räumt kaum noch eine Firma Zeit fürs Bugfixing und Optimieren ein.

Edit: AMD hält nicht umsonst Vorträge ab, wie man Code auf Ryzen optimiert. Z.B. auf der GDC.

Epic schläft schon nicht.
https://www.unrealengine.com/en-US/blog/unreal-engine-4-22-released

Die Frage ist halt ob sich der Zeitaufwand für die Studios lohnt. Übermäßig Rechenpower verführt auch gerne mal zur Schlampigkeit. Heute macht sich auch keiner mehr Gedanken darüber wie viel Platz ein Integer im Speicher belegt.
BioWare hat mit Anthem gezeigt wie man mit der Frostbite Engine an die Wand fährt.
 
@yummycandy: Kann man performancekritische Libs nicht doppelt bereitstellen? Irgendwie sowas wie Multivendor Path...

Natürlich sind die Compiler extrem wichtig. Die meisten Spiele sind auf Intel optimiert.

Außer mathematischen Libs fällt mir nichts ein, was sie als Fremdprodukte einbinden können. Klar können sie welche von nVidia/Intel und AMD nehmen. Allerdings gibt es eben nicht für jedes Aufgabengebiet ein Fremdprodukt. Das ganze wird ja vielmehr von den SDKs (DirectX, Vulkan, Engine) abgefangen. Ob man z.B. das Threading noch auslagert hängt meist davon ab, inwieweit man Fremdlibs noch in die SDKs integrieren kann. Aus Erfahrung sage ich. SDK nehmen und dann eventuelle Addons, die genau dafür geschrieben wurden. Ansonsten wirds meist hakelig. In VS kann man sich auch noch je nach Programmiersprache für den Compiler entscheiden, was wichtig sein kann.

* sowas z.B. OpenMP – Wikipedia
 
Schön, aber ich hoffe vor allem dass die Singlecoreleistung endlich mal auf Intel OC heranreicht und die Speicherlatenzen besser werden. Aktuell zeigt sich wieder bei Tropico 6, bei Intel 40% Vorsprung vor AMD im CPU Limit, beide übertaktet. Was nützt dem Gamer die Multicoreleistung eines 9960X in Form eines Zen2 wenn die Leistung in den allermeisten Spielen durch lahme Singlecoreleistung und schlechte Latenzen auf Pentium-Niveau liegt? :ka:
Hmm. Das kann auch unmöglich daran liegen, dass Tropico 6 bescheiden optimiert ist wenn bei einem Dualcore mit SMT schon das Ende der Fahnenstange erreicht ist? :ugly:
Sind aber ziemlich viele Spiele da draussen die "schlecht" programmiert wurden :ka:

Vielelicht liegt das daran dass eine breite Parallelisierung in Spielen alles andere als trivial ist? Die Handvoll Games die gut mit Kernen skalieren kommen meist von großen Studios mit enormen finanziellen und personellem Background. Die breite Masse hat da wohl einfach nicht die Mittel... Und wer ist da jetzt Schuld wenn die Leistung in Games von AMD-Prozessoeren teils deutlich hinter Intel liegt?
Natürlich ist es nicht trivial, aber so schlechte Parallelisierung wie bei Tropico 6 ist selten, ich glaube der letzte große Titel der so schlecht optimiert war ist Starcraft 2. Und gerade Aubautitel können verhältnismäßig leicht parallelisiert werden.

Der Unterschied zwischen spielbar und unspielbar wird aber sowieso selten von der CPU bestimmt. Da geht's primär um den virtuellen Balkenvergleich.
Die Entwickler schauen halt auch das die Spiele auf durchschnittlicher Hardware sauber laufen können, sonst passt der Absatz nicht.
Das ist auch gut so, aber praktisch kein Unterschied zwischen Dualcore und Octacore zeugt von lausiger Parallelisierung.
 
Ich denke es ist weniger die Engine als das was die Programmierer daraus machen können und auf die API kommt es auch noch drauf an.

Ich finds witzig wie hier immer alle schreien was für schei** Engine oder schei** Programmierer oder wer halt auch immer Schuld ist wenn ein Game nicht auf mindestens 16 Kerne skaliert... :rollen:

Klar...würde ich als Quadcore User auch schreiben :ugly:.
 
2C/4T läuft schon noch merklich schlechter als 4C/8T in Tropico :ugly:

Also es skaliert augenscheinlich bis mehr als 4 Threads, sieht man ja auch in dem Video. Aber es hängt halt alles vor allem an einem Mainthread. Und das ist eben nicht das einzige Spiel wo das so ist und entsprechend sucht man sich eine CPU us wenn einem das wichtig ist. AMD kommt mit einem neuen Produkt und sollte sich da der bestehenden Softwarewelt anpassen bevor sie (bzw. besser gesagt die AMD Fans) erwarten können dass alle Spieleschmieden alles über den Haufen werfen und alle Coder nur noch damit beschäftigen damit alles schön auf min. 16 Threads skaliert und die Schwäche in Singlecore und Latenzen schön kaschiert wird :ugly:

Aber natürlich stimmt es dass Tropico schon sehr besonders bescheiden mit den Hardware Resourcen umgeht wenn man eine an die 5,2GHz Kotzgrenze übertaktete CPU braucht um in den 60fps-Bereich zu kommen :D
 
Zuletzt bearbeitet:
Klar...würde ich als Quadcore User auch schreiben :ugly:.

Ich bin mit meinem Quadcore teilweise sehr unzufrieden weil die nur vier Threads schon limitieren wenn man nebenher noch andere Programme laufen hat beim Zocken, trotz 5GHz Übertaktung, andererseits wenn nichts im Hintergrund läuft die Spieleleistung top ist und teilweise im CPU-Limit auch 30% schneller als der 2600 den ich meinem Bruder zu Weihnachten verbaut hab :ugly:

Deswegen bin ich dann nicht auch auf den 2600 gewechselt obwohl ich schon einen Wasserkühlblock gekauft hab weil das Downgrade mir doch zu heftig gewesen wäre. Würde ja jetzt dann gerne aber auf Zen 2 wechseln, ein Achtkerner wäre da für mich schon mehr als genug, aber ich möchte halt auch kein 20% Downgrade in der Spieleleistung, sollte schon eher gleichziehen mit den Intels :ka:
 
Zuletzt bearbeitet:
2C/4T läuft schon noch merklich schlechter als 4C/8T :ugly:

Also es skaliert augenscheinlich bis mehr als 4 Threads, sieht man ja auch in dem Video. Aber es hängt halt alles vor allem an einem Mainthread. Und das ist eben nicht das einzige Spiel wo das so ist und entsprechend sucht man sich eine CPU us wenn einem das wichtig ist. AMD kommt mit einem neuen Produkt und sollte sich da der bestehenden Softwarewelt anpassen bevor sie (bzw. besser gesagt die AMD Fans) erwarten können dass alle Spieleschmieden alles über den Haufen werfen und alle Coder nur noch damit beschäftigen damit alles schön auf min. 16 Threads skaliert und die Schwäche in Singlecore und Latenzen schön kaschiert wird :ugly:
Vom PCGH-Test ausgehend scheint es bis auf 2 Spikes keinen nennenswerten Unterschied in den Frametimes zwischen 2C/4T und 8C/16T zu geben. Gerade mal 10% Unterschied bei 300% mehr Threads?
http://www.pcgameshardware.de/Tropi...al-Engine-4-Systemanforderungen-1278907/2/#a2
 
Zurück