News Dank Ryzen 7 8700G: Cyberpunk 2077 "ohne Grafikkarte" flüssig

Braucht man dafür wirklich einen Modus? Man hat halt einfach einen günstigen, sparsamen Rechner, der nicht superviel, aber für viele Dinge ausreichende Grafikleistung hat.

Wäre ein nächster (guter & wichtiger) Schritt.

Das Standard-OS bremst eigentlich nur:

- es kann nicht auf Hardwareebene programmiert werden
- zig Konfigurationen, erfordern zig Treiber-Set Ups, Shader, Spieleanpassungen, usw.
- das OS hängt immer dazwischen und belastet das gesamte System

Das sieht man am besten auf einer Switch.
Der NVidia Tegra X1 basiert auf der Maxwell Architektur und ist mittlerweile 10 Jahre alt.
Borderlands 3 und weiteres läuft aber auf dem Handheld....
...und zwar, weil es hardwarenah auf ein schlankes OS aufsetzt.

Dadurch kann man schon freigewordene Leistung nutzen.

Interessant wäre ein Hybrid-Mode, einmal das native OS für Windows
und zum Spielen startet man im Game-OS-Mode...

Die XBox macht es exakt so, Unterbau ist Windows,
aber völligst entschlackt.
Die Komponenten sind nicht weit von Standard-PC Bauteilen entfernt,
aber werden präziser genutzt.
 
OK, das passt grob mit dem zusammen, was ich im Hinterkopf hatte. Ich werde wohl bei meinem Plan bleiben und auf Zen 5 warten. Mir ist bewusst, dass dass nur Winzigkeiten sind, die mich da stören, aber mein Leidensdruck ist auch noch sehr gering.
Ich verstehe nicht genau, was dich da stört. Ich meine, es ist ja nicht so, dass du irgendwas verpasst, wenn dein RAM mit DDR5-6000 statt DDR5-7200 läuft. Letztere laufen bei Intel übrigens auch nur asynchron im 2:1-Modus und ich hab noch keinen gesehen, der sich darüber beschwert. Das ist lustigerweise immer nur bei AMD ein "Problem". Fakt ist, dass es mit aktuellen BIOS-Versionen so gut wie keine Probleme mehr mit der Plattform gibt. Mein System ist rockstable und ich mache alles mögliche damit.
 
Crysis entspräche etwa Alan Wake mit PT...aktuell.
Doch nicht Cyperpunk auf Low. Das packt auch die PS4.

1. Cyberpunk läuft auf der PS4 in dynamischer Auflösung zwischen 720p und 1080p, nicht fix auf 1080p.
2. Die PS4 hat keinen Ballast in Form von Windows-OS + Treiberkonfiguration mitzuschleppen.
sondern nutzt nutzt Orbis-OS.
3. Die PS4 hat eine vollständige Grafikkarte mit 18 Compute Units (1.152 Shader) integriert,
der Ryzen 8700G nutzt 12CU und 768SP, die nicht vollständig einer dedizierten Grafikkarte entsprechen.
PS4 = RX480
Ryzen 8700G = 780M (Mobile)
4. AMD hat hier wirklich was besonders feines entwickelt, jemand anderes, wie immer, nicht.
 
Ich verstehe nicht genau, was dich da stört. Ich meine, es ist ja nicht so, dass du irgendwas verpasst, wenn dein RAM mit DDR5-6000 statt DDR5-7200 läuft. Letztere laufen bei Intel übrigens auch nur asynchron im 2:1-Modus und ich hab noch keinen gesehen, der sich darüber beschwert. Das ist lustigerweise immer nur bei AMD ein "Problem". Fakt ist, dass es mit aktuellen BIOS-Versionen so gut wie keine Probleme mehr mit der Plattform gibt. Mein System ist rockstable und ich mache alles mögliche damit.
Ich möchte einfach nach einem Upgrade die doppelte RAM-Bandbreite haben und bin aktuell bei DDR4-3200. Ist eher ein kosmetisches Ding und kein echtes Problem. Mir ist bewusst, dass der Geschwindigkeitszuwachs von 6.000 auf 6.400MT/s selbst ohne 3D-Cache gerade so messbar ist und hätte ich Aufrüstbedarf, wäre mir das auch egal. Um AMD gegen Intel geht es mir dabei auch nicht und die allgemeine Stabilität von AM5 zweifle ich auch nicht an. Ich hätte eigentlich auch gerne einen Single-CCD-Zwölf- oder vielleicht sogar Sechszehnkerner. Deshalb warte ich einfach noch auf Zen 5.
- es kann nicht auf Hardwareebene programmiert werden
- zig Konfigurationen, erfordern zig Treiber-Set Ups, Shader, Spieleanpassungen, usw.
- das OS hängt immer dazwischen und belastet das gesamte System
Eigentlich läuft fast alles auf Hardwareebene, das OS verteilt nur die Ressourcen, also z.B. CPU-Zeit und Speicher. Treiber braucht man natürlich, aber die bilden ja auch nur die Schnittstellen ab. Da kann man natürlich sein eigenens Ding machen, wenn man die Entwickler nerven will, aber viel gewinnen wird man damit nicht. Der einzige Unterschied ist, dass die Software nicht exakt auf einzelne Chips entwickelt wird, aber damit würde man auch keine Wunder bewirken, moderne Systeme wissen die Ressourcen eigentlich schon sehr gut zu nutzen. Das OS selbst braucht natürlich auch Ressourcen, aber wenn man mehr als ein Programm laufen lassen möchte, braucht man halt eins.
Das sieht man am besten auf einer Switch.
Der NVidia Tegra X1 basiert auf der Maxwell Architektur und ist mittlerweile 10 Jahre alt.
Borderlands 3 und weiteres läuft aber auf dem Handheld....
...und zwar, weil es hardwarenah auf ein schlankes OS aufsetzt.
Naja, ich habe mir das mal auf Youtube angesehen und denke, dass es eher daran liegt, dass die Optik komplett zusammengestrichen wurde. Dazu kommt es wohl nur auf 30-40 Fps.
Die XBox macht es exakt so, Unterbau ist Windows,
aber völligst entschlackt.
Gut, bei Windows gibt es viel zu entschlacken, sogar Dinge, die spürbar CPU-Leistung fressen. Ansonsten bedeutet ein schlankes System hauptsächlich wenig RAM-Belegung. Das kann natürlich helfen, wenn der RAM sehr knapp bemessen ist, Wunder erreicht man damit aber auch nicht.
Die Komponenten sind nicht weit von Standard-PC Bauteilen entfernt,
aber werden präziser genutzt.
Eigentlich sind die Schnittstellen fast die gleichen. Optimieren kann man natürlich so, dass man die Optik so einstellt, dass die Ressourcen immer voll ausgenutzt werden. Beim PC muss man das halt selbst über die Einstellungen machen.

Also die Zeit, in denen der Weg von der Software zur Hardware so viel ausgemacht hat, ist eigentlich vorbei und wurde eigentlich erst besonders wahrgenommen, als Konsolen so blöd zu programmieren waren, dass die Entwickler sich erstmal über Jahre damit zurechtfinden mussten. Da waren Cross-Plattform-Titel dann auch oft deutlich unterlegen, weil sich die Entwickler das nicht auch noch mehrfach geben wollten.
 
Zuletzt bearbeitet:
Eine gute Entwicklung! :daumen:
Für einen erschwinglichen Preis bekommt man endlich eine kompackte und gute Leistung, welche mit Sicherheit genug Abnehmer finden wird.

Hoffentlich drückt es ab Release die übertriebenen Preise für die Grakas nach unten, wenn es denn dann doch mal mit mehr Schnick und Schnack sein muß. Würde mich freuen! :D
 
The Money game!

Liegt ja auf der Hand was wie wo mehr fps rausspuckt!

Wenn ich an einem spiel arbeite, dan kann ich die tools von AMD oder NV benutzen.

Und bitte hört mal auf mit dem fanboy scheiss!

Sei es AMD oder NV es ist wie es ist FIN
 
Eigentlich läuft fast alles auf Hardwareebene, das OS verteilt nur die Ressourcen, also z.B. CPU-Zeit und Speicher. Treiber braucht man natürlich, aber die bilden ja auch nur die Schnittstellen ab. Da kann man natürlich sein eigenens Ding machen, wenn man die Entwickler nerven will, aber viel gewinnen wird man damit nicht. Der einzige Unterschied ist, dass die Software nicht exakt auf einzelne Chips entwickelt wird, aber damit würde man auch keine Wunder bewirken, moderne Systeme wissen die Ressourcen eigentlich schon sehr gut zu nutzen. Das OS selbst braucht natürlich auch Ressourcen, aber wenn man mehr als ein Programm laufen lassen möchte, braucht man halt eins.

Wir sind uns da ja in folgendem Punkt einig:

DX12 hat die Ressourcenverwendung freigegeben.
Das ist doch aber auch schon alles.

Es kann jetzt gesteuert werden, welcher Kern, mit welchen Ressourcen belegt,
welche Pipeline mit welchen Berechnungen ausgelastet wird, das wars doch aber auch schon.
Es ging um Parallelisierung von Prozessen, nicht um Optimierung.
Die Asynchronous_Shader-Technologie erkennt "Leerlauf" und ordnet Ressourcen zu.
Erinnert mich fast an IRQ :lol:
Welcome back to the 90s

Das "System" ist aber unverändert:

Der Sprung (von High-Level-API DX bis 11 > Low-Level-API DX12/Vulkan) ist vorhanden,
hat aber immer noch den Brute-Force-Ansatz.

Denn, gezielte Programmierung und Anpassung, wie seinerzeit
Glide, Mantle, Metal, ist nicht gegeben.

Ja, Vulkan ist ein Derivat von Mantle, aber nicht Mantle

Wenn bereits so Hardwarenah programmiert werden würde,
wären neue Treiberversion die teilweise 30 % an Leistung bei Spielen rausholen,
weder möglich, noch notwendig.

Auch Anpassungen an Engines wären nicht notwendig.

Gut, bei Windows gibt es viel zu entschlacken, sogar Dinge, die spürbar CPU-Leistung fressen. Ansonsten bedeutet ein schlankes System hauptsächlich wenig RAM-Belegung. Das kann natürlich helfen, wenn der RAM sehr knapp bemessen ist, Wunder erreicht man damit aber auch nicht.

Nicht nur RAM, auf einem Windows-PC kann und wird leider nicht Hardwarenah gearbeitet, kann es auch gar nicht, da MS prinzipiell egal ist, welche Hardware zum Einsatz kommt und von wem, Hauptsache x86 kompatibel...

- CPU
- Chipsatz
- RAM
- Grafikkarte
- Festplatte
usw. usf...

Das Alles ist entweder ein System auf dessen Basis alles zugeschnitten und optimiert wurde,
oder man hat naturgemäß Reibungsverluste, das liegt in der Natur der Sache, immer.

Eigentlich sind die Schnittstellen fast die gleichen. Optimieren kann man natürlich so, dass man die Optik so einstellt, dass die Ressourcen immer voll ausgenutzt werden. Beim PC muss man das halt selbst über die Einstellungen machen.
Also die Zeit, in denen der Weg von der Software zur Hardware so viel ausgemacht hat, ist eigentlich vorbei und wurde eigentlich erst besonders wahrgenommen, als Konsolen so blöd zu programmieren waren, dass die Entwickler sich erstmal über Jahre damit zurechtfinden mussten. Da waren Cross-Plattform-Titel dann auch oft deutlich unterlegen, weil sich die Entwickler das nicht auch noch mehrfach geben wollten.

Eben nicht, es ist eben leider nix "geklärt", seit mittlerweile einem 1/4 Jahrhundert is nix geklärt.
Die Diskussion fängt ja auich grade erst wieder mal an, FSR vs. DLSS.
Oder besser gesagt, geht seit DX, Glide, Metal, Mantle, Vulkan, FSR, unentwegt weiter.

Der nächste Paradigmenwechsel findet doch gerade aktuell statt und wir befinden uns mittendrin.
 
Da kann ich dir nur zustimmen! Ich Wette hier mal 100 Schweizer Franken das die APU bzw. CPU kombiniert mit GPU die Zukunft ist! Da bin ich mir ziemlich sicher!



Alle Konsolen haben ne APU also es ist nur noch eine frage der zeit.



Egal welcher Hersteller! Hybrid ist die Zukunft auch mit 3D stacking und tech wo wir banausen noch
 
Seit Projekt Fusion erzählt man jetzt schon, dass die Einstiegs GPUs bald von APUs abgelöst werden.

Ich glaub's wenn ich sehe :).
 
Wenn man ehrlich ist, ist der 8700G eigentlich ein schlechter Witz als "1080p-Gamer-APU", insbesondere für 319$. Sogar die reale Gamingleistung einer Series S liegt wohl deutlich darüber und die kostet komplett weniger als diese APU alleine. Spätestens der Vergleich mit PS5/Series X wird dann richtig absurd. Deren Chips sind erheblich stärker und AMD verdient auch daran. Solch hohe Preise sind also eigentlich nicht nötig.
Es gibt eigentlich nur zwei Möglichkeiten diese schlechteren PC/Laptop-APUs zu erklären:
- AMD will sich das eigene GPU Geschäft nicht sabotieren.
- Es gibt Verträge mit Microsoft und Sony, die solche starken APUs für den PC verhindern um die Konsolen attraktiver zu machen.
 
Denn, gezielte Programmierung und Anpassung, wie seinerzeit
Glide, Mantle, Metal, ist nicht gegeben.
Die ist aber heute auch einfach nicht mehr nötig. Die Schnittstellen sind ja schon sehr feingliedrig und auch bekannt, wenn also die Hardwarehersteller einfach auch gegen die Schnittstellen entwickeln, bleibt eigentlich nur noch der Anforderungsmix als Variable, aber der lässt sich halt leider oft nicht gut anpassen.
Wenn bereits so Hardwarenah programmiert werden würde,
wären neue Treiberversion die teilweise 30 % an Leistung bei Spielen rausholen,
weder möglich, noch notwendig.
Aber dass sich solche gravierenden Performanceprobleme auch durch Treiber lösen lassen, zeigt doch eigentlich, dass man nicht direkt auf die Hardware entwickeln muss, um trotzdem sehr gute Ergebnisse zu erzielen. Ich will nicht sagen, dass da gar kein Potenzial liegen würde, aber es rechtfertigt auf keinen Fall den Aufwand, für jede Hardware das Rad neu zu erfinden. Das ist ja genau der Grund, warum wir jetzt sind, wo wir sind und warum z.B. Mantle auch krachend gescheitert ist.
Nicht nur RAM, auf einem Windows-PC kann und wird leider nicht Hardwarenah gearbeitet, kann es auch gar nicht, da MS prinzipiell egal ist, welche Hardware zum Einsatz kommt und von wem, Hauptsache x86 kompatibel...
Naja, hardwarenah heißt ja nicht zwingend, dass es auf eine spezielle Hardware zugeschnitten ist und x86 ist auch nicht gleich x86. Viele Programme nutzen optional beschleunigte Pfade, wenn bestimmte Befehlssatzerweiterungen verfügbar sind. Der Kernel ist wohl in C programmiert, das hat an sich schon ziemlich wenig Overhead. Programme laufen aber halt auch großteils eher neben dem Betriebssystem auf der Hardware als wirklich darauf.
Das Alles ist entweder ein System auf dessen Basis alles zugeschnitten und optimiert wurde,
oder man hat naturgemäß Reibungsverluste, das liegt in der Natur der Sache, immer.
Irgendwo schon, aber ich denke die sind oft vernachlässigbar, weil eben beide Seiten einer Schnittstelle diese möglichst effizient bedienen oder nicht ohne immensen Aufwand vermeidbar, weil einfach die Hardwareressourcenverhältnisse nicht exakt zu den Anforderungen der Software passen. Was auf Konsolen heute wohl gemacht wird, ist die Softwarebedürfnisse an die Hardwaremöglichkeiten anzupassen. Das geschieht ja auf einer viel höheren Ebene, ermöglicht aber trotzdem eine sehr hohe Ausnutzung.
Eben nicht, es ist eben leider nix "geklärt", seit mittlerweile einem 1/4 Jahrhundert is nix geklärt.
Die Diskussion fängt ja auich grade erst wieder mal an, FSR vs. DLSS.
Oder besser gesagt, geht seit DX, Glide, Metal, Mantle, Vulkan, FSR, unentwegt weiter.
Man kann meiner Meinung nach Upsampling-Software nicht wirklich mit Grafikschnittstellen vergleichen und die ist ja auch nicht hardwarespezifisch, wenn das nicht künstlich erzwungen wird. Und natürlich entwickelt sich das alles weiter, wobei es die letzten knapp zehn Jahre eigentlich recht ruhig ist, also seit Mantle zu Vulkan wurde und DX12 rausgekommen ist. Was ich aber eigentlich meinte war, dass die Grafikschnittstellen auf dem PC und den Konsolen (außer natürlich denen von Nintendo, dem Apple der Konsolenhersteller) sehr ähnlich sind, sehr zur Freude von Crossplattformentwicklern.
 
1. Cyberpunk läuft auf der PS4 in dynamischer Auflösung zwischen 720p und 1080p, nicht fix auf 1080p.
Die 780M am Desktop ist vielleicht minimal schneller als die aktuelle Intel IGP.
Die 680M ist doch kaum langsamer. Was soll man da bitte feiern?
Ein Spiel aus 2020 auf einer aktuellen IGP auf Low, soll jetzt irgendetwas großartiges sein? :lol:
4. AMD hat hier wirklich was besonders feines entwickelt, jemand anderes, wie immer, nicht.
Nur weil AMD seit "Ewigkeiten" schon keine neue Desktop APU mehr gebracht hat.
Die PS4 ist natürlich dann etwa doppelt so schnell. Und so viel schneller ist die 780M auch nicht, ich gehe mal von 40 oder 50% zum 5700G.

Screenshot 2024-01-13 152658.png

Intels IGP kann da hinsichtlich Effizienz und Leistung mithalten. AMD sieht da schon sehr schwach aus mit diesem Update.
Auf einer mobilen Konsole, wie dem Steam Deck, ist das ein Quantensprung. Und das ganze dann mit FSR und Co. :-)
Solche Beiträge die man hier so liest, einfach nicht ernst nehmen. "Quantensprucng".
Das ist doch erkennbarer Unsinn, wenn das Ding zum Vorgänger keinerlei Sprung nach vorne macht.
 
Zuletzt bearbeitet:
Auf einer mobilen Konsole, wie dem Steam Deck, ist das ein Quantensprung. Und das ganze dann mit FSR und Co. :-)

Auch in VR Headsets könnten solche Prozessoren verbaut werden, womöglich aber in abgespeckter Form.

Auf dem PC wäre es super, wenn Strategiespiele wie Anno 1800 oder Civilization VI flüssig laufen würden. Da wäre eine beträchtliche Zielgruppe abgedeckt.

Bin dabei.

Es handelt sich um genau den gleichen Chip wie im ROG Ally. Von daher wird es tatsächlich nur ein (kleiner-als-mikroskopisch-klein) Quantensprung, denn die höhere TDP und dadurch leicht höheren Taktraten der Desktop-Modelle verbieten sich auch zukünftig in kompakten, mobilen Geräten.

Was brauche ich da für ein Mainboard, AM5 gibt es kein Mini-ITX mit Analogausgang, aber in microAtX schon. Ist das das Kleinste, wenn ich einen sehr kleinen Pc neben meinen sehr großen Röhrenmonitor stellen möchte?

Bislang gab es keine billigen Office-Prozessoren für AM5 und dieser "wir sind so geizig, dass wir 10 Jahre alte Lowest-End-/15 Jahre alte Mittelklasse-Monitore nutzen"-Markt ist seit langem die einzige Zielgruppe für analoge Ausgänge. Du solltest vergleichbar miese Eigenschaften aber auch einfach per externem Adapter nachrüsten können. Die Boards mit D-SUB verbauen genau die gleichen Digital-Anlaog-Konverter-Chips wie der Krabbeltisch Schrott; native Analogausgänge hat es meiner Erinnerung seit Anfang des letzten Jahrzehnts nicht mehr gegeben.

Da viele Spiele die für 4:3-Ausgabe optimiert wurden auf AM5-unterstützen Betriebssystemen nicht mehr laufen und diese Lösungen rein vom Pixeltakt her kein 1.600 × 1.200 mit über 75 Hz unterstützen dürften (ggf. sogar auf 60 Hz gelockt sind, da nur für die Nutzung alter Billig-LCDs gedacht), würde ich an deiner Stelle zu Retro-Hardware für Retro-Spiele auf einem Retro-Anzeigegerät greifen.
 
Sowas habe ich für HDMI und Displaport zu Hause, aber ich will wirklich keinen Lag, aus Prinzip nicht. Das sind ja keine Adapter, sondern Konverter und das hätte ich lieber nicht in der Signalkette.

Wo ist denn das Problem, es gibt doch AM5-Boards mit VGA- out, nur leider nicht Mini ITX. Aber ich kann doch ein micrATX Board nehmen? Wäre mit selbstgebautem Gehäuse wohl kleiner, als mein aktuelles MiniItX-Setup mit Grafikkarte und für Emulation endlich schnell genug.

Ich warte schon lange auf eine kräftige iGPU mit moderaten Stromverbrauch, das scheint es zu sein.
Vom Gehäuse sowas vielleicht ?
33-Liter-MicroATX-Gehäuse von ASUS
 
Zurück