News Dank Ryzen 7 8700G: Cyberpunk 2077 "ohne Grafikkarte" flüssig

Crysis entspräche etwa Alan Wake mit PT...aktuell.
Doch nicht Cyperpunk auf Low. Das packt auch die PS4.
Crysis entspräche mitnichten Alan Wake weil Pathtracing eine komplett neue High-End Spielerei darstellt. Low End user sehen da praktisch keinen Unterschied bei 1080 und brauchen/wollen das deswegen auch gar nicht.
Crysis führte als innovatives Feature SS Ambient Occlusion ein, welches sich als weitaus weniger rätselhaftes Suchspiel entpuppte.

Ich finde es immer wieder überraschend, wie man selbst bei Hardware eine radikale Gegenmeinung vorfinden kann.
Cyberpunk ohne GPU mit 60fps bei 1080p ist objektiv, bibeltreu und wissenschaftlich gesehen sehr geil.
 
Crysis entspräche mitnichten Alan Wake weil Pathtracing eine komplett neue High-End Spielerei darstellt.
Crysis von dem damaligen Standpunkt genauso eine "High End Spielerei" und die Vergleichbarkeit ist schwierig.
Crysis führte als innovatives Feature SS Ambient Occlusion ein, welches sich als weitaus weniger rätselhaftes Suchspiel entpuppte.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Schaut man sich Analysen an, ist das weit entfernt von einem Suchspiel der neuen Effekte.
Ich finde es immer wieder überraschend, wie man selbst bei Hardware eine radikale Gegenmeinung vorfinden kann.
Weil diese IGP von der Grafikleistung her absolut nichts besonderes ist, da die letzte IGP noch auf Vega Grafik von 2017 basierte und in Relation zu dGPUs immer viel zu schwach zum halbwegs vernünftigen Spielen bleibt, da der Flaschenhals das Speicherinterface größere Ausbauten mit mehr CUs verhindert.
Cyberpunk ohne GPU mit 60fps bei 1080p ist objektiv, bibeltreu und wissenschaftlich gesehen sehr geil.
Ohne Vergleichswerte was andere GPUs und IGPs leisten, ist das nur Marketing, wissenschaftlich ist das nicht.
In Full HD, sofern es denn natives Full HD überhaupt ist, was ich stark bezweifle, stellt das vielleicht eine 1050 Ti, Anno 2016, dar.
 
Ambient Occlusion ist etwas völlig anderes als RT, schon alleine weil RT immer noch nirgends vollständig implementiert werden kann. Davon sind wir weit entfernt.
Bei AO ist das aber seit Crysis der Fall weil wir den Effekt in akzpetabler Qualität simulieren können. Bei den meisten 3d Assets wird AO in Texturen normalerweise mit "hineingebacken" wenn die Engine es nicht alleine packt. Der Look ist sonst komplett unnatürlich (ausser, man will so einen Cartoon-Look erreichen) . Es ist ein Gamechanger, während RT eben per Definition keiner sein kann (siehe oben). Mit anderen Worten, RT ist bisher nur ein Gamechanger für "nasse Pfützen im Neonlicht". Das sieht dann auch der Klein Daddel-Fritze auf dem dicken PC seines Bruders.
Aber worüber haben wir nochmal geredet? Ach, ja: das Pendant zu Crysis auf nem Mittelklasse Laptop.

Ich finde auch, dass die handvoll Topspiele mit RT in 4K bildschön aussehen können. Es hat aber mit dem Umstand wenig zu tun, dass ein bischen RT in praktisch allen Spielen einem Otto Normalzocker bei 1080p nicht auffallen wird, im Gegensatz zu AO.

Ich lese gerne dein letztes Wort, aber mehr hab ich da nicht mehr zu sagen.
 
Es handelt sich um genau den gleichen Chip wie im ROG Ally. Von daher wird es tatsächlich nur ein (kleiner-als-mikroskopisch-klein) Quantensprung, denn die höhere TDP und dadurch leicht höheren Taktraten der Desktop-Modelle verbieten sich auch zukünftig in kompakten, mobilen Geräten.



Bislang gab es keine billigen Office-Prozessoren für AM5 und dieser "wir sind so geizig, dass wir 10 Jahre alte Lowest-End-/15 Jahre alte Mittelklasse-Monitore nutzen"-Markt ist seit langem die einzige Zielgruppe für analoge Ausgänge. Du solltest vergleichbar miese Eigenschaften aber auch einfach per externem Adapter nachrüsten können. Die Boards mit D-SUB verbauen genau die gleichen Digital-Anlaog-Konverter-Chips wie der Krabbeltisch Schrott; native Analogausgänge hat es meiner Erinnerung seit Anfang des letzten Jahrzehnts nicht mehr gegeben.

Da viele Spiele die für 4:3-Ausgabe optimiert wurden auf AM5-unterstützen Betriebssystemen nicht mehr laufen und diese Lösungen rein vom Pixeltakt her kein 1.600 × 1.200 mit über 75 Hz unterstützen dürften (ggf. sogar auf 60 Hz gelockt sind, da nur für die Nutzung alter Billig-LCDs gedacht), würde ich an deiner Stelle zu Retro-Hardware für Retro-Spiele auf einem Retro-Anzeigegerät greifen.
Gut, da ist also mein Denkfehler. Dann werde ich die 980ti mit Biosmod als Maximum ansehen, die kann auch noch Windows XP.
Vom Gehäuse sowas vielleicht ?
33-Liter-MicroATX-Gehäuse von ASUS
Sehr schön, aber ich will das schon noch kleiner, so klein wie es nur geht! Der wird auch mal mit zur Arbeit genommen oder zu Freunden. Das Minimum bisher war Mini ITX mit Riserkabel und der Quadro, 18mal 18 mal 8 cm, Gehäuse selbst gebaut, Netzteil extern.

Mit dem Ryzen 8 hätte ich die Leistung ja locker noch kleiner! Schade, dass der Analogout dann schlechter wird, aber da lebe ich dann vielleicht mit. Ich mache zwei Systeme, ein analogeres und ein leistungsstärkeres. Anders geht es nicht.
 
Zuletzt bearbeitet:
Auf dem PC wäre es super, wenn Strategiespiele wie Anno 1800 oder Civilization VI flüssig laufen würden. Da wäre eine beträchtliche Zielgruppe abgedeckt.
Sollte wohl machbar sein

Multi CPU mit CrossfireX wäre nice.
Vieleicht was naherliegenderes, 3D Cache für die APU?

Na das macht doch schon ganz neugierig auf Strix Halo mit möglicherweise ~40CUs auf RDNA 3.5-Basis und der aufgebohrten KI-Einheit XDNA 2 =)
40CUs sind sicherlich nice, beim Rest sehe ich nach aktuellem Stand kaum Vorteile. RDNA3.5 wird wohl mehr Takt bringen und die neuen und mehr KI EInheiten. Takt ist bei einer APU so eine Sache, die KI Einheiten kann AMD aktuell nicht sinnvoll nutzen (im Gaming; bis vieleicht irgendwann ein KI Upscaler kommt), daher kann man vermutlich aus der heutigen APU ableiten, dass die Gamingperformance (sofern GPU limitiert) vermutlich verdoppelt werden kann, für verdreifacht fehlt mir der Glaube, weil man vermutlich im Takt runter muss mit 40 CUs.

Was gänge denn maximal?
sinnvoll? Dann ist es ausgereizt, mehr wird man nicht sinnvoll umgesetzt bekommen ohne dass die CPU Leistung (weiß gar nicht so genau wie die GPU auf Speicherteiler reagiert) sinkt.

APU mit 1000 oder sogar 2000 Shadern raus
soll ja kommen, 40 CUs würden dann meiner Rechnung nach fast 2000 Shader entsprechen.

Der Markt für Handhelds wäre dankbar mal ganz abgesehen davon, dass das im mobile Segment gut funktioniert, siehe Apples M2/ M3 Pro Chips...
Für Handhelds ist sowas nicht zu gebrauchen, wenn du Notebooks meinst ist das sicherlich eine nette Idee, aber denk dran, es muss auch gekühlt werden und da sehe ich bei den heutigen immer kleineren Fertigungen meine großen Bedenken, mein Notebook mit zugegeben verschwenderischer Hardware bspw. sitzt ingame eigentlich immer bei 100° und damit im Thermal Limit. Nen 120mm Lüfter bekommste nunmal nicht unter.


Die IGPs fressen den dGPU-Markt von unten auf und machen Grafikkarten zum Luxus-Gaming-Gut.
Das vermuten wir seit nunmehr 15 Jahren, dennoch bieten diskrete Grafikkarten immer noch unschätzbare Vorteile, bspw. dedizierten Speicher usw. Dazu kommt, dass APUs zu selten ernsthafte Upgrades bekommen und AMD eigentlich alleine am Markt war. Was bei Intel jetzt passiert muss man mal abwarten, aber ich erwarte da nicht soviel und dann ist man eben gar nicht gezwungen was "großes" zu bauen. Wenn man was machte, war es für die Konsolen und die APUs sind nie so wirklich schlecht gewesen.
 
Für Handhelds ist sowas nicht zu gebrauchen, wenn du Notebooks meinst ist das sicherlich eine nette Idee, aber denk dran, es muss auch gekühlt werden und da sehe ich bei den heutigen immer kleineren Fertigungen meine großen Bedenken, mein Notebook mit zugegeben verschwenderischer Hardware bspw. sitzt ingame eigentlich immer bei 100° und damit im Thermal Limit.
Da muss man echt mal abwarten, wie da die Langzeitergebnisse sind. Angeblich macht der Hardware das ja nichts aus. Eine GT425M ist mir aber mal abgeraucht. Aber gut, lange her, andere Zeit, kann andere Ursachen gehabt haben...
Das vermuten wir seit nunmehr 15 Jahren, dennoch bieten diskrete Grafikkarten immer noch unschätzbare Vorteile, bspw. dedizierten Speicher usw. Dazu kommt, dass APUs zu selten ernsthafte Upgrades bekommen und AMD eigentlich alleine am Markt war.
Wurde hier auch schon mal in einem ähnlichen Zusammenhang geschrieben: Die unterste Riege an dedizierten GPUs ist schon mal weg. Aber ich denke auch, dass es nicht viel weiter gehen wird. Die Leistung von iGPUs wird im Verhältnis vermutlich auf absehbare Zeit ähnlich bleiben und das reicht einfach nicht für die Mittelklasse und aufwärts.
 
Also eine Series S wo die APU alleine gleich viel kostet wie die ganzen Konsole


Also mach jetzt AMD genau das gleiche wofür AMD damals bei Broadwell Intel ausgelacht hatte:
I5 5675C mit der beschnittenen Iris Pro um 249 € (8500G)
I7 5775C mit dem Vollausbau 309€ (8700G)
 
Zuletzt bearbeitet:
Ambient Occlusion ist etwas völlig anderes als RT, schon alleine weil RT immer noch nirgends vollständig implementiert werden kann. Davon sind wir weit entfernt.
Pathtracing ist Realität... kann man spielen. Nichts Raster.
Gibt es da noch deutlich schnellere von Intel?
Meteor Lake.
Es ist ein Gamechanger, während RT eben per Definition keiner sein kann (siehe oben). Mit anderen Worten, RT ist bisher nur ein Gamechanger für "nasse Pfützen im Neonlicht".
Ich frage mich die ganze Zeit warum es heute immer noch RT Hater gibt.
Ach, ja: das Pendant zu Crysis auf nem Mittelklasse Laptop.
Die integrierte Grafik kann doch niemals mit der Mittelklasse von Notebook GPUs mithalten. :ugly: Was hast du bitte für Vorstellungen an den Wadlbeißer?

60 FPS in Cyberpunk auf low und das soll Werbung sein?

Ich lese gerne dein letztes Wort, aber mehr hab ich da nicht mehr zu sagen.
Ich würde empfehlen Tests abzuwarten...
 
Zuletzt bearbeitet:
Ich frage mich die ganze Zeit warum es heute immer noch RT Hater gibt.

Hat mit Hater nix zu tun.
Es wird nur sinnlos gehyped..

Seit 2 Grafikkartengenerationen hyped NVidia das und
RT ist immer noch nur mit High-End-Karten in hoher Auflösung nutzbar....

Niemand hasst RT, aber NVidia und die 50 Nutzer einer 4090 liegen
einem ständig damit in den Ohren...

Wir sind grad in einem Thread über eine sehr interessante APU von AMD
und es kommt RT.....

Und echt jetzt, es kann keiner mehr hören, es interessiert niemanden.

60 FPS in Cyberpunk auf low und das soll Werbung sein?

Yes, Cyberpunk ist immer noch State of the Art, wüsste nicht, das Intel/Nvidia
das mit einer APU könnten.

Also Respekt zu, wie immer, Top Ingenieurskunst von AMD.
 
Zuletzt bearbeitet:
So legem die GPU Hersteller ihre Maske ab. Wenn sich jemand gefragt hat warum Spiele bei 10x potenter Hardware kaum besser aussehen und immer noch ruckeln, hier ist sie. Vorbei die Zeiten als wir Spieler mit steigenden GPU Preisen gemolken wurden, wir werden schlicht nicht mehr gebraucht. Nein, wir sind sogar ein Klotz am Bein. Alles wird für den gewinnträchtigen KI-Markt benötigt. Nun werden überfällige Optimierungen vorgenommen und plötzlich läuft das Ganze auf der iGPU. Macht diese Optimierungen auf einer 1080TI/2080TI, da würden so manchem die Kinnladen runterklappen.
 
Da wird nicht sinnlos gehyped. RT ist die Zukunft und bei Filmen schon lange Standard. Wer das nicht akzeptieren will ist nicht die hellste Kerze auf der Torte.
RT ist zwar die Zukunft, aber ich sehe nicht ein, soviel mehr Geld für dieses Feature auszugeben.

Aber in 2-3 Jahren könnte das schon anders aussehen. Dann stemmen bestimmt auch Mittelklasse Grafikkarten RT schon besser. Auch die von AMD.
 
RT ist zwar die Zukunft, aber ich sehe nicht ein, soviel mehr Geld für dieses Feature auszugeben.
Was schreibt ihr hier eigentlich für einen Unfug? Was hat RT mit dem Preis der Grafikkarte zutun?
Wenn du ernsthaft glaubst, dass die Karte heute ohne RT wesentlich günstiger wären, dann bist du ziemlich naiv ;)
 
Was schreibt ihr hier eigentlich für einen Unfug? Was hat RT mit dem Preis der Grafikkarte zutun?
Wenn du ernsthaft glaubst, dass die Karte heute ohne RT wesentlich günstiger wären, dann bist du ziemlich naiv ;)
Naja, wenn man ordentliche RT Leistung haben will, muß man mehr Geld für eine Grafikkarte ausgeben.
Gerade in höheren Auflösungen. Da kriegt man wenn man will sogar eine RTX 4090 klein.
Mit Mittelklasse-Grafikkarten braucht man das dann gar nicht probieren.
 
Was schreibt ihr hier eigentlich für einen Unfug? Was hat RT mit dem Preis der Grafikkarte zutun?
Wenn du ernsthaft glaubst, dass die Karte heute ohne RT wesentlich günstiger wären, dann bist du ziemlich naiv ;)
Natrülich wären sie das, bzw. müssten es sein. RT wird als Featureset verkauft und NVIDIA und auch AMD verlangen dafür einen Aufpreis. Ist bei AI genauso.
 
Naja, wenn man ordentliche RT Leistung haben will, muß man mehr Geld für eine Grafikkarte ausgeben.
Dass die Grafikkarten so teuer sind, liegt aber nicht an RT, auch wenn dein Post es suggeriert.

Natrülich wären sie das, bzw. müssten es sein. RT wird als Featureset verkauft und NVIDIA und auch AMD verlangen dafür einen Aufpreis. Ist bei AI genauso.
Nein, sie wären nicht wesentlich günstiger, wenn es RT nicht geben würde.
Nvidia ist so teuer, weil sie konkurrenzlos sind und die Herstellung des Chips so teuer ist, aber die DIE Size wäre heute nicht geringer, würde es kein RT geben.

AMD hat keine extra Hardware-Einheiten für RT Berechnungen und ist trotzdem vergleichsweise teuer im Gegensatz zu früher. Sollte euch zu denken geben ;)
 
Zurück