Sockel 775 und Geforce GTX 980: Eine sinnvolle Kombination? Leserbrief der Woche

Laggy.NET schrieb:
Rise of the Tomb Raider im Geothermal Valley ist z.B. so ein Problemfall. Dort gibt es so einige Stellen, die die CPU extrem fordern, so dass man sowohl mit AMD, als auch Nvidia ins CPU-Limit kommt. Nur hat man mit ner Nvidia Karte hier deutlich mehr FPS, da der CPU overhead einfach geringer ist.

Nun hat der konkrete Problemfall aber auch Dx12-Support, womit das Problem sich quasi erledigt - inzwischen taugt auch die Implementierung ziemlich gut. Links 11, rechts 12:
rotr-dx11.jpg rotr-dx12.jpg

Auch wenn ich jetzt wahrscheinlich nicht die fordernste Stelle erwischt habe (bin da bei meinem Playthrough gerade erst gelandet) - zumindest übertaktet sollte ein C2Q für spielbare Frameraten wieder problemlos ausreichen. Das Problem bei der CPU aus dem Leserbrief ist einfach der extrem niedrige Takt.
 
Nun hat der konkrete Problemfall aber auch Dx12-Support, womit das Problem sich quasi erledigt - inzwischen taugt auch die Implementierung ziemlich gut. Links 11, rechts 12:
Anhang anzeigen 916480Anhang anzeigen 916481

Auch wenn ich jetzt wahrscheinlich nicht die fordernste Stelle erwischt habe (bin da bei meinem Playthrough gerade erst gelandet) - zumindest übertaktet sollte ein C2Q für spielbare Frameraten wieder problemlos ausreichen. Das Problem bei der CPU aus dem Leserbrief ist einfach der extrem niedrige Takt.

Doch, das ist die fordernste Stelle.
Aber wie ich sagte, DX11. Mit DX12 wirds natürlich besser, aber der Punkt ist, dass Rise of the Tomb Raider incl Videos von Digital Foundry auf Youtube deutlich zeig, dass das Problem bei AMD unter DX11 noch immer existiert, weswegen man in Spielen ohne DX12 Support in CPU lastigen Szenarien mit einer Nvidia Karte besser dasteht. Ich habe bewusst das Beispiel genommen, weil manche leute das sonst wieder nicht glauben wollen...

Anderes Beispiel wäre z.B. Minecraft mit AMD Karte hatte ich damals noch mit nem i5 ca. 80-90 FPS + Microruckeln. Mit Nvidia Karte warens 200-300 FPS. Keine Ahnung, wie sich das dann auf einen Core 2 Duo auswirken würde, aber steigen werden die FPS sicherlich nicht.... Bei anderen Spielen ist der performanceunterschied meist eher Situationsbedingt. Eben dann, wenn in einem Spiel die CPU stark gefordert wird. Gibt aber auch viele viele Games, wo kein unterschied zwischen AMD und Nvidia exisitert.

Leider gibts VIEL zu wenig Tests und berichte über das Problem, weil scheinbar keine Seite bock hat, das Problem mal zu untersuchen. Man hört dann nur immer, dass AMD unter DX12 im CPU limit viel mehr FPS gewinnt, als Nvidia, während dann am Rande erwähnt wird, dass mit Nvidia die FPS im CPU limit schon unter DX11 höher waren. :rollen:

Na ja, mir solls egal sein, ich will da jetzt auch gar nicht groß diskutieren, sondern nur auf das Problem hinweisen. Wie man das bewertet kann ja jeder selbst entscheiden. Aufgrund mangelnder "offizieller" Tests zu dem Problem kann ich (nach bestem Gewissen) nur dinge Behaupten und nicht mit deutlichen Beweisen und Links untermauern. Und sowas führt hier natürlich gerne zu nem Konflikt.
 
Zuletzt bearbeitet:
Der FX4300 dürfte in Spielen deutlich flotter wie ein Core 2 Quad sein - eben weil dieser den FSB als Bremsklotz hat.

DirectX 12 und Vulkan werden das Problem der Sockel 775-Plattform, welches ich hier nun mehrfach erläutert habe, auch nicht lösen. Mit Mantle lief BF4 bei mir übrigens sogar noch schlechter wie mit DX11. Die PCGH hatte zum Mantle-Release in BF4 diverse CPUs getestet, zum Testzeitpunkt lief Mantle auf den Core 2 Quad-CPUs sogar so dermaßen schlecht, dass die MinFPS soweit ich mich erinnern kann fast in den einstelligen Bereich abgesoffen sind.

Möge die CPU-Leistung an sich noch ausreichend sein, die ganze Plattform um die CPU ist hoffnungslos veraltet. Ein Core i3 4170 bietet die gleiche Rohleistung wie ein Q9450 @3.45GHz, aber die enorm bessere Spieleleistung. Der hat halt nicht das Problem, dass er mit zwei von vier Kernen, mit dem RAM und mit der GPU über den FSB kommunizieren muss, welcher schon für den RAM zu schmal ist.

Man würde da mehr Leistung für die 300€ bekommen, wenn man statt ner 980 ne Radeon R9 290(X) für um die 150-170€ kauft (kaum langsamer wie ne GTX 980...) und für den Rest eine gebrauchte Sandy Bridge-Basis kauft.
 
Würde es mit reduzierten Details einen großen Unterschied geben oder ist es auch dann unspielbar?

Ich habe nur die Benchmark-Sequenz von Raff und Carsten übernommen (leider noch nicht online verfügbar), aber nicht weiter damit herumgespielt. Da die Szene wenig Partikeleffekte (ein Feuer wenn ich mich richtig erinnere) und keine Menschenmassen enthält, könnten nur Geländedetails und vor allem die Sichtweite skaliert werden. Wenn man letztere stark herunterschraubt und die CPU weniger Objekte berechnen muss, könnte das helfen – aber wie wirkt sich das auf den Spielspaß aus?


Die "neueren" NTs werben auch mit kompalibität zu akt. Systemen da sich da was in den letzten ~10Jahren getan hat.

@ PCGH_Torsten
Wie sieht es aus? Wäre mal ein Thema was getestet werden könnte?
Was passiert mit einem akt. System mit einem NT aus dem Jahre 2016 (Referenz), 2011, 2006 & 2001.

Den Vorschlag solltest du in den passenden Thread stellen oder direkt an Matthias schicken:
Offenes Ohr - welche Themen wünscht ihr euch für die nächste PCGH-Ausgabe?

Als Mainboard- und Kühlungsfachredakteur kann ich da allenfalls raten :-)
Meiner persönlichen Erfahrung nach gibt es da aber kaum prinzipielle Einschränkungen. Selbst sehr alte Netzteile, bei denen man viele Anschlüsse über Adapter nachrüsten muss, können mit neuer Hardware funktionieren. Wichtiger ist die Dimensionierung und der Zustand. Verbrauchte Netzteile funktionieren auch mit alter Hardware kaum noch/gar nicht mehr und zumindest Modelle von vor 2005 haben für neue Systeme oft eine zu schwache 12-V-Leistung.


Der läuft dann mit 4GB im Dual-Channel und 2GB im SingleChannel...

... und wiegesagt, das Problem liegt nicht am RAM, sondern am FSB.

Sobald der RAM voll ausgelastet wird bleibt kaum noch Bandbreite für die Kommunikation zwischen den CPU-DIEs und für die Kommunikation zwischen GPU und CPU übrig. Alleine der RAM kann im Dual-Channel-Betrieb den FSB fast komplett auslasten.

Bei 1333MHz muss der RAM ja mindestens 667MHz und damit nominell 5,3GB/s pro Channel laufen, im Dual-Channel wären es also die 10,6GB/s, die der FSB als Maximalbandbreite bei 1333MHz schafft.

Klar schafft RAM nie die nominelle Bandbreite, dafür wird der FSB dank seines Overheads und den Latenzen (ist halt ein Bussystem...) ebenfalls nie seine nominelle Bandbreite erreichen.

Wenn ausreichend leistungsfähiger RAM im Hause ist, würde ich Sockel-775-Systeme sogar so konfigurieren, dass die Speicherbandbreite den FSB-Datendurchsatz übersteigt. Dann der Vereinigung von PCI-Express- und Speichercontroller müssten Sockel-775-Systeme DMA-Zugriffe der Grafikkarte ohne FSB-Belastung abwickeln können. Noch wichtiger ist aber der FSB selbst. 450 statt 333 MHz haben bei mir im Worst-Case in Wichter 3 15 Prozent mehr Leistung gebracht (siehe PCGH 08/16).
 
Was aber IGKs These stark stützt, dass der FSB eben stark limitiert, udn 450MHz FSB ist nicht gerade ein Wert, den man eben mal "einstelt" ;)

Ich habe anfang des Jahres mal mit nem Q6600 rumgespielt und im vergleich zu meinem i5 660 auf nem P55 zu sehr lachhaften ergebnissen in der Liestung gekommen.
Das lohnt alles wenig bis null, zumal die Preise für ein i5 750 und Board eigentlich n Pups sind (wir reden da von etwa 80€).
Wenn man auf sowas umsteigt, kann man mit wirklich sehr wenig geld viel erreichen.
Die Übertaktbarkeit dort ist nämlich noch mal ne ganz andere Hausnummer, und Intel hat ja nicht umsonst mit Core i den FSB zu Grabe getragen udn wie AMD schon zuvor, dem IMC eingeführt.

Core i war ein massiver Schritt, der damals gar nicht so erkennbar war, weil die Nutzbarkeit der Leistung schlicht nicht gegeben war.

Edit: Ich habe ne nicht unbeträchtliche Zahl an Nehalem-Systemen im Einsatz. Die Machen natürlich nur dann "leistungstechnisch Sinn" wenn man sie übertaktet udn der Energiebedarf auf Grund von nur gelegentlicher nutzung unerheblich ist. Für alles andere ist erst die zweite Core i Gen sinnig, keine Frage.
Aber wer möchte kann heute noch mit 1366er Plattform, nem Xeon X5650 und 24GB RAM ein System haben/aufbauen/upgraden, dass Gamingtechnisch nicht nennenswert hinterher hängt und durchaus auch Vorteile in bestimmtem bereichen bietet. ;) Trotzdem ist man damit ganz schnell auch des Energieversorgers leibster Kunde ;)
 
Zuletzt bearbeitet:
Der FX4300 dürfte in Spielen deutlich flotter wie ein Core 2 Quad sein - eben weil dieser den FSB als Bremsklotz hat.

Der FX 4100 war einen Zacken langsamer als mein damaligen Phenom II X4 940 BE und dieser ist einem Q9550 knapp unterlegen (alles Zahlen von 2009. Der FX 4300 dürfte gut 10% schneller sein als der FX 4100 und damit bestenfalls mit dem Q9550 gleichziehen. Wie sie sich in modernen Spielen schlagen ist fraglich, Tatsache ist jedoch das der FX schon damals nicht das wahre war und heute erst recht nicht ist, daran ändern, in Spielen, dann auch 8 Kerne bei FX 8000 nicht soviel.

Größter Vorteil dürfte sein das man problemlos 16 oder gar 32 GB RAM reinklatschen kann.
 
@Laggy.NET nun, du hast natürlich insofern recht, als dass das Problem durchaus existiert, und wenn ich das richtig herauslese, hast du damit auch selbst Erfahrung. Ich habe selbst gerade den Wechsel von Nvidia zu AMD hinter mir und kann nur von meiner persönlichen Erfahrung aus sagen, dass das ganze deutlich weniger dramatisch ist als man denken mag, wenn man sich die dazu existierenden Tests anschaut. Angeblich soll der Treiberoverhead bei Polaris aber auch geringer sein als bei den älteren Karten, weil man wohl einen Teil des Job-Scheduling oder sowas nun komplett der GPU selbst überlässt - steht in einem Paper zu Polaris, finde es gerade nicht wieder.

Jedenfalls würde ich jemandem mit ner halbwegs brauchbaren CPU (FX-6300 und aufwärts) nicht deswegen generell von AMD-Grafikkarten abraten. Häufig macht sich das Problem gar nicht erst bemerkbar (Witcher 3 z.B.), oder es ist tatsächlich Dx12 (RotR), Vulkan (Doom) oder Mantle (DA:I, Thief, BF4) verfügbar. Das einzige Spiel, wo sich der höhere Dx11-Overhead bei meinem System wirklich negativ bemerkbar macht, ist GTA V, wo mit der GTX 670 sogar mehr FPS machbar waren - zum Spielen reicht es trotzem, da bekommt die Grafikkarte eben höhere Einstellungen und MSAA zwangsverordnet, um sich nicht zu sehr zu langweilen. :ugly:

Pu244 schrieb:
alles Zahlen von 2009
Die habe ich auch noch im Hinterkopf, demnach müsste ein Q9550 etwas stärker sein als mein X6 @stock - allerdings ist es durchaus möglich, dass sich das bei aktuellen Spielen, die die vier Kerne und damit auch den FSB der Core 2-Systeme viel stärker auslasten als die von 2009, doch etwas anders verhält. Allerdings werden diese alten Chips generell nur noch recht selten mal aus Mitleid irgendwo mitgetestet.
 
Zuletzt bearbeitet:
Der FX 4100 war einen Zacken langsamer als mein damaligen Phenom II X4 940 BE und dieser ist einem Q9550 knapp unterlegen (alles Zahlen von 2009. Der FX 4300 dürfte gut 10% schneller sein als der FX 4100 und damit bestenfalls mit dem Q9550 gleichziehen. Wie sie sich in modernen Spielen schlagen ist fraglich, Tatsache ist jedoch das der FX schon damals nicht das wahre war und heute erst recht nicht ist, daran ändern, in Spielen, dann auch 8 Kerne bei FX 8000 nicht soviel.

Größter Vorteil dürfte sein das man problemlos 16 oder gar 32 GB RAM reinklatschen kann.

Der FX 4300 wurde von mir ja nur in die Runde geworfen um zu zeigen das nicht viel Geld von Nöten ist um ein System mit mehr Leistung aufzustellen.

Heute Mittag getestet, er ist langsamer: GTA 5 / 1080p / Hoch / mit einer R9 Fury


Q8200 ~ 45 FPS, Minimum 19 FPS
FX4300 ~ 46 FPS, Minimum 20 FPS


Q8400 2,66 GHz,
Q8200 2,33 GHz


Fast gleich auf mit einem Q8200, eine tolle Leistung.

Das ist von Spiel zu Spiel unterschiedlich. Sehr gutes Beispiel ist ARK, da geht der FX 4300 dem Q8200 deutlich vorweg.
 
GEC, eben, und andersrum kanns auch vorkommen, das der C2Q natürlich teils noch mithalten kann.

Im Schnitt merkt man das alte raber eben deutlich.
 
StarCraft 2 ist in vielen Szenarien stark IPC-limitiert, da bloß auf DualCores optimiert. Haswell im Test: Benchmarks, Fazit
Da es dir ja wichtig zu sein scheint, solltest du zu Zen oder KabyLake umsteigen.
Was du nochmal überdenken solltest, ist deine Festlegung auf FHD: Die GSYNC-FHD-Monitore sind enorm überteuert. Und GSYNC ist für Strategiespieler das reinste Muss, das bringt sogar noch mehr als das CPU-Update, da dann halt einfach mehr von den Frames tatsächlich auch bei dir ankommen, wodurch besonders das Scrolling in CPU-limitierten Szenen enorm verbessert wird. Und ganz generell passt die höhere Auflösung auch zu deinen beiden Lieblingstiteln einfach sehr gut.

Hallo,

Danke für den Hinweis! Das wußte ich nicht: GSYNC ist ein Muss für Strategiespieler? Ich dachte für Shooter!? Würdest Du dann eine höhere Auflösung empfehlen? Weil 24 Zoll reichen mir. Da sollte FHD reichen.
Über Zen und Kabylake denke ich auch nach. Starcraft 2 läuft mit den aktuellen CPUs praktisch 100 % schneller. Nur: Zen und geeignete Graka wird teuer, neues Board, Ram, Kühler vermutlich.

Hau ich die Gtx 1060 für 249 Euro (6 GByte) rein, wird zwar SC2 kaum schneller aber der Rest meiner Spiel (alles quer durch den Garten (ca. 60%), bei ca.100% weniger Watt verbrauch beim spielen. Allerdings spiele ich am eisten Strategie.
Für CIV6 würde mein jetziges System noch überwintern können.

Kannst Du oder jemand anderes was zu GSYNG und Strategiespielen erläutern. Das wäre interessant.
 
Eine 1060 sollte beim e5450? schon passen! Amd würde ich aber auf keinen Fall empfehlen(wegen cpu overhead) und einen c2d mit 2,5 ghz kann man eigentlich garnicht mehr zum Gamen nutzen.
Mit der empfolenen rx460 wird da nicht viel gehen!

Hier noch ein Cinebench Ergebnis vom übertakteten e5450:
​Cinebench R15 Test - Xeon e5450 OC 3.83Ghz - YouTube
Die CPU ist bei gleichem Takt praktisch gleich auf mit einem i3 6100!

Ich habe einen Xeon V1230V2 nicht XEON e5450 (s. Signatur)

Es ist aber Sockel 1155 (sry)!!! Mmmh, keiner gemerkt; auch der Redakteur nicht, lol.


Intel Xeon E3-1230v2 4x 3.30GHz So.1155
 
Zuletzt bearbeitet:
Ich verstehe jetzt deine Kritik nicht ... Was kann die Redaktion dafür, dass sich der Leserbriefschreiber so schwammig ausdrückt?

Die gegebene Antwort halte ich unter diesen Umständen sogar für äußerst detaliert.

Und falls du meinst, dass solche Leserbriefe nicht vorkommen, solltest du mal einen Blick in die Grafikkartensektion des Forums werfen ... Da kommt man erst nach ein paar Mal nachhaken zu einer sinnvollen Aussage was der TE eigentlich will.
Es ist es etwas schwierig mit den Nachhaken und die Redaktion hat sicherlich anderes zu tun (zum Beispiel Ausgabe 11/2016 fertigstellen) als hier noch 10 mal hin und herzuschreiben, um die Fragestellung zu verifizieren.
Die gegebene Antwort ist der Fragestellung angemessen.
Sollte noch Klärungsbedarf bestehen kann der Fragesteller ja gerne im Grafikkartenteil des Forums vorbeischauen und ihm wird geholfen.

Die Redaktion sucht doch den Leserbrief und das Thema aus. Dabei geht es darum, das viele andere User interessiert auch was für sich mitnehmen können. Ist es so unspezifisch, bleibt ja kaum was hängen, außer Sockel 775 und GTX 980 geht (vermutlich) nicht. Denn ganz sicher war die Antwort des Redakteurs nicht!
 
Ich habe einen Xeon V1230V2 nicht XEON e5450 (s. Signatur)

Es ist aber Sockel 1155 (sry)!!! Mmmh, keiner gemerkt; auch der Redakteur nicht, lol.


Intel Xeon E3-1230v2 4x 3.30GHz So.1155
Ja DANN kannst du CPU-seitig noch was warten. Hypothetische ~35 statt ~10 Avg. FPS bzw. ~16 statt 6 Min. FPS in dieser extremen Szene (so sieht die übrigens aus: Starcraft 2: Heart of the Swarm - PCGH-Benchmarkszene) wären ein klarer Aufrüstgrund gewesen. Aber so wären das wohl 35 vs 25 bzw. 16 vs 11...
Hallo,

Danke für den Hinweis! Das wußte ich nicht: GSYNC ist ein Muss für Strategiespieler? Ich dachte für Shooter!? Würdest Du dann eine höhere Auflösung empfehlen? Weil 24 Zoll reichen mir. Da sollte FHD reichen.
Über Zen und Kabylake denke ich auch nach. Starcraft 2 läuft mit den aktuellen CPUs praktisch 100 % schneller. Nur: Zen und geeignete Graka wird teuer, neues Board, Ram, Kühler vermutlich.

Hau ich die Gtx 1060 für 249 Euro (6 GByte) rein, wird zwar SC2 kaum schneller aber der Rest meiner Spiel (alles quer durch den Garten (ca. 60%), bei ca.100% weniger Watt verbrauch beim spielen. Allerdings spiele ich am eisten Strategie.
Für CIV6 würde mein jetziges System noch überwintern können.

Kannst Du oder jemand anderes was zu GSYNG und Strategiespielen erläutern. Das wäre interessant.
Der Background, den brauchst ist der folgende: Jede Form von Adaptiver Herzzahl(manchmal auch VRR genannt, Oberbegriff für GSYNC und FreeSync) bringt dir keinen Vorteil sobald deine FPS die Herzzahl des Monitors dauerhaft überschreiten. Wer also ausschließlich CSGO am 144 Hz-Monitor spielt, dem bringt GSYNC oder FreeSync gar nichts. (solange das System potent genug ist, aber das ist nicht gerade schwierig...)

Enthält ein Spiel auch Szenen, in denen du weniger FPS als die Herzzahl des Monitors hat, dann sehen diese Szenen auf einem konventionellen Display weniger flüssig als auf einem Display mit VRR aus. Faustregel: Je heftiger die Sprünge im Frameverlauf, desto größer wird dabei der Unterschied. In nahezu allen Echtzeit-Strategiespielen kommen solche Szenen alle Nase lang vor: Nämlich immer, wenn sich Massen von Einheiten gerade tummeln. Oder Teilgebiete der Karte aus anderen Gründen besonders hardwaretechnisch anspruchsvoll ausfallen. Besonders schlimm sind solche Wechsel natürlich beim Scrolling, das dann gerne hakt. Deshalb hat Nvidia GSYNC der Presse auch als erstes mit StarCraft II präsentiert---entsprechend begeistert waren die Zuschauer damals.

Wieso aber oft Shooter genannt werden:
Titel wie Metro oder Crysis sind einfach so hardwaretechnisch anspruchsvoll, das dort klar ist, dass man mit hochgezüchteten Settings keine stabilen 60 FPS bekommt. Daher profitieren auch die stark.

Was die Kaufempfehlung für dich angeht, gibt es so einige problematische Dinge: StarCraft II und Geforces passen sehr gut zusammen, von daher fällt AMD leider flach. GSYNC-Monitore sind aber leider teurer als FreeSync-Modelle UND dazu auch noch allgemein eher auf das Hochpreis-Segment ausgerichtet.
Im GSYNC-Sortiment beginnen die 1080p-Monitore momentan bei 400€, was natürlich ziemlich abstrus ist. 1440p ab 500€, 2160p ab 600€.
LCD-Monitore mit Auflösung: 1920x1080 (Full HD), FreeSync-/G-Sync: NVIDIA G-Sync Preisvergleich | Geizhals Deutschland
LCD-Monitore mit Auflösung: 2560x1440 (WQHD), FreeSync-/G-Sync: NVIDIA G-Sync Preisvergleich | Geizhals Deutschland
LCD-Monitore mit Auflösung: 3840x2160 (4K UHD), FreeSync-/G-Sync: NVIDIA G-Sync Preisvergleich | Geizhals Deutschland

Was du machen könntest wäre dir jetzt einen Monitor zu holen und ansonsten nichts upzugraden. Wie beschrieben sorgt ja schließlich GSYNC dafür, dass sich niedrigere Framerates (die ja aus der höheren Auflösung resultieren, du wirst ja wohl kaum zu einem der 1080p-Modelle greifen wollen) dort besser anfühlen als du es von früher gewohnt warst. Was StarCraft II angeht, wird deine GPU auch 1440p noch exzellent schultern können. Also, sollte dir ein TN-Panel nichts ausmachen könntest du durchaus zu dem Dell greifen. Bei deinen Quer durch den Garten-Titeln sind sicher auch noch andere dabei, die sehr schwankend laufen (Traumdisziplin für GSYNC), viel Aliasing zeigen (da lohnt sich die Auflösung) oder sehr schnell sind. (da lohnt sich dann natürlich die hohe Herzzahl) Nur die wirklich hart GPU-lastigen Titel solltest du bis zum nächsten System-Upgrade zurückstellen...
 
Die Redaktion sucht doch den Leserbrief und das Thema aus. Dabei geht es darum, das viele andere User interessiert auch was für sich mitnehmen können. Ist es so unspezifisch, bleibt ja kaum was hängen, außer Sockel 775 und GTX 980 geht (vermutlich) nicht. Denn ganz sicher war die Antwort des Redakteurs nicht!

Für mich war die hängengebliebene Antwort eher "Sockel 775 und GTX 980 wird schon gehen, lohnt nur einfach nicht, wenn man nicht auch in naher Zukunft CPU & Mainboard upgraden will".
 
Unter der Prämisse kannst du auch ne Titan X (Pascale) rein klatschen.

Die Frage bleibt dann, ob das Budget dann nicht sinnvoller genutzt werden kann.
 
:lol:

Meinen Q, MB und 7GB Ram für voraussichtlich 130 euro verkauft,
was kommt jetzt ein A4 4000 für 14 euro, altes Fm2 Board(aus Schlachtung) und eine PS4

:lol:
 
Zuletzt bearbeitet:
Zurück