News Radeon RX 7000: AMD klärt Verwirrung um "Probleme" beim Shader-Prefetch

Also wenn die HW alles kann was sie soll, dann ist es eine Treibersache.
Die 7900XTX zeigt ja in manchen Games wie MW2 oder auch dem NV Titel CP2077, dass die Arch sehr schnell sein kann.
Hier ist man sehr nah an der 4090 oder in MW2 sogar schneller.
Auf der anderen Seite ist man in Forza horizon 5 nur magere 5% schneller als die 6950XT.
Das zeigt doch schon, dass es am Treiber liegt.
Auf Nachfrage von PCGH taugt der Treiber zumindest in FH5 noch nichts und AMD will das angehen.
Müssen sie auch.

AMD hat hier noch einiges zu fixen, aber ich denke 5-10% kann man vielleicht noch rausholen.
Dann ist auch die 7900xtx eine richtig gute Karte für das Geld. Zumindest im direkten Vergleich zur 4080. Und auch gegen die 4090 wenn man weiter zu dieser aufschließen kann und den Preis miteinbezieht.

Bis dahin hat es die Karte noch etwas schwerer.
 
Grade die starken Schwankungen, scheinen doch darauf hinzudeuten,das da noch Mehrleistung durch Treiber kommt.
Darauf kann man/ich mich aber nicht verlassen, das Thema hatten wir bei AMD schon mal.
Ich weiß nicht wo das immer herkommt ich bin von ner Ref 6800XT auf die Merc310 7900XTX und das ist ein Hammer Upgrade.
6800XT ist ne Klasse unter der 7900XTX.
6900XT zu 7900XTX wäre ein besserer Vergleich und dennoch gibt es eine zu große Diskrepanz je nach Titel.
RDNA 3 hat laut Benchmarks vieler verschiedener Quellen selbst die Ziele verfehlt, die AMD angekündigt hat.
Die Mehrleistung ist einfach nur mittelmäßig, wenn man bedenkt, was alles verbessert wurde.
Mehr Cores, mehr Bandbreite, 5nm statt 7nm aber kaum Taktgewinn...
Die Gerüchte über mögliche Hardwarefehler wirken ehrlich gesagt logisch.

Bin ja eher AMD geneigt, aber das war nix.
Erinnert mich bisschen an Vega.

Dann noch die überzogenen Preise, günstiger als massiv überteuert ist halt immer noch überteuert, da müsste AMD noch 200$ runter, bei der unattraktiven XT noch etwas mehr.

Das alles hat nix mit Markenaffinität zu tun, das sind leider die Fakten.

Nvidia ist ein Scheißverein und AMD will es wohl auch sein. Tolle Zeiten für Hardwareenthusiasten...
 
Zuletzt bearbeitet:
Im Moment sieht es nicht so rosig aus für die 7900XT(X).
Man ist weder besonders Effizient noch ist die Leistung außergewöhnlich.
Die Treiber sind doch sehr... unausgereift.
In VR fällt man gar noch hinter RDNA2 zurück.
Nach den tollen Produkten bei Zen3 und RDNA2 mal wieder viel Bauchweh und Ungewissheit... leider!
 
Ich weiß jetzt nicht genau wie wichtig dieses Shader-Prefetch ist und wofür genau diese Funktion gebraucht wird, aber ich hoffe, dass PCGH diese Funktion auf den neuen Grafikkarten von RDNA 3 testet. Nichts gegen AMD, aber nach dem Fiasko bei der GTX 970 von Nvidia damals mit den 3,5 GB Speicher, statt der vollen 4 GB Anbindung, sind die Aussagen vom Hersteller eine Sache, aber die Realität manchmal eine Andere.

Und da die Hersteller ja so manches mal die Kunden hinters Licht geführt haben, ist Vertrauen zwar ganz gut, aber Kontrolle besser! ?

EDIT:
Was mich auch noch brennend interessieren würde, funktioniert eigentlich jetzt das VSync im Radeon Treiber überall in den Games oder auch in Demo Benchmarks, was ja z.B. bei der RX 6800XT nicht der Fall war, wenn man es aktiviert hatte?

Hat man nämlich keinen Freesyn Monitor, dann gibt es Spiele wie z.B. FIFA, wo nur die konstante Framrate gehalten wird, wenn VSync über den Treiber aktiviert ist, andernfalls werden die Cutszenen / Wiederholungen z.B. bei Toren, nur mit 30 FPS wiedergegeben. Und je nachdem wie viel Hz der Monitor hat, ist es wichtig die entsprechende Framerate einzustellen, um ein flüssiges Spieleerlebnis zu erhalten. Wer FIFA spielt, weiß wovon ich Rede!
 
Zuletzt bearbeitet:
Darauf kann man/ich mich aber nicht verlassen, das Thema hatten wir bei AMD schon mal.

6800XT ist ne Klasse unter der 7900XTX.
6900XT zu 7900XTX wäre ein besserer Vergleich und dennoch gibt es eine zu große Diskrepanz je nach Titel.
RDNA 3 hat laut Benchmarks vieler verschiedener Quellen selbst die Ziele verfehlt, die AMD angekündigt hat.
Die Mehrleistung ist einfach nur mittelmäßig, wenn man bedenkt, was alles verbessert wurde.
Mehr Cores, mehr Bandbreite, 5nm statt 7nm aber kaum Taktgewinn...
Die Gerüchte über mögliche Hardwarefehler wirken ehrlich gesagt logisch.

Bin ja eher AMD geneigt, aber das war nix.
Erinnert mich bisschen an Vega.

Dann noch die überzogenen Preise, günstiger als massiv überteuert ist halt immer noch überteuert, da müsste AMD noch 200$ runter, bei der unattraktiven XT noch etwas mehr.

Das alles hat nix mit Markenaffinität zu tun, das sind leider die Fakten.

Nvidia ist ein Scheißverein und AMD will es wohl auch sein. Tolle Zeiten für Hardwareenthusiasten...


Kommt halt auch darauf was an was so gebencht wird/was man spielt ;)
Ich spiel fast nur War Thunder vorher mit den Settings ca 40 Fps jetzt 90-110, bei Squad bremst jetzt sogar wieder meine CPU (5800X) während die GPU bei 60-70% Last rumgurkt bei UWQHD und maxed out find ichs chon beeindruckend.

Vega hatte ich das Gefühl sie bringt die Rohleistung nicht auf die Straße dieses Gefühl hab ich hier überhaupt nicht.

Klar Preise sind viel zu teuer, wird sich aber bestimmt noch einpendeln und die ganzen Treibersachen auch.
Ist ja bei AMD oft so dass die Launches etwas chaotischer sind, ist aber auch ne wesentlich kleinere Firma als nv
 
Nach den tollen Produkten bei Zen3 und RDNA2 mal wieder viel Bauchweh und Ungewissheit... leider!
Zen 4 ist auch ein tolles Produkt, nur leider viel zu Teuer im Gesamtpaket. Ähnliches Problem sehe ich auch bei RDNA 3.

AMD hat sich hier einfach verzockt meiner Meinung nach. Man will die günstigere Alternative zu Nvidia sein aber dann doch halbherzig bei den viel zu hohen Preisen noch mit abgreifen.

Chiplets in die GPU-Sparte zu bringen war zu 100% die richtige Entscheidung und was man so hört dürfte die Marge mehr als ordentlich sein mit der aktuellen UVP. Hätte man von vornherein akzeptiert, dass hier und da noch Kinderkrankheiten zu erwarten sind und man es gegen eine 4090 in jedem Szenario extrem schwer haben wird wäre vielleicht vieles anders gekommen.

Topmodell als 7900 XT bei 899€ und der beschnittene N31 als 7800 XT bei 749€ und AMD wäre der gefeierte Held auf den alle gehofft haben. Stattdessen steht man vor einem Scherbenhaufen aus dem die 4080 für 1400€ plötzlich als attraktiveres Produkt hervorgeht. :ugly:
 
Ich weiß nicht wo das immer herkommt ich bin von ner Ref 6800XT auf die Merc310 7900XTX und das ist ein Hammer Upgrade.
Hast Du den Test bei Igor dazu gelesen? Gerade was den Stromverbrauch angeht war das denke ich keine besonders Clevere Idee. Ich weiß nicht ob Du für beide Hersteller offen bist aber eine 4080 wäre wohl besser gewesen. 3% schneller wie eine 4080 FE aber mit enorm schlechter Effizienz. Ich zitiere Igor mal und verlinke Dir den Test falls Du es noch nicht gelesen hast:

Ich habe das Spiel (Horizon Zero Dawn) deshalb herausgepickt, weil hier die GeForce RTX 4080 FE und die AMD Radeon RX 7900XTX mit rund 117 FPS gleich schnell agieren.

Zum Vergleich: die GeForce RTX 4080 FE benötigt für die rund 117 FPS nur 276,4 Watt, die RX 7900XTX Referenz immerhin bereits 351,6 Watt. Das sind 75 Watt Unterschied.

Die XFX-Karte ist im Normal-BIOS jetzt rund 3% schneller als die Referenz und die GeForce RTX 4080 FE, benötigt aber dafür gleich mal ca. 10% mehr elektrische Energie, was dann schon auf 390,2 Watt hinausläuft. Das sind bereits fast 114 Watt mehr als die FE und wir sehen auch, dass sich die langsamen Frames (P1 Low) häufen, weil die Varianzen etwas schlechter werden.

Ich finde das Problem mit den 7900ern ist nicht die Leistung (außer in RT) sondern der Verbrauch. Genau dafür wurde doch Nvidia immer "gehatet" das die AMDs ja so viel Stromsparender sind als die Energieverschwender von Nvidia. Und nun ist es umgekehrt. Ich beführchte da ist nich viel zu machen per Treiber. Selbst wenn man nun zur 4090 aufschließen könnte, was bringt das bei doppeltem Stromverbrauch?

Quelle: IgorsLab
 
Ich weiß nicht wo das immer herkommt ich bin von ner Ref 6800XT auf die Merc310 7900XTX und das ist ein Hammer Upgrade.
der Zuwachs im Vergleich zum Zuwachs der Konkurrenz könnte besser sein.
RDNA3 gehört für die nächste Gen komplett überarbeitet, speziell beim RT Support.
Hast Du den Test bei Igor dazu gelesen? Gerade was den Stromverbrauch angeht war das denke ich keine besonders Clevere Idee. Ich weiß nicht ob Du für beide Hersteller offen bist aber eine 4080 wäre wohl besser gewesen. 3% schneller wie eine 4080 FE aber mit enorm schlechter Effizienz. Ich zitiere Igor mal und verlinke Dir den Test falls Du es noch nicht gelesen hast:







Ich finde das Problem mit den 7900ern ist nicht die Leistung (außer in RT) sondern der Verbrauch. Genau dafür wurde doch Nvidia immer "gehatet" das die AMDs ja so viel Stromsparender sind als die Energieverschwender von Nvidia. Und nun ist es umgekehrt. Ich beführchte da ist nich viel zu machen per Treiber. Selbst wenn man nun zur 4090 aufschließen könnte, was bringt das bei doppeltem Stromverbrauch?

Quelle: IgorsLab
Nvidias Verbrauch war letzte Gen nur so hoch, weil man Samsungs 10nm Variante (8n) verwendet hat, also eine Gen hinten war.
Jetzt ist man wieder gleichauf
 
"Perfekt"? ... so nennst du exorbitante Stromverbräuche und schmelzende Stromkabel? Aber klar alles Anwenderschuld wenn die auch nicht richtig Kabel einstecken können ;).

Nvidias exorbitante Stromverbräuche kann AMD doch in dieser Gen sogar übertrumpfen?
Und jetzt werden wieder die 1% geschmolzenen Stromkabel ausgepackt die von ein paar Usern falsch eingesteckt wurden als Argument Pro-AMD? Gab es die schmelzenden Stromstecker nicht nur bei der 4090? Hast Du ein Beispiel für einen 4080 Fall?

Die 4080 bleibt laut diversen PC-Hardware Websiten, Youtubern, und auch meiner Meinung nach, auf jeden Fall das rundere Produkt.
 
.

AMD hat hier noch einiges zu fixen, aber ich denke 5-10% kann man vielleicht noch rausholen.
Dann ist auch die 7900xtx eine richtig gute Karte für das Geld. Zumindest im direkten Vergleich zur 4080. Und auch gegen die 4090 wenn man weiter zu dieser aufschließen kann und den Preis miteinbezieht.

Bis dahin hat es die Karte noch etwas schwerer.
AMD kann in einigen reinen Rasterspielen noch was aufholen, ja.
Gleichzeitig werden immer mehr Raytracing Spiele kommen bei denen eine 4080 klar vorbeizieht.
Portal RTX ist ein Spiel von vielen das kommen wird mit Nvidias Programm.

RDNA4 muss einen komplett überarbeiteten RT Ansatz bieten, auch um die "Pro" Version der Konsolen ordentlich zu bedienen
 
Was soll denn das Prefetch mehr bringen?
So wie ich es verstehe ist das über den Treiber aus?
Prefetch macht man normalerweise um die Auslastung der Rechenwerke hoch zu halten. Da wird schonmal was geladen was man "vermutlich" gleich zum rechnen braucht.
Irgend eine Form von Prefetch wird auch jetzt laufen, aber wenn man da Optimierungen vor hatte die nun nicht funktionieren kann das immer mal wieder zu Leerlauf führen.
 
Zuletzt bearbeitet:
Nvidias exorbitante Stromverbräuche kann AMD doch in dieser Gen sogar übertrumpfen?
Und jetzt werden wieder die 1% geschmolzenen Stromkabel ausgepackt die von ein paar Usern falsch eingesteckt wurden als Argument Pro-AMD? Gab es die schmelzenden Stromstecker nicht nur bei der 4090? Hast Du ein Beispiel für einen 4080 Fall?

Die 4080 bleibt laut diversen PC-Hardware Websiten, Youtubern, und auch meiner Meinung nach, auf jeden Fall das rundere Produkt.
speziell wenn man den Verbrauch kritisiert, dollten manche User mal Idle und Niedriglastszenarien betrachten.
Hab gestern rumgespielt: das reine bewegen der Maus am Desktop lässt den Verbrauch ordentlich hochschießen.
Intel wurde dafür hart kritisiert von AMD Fans.
 
Wenn alles funktioniert wie es soll, ist es umso trauriger, wie klein der Leistungszuwachs zur Vorgängergeneration ist, dazu noch die extremen Schwankungen.

So ein Umstieg auf ein Chipletdesign ist bei GPU's sicherlich genauso schwierig wie bei CPU's.
Schaut euch einfach an, wie lange die Optimierung bei Ryzen gedauert hat.
Und nun schaut euch an, wie rasend schnell ein Chip werden kann, wenn man wie bei Apple einfach den ganzen PC in ein Stück Silizium gießt (dafür dann natürlich sämtliche Konfigurationsmöglichkeiten wie bei einem PC aufgibt und alles in einem Stück beim Defekt entsorgen muss).
Was ist also das Problem und die Ursache?
Jede notwendige Querverbindung hemmt die Leistung und verursacht neue Komplikationen.
Ratet mal, was passiert, wenn NVidia nächstes Mal gezwungen ist das ohne Erfahrung umzusetzen?
Die wehren sich nicht umsonst mit Händen und Füßen dagegen und gehen den leichten, aber extrem kostspieligen Weg für die Kundschaft durch Riesenchips.
Vermutlich sind die schon seit Jahren parallel mit der Entwicklung zugange.
Man sieht es ja auch bei Intel, wie lange das bei den Prozessoren dauert, bis man von dem bisherigen Konzept weg kommt.
Und man darf ja nicht vergessen, wie schwer es damals SLI und Crossfire gehabt haben, und wie die Designer am Ende darüber gestolpert sind.
Oder 3DFX Voodoo, mit ihren 4er Chips.
Das ist nicht so wie beim Fliesen verlegen, wo man die Cacheln dann einfach aneinanderlegt und dann hoffentlich rechtwinkelig und in der passenden Höhe ausrichtet.
Da fängt der Spaß doch gerade erst an.
RDNA3 ist quasi das Funktionskonzept (hauptsache es läuft überhaupt erst einmal, so wie Ryzen 1), RDNA4 wird dann sicherlich die eigentliche Optimierung des Ganzen (Ryzen 2+++), und man wird sich dann auch um die wirkliche Verbesserung beim Raytracing kümmern können, um den Rückstand zu NVidia wirklich (auf)schließen zu können.
Übrigens hatte NVidia jetzt mit 4N einen kleinen technologischen Vorsprung vor der 5/6N Fertigung bei AMD.
Die mussten sich ja extra teuer bei TSMC einkaufen, ansonsten wäre kein Megachip wie für die 4090 möglich gewesen. Daher sind deren Karten ja auch so teuer, die 1 Milliarde Extravergütung holen die sich von den Käufern doppelt wieder zurück, siehe 4080 für fluffige 1469 statt 699 Euro. Wer das bezahlt ist selber schuld. :-P
 
Traurig wie hier sofort das gebashe losgeht wegen irgendeinem Codeschnippsel das irgendein Dataminer gefunden hat obwohl hierzu absolut nix geklärt ist.
Gehen wir mal von folgendem aus:
Die aktuelle 7900 XTX performat in nicht RT Titeln momentan 3-5% besser als ne RTX 4080, obwohl im Code ein Feature ist das wohl nicht genutzt wird. Ergo kann man sich eventuell in ein paar Monaten auf mehr Leistung freuen, weil Funktionen aktiviert werden die es momentan nicht in den Release geschafft haben.

Es wurde hier kein Feature beworben das es momentan wieder erwarten nicht gibt!
Also mal tief Luft holen und wieder runter kommen.
 
So ein Umstieg auf ein Chipletdesign ist bei GPU's sicherlich genauso schwierig wie bei CPU's.
Schaut euch einfach an, wie lange die Optimierung bei Ryzen gedauert hat.
Blöd für RDNA3 Käufer. Beta-Tester bei Hardware möchte ich auf jeden Fall nicht sein.

Ratet mal, was passiert, wenn NVidia nächstes Mal gezwungen ist das ohne Erfahrung umzusetzen?
Die wehren sich nicht umsonst mit Händen und Füßen dagegen und gehen den leichten, aber extrem kostspieligen Weg für die Kundschaft durch Riesenchips.
Vermutlich sind die schon seit Jahren parallel mit der Entwicklung zugange.
Ich rate: Nvidia macht es richtig, steckt längere Entwicklungszeit in MCM-Designs, und kommt erst mit dem Produkt wenn sie es für richtig halten.

Und einerseits "wehrt sich Nvidia mit Händen und Füßen", andererseits sind sie parallel aber schon seit Jahren an der Entwicklung dran? Du widersprichst Dir selbst innerhalb weniger Sätze. Ohne jegliche Belege sind die Aussagen natürlich auch.

Man sieht es ja auch bei Intel, wie lange das bei den Prozessoren dauert, bis man von dem bisherigen Konzept weg kommt.
Intel hatte doch MCM Designs lange vor Ryzen 1?

Und man darf ja nicht vergessen, wie schwer es damals SLI und Crossfire gehabt haben, und wie die Designer am Ende darüber gestolpert sind.
Ist nicht vergleichbar mit MCM.

RDNA3 ist quasi das Funktionskonzept (hauptsache es läuft überhaupt erst einmal, so wie Ryzen 1),
Siehe oben, der Kunde ist Beta-Tester.

RDNA4 wird dann sicherlich die eigentliche Optimierung des Ganzen (Ryzen 2+++), und man wird sich dann auch um die wirkliche Verbesserung beim Raytracing kümmern können, um den Rückstand zu NVidia wirklich (auf)schließen zu können.
Das hofft man ja schon länger.

Übrigens hatte NVidia jetzt mit 4N einen kleinen technologischen Vorsprung vor der 5/6N Fertigung bei AMD.
Den Fertigungsvorteil hat bei Ampere vs. RDNA2 auch niemand gestört in Bezug auf Perf/Watt. Da wurde Nvidia für höheren Verbrauch ziemlich gescholten. Und der TSMC 5nm Prozess ist viel näher am 4N Prozess.

Die mussten sich ja extra teuer bei TSMC einkaufen, ansonsten wäre kein Megachip wie für die 4090 möglich gewesen. Daher sind deren Karten ja auch so teuer, die 1 Milliarde Extravergütung holen die sich von den Käufern doppelt wieder zurück, siehe 4080 für fluffige 1469 statt 699 Euro. Wer das bezahlt ist selber schuld. :-P

Wilde Behauptungen, Belege?
 
Schaut euch einfach an, wie lange die Optimierung bei Ryzen gedauert hat.
Und nun schaut euch an, wie rasend schnell ein Chip werden kann, wenn man wie bei Apple einfach den ganzen PC in ein Stück Silizium gießt
das eine ist aber ein riesiger Monolith
Ratet mal, was passiert, wenn NVidia nächstes Mal gezwungen ist das ohne Erfahrung umzusetzen?
NV forscht daran schon ziemlich lange, es kann also sein, dass man es sofort ordentlich hinkriegt oder lange sein lässt.
Abgesehen davon liegt das Tempo von der 7900XTX eher an der Architektur
Die wehren sich nicht umsonst mit Händen und Füßen dagegen und gehen den leichten, aber extrem kostspieligen Weg für die Kundschaft durch Riesenchips.
so kostspielig ist das gar nicht: wenn die Yieldrate gut ist hat man dank Salvage-Lösungen eine gute Marktabdeckung und Kosteneffizienz.
Zumal etwas was sehr teuer ist, die Maske ist. Aber: 1x gefertigt, gibts ab einem gewissen Punkt ein ROI.
Nvidia dreht bei 90% Marktanteil sicher jeden Cent um, weil sich der ja viel mehr auszahlt wenn man 10x so viele GPUs absetzt.
Erzielt man außerdem mehr Leistung als die Konkurrenz, kann man die paar Dollar an Mehrkosten ja mit einem höheren Preis zurückholen
Vermutlich sind die schon seit Jahren parallel mit der Entwicklung zugange.
Man sieht es ja auch bei Intel, wie lange das bei den Prozessoren dauert, bis man von dem bisherigen Konzept weg kommt.
das ist bei Intel eine reine Kostenrechnung die sich bislang nicht ausgezahlt hat
Und man darf ja nicht vergessen, wie schwer es damals SLI und Crossfire gehabt haben, und wie die Designer am Ende darüber gestolpert sind.
das war konzeptuell Bedingt, modernes Rendering haut mit so langsamen Verbindungen nicht gut hin
Oder 3DFX Voodoo, mit ihren 4er Chips.
Das ist nicht so wie beim Fliesen verlegen, wo man die Cacheln dann einfach aneinanderlegt und dann hoffentlich rechtwinkelig und in der passenden Höhe ausrichtet.
Tatsächlich hat 3dfx Ansatz hervorragend funktioniert, da es noch keine Shader-GPUs waren
Da fängt der Spaß doch gerade erst an.
RDNA3 ist quasi das Funktionskonzept (hauptsache es läuft überhaupt erst einmal, so wie Ryzen 1), RDNA4 wird dann sicherlich die eigentliche Optimierung des Ganzen
bestimmt, aber bis dahin ist man halt ausgeliefert
(Ryzen 2+++), und man wird sich dann auch um die wirkliche Verbesserung beim Raytracing kümmern können, um den Rückstand zu NVidia wirklich (auf)schließen zu können.
hoffentlich. und Intel btw, deren RT Ansatz ist dem von Nvidia ähnlich
Übrigens hatte NVidia jetzt mit 4N einen kleinen technologischen Vorsprung vor der 5/6N Fertigung bei AMD.
ja stimmt, wenngleich das minimal ist.
letzte Gen war man dafür deutl8ch zurück.
Die mussten sich ja extra teuer bei TSMC einkaufen, ansonsten wäre kein Megachip wie für die 4090 möglich gewesen. Daher sind deren Karten ja auch so teuer, die 1 Milliarde Extravergütung holen die sich von den Käufern doppelt wieder zurück, siehe 4080 für fluffige 1469 statt 699 Euro. Wer das bezahlt ist selber schuld. :-P
So ein Chip in 4N kostet ca 100.
Ob AMD mit 6 +Chiplets die ja auch noch verheiratet werden tatsächlich so viel günstiger fährt bleibt unbekannt
Es wurde hier kein Feature beworben das es momentan wieder erwarten nicht gibt!
Also mal tief Luft holen und wieder runter kommen.
genauer gesagt handelt es sich dabei einfach um einen Code der ein zukünftiges Feature testen soll, welcves in der Form noch nicht aktiv ist. Wird wohl RDNA4 anpacken
 
Ich rate: Nvidia macht es richtig, steckt längere Entwicklungszeit in MCM-Designs, und kommt erst mit dem Produkt wenn sie es für richtig halten.

Ach komm AMD bringt hier zukunftweisende Architektur, während Nvidia noch mit Software rum mogelt (DLSS3).

Und was bitte ist daran nicht zu verstehen?

AMD: Es läuft alles wie es soll.
 
Zuletzt bearbeitet:
Zurück