RTX 3080 Ti zeigt sich - MSI-Modell wird an Händler ausgeliefert, 12 GiByte VRAM bestätigt

Ich rede von der tatsächlichen Belegung, ausgelesen wie du es beschreibst im Afterburnr. Nicht vom reservierten Speicher.

Und Tatsache ist nunmal auch, dass dieses mein Savegame mit meinen 8 und den 10 der 3080 nicht spielbar ist (1-5fps).
Bei den 16 GB der 6800 dagegen flutscht es mit 30fps (dann im CPU Limit)
Ich bin sicher sowohl die Rohleistung der 1080 wie auch auf jeden Fall der 3080 und 6800 reichen für mehr als 30 FPS, limitierten tut nunmal wirklich der VRAM. Nun bin ich nicht der Durchschnittspieler, ich wollte nur aufzeigen warum ich, mit meinen Spielen und Vorlieben, keine Grafikkarte mit weniger als 16 GB kaufen werde.
Ich werde aber auch nicht 1000€ ausgeben also spiele ich etwas anderes und warte auf ne gebrauchte 6800 in 2025 xD.

6800, pardon.
Dann zeig doch mal, 5 Minuten Aufwand, ansonsten hat das wieder so ein Geschmäckle...
 
Eine 1080.
Hab mein Savegame aber auch mal mit zu einem Freund genommen und siehe da: 10GB einer 3080 sind auch instant voll, 14 GB sind dann bei der 6700.
Und Tatsache ist nunmal auch, dass dieses mein Savegame mit meinen 8 und den 10 der 3080 nicht spielbar ist (1-5fps).
Oft sitzt das Problem nicht im Rechner, sondern davor. :ugly:
Kann deine Aussage nicht bestätigen, zumindest nicht mit meinem UWQHD Monitor.

Das Spiel ist aber für den CPU-Limit bekannt und wenn hier zu wenig FPS rauskommen, wird es eher am Prozessor bzw. System selbst liegen. Zumindest habe ich mit meinem 9900K und meiner 3080 Grafikkarte keine Probleme und den VRam bekomme ich auch nicht voll.

Settings im Spiel sind schon hart auf Anschlag und können nicht mehr höher gesetzt werden.

Cities_2021_04_21_08_47_45_479.png


K1600_Cities_2021_04_21_09_11_17_220.JPG K1600_Cities_2021_04_21_09_11_54_733.JPG

Mit Cyberpunk 2077 reicht es auch gut aus.
K1600_Cyberpunk2077_2021_01_06_15_02_22_197.JPG

Mit COD wird es etwas knapp, reicht aber noch aus.
K1600_ModernWarfare_2021_04_16_12_17_43_857.JPG
 
Zuletzt bearbeitet von einem Moderator:
Ich habe nichts davon so gesagt, aber schön wie hier die Worte verdreht und Teile weggelassen werden um mich zu denunzieren. Ich habe stark vereinfacht ausgedrückt wie DLSS funktioniert. Ein neuronales Netz wird mit hochaufgelösten Bildern trainiert und die Ergebnisse (Algorithmen) per Treiber ausgeliefert. Auf den Tensor Cores wird dann dieser Algorithmus ausgeführt, das Frame in der down-scaled resolution wird eingegeben, der Algorithmus berechnet an welchen Stellen der Frame sich von den trainierten Werten unterscheidet, und ergänzt diese.
Ich habe eigentlich nichts verdreht. Du schreibst selbst:
DLSS setzt die interne Render Resolution runter (z.B. Performance Mode ~ 50% der Target Resolution), vergleicht jedes gerenderte Frame mit dem "perfekten" und verändert es um möglichst nahe an das "perfekte" Frame zu kommen. [...]
Davor definierst du:
DLSS basiert auf einem neuralen Netz welches durch Nvidia mit "perfekten" Frames (16K Anti-Aliased + Motion Vectors für bessere Prediction) trainiert[...]
Und die Aussage das er ständig mit dem perfekten Frame vergleicht ist schlichtweg falsch. Kann sein dass du es anders gemeint hast aber das steht da leider nicht.
Ich habe die Fragen nur geschrieben weil deine Aussage genau das impliziert hat. Wenn du dich nun denunziiert fühlst dann tut es mir leid. War nicht meine intention.
Ich weiss was Aliasing und Moiré-Muster sind und werde keine Abhandlung darüber hier niederschreiben, das lässt sich ganz leicht googlen. Es gibt diverse Anti-Aliasing Techniken (MSAA, TSAA, SSAA, FXAA, SMAA, TXAA, TAA usw usf), alle haben Vor- und Nachteile. Auch das sollte man selbst googlen, das sprengt hier den Rahmen.
Wenn du es weißt dann ist diese Aussage nicht nachvollziehbar:
Anti-Aliasing glättet ja nur Kanten anhand eines simpleren Algorithmus.
Denn bei richtigen AA Methoden passiert mehr als "nur" Kantenglättung.
Ich habe im übrigen NIE behauptet dass DLSS die BESTE Lösung ist. Es ist aktuell aber mit Abstand die performanteste Lösung bei guter bis sehr guter Bildqualität. SSAA sieht definitiv besser aus, funktioniert aber genau umgekehrt zu DLSS: es berechnet den Frame in höherer Auflösung und downscaled das Ergebnis. Kostet dann halt massiv Leistung die man ja eigentlich für andere Effekte wie RT benötigt.
Da gehe ich sogar mit. DLSS ist hervorragend wenn man die Performance berücksichtigt.
Aber besser bzw. wirkt besser als Nativ + AA ist halt meistens nur dann wenn das AA schlecht umgesetzt wurde.
Sieht man leider wieder in Outriders das TAA miserabel umgesetzt ist.
Einige Dinge laufen mit DLSS besser andere aber wesentlich schlechter. Manche reagieren auch sehr empfindlich auf Artefakte. (ich reagiere kaum darauf)
Für mich bleibt aber DLSS wie nativ+TAA auf einem Niveau. Der eine verschluckt Details der andere packt welche dazu und überzeichnet diese. Beides ist nicht richtig. Je nach Spiel, Szene etc. siegt mal das eine mal das andere.

Link


Das habe ich jetzt auf die Schnelle gefunden. Warum sollte das neuronale Netz auch NICHT speziell für ein Spiel trainiert werden können? Es können ja von diesem Spiel viele Bilder eingespeist werden, somit wird die Trefferquote bei ähnlichen Frames erhöht.
Klar kann man das machen aber nun passiert im ungünstigen Fall genau das was ich vorher schon geschrieben hatte: Overfitting.
Wenn du nur wenige Spiele extra trainierst erhältst du einen Bias in deiner Datenbasis. Wenn es blöd läuft beginnt deine KI eben genau diese Spiele besonders gut darzustellen, kann aber andere Spiele nicht mehr in der Qualität darstellen. Deine KI beherscht dann plötzlich nur noch das was deine Datenbasis gelehrt hat und kann keine allgemeinen Schlüsse ziehen. Das kann so weit gehen, dass du nur noch das Trainingsmaterial vorhersagen kannst.
Wenn du aber wie DLSS 2.0 einen generellen Ansatz verwendest der alles abdecken soll wäre ein solches vorgehen nach meiner Erwartung suboptimal.
Was man in deiner Quelle liest ist, dass ein Training für jedes Spiel mit nicht Spielrelevanten Daten stattfindet. Ich würde mal vermuten genau deswegen. Das wird aber ein richtiger KI Profi vermutlich besser bewerten können.
 
@Bl4ckR4v3n : Ja, ich habe einige Dinge stark vereinfacht ausgedrückt, mea culpa. Komplette Abhandlungen über Anti-Aliasing, neuronale Netze und DLSS (was ja für deep-learning-super-sampling steht, also auch nur eine Form von super-sampling) muss man ja nicht hier schreiben, dazu kann sich dann jeder selbst belesen. Dass AA nicht nur Kanten glättet ist mir bewusst, dort fällt es aber am stärksten auf.

Ich hoffe mein vorheriger Kommentar war treffender und entspricht Deinen Ansprüchen. :D
Klar kann man das machen aber nun passiert im ungünstigen Fall genau das was ich vorher schon geschrieben hatte: Overfitting.
Wenn du nur wenige Spiele extra trainierst erhältst du einen Bias in deiner Datenbasis. Wenn es blöd läuft beginnt deine KI eben genau diese Spiele besonders gut darzustellen, kann aber andere Spiele nicht mehr in der Qualität darstellen. Deine KI beherscht dann plötzlich nur noch das was deine Datenbasis gelehrt hat und kann keine allgemeinen Schlüsse ziehen. Das kann so weit gehen, dass du nur noch das Trainingsmaterial vorhersagen kannst.
Wenn du aber wie DLSS 2.0 einen generellen Ansatz verwendest der alles abdecken soll wäre ein solches vorgehen nach meiner Erwartung suboptimal.
Was man in deiner Quelle liest ist, dass ein Training für jedes Spiel mit nicht Spielrelevanten Daten stattfindet. Ich würde mal vermuten genau deswegen. Das wird aber ein richtiger KI Profi vermutlich besser bewerten können.
Edit: Hierzu noch eine Ergänzung. Wie genau DLSS ausgeliefert wird wissen wir ja nicht, ich könnte mir vorstellen dass es kein Problem ist für "NV sponsored" Titel, die spezielles DLSS Training erhalten haben, einen separaten Algorithmus per Treiber auszuliefern. So groß kann der ja nicht sein und man sieht immer wieder in Treiber Updates "Support für Spiel XYZ". Der Treiber erkennt das gestartete Spiel und startet den korrekten Algorithmus. Ob das so funktioniert können wir leider nicht nachprüfen.
 
Dann zeig doch mal, 5 Minuten Aufwand, ansonsten hat das wieder so ein Geschmäckle...
Genau, 5 Minuten Aufwand. Zumindest für die 1080. Dass ich die anderen Karten leider nicht besitze hast du schon mitbekommen?

Außerdem ist's mir relativ schnurz ob ihr mir glaubt. Ich tausche hier Informationen aus und will selbst Neues lernen. Ich führ sicher keine Markenkriege.
Oft sitzt das Problem nicht im Rechner, sondern davor. :ugly:
Kann deine Aussage nicht bestätigen, zumindest nicht mit meinem UWQHD Monitor.

Das Spiel ist aber für den CPU-Limit bekannt und wenn hier zu wenig FPS rauskommen, wird es eher am Prozessor bzw. System selbst liegen. Zumindest habe ich mit meinem 9900K und meiner 3080 Grafikkarte keine Probleme und den VRam bekomme ich auch nicht voll.

Settings im Spiel sind schon hart auf Anschlag und können nicht mehr höher gesetzt werden.
(...)
Genau und wenn mit demselben Prozessor aber einer anderen Grafikkarte die FPS steigen spricht das ganz klar für ein CPU Limit... Aber mir den DAU vor die Füße werfen. Hast du meinen Post gelesen? 1-5 fps bei vollen VRAM, wenn nicht ca. 30 im CPU Limit (leicht rauszukriegen, geh ich die Auflösungen bis 720p runter bleiben es 30).
Übrigens in FHD, wie ich bereits schrieb. Und mit Mods, wie ich bereits schrieb. Zudem spreche ich hier von einer Stadt mit 100k+ Einwohnern bzw. sogar nur explizit von meinem Savegame (du errätst es sicher, ich schrieb auch das bereits).

Natürlich kannst du das nicht nachvollziehen, dafür müsste ich dir wohl meine Mod-Liste und das Savegame schicken.

Und falls ihr meint "das zählt nicht mit Mods" hab ich nur eine Frage?
Zählen wofür? Für den kindischen Streit ob 10 GB für jeden reichen oder nicht?
Für mich reichen sie nicht. Ich spiele mit Mods. Wer will mir widersprechen?
Der Fehler ist daraus abzuleiten ich würde in dieser Diskussion eine Seite wählen. Für mich kennen Diskussionen keine Seiten, nur Argumente die jeder anders gewichten kann.
Klar habe ich nicht dauernd VRAM Probleme, meistens ist der gähnend Lea. Aber ich bin eben im (für mich) normalen spielen auch schon stark an dessen grenzen gestossen. Deswegen behaupte ich doch nicht, das sei übertragbar auf die Mehrheit der Spieler.
Ich meine, warum hören die Meisten "10GB reichen euch allen nicht" wenn ich sage "10 GB reichen mir nicht"?


Edit: Und wenn mir jemand nicht glaubt (was für ein Kindergarten) kann man sich entweder die Mühe machen meine Posts sporadisch durchzugehen und meine Glaubwürdigkeit selbst zu bewerten oder mich schlicht ignorieren.
 
Zuletzt bearbeitet:
Genau, 5 Minuten Aufwand. Zumindest für die 1080. Dass ich die anderen Karten leider nicht besitze hast du schon mitbekommen?
Das würde mir schon reichen um Deinen Aussagen glauben zu schenken. Zeit zu tippen für den riesen Absatz hast Du, aber nicht für einen fixen Screenshot mit VRAM Auslastung im Spiel auf Deiner 1080? Das bekräftigt meine Zweifel... Aber ist Dir ja egal, mir auch, "pics or it didn't happen".
 
Klar hab ich die Zeit, ich muss mich nur nicht beweisen. Kennst du noch von früher die Typen die immer "Hemmung" gerufen haben um einen zu provozieren? Hat mich schon damals nicht gejuckt :).

Ist doch auch sinnlos. Warum solltest du mir denn dann die Auslastung auf den anderen Karten glauben?
"pics or it didn't happen" - entweder bist du da konsequent oder, naja, eben nicht.
 
Klar hab ich die Zeit, ich muss mich nur nicht beweisen. Kennst du noch von früher die Typen die immer "Hemmung" gerufen haben um einen zu provozieren? Hat mich schon damals nicht gejuckt :).

Ist doch auch sinnlos. Warum solltest du mir denn dann die Auslastung auf den anderen Karten glauben?
"pics or it didn't happen" - entweder bist du da konsequent oder, naja, eben nicht.
Na dann, ich glaube da eher den Screenshots von @-THOR-. Da sind noch fast 5 GB frei.

Mit HD Texture und diversen anderen Mods bekommt man aber natürlich jeden VRAM voll, das ist dann halt persönliche Entscheidung.
 
Edit: Hierzu noch eine Ergänzung. Wie genau DLSS ausgeliefert wird wissen wir ja nicht, ich könnte mir vorstellen dass es kein Problem ist für "NV sponsored" Titel, die spezielles DLSS Training erhalten haben, einen separaten Algorithmus per Treiber auszuliefern. So groß kann der ja nicht sein und man sieht immer wieder in Treiber Updates "Support für Spiel XYZ". Der Treiber erkennt das gestartete Spiel und startet den korrekten Algorithmus. Ob das so funktioniert können wir leider nicht nachprüfen.
Ich gehe von einer festen Netz-Topologie und vielleicht sogar festen Gewichten für die ersten Layer, aber dann doch angepassten Gewichten für sie hinteren Layer aus.
Ansonsten würde das Netz (zumindest nach meinem Verständnis) ja Grafikstil x mir Grafikstil y auffüllen. Insbesondere bei Spielen welche nicht zwingend "realistisch" als Grafikziel haben dürfte das Ergebnis sonst sehr krumm werden.
 
@Bl4ckR4v3n : Ja, ich habe einige Dinge stark vereinfacht ausgedrückt, mea culpa. Komplette Abhandlungen über Anti-Aliasing, neuronale Netze und DLSS (was ja für deep-learning-super-sampling steht, also auch nur eine Form von super-sampling) muss man ja nicht hier schreiben, dazu kann sich dann jeder selbst belesen. Dass AA nicht nur Kanten glättet ist mir bewusst, dort fällt es aber am stärksten auf.

Ich hoffe mein vorheriger Kommentar war treffender und entspricht Deinen Ansprüchen. :D
Beim letzten kann ich nicht meckern ;)
Man muss halt leider bei sowas aufpassen. Gibt gewisse User die gerne verzerrende Darstellungen lieben.
Edit: Hierzu noch eine Ergänzung. Wie genau DLSS ausgeliefert wird wissen wir ja nicht, ich könnte mir vorstellen dass es kein Problem ist für "NV sponsored" Titel, die spezielles DLSS Training erhalten haben, einen separaten Algorithmus per Treiber auszuliefern. So groß kann der ja nicht sein und man sieht immer wieder in Treiber Updates "Support für Spiel XYZ". Der Treiber erkennt das gestartete Spiel und startet den korrekten Algorithmus. Ob das so funktioniert können wir leider nicht nachprüfen.
Richtig können wir nicht wissen und Nvidia wird einen Teufel machen es zu verraten.
Und natürlich könnten die ihren Partnern ein spezielles Training anbieten. Nur frage ich mich wozu?
DLSS 1.0 ist ja unter anderem an diesem Konzept gescheitert. Ein extra Trainingsprozess für jedes Spiel war langwierig, teuer und hat nicht die gewünschten Ergebnisse gebracht. Man hat ja daraus lehren gezogen und kommunziert dass nur noch ein universelles Modell Verwendung findet.

-------------

@Schinken was für mods sind in Verwendung?
Wer grafische Mods verwendet der ist mit mehr VRAM fast immer besser aufgehoben. Da geht es meistens um Bling Bling und nicht um effizienz.
Auch in Skyrim kann man den Bedarf explodieren lassen. Verbraucht Vanilla meine ich 2gb und mein gemoddetes Game 8gb und da bin ich noch nicht mal am Ende angelangt.
 
Mit HD Texture und diversen anderen Mods bekommt man aber natürlich jeden VRAM voll, das ist dann halt persönliche Entscheidung.
Natürlich ist es das, ich erzähl doch die ganze Zeit, dass das meine persönlichen Settings sind, die nicht übertragbar sind.
Beim letzten kann ich nicht meckern ;)
Man muss halt leider bei sowas aufpassen. Gibt gewisse User die gerne verzerrende Darstellungen lieben.

Richtig können wir nicht wissen und Nvidia wird einen Teufel machen es zu verraten.
Und natürlich könnten die ihren Partnern ein spezielles Training anbieten. Nur frage ich mich wozu?
DLSS 1.0 ist ja unter anderem an diesem Konzept gescheitert. Ein extra Trainingsprozess für jedes Spiel war langwierig, teuer und hat nicht die gewünschten Ergebnisse gebracht. Man hat ja daraus lehren gezogen und kommunziert dass nur noch ein universelles Modell Verwendung findet.

-------------

@Schinken was für mods sind in Verwendung?
Wer grafische Mods verwendet der ist mit mehr VRAM fast immer besser aufgehoben. Da geht es meistens um Bling Bling und nicht um effizienz.
Auch in Skyrim kann man den Bedarf explodieren lassen. Verbraucht Vanilla meine ich 2gb und mein gemoddetes Game 8gb und da bin ich noch nicht mal am Ende angelangt.
Hunderte. UI Verbesserungen, Stile, Assets ohne Ende, auch Texturen und sogar ne extra AA Mod. Fragst du nach den Namen muss ich passen, da ich das Savegame seit einiger Zeit nicht mehr spielen kann hab ichs lange nicht angefasst. Ich spiel eben was anderes solange mein Speicher nicht reicht.

Aber was willst du mir sagen? Mit Mods verbraucht man mehr Speicher? You dont say. Das war es was ich erzählen wollte xD.
Nein ernsthaft, das ist doch genau mein Punkt. Viele meiner gemoddeten Spiele sprengen gerne mal den Speicher. Obwohl ich es nicht drauf anlege, ich installiere einfach was ich will.
Auch wenn Mods schlecht optimiert sind, das wird sich ja nicht ändern.
Nur spiele ich nunmal genauso und wenn man mich fragt, können sie also gern 20 GB auf jede Karte schnallen.
Was nicht heisst, dass ich glaube jeder bräuchte das.
 
12 GiByte? - Lächerlich, einfach nur lächerlich... :schief:
Nö.

Schnelle VRAM-Bandbreite, wie bei der RTX3090, aber dafür nur die Hälfte AN Speicher. Deutliches Upgrade zur RTX3080 allemal. Irgendwo muss man ja auch die Daseinsberechtigung der RTX3090 behalten Hätte man der RTX3080Ti zb 16GB spendiert, dann wäre die RTX3090 quasi gestorben.

Die RTX3080Ti wird übrigens die perfekte Mining-Grafikkarte werden. 30 Watt sparsamer als die RTX3090 und wohl genau so schnell, nur billiger.

Und sein wir mal ehrlich... Die RTX3080Ti wird sich verkaufen wie warme Semmeln. Komplett out of stock und Straßenpreis sowieso ca 2000€. Da brauchen wir uns keine Illusionen zu machen.

Gute Karte und praktisch nicht kaufbar.
Ich denke nicht das es eine "nicht zu umgehende" Sperre jemals geben wird. Dafür ist das Mining zu lukrativ. Es wird immer Mittel und Wege geben solche Sperren zu umgehen und das wird auch passieren.
Volle Zustimmung. Es geht um enorm viel Geld und darum ist auch alles möglich.
 
COD nimmt sich, was da ist. Auf meiner 3090 belegt es über 20GB. Das ist auch genau der Punkt!
Belegt ≠ benötigt.
Das stimmt, habe ich auch schon mit BF5 gesehen, da hatte ich mal 8 GiB, 16 GiB und 32 GiB Arbeitsspeicher ausgetestet und je nachdem wie viel Arbeitsspeicher verbaut war, hat sich das Spiel auch mehr oder weniger gegönnt.
 
Joa, schau dir das mal an.
Zum Vergleich, das Game läuft auf einer RTX2080Ti bzw RTX3080 genau so gut. ^^
Das Spiel zieht sich halt alles in den Speicher was geht, ohne Rücksicht auf Verluste.

PS: Die FPS sind so niedrig, weil ich das VR-Headset nicht aufhatte.

DCS 2.7 VRAM and RAM usage.jpg
 
Im Vergleich zu meiner vorherigen 2080 Super habe ich mit meinen Spielen mehr FPS.
In Overwatch habe ich etwa 100 FPS mehr. In COD konnte ich früher nicht alles hochstellen und kam nicht immer auf meine 120 FPS was mein Monitor haben müsste. Jetzt habe ich alles hoch gesetzt und komme gut auf 120 FPS und etwas mehr.

Also ein Leistungsplus kann ich jedenfalls mit meiner neuen 3080 im Vergleich zu meiner vorherigen 2080 Super verzeichnen. Wobei ich aber noch mit der 2080 Super gut ausgekommen wäre. Die ist leider defekt gegangen und befindet sich immer noch in der RMA.
 
Resident Evil 8 wird dich eines besseren lehren. Alles unter 16 GB ist weder zukunftstauglich noch einer Karte mit solcher Rohleistung gerecht. Aber redet es weiter schön. AMD hat mit RDNA 2 fast alles richtig gemacht. Der Infinity Cache z.b lässt Borderlands 3 butterweich laufen. Selbst bei den heftigsten Effektgewittern in Mayhem 10. Was keiner Nvidiakarte (auch meine 3090 nicht) gelingt. Nur die Verfügbarkeit ist lächerlich aber die Ausnahmesituation kann es zum Teil rechtfertigen.
Mal abwarten, was ich von den Benchmarks lernen werde. Darf ich dich dann anschreiben und es dir erzählen?
Schöne Fakten, jeder sammelt sich seine Fakten, wie sie ihm passen. Wie schaut es bei den Minimum FPS und in WQHD aus? Genauso? Ich weiß es nicht!

Oder anders: nach den Balkenlängen erkenne ich kaum eine Korrelation zwischen 24 VS 10 GByte bei den RTX. Unwahrscheinlich, dass eine 3080ti mit nur 12 GB nahe der 3080 bleibt. Wartet es doch erstmal ab. Hier wird so schlau gemeiert, die Karte ist noch gar nicht gebencht worden. Wobei die 6900XT bei neuen Spielen tatsächlich gut abschneidet. Wegen selber UVP müsste dann aber doch die 3080ti eigentlich schneller sein, weil AMD eigentlich immer und in allem schlecht ist. Durch meine grüne Brille jedenfalls ist alles rote braun!
 
Zuletzt bearbeitet:
Ich will AMDs Leistung nicht schmälern, aber im PCGH Vergleich trennen beide 6900XT und 3080 nur 0,5 bis 3 Prozent und daraus ergibt sich nicht, das der zusätzliche Speicher viel nützt, noch dazu bei fast 50% höherer UVP. Die TI könnte bei selber UVP trotz weniger Speicher schneller sein, auch bei UHD (habe ich in der neuesten Ausgabe der PCGH überprüft, bei Spielen, die ich momentan spiele führt die 3080 ggü. 6900XT).
Ich warte mal ab. Die Straßenpreise entscheiden, was lohnt. Aber die 3080TI jetzt schon schlecht zu reden ist idiotisch und zu propagieren 16 gb Gddr 6 seien automatisch viel besser als 12 gb gddr6x.... weiß nicht was das soll. Das können wir doch in der Zukunft besprechen, wenn Beweise vorliegen.
 
Zurück