• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Nvidia Ampere: RTX 3090 mit 24 GiB, RTX 3080 mit 10 GiB und keine 20 GiB?

Ganzer

PC-Selbstbauer(in)
Schon klar ;)
Man könnte aber auch mal zugeben, daß es einem gegen den Strich gehen kann wie RT von NV beworben wird und vor allem wurde, und wie das real auf welcher HW nutzbar ist.
 
G

Grestorn

Guest
Schon klar ;)
Man könnte aber auch mal zugeben, daß es einem gegen den Strich gehen kann wie RT von NV beworben wird und vor allem wurde, und wie das real auf welcher HW nutzbar ist.

Na, man kann sich auch darüber auslassen, wie das neueste "Axe" Duschgel oder Deo beworben wird. Werbung ist Werbung.

Mir geht es nicht darum, RT als das beste seit dem Release der 3dfx Voodoo hinzustellen. Ich finde die Technik spannend, sie hat interessante Anwendungen und einige schöne Spiele in den letzten 24 Monaten hervorgebracht. Aber leider vieeeel zu wenige, ich hatte mir deutlich mehr erhofft. Die Performance ist am Ende tatsächlich sogar besser, als ich erwartet hatte - die Optimierungen haben viel gebracht. Control hat mich geflashed, auch wenn es bei weitem nicht perfekt ist (auch ohne RT nicht).

Was halt einfach nur nicht geht, ist dieses Extremdenken, das hier bei einigen immer wieder ans Tageslicht kommt. Nach dem Motto, "ich verwende das neue Axe, trotzdem kommen nicht alle Frauen zu mir geflogen und zerren mich ins Bett, also muss es ******* sein". Das ist halt einfach albern.
 

DasUnding

Komplett-PC-Aufrüster(in)
Du kannst meine 1080ti mit Fullcover-wasserkühler für 600€ kaufen , die hat 11GB !

Wieso verspottest du mich - ich sprach von 20GB? Hauptsache du hast deinen Spaß.

Bullshit. 70-80FPS+ in Control, 90 FPS in BF5 64er MP voller Server und Metro war auch nicht schlecht (hier waren die Frametimes allerdings mieß).
CoD rennt in Warzone mit 160 FPS+ (capped) und Ultra + RT.

Die erreicht man auch ohne RT häufig nicht, deswegen versteh ich das rumgeheule nicht.

Ich rede von einem Kompromiss aus Bildqualität/Bildrate für RTX=AN/AUS bei dem RTX=AN momentan sehr schlecht abschneidet. "Bullshit" dürfte das wohl nicht sein... ansonsten freue ich mich, dass du zufrieden bist.
 
Zuletzt bearbeitet:

MySound

Freizeitschrauber(in)
Ich kann jetzt nur von mir sprechen, aber: raytracing geht mir kilometer weit am A... vorbei.

Ich will nur konstante 60 FPS in UHD, mehr nicht. Aber dafür 1400€ zahlen muss auch nicht sein :)
 

Schinken

Software-Overclocker(in)
Weißt Du, dass Du ganz schön penetrant bist, mit Deinem RTX schlechtreden? Man muss es ja nun nicht super-toll finden, dass ist jedem überlassen, aber es gibt nicht ein Posting in dem Du nicht klarmachen musst, was für ein großes Failure RTX doch sei. Und kein Gegenargument, keine Gegenmeinung kommt auch nur um geringsten an Dich ran.

Das wirkt schon fast verzweifelt, muss ich ehrlich sagen. Als ob Du was zu verteidigen hättest.


Und du ? Regst dich einen ganzen Post lang über einen halben Satz auf.

Seine einzige Erwähnung war "ähnlich wie RT". Der Rest war vollständig Kritik an AMD.

Du behauptest auch, kein Gegenargument (Gegenmeinung gibt es nicht, nur Meinungen) könne ihn erreichen. Ohne eines aufzustellen natürlich.

Also, ohne seine sonstigen Posts zu kennen: Du wirkst hier viel eher penetrant und verzweifelt, "als ob du etwas zu verteidigen hättest".
 
G

Grestorn

Guest
Ist ja nicht das erste Posting, in dem er sich über RTX auslässt. Wie gesagt, nahezu jedes Posting. Und dazu DARF und WERDE ich mich auslassen, ob es Dir nun passt oder nicht.

Er schreibt, "RTX *IST* ein Fehlschlag" (nicht "ich denke RTX ist ein Fehlschlag" oder "für mich ist es ein Fehlschlag") und wenn ich dann sage "kann gar nicht sein, für mich ist es nämlich durchaus nutzbar und sehr sinnvoll", dann ignoriert er das, und schreibt weiter, "es *IST* ein Fehlschlag".
 

hoffgang

BIOS-Overclocker(in)
Und was ist an seiner RTX Kritik falsch?
Er kritisiert, dass viel versprochen und wenig geliefert wurde.
NVIDIA Unveils GeForce RTX, World’s First Real-Time Ray Tracing GPUs | The Official NVIDIA Blog

Huang introduced the world’s first real-time ray-tracing gaming GPUs — supported by a fat roster of upcoming blockbuster game titles — to a heaving crowd at the Palladium
Ampere steht vor der Tür und das "fat roster of upcoming blockbuster game titles" ist immernoch nicht in Sicht. Nach wie vor kommt man beim Zählen echter RTX Titel nicht sonderlich ins schwitzen.

Das ist kein schlechtreden, das ist Tatsache.
Von den 21 Games die dort auf einem Foto gezeigt wurden hat ja schon nichtmal mehr jedes welches bislang released wurde RTX Support ( z.b. Remnant & Assetto Corsa). Andere sind noch nicht released.


sie hat interessante Anwendungen und einige [wenige - (habs verbessert)] schöne Spiele in den letzten 24 Monaten hervorgebracht. Aber leider vieeeel zu wenige, ich hatte mir deutlich mehr erhofft.
Ist ja nicht so, als ob du das anders sehen würdest.
 
Zuletzt bearbeitet:

KaneTM

Software-Overclocker(in)
Also besser als richtiges Raytraycing wird's nicht. Oder eher Pathtraycing. Wenn ich nicht mehr sagen kann, ob's ein Spiel oder ein Film ist, bin ich glücklich und zufrieden. Vermutlich wird es auch eine sehr untergeordnete Rolle spielen, ob nun AMD oder NV die Hardware liefert. Games wird es auch in rauen Mengen geben. Nur ob das in diesem Jahrzehnt noch was wird, ist halt seeehr fraglich :schief:
 
G

Grestorn

Guest
Ist ja nicht so, als ob du das anders sehen würdest.

Wenige ist nicht "keine" und RTX hat heute bereits einen Impact und wird noch viel mehr haben und ist deswegen in meinen Augen alles andere als ein Fehlschlag. Und es so hinzustellen ist nichts anderes, als sich die Realität zu hinzubiegen, wir man es gerne hätte.

Ich akzeptiere sofort jeden der sagt, "im Moment für mich zu teuer, bringt mir im Moment zu wenig". Denn das ist mehr als verständlich. Aber der Absolutismus "ist ein Fehlschlag" ist einfach lachhaft. In 10 Jahren, wenn es dann RT nicht mehr geben sollte, weil es sich wirklich als Sackgasse herausgestellt hat, dann kann man das meinetwegen sagen. Ich glaube nur nicht, dass das passieren wird.
 

MySound

Freizeitschrauber(in)
Ist ja nicht das erste Posting, in dem er sich über RTX auslässt. Wie gesagt, nahezu jedes Posting. Und dazu DARF und WERDE ich mich auslassen, ob es Dir nun passt oder nicht.

Mei, wenn mans nicht irgendwann gut sein lassen kann, dann erfreut das halt nicht jeden hier. Lass ihm doch seine RTX-Fehlschlag-Meinung.
Ich seh das ähnlich. Ich hab durch RTX genau NULL nutzen. Die Screenshots / Videos die ich gesehen hab hauen mich auch nicht vom Hocker. So what?
 

hoffgang

BIOS-Overclocker(in)
Ich akzeptiere sofort jeden der sagt, "im Moment für mich zu teuer, bringt mir im Moment zu wenig".

Exakt meine Meinung.
RT als Technologie großartig, im Moment für mich - und wohl auch für andere - aufgrund des Preises und der verfügbaren Titel definitiv nicht interessant. Könnte sich mit Ampere ändern, wenn hier die RT Leistung aufgebohrt wird.
Daher auch die Kritik an Turing, man bezahlt die RT Cores, konnte Sie aber grade zu Release Monatelang im Grunde nicht nutzen.
 
G

Grestorn

Guest
Wenn es keinen Pionier gibt in der Technologie, wird es auch nie eine Entwicklung darin geben. D.h. sowohl NVidia als auch die Turing Käufer sind - wie bei so vielen Technologien zuvor - die Pioniere, die dafür "bluten" müssen.

Das war bei der Voodoo1 so, bei den ersten Shader GPUs usw. so. Bei jeder Technologie halt. Warum muss man sich immer und immer wieder so negativ darüber auslassen? Seid doch froh, dass es die Pioniere gibt, die dafür sorgen, dass die Technologien eine Chance haben, sich irgendwann auf breiter Ebene durchzusetzen?
 

TheEndOfTheWorld

PC-Selbstbauer(in)
Bin froh, dass sich TnL durchgesetzt hat, auch wenn die erste GeForce-Modelle sehr teuer waren und fast kein Spiel TnL supportet hat.

Aus Wiki:
Hardware T&L did not have broad application support in games at the time (mainly due to Direct3D games transforming their geometry on the CPU and not being allowed to use indexed geometries), so critics contended that it had little real-world value. Initially, it was only somewhat beneficial in a few OpenGL-based 3D first-person shooter titles of the time, most notably Quake III Arena. 3dfx and other competing graphics card companies contended that a fast CPU would make up for the lack of a T&L unit.
Zeiten ändern nur die Namen, nicht das Verhalten :haha:
 
Zuletzt bearbeitet:

ChrisMK72

PCGH-Community-Veteran(in)
In 10 Jahren, wenn es dann RT nicht mehr geben sollte, weil es sich wirklich als Sackgasse herausgestellt hat, dann kann man das meinetwegen sagen. Ich glaube nur nicht, dass das passieren wird.

Vor allem nicht, da AMD, die Konsolen und sogar Intel ab 2021 auch mit im RT-Boot sitzen.

Und AMD wird sicherlich auch irgeneine Art "upscaling" einsetzen, denn die Konsolen tun das ja auch und was ist in den Konsolen ?
AMD.

Ab 2021 werden wir also quer durch die Bank RT und solche Sachen wie DLSS in anderem Gewand sehen.

In den nächsten Wochen und Monaten werden wir schlauer sein, nachdem Ampere, BigNavi und die neuen Konsolen kommen.

Ich freue mich jetzt, im Gegensatz vor Turing, auf RT/DLSS, denn langsam könnte das echt wichtiger werden.
Also in der Zeit, wo ich meine nächste GPU nutzen möchte, wird RT bestimmt wichtiger sein, als die letzten 2 Jahre, nämlich Ende 20 - 2025. :)
 

DaHell63

BIOS-Overclocker(in)
Ich kann jetzt nur von mir sprechen, aber: raytracing geht mir kilometer weit am A... vorbei.
Ich will nur konstante 60 FPS in UHD, mehr nicht. Aber dafür 1400€ zahlen muss auch nicht sein
Und die hast Du jetzt mit deiner GTX 1080Ti? Nicht mal ohne RT. Aber mit RT müssen es 60FPS sein, sonst gehts Dir am Arsch vorbei?

Ich seh das ähnlich. Ich hab durch RTX genau NULL nutzen. Die Screenshots / Videos die ich gesehen hab hauen mich auch nicht vom Hocker. So what?
Mit einer GTX auch ein wenig schwieriger ;).
 

Schinken

Software-Overclocker(in)
Ist ja nicht das erste Posting, in dem er sich über RTX auslässt. Wie gesagt, nahezu jedes Posting. Und dazu DARF und WERDE ich mich auslassen, ob es Dir nun passt oder nicht.

Er schreibt, "RTX *IST* ein Fehlschlag" (nicht "ich denke RTX ist ein Fehlschlag" oder "für mich ist es ein Fehlschlag") und wenn ich dann sage "kann gar nicht sein, für mich ist es nämlich durchaus nutzbar und sehr sinnvoll", dann ignoriert er das, und schreibt weiter, "es *IST* ein Fehlschlag".

Schon klar, hatte ich so verstanden, dass du meinst er kritisiere RTX zu stark. Der Post den du nunmal zitiert hast, gibt das aber nicht her.
Du kannst doch nicht eine Quelle (ein Zitat in diesem Fall) angeben, und wenn sich herausstellt, dass diese deine These nicht stützt plötzlich auf andere, ungenannte Quellen verweisen. Das ist rhetorischer Unfug und im Deutschunterricht 8. Klasse eine 5 (keine 6, denn immerhin warst du bemüht Quellen zu nutzen).

Nur kenne ich seine anderen Posts nicht gross und bezog mich auf deinen.
Um mich selbst zu zitieren:
"Also, ohne seine sonstigen Posts zu kennen: Du wirkst hier viel eher penetrant und verzweifelt, "als ob du etwas zu verteidigen hättest"."
Die Betonung liegt auf "wirkst hier". Du wirktest mit deinem Post auf mich penetranter und verzweifelter als er in seinem.

Das war meine Aussage und die steht.
Du kannst deine trotzdem tätigen, das passt mir auch, da hab ich nichts gegen. Mein Feedback zu deiner Außenwirkung kannst du ignorieren, annehmen, kritisieren, all das passt mir auch.
Du "darfst" dich also gern dazu auslassen, wo spreche ich dir das denn ab? Ich kritisiere das wie.
 

MySound

Freizeitschrauber(in)
Und die hast Du jetzt mit deiner GTX 1080Ti? Nicht mal ohne RT. Aber mit RT müssen es 60FPS sein, sonst gehts Dir am Arsch vorbei?


Mit einer GTX auch ein wenig schwieriger ;).

Jo. Du verstehst mich absichtlich falsch daher geh ich auf den Unfug gar nicht erst ein.

Oder du liest einfach nochmal genau und legst mir keine Worte in den Mund.
 

DasUnding

Komplett-PC-Aufrüster(in)
Wenn es keinen Pionier gibt in der Technologie, wird es auch nie eine Entwicklung darin geben. D.h. sowohl NVidia als auch die Turing Käufer sind - wie bei so vielen Technologien zuvor - die Pioniere, die dafür "bluten" müssen.

Ich glaube die Richtungsentscheidung ist klar, nur das Produkt Turing war einfach unrund. Als pionieren würde ich das nicht bezeichnen, sie Sache wird ja schon seit Jahrzehnten gemacht. Microsoft gibt ja hier im wesentlichen die Entwicklung im Spielebereich vor. In der Regel wird selten was kommerziell gemacht, was fundamentale Probleme machen würde, oder wo Anzeichen bestehen, dass das völlig in die Hose geht.

Die Preise sind jedoch einfach zu extrem geworden und jegliche Argumentation dagegen erledigt sich mit einem Blick auf die Bilanzen von Nvidia und Microsoft. Selbst AMD konnte sich wohl die letzten Jahre genug Entwicklung leisten. Meistens liegt es dann doch an den Entwicklern und nicht am Geld - zumindest bei Firmen, die wie Nvidia im Geld schwimmen. Das ist Melken für die Aktionäre nichts weiter.
 
Zuletzt bearbeitet:
G

Grestorn

Guest
Ich glaube die Richtungsentscheidung ist klar, nur das Produkt Turing war einfach unrund.

Was ist daran "unrunder" als an allen anderen neuen Technologien, die allesamt Anfangs wenig Unterstützung fanden, auch weil man zu wenig Vorteile empfand (und auch weil die Spieler vergessen, dass eine Spieleentwicklung Jahre dauert) und deswegen sehr laute Kritik kam - meist von den Leuten, die das neue Produkt `mit der neuen Technologie *nicht* gekauft haben?
 

defender2409

PC-Selbstbauer(in)
Naja die 3DFX Voodoo Karten haten aber nach ca. nem Jahr auf dem Markt deutlich mehr Impact auf die Spielehersteller dann waren die Voodoo 1 Karten auch für den normalen Spieler erschwinglich ich habe ca. 1997 für meine Diamond Monster 3D 299 DM bezahlt .
T&L hat sich auch erst durch die Geforce 2MX durchgesetzt weil diese damals auch bei ca, 200 DM anfingen .
RT wird sich auch erst durchsetzen wenn die Mainstreamkarten ala 1650 und 5500xt es beherschen.
ZurZeit ist RT ein Spielzeug für gutbetuchte .
Igor hat heute noch ein Video gebracht ,das die 3090 und 3080 eine 12 Layer Platine haben werden ,mit den durchkontaktierungen werden die Platinen an sich schon sehr teuer .
 

Ganzer

PC-Selbstbauer(in)
Na, man kann sich auch darüber auslassen, wie das neueste "Axe" Duschgel oder Deo beworben wird. Werbung ist Werbung.
Ne, kann man nicht. Diese Technik, ist keine Gefühlswelt. Das ist nur Mathe.

Das doch noch irgendwie zum deinen Guten umzudrehen, das kriegst du aber schon hin. Ich mach mir diesbezüglich auch keine Sorgen.
 

Nuallan

PCGH-Community-Veteran(in)
Naja die 3DFX Voodoo Karten haten aber nach ca. nem Jahr auf dem Markt deutlich mehr Impact auf die Spielehersteller dann waren die Voodoo 1 Karten auch für den normalen Spieler erschwinglich ich habe ca. 1997 für meine Diamond Monster 3D 299 DM bezahlt .
RTX mit der ersten Voodoo zu vergleichen ist wirklich schon.. ziemlich gewagt. Raytracing ist auch nach zwei Jahren noch lange nicht der Gamechanger wie es damals 3D-Beschleunigung quasi sofort war, außer vielleicht bei Minecraft RTX, was aber auch seit zig Monaten in der Beta festhängt.. Metro und Control zeigen das Potential teilweise, aber für mich nicht so beeindruckend das mir die Kinnlade runterklappen würde. Beim Rest wie BF V, Tomb Raider & Co. ist das für mich eher eine Alibi-Spielerei um den RT-Sticker draufklatschen zu können.

Außerdem war die Voodoo damals eine optionale Karte. RTX ist nicht optional. Wer Leistung oberhalb einer 1660 möchte muss es mitkaufen. Mal davon abgesehen das die 1660 erst später kam, nachdem es seit Turing-Release viel Kritik an dieser Strategie von Nvidia gab.

Ich hätte es besser gefunden wenn man selbst entscheiden kann ob man Early Adopter werden möchte oder nicht. Von mir aus auch wieder mit einer optionalen Karte. Aber dann hätte man ja auch genug Futter dafür liefern müssen.. Qualität setzt sich meistens durch. Dieses Risiko wollte man bei Nvidia wohl nicht eingehen. Warum kann man an deren Marge und Aktienkurs sehen.
 

Oldtekkno

Freizeitschrauber(in)
Also für mich ist der nvidiaansatz nicht schön. Man bezahlt teure knappe Chipfläche, die im Endeffekt zum Teil ein Friedhof ist. Tot, weil quasi nur fähig RT zu berechnen. Ich wollte dafür nicht bezahlen.
Da hab ich lieber nen amd Chip ohne Friedhofsfläche. Und dort kann alles schön mit vielen Frames berechnet werden. Für mich viel passender :)
 

Ganzer

PC-Selbstbauer(in)
So wie Du alles ins Negative drehst :)
Aber auch alles oder? Überall und durchgehend wird alles was mit NV zu tun hat ins Negative gedreht was? (facepalm) Und das nur bei 169 Beiträgen, von welchen gefühlt 160 B-dies gelten. Neuer Rekord was?

@all
12layer Graka PCBs, AiOs auf den CPUs damit sie beständig den Turbotakt halten können, ~430W Strombuchsen für die Grakas, Mesh-Gehäuse mit 3 Lüftern vorn, 128+64phasen ;) Stromversorgungen auf den Motherboards usw. usw.
Woraus werden die Isolationsschichten bei den 4000ern sein? (oder RDNA3). Aus Schamott?

Läuft da nicht irgendwas falsch? Sowas hätte ich 2020 erwartet, falls jemand DAMALS gesagt hätte, mit 14+ ist wohl das Ende der Herstellungsprozesse erreicht... Fangen wir langsam an den Konzepten zu scheitern?
Oder nimmt man sich viel zu viel vor, gegenüber dem was die Prozesse jeweils überhaupt leisten können??

Ok bei den CPUs kommt das noch brauchbar durch. Ein 3700X mit 88W Gesamt-TDP (und selbst wenn es 95W wären), bei der Leistung die er abliefern kann, geritzt. Bei Zen3 wird sich das ja noch steigern, da "idle" sich endlich Richtung Intel bewegen wird, Takt kommt real höher und IPC steigert sich auch spürbar UND man erwartet, daß die TDPs sich trotzdem nicht signifikant erhöhen.

Bei Grakas nimmt das aber so nach und nach eher irrsinnige Ausmaße. Als wenn man hier nur noch mit der Brechstange arbeiten würde und 12nm wie nun 7nm nur verhindern, daß diese nicht allzuschnell bricht.

Frag ich mich übrigens nicht erst seit den neusten Ankündigungen, sondern schon seitdem es publik wurde, daß Apple mit sowas nichts mehr zu tun haben will...
 
Zuletzt bearbeitet:
G

Grestorn

Guest
Aber auch alles oder? Überall und durchgehend wird alles was mit NV zu tun hat ins Negative gedreht was? (facepalm) Und das nur bei 169 Beiträgen, von welchen gefühlt 160 B-dies gelten. Neuer Rekord was?

Na, meine Aussage ist genauso fundiert wie Deine "Das doch noch irgendwie zum deinen Guten umzudrehen, das kriegst du aber schon hin."

(Meintest Du damit eigentlich "Guten" oder "Gunsten"? Jetzt wo ich das lese bin ich mir nicht mehr ganz sicher.).

Und bestimmte Leute werden tatsächlich nicht müde, immer wieder neue Gründe zu finden, NV sch... zu finden. Oder Epic. Oder irgendeine andere Firma. Das nervt einfach. Mich würde freuen, wenn es allgemein etwas weniger Negativität und Emotion in dem Bereich gäbe.
 

Khabarak

BIOS-Overclocker(in)
Qualität setzt sich meistens durch. Dieses Risiko wollte man bei Nvidia wohl nicht eingehen. Warum kann man an deren Marge und Aktienkurs sehen.

Nvidia hat schon mehrfach dafür gesorgt, dass sich "Qualität" nicht durchsetzt.
Sie setzen zu sehr auf walled gardesn.
Siehe GPU PhysX, G-Sync...

(Hinweis an alle PhysX Fans: Da oben steht eindeutig ein G... also PhysX über Grafikkarten)

An anderer Stelle wäre eventuell Beta Max vs. VHS zu nennen, oder HD-DVD vs. Blu-Ray (Wobei ich da keinen großen Unterschied sah).
Oder auch der aktuelle Format Krieg bei volumetrischen Surround Sound Codecs... (Die Dinger mit den Deckenlautsprechern - Da kenn ich nicht mal mehr alle).
 

fire2002de

Software-Overclocker(in)
Das ist mir einfach zuviel Saft, schön was die Karten können aber mit immer höherer Strom aufnahme....
ne die grünen drehen mir zusehr ab...
mal gucken was AMD bringt. es bleibt interessant.
 

Ganzer

PC-Selbstbauer(in)
@Grestorn
Sorry aber ich kann mit diesen fragwürdigen Psychoanalysen nichts anfangen. Warum nicht einfach beim Topic bleiben? Bei dem Topic geht es nicht um Personen. Wenn dir nicht gefällt was sie schreiben, schreibe ebenfalls etwas technisches als Gegenmeinung. Danke.
 

Ganzer

PC-Selbstbauer(in)
Das ist Müll. Die Watts, sind TGP. Das ist das komplette Board. Schon alleine das Mehr an GDDR6X (3090) zieht fast das an Mehr, was da insgesamt als Unterschied zu der 3080 steht. Schon das würde nur passen, wenn der 102-300 genausoviel zieht wie der 102-200. Was wohl kaum realisitsch erscheinen sollte...

Man darf voraussetzen, daß VideoCardz schlau genug dafür ist.
Ergo, die Tabelle ist bis auf die Anzahl der Cuda-cores eine Nebelkerze. VideoCardz erfüllt die ihm auferlegte Aufgabe wie immer sehr zuverlässig ;)

edit:
ODER, das ist nicht TGP, sondern TDP. Dann aber viel Spaß allen mit ihren 12pol Buchsen :D
 
Zuletzt bearbeitet:
Oben Unten