Geforce RTX 4090 in Brand: Reddit-Nutzer zeigt verschmorte 12VHPWR-Anschlüsse

Öh – zu denen habe ich doch gerade was geschrieben? Und in Großserie verbreitete Stecker dieser Größenordnung und Leistung gibt es nicht wie Sand am Meer. Warum sollte da auch noch jemand etwas entwickeln, wenn außer den PC-Fuzzis alle mit Mini-Fit zufrieden sind und es schaffen, qualitativ hinreichende Standards im jeweiligen Anwendungsbereich durchzusetzen? Hätte man den ursprünglichen PCI-E-Stecker gleich mit 7-8 A je Pin spezifiziert und idealerweise voll belegt, hätten wir das Problem nicht, sondern könnten 450-W-Karten mit Slot + 1× 8-Pin legal versorgen. Aber hat man halt nicht und jetzt muss man auf ein anderes, zweitbestes Format ausweichen. Da macht man es immerhin von Anfang an besser, was die Steckverbindung angeht, hat aber offensichtlich nachholbedarf beim Kabelaufbau und vor allem bei der Anschlussplatzierung.




Du brauchst auf alle Fälle auch noch eine Stand-By-Leitung, eine Signalleitung, idealerweise Sense-Leitungen für lange Kabelverbindungen und zusätzlich gibt es im ATX-Stecker noch -12 V. Mehr ist da aber gar nicht drin. Dass das Ding so groß ist liegt daran, dass man anders bei 3,3 V und 5 V keine große Ströme übertragen bekommt. Die Idee hinter 12VO, nämlich diesen alten Kram einfach abzutreiben, war daher gar nicht so schlecht. Intel & Co hätte sie aber mal 5-10 Jahre früher haben müssen (hatten sie tatsächlich auch. Im Serversegment): Wenn man M.2 sowie USB-Typ-C mit 12 V spezifiziert hätte und spätestens bei PCI-E 3.0 ein "3,3 V: legacy, darf von neuen Karten nicht mehr beansprucht werden", könnten wir wunderbar auf 12VO wechseln. Stattdessen hat man ein Ökosystem geschaffen, in dem nahezu jede anzuschließende Komponente auch, nicht selten sogar ausschließlich 3,3 V oder 5 V als Versorgungsspannung erwartet. Im Einsteiger-/Micro-PC-Markt, wo keine CPUs genügsam und GPUs selten sind, ist es heute leichter einen PC nur mit 3,3 und 5 V, aber ohne 12 V, zu bauen, denn umgekehrt.
Das sind echt viele gute Beiträge hier. Verstehe auf Grund meines nicht vorhandenen Fachwissens nichtmal die Hälfte versteh. Finds als absoluter Laie nur merkwürdig 300-600W über so viele einzelne Adern zu leiten. Ohne Plan zu haben denke ich mir halt, jedes 220v Kabel im Haushalt besteht quasi aus einer Stromleitung, Rückleiter und Erde ( stimmt das so?). Warum teilt man den am PC auf? Das macht es doch nur komplizierter und anfälliger?Bitte mich nucht für meine Fehler kreuzigen, bin ein totaler Elekro-Unwissender.
 
Öh – zu denen habe ich doch gerade was geschrieben?
Sorry, voll verpeilt! Jetzt hab ich es aber

Wird aber doch meines Wissens nach gar nicht mehr beansprucht, genauso wie -5V draufliegt und nicht mehr genutzt wird. Meine Mal gelesen zu haben, dass einige NT Hersteller das schon gar nicht mehr belegen.
Ohne Plan zu haben denke ich mir halt, jedes 220v Kabel im Haushalt besteht quasi aus einer Stromleitung, Rückleiter und Erde ( stimmt das so?). Warum teilt man den am PC auf? Das macht es doch nur komplizierter und anfälliger?Bitte mich nucht für meine Fehler kreuzigen, bin ein totaler Elekro-Unwissender.
Das liegt daran, dass die Stromstärke die Dicke des Kabels bestimmt und nicht die Leistung. Die Leistung ist das Produkt aus Stromstärke und Spannung.

Einfach gerechnet

230Volt x 10Ampere sind 2300W (im Haus üblicherweise mit 1,5mm² Stärke und 16Ampere Absicherung)

Im PC liegen aber nur 12V, hier wurden 10Ampere nur 120W Leistung bringen, du brauchst also grob die zwanzigfache Stromstärke und das resultiert dann darin, dass du Zwanzig Leitungen mit 1,5mm² oder eben eine, dann aber deutlich dickere Leitung
 
Zuletzt bearbeitet:
Der Igor hat dazu doch ein Video gemacht.
Das Kabel von Nvidia ist absoluter Betamüll und gehört in die Tonne.

Die beiden äußeren Kabel am Stecker sind so dünn verlötet,die brechen beim kleinsten Biegen.Keine Ahnung was in den Köpfen bei Nvidia vor Sicht geht?! Wahrscheinlich denken die aber:Ob Müll oder nicht die Lemminge kaufen eh alles.Müsste für die beigelegten Kabel eigentlich einen Rückruf oder Ersatzkabel geben.

Jensens Zündschnur zersägt:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Der Igor hat dazu doch ein Video gemacht.
Das Kabel von Nvidia ist absoluter Betamüll und gehört in die Tonne.

Die beiden äußeren Kabel am Stecker sind so dünn verlötet,die brechen beim kleinsten Biegen.Keine Ahnung was in den Köpfen bei Nvidia vor Sicht geht?! Wahrscheinlich denken die aber:Ob Müll oder nicht die Lemminge kaufen eh alles.Müsste für die beigelegten Kabel eigentlich einen Rückruf oder Ersatzkabel geben.

Jensens Zündschnur zersägt:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Wie immer ein sehr gutes Video von Igor. Top erklärt. Schon krass dass Nvidia bei einer 2000€ Karte so ein Müll Kabel dazulegt wo man mit etwas Pech die Karte komplett zerstört.
 
Ich finde die sollten mit Harting Steckern versehen werden.
Das verstehen die Automatisierungstechniker unter uns.
Da geht hochfrequentes drüber und ordentlich Leistung kann man sicher verbinden + Verpolungsschutz
:D
Naja hochfrequent wird bei den Karten nur das Kabel wechseln sein.... Die 6090 könnte man evtl per lichtbogen aus einem WIG-Brenner mit Strom versorgen oder einer tesla spule. Dann kann schon kein Stecker mehr durchbrennen.
 
Für MiniFit gibt es eben schon bestehende Standards. Die verlangen zwar in der neuesten Ausführung 8 A je Ader (was mit drei Leitern auf dem Platzbedarf des neuen Micro-Fit-Steckers nur 24 A statt 55 A ergibt), aber man kann sich bei 75 W auf zwei Pins auch mit 3,5 A durchschummeln. Wer einen DAU-sicheren Standard backen will, muss bei Beibehaltung der Terminals immer darauf vorbereitet sein, dass jemand ein Netzteil dieser nicht-Leistungs-Klasse ansteckt. MegaFit wiederum ist so sperrig, dass man in den Footprint der jetzt gewählten Stecker nicht einmal ganz einen 1-×-4-Pin mit zwei 12-V-Leitungen unterbekommt. Das ergäbe bei gleicher Grundfläche also ebenfalls nicht mehr als 50 A – aber ohne Codierungsmöglichkeit und mit mehr Problemen, die sehr punktuelle Last auch ins PCB zu bringen. Da ist 12+4 die bessere Wahl.

Warum kein einziger Netzteilhersteller in der Lage, ist Adern zusammenzufassen, frage ich mich aber auch seit langem. Gerade beim 24-Pin-ATX-Stecker besteht das riesige Kabelbündel zu rund 50 Prozent aus Isolierung und davon ist die Hälfte wiederum um Masseleitungen gewickelt. Kann man da nicht bis kurz vor Schluss ein dicke Litze nehmen und die anderen Adern in einer Spirale drum rum legen?
Oh Torsten, du weißt aber schon, das daß spiralförmige Umwickeln um eine gestreckte Leitung, eine Induktion darstellt, auch so arbeiten wird, denn die Windungsanzahl ist dabei nicht wichtig, die Induktion als Ein-, Mehrwindungsspule sehr wohl!
Paralelle Kabelverläufe sind erst ab hohen Frequenzen ein Problem und deswegen auch komischerweise bei z.B. PC Atx Netzteilen so beibehalten.
Eigentlich braucht ein Netzteil nur 12V bereitstellen, von deren man die üblichen 3,3V, und 5,0V DC mit separater Wandlung abnehmen kann.
Auf den MB ist das hauptsächlich schon lange eingeführt.
Die paar Steuerleitungen die noch notwendig sind, bleiben da gerade zu unerheblich in der Anzahl.
Deshalb braucht man eigentlich nur eine fette geschachtelte 12V DC Leitung, gemäß eines Koaxialkabel, oder schlicht, wie bei den externen Notebooknetzteilen.
Der ganze Steckerkleinkram mit den zu vielen Pin kann man sich da sparen.
HDD/SSD, CD/DVD-Laufwerke, sind seit einiger Zeit z.B. ohne Nutzung der 3,3V und 5,0 V DC im Handel, aber die Stromversorgungstecker halten diese noch bereit.
Die Spannungs- und Stromregulierung, sollte im Peripheriegerät implementiert werden, was zwar diese eigentlich unwesentlich teurer macht, aber die Spannungswandlung und Regulierung in den Netzteilen deutlich vereinfacht, also werden die auch preiswerter, so die Welt es denn will.
Die Adern eng zu bündeln kann solche Fehler auch wirkungsvoll verhindern. Bei Lüfterkabeln respektive 4-Pin-Molex-Anschlüssen an diversem Kühlungskrempel kommt es nach einigen Steckzyklen auch immer mal wieder vor, dass die Arretierungsnasen im Stecker brechen und der Pin nur noch lose drin steckt. Aber wenn das Kabel bis zum Ansatz straff gesleevt ist, kann er auch nicht hinten rausrutschen, solange sich nicht der gesamte Sleeve respektive sämtliche Adern aus dem Steckgehäuse bewegen. Der Pin wird dann einfach die Steifheit seines Kabels statt durch das Steckergehäuse auf den Kontakt geschoben. Ist nicht "as intendet", sonder Pfusch, funktioniert aber wesentlich besser als ein los rumbaumelnder Kontakt, den 80 Prozent der Nutzer vermutlich auch ohne Umhüllung nicht bemerken würden.
Wer ohne Sleeve, oder stramm anliegender Kabelhülle anderer Bauart, einen nicht arretierten Steckkontakt an einem Molexstecker nicht bemerkt, muß was mit den Augen haben.
Der Kontakt wird nicht richtig, wenn überhaupt richtig greifen und steht dadurch deutlich aus dem Steckergehäuser heraus.
Selbst das ist kein Problem, sofern man es bemerkt, da man meistens den mit den Daumennagel, oder einer kleinen Spitzzangen in den Stecker hineinschieben kann, aber der gesamte Stecker muß schon auf dem Gegenstück fest sitzen.
Ich habe jedoch noch keine abgebruchenen Arretiernasen gesehen, außer man nimmt hier mehrfach händisch die Steckerhülsen öfter aus dem Steckergehäuse, dafür sind öfter die Arretiernasen vom Werk her nicht wiet genug aufgebogen und flutschen deshalb dann oft heraus.
Hier die Arretiernase vorsichtig mit geeigneten Hilfsmitteln etwas weiter herauszustellen, herauszubiegen, was oft kaum richtig sichtbar, bewirkt den ursprünglich vorgesehenen Zustand.
Gut, es gibt Menschen die Denken nicht mit, sondern Quälen alles frummsig zusammen und Schimpfen hinterher, wer den solch einen Murks hergestellt hat.
 
Zuletzt bearbeitet:
Wen interessiert eine geringe Induktivität bei Gleichstrom und gleicher Windungszahl auf allen Adern? Ohne magnetisierbaren Kern ist das keine Trafospule, sondern eine Ansammlung von letztlich auch nur parallel verlaufenden Kabeln, die halt 20-30% länger ausfallen, weil ihre Strecke geringfügig aufgewickelt ist.

Und etwas sehen zu können setzt voraus, dass man hinguckt. Bei einem zwei oder teilweise sogar dreireihigen Stecker, um den es hier geht, setzt das voraus mit dem Kopf unter die Grafikkarte zu kriechen und selbst dann ist der Blick auf die Kontakte möglicherweise schon durch Teile des Kühlers behindert. Von Be-Quiet-Kabeln, die am Ansatz nicht gesleevt sind und jeden Pin einzeln verdrahtet haben, wurden jetzt schon mehrere Fälle rausgerutschter Pins berichtet, die erst bei erneuter Prüfung im Rahmen der laufenden Berichterstattung bemerkt wurden. Das mag dem Ingenieur unerklärlich erscheinen, weswegen solche Produkte immer wieder erscheinen. Aber es ist einfach die Realität beim Nutzer da draußen, dass ein kleiner Metallrand hinter schwarz in einer schwarz auf schwarz Umgebung vor schwarzem Kühler im schwarzen Gehäuse (Beleuchtung ggf. mit Schwarzlicht) schnell übersehen wird.
 
Aber es ist einfach die Realität beim Nutzer da draußen, dass ein kleiner Metallrand hinter schwarz in einer schwarz auf schwarz Umgebung vor schwarzem Kühler im schwarzen Gehäuse (Beleuchtung ggf. mit Schwarzlicht) schnell übersehen wird.
Die zutage tretenden Nachteile der Schwarzoptik... bisher war es immer cool, wenn man fast nix erkennt.
 
Empfinde das höchst problematisch. Nvidia selbst hat doch gesagt, dass keinesfalls etwas anderes als der Originaladapter genutzt werden soll / darf? Wenn da jetzt auch Kabel schmoren sollten, weil es eben doch nicht die Kabel / Adapter sind, sondern der Stecker / Buchse falsch konstruiert sind, sehe ich da schon Probleme auf die User zukommen.

Evtl. sollte Nvidia so etwas öffentlich absegnen und freigeben.

Es bleibt doch bisher alles beim alten, niemand weiß wo das Problem liegt, so lange kann ich das Problem nicht lösen und mir nicht sicher sein, dass selbst hochwertig verarbeitete Stecker das Problem nicht haben werden. Bei 2k und mehr für so eine Grafikkarte, bleib ich (unabhängig davon, dass ich eh auf AMD warten werde) dem Produkt erstmal fern.

P.S.
Gibt es schon Aussichten, dass Boardpartner vieleicht auch auf 3 x 8 PIN auf der Graka setzen?
 
Nicht mehr lange und die deutschen Behörden fangen an zu regulieren und lassen nur noch ausgebildete Elektriker mit den Strömen hantieren, die in einem PC umgesetzt werden. :D
Es hat ja einen Grund, weshalb nicht jeder einfach an seinem 230V Netz herumschrauben darf. Ist ja gerade wegen der Balkonkraftwerke wieder ein Thema, da im Worst Case mehr als 16 Ampere zur Zielsteckdose fließen können. Strom vom Netz, dann den Strom vom Balkonkraftwerk dazu und dann fließen zwischen Anschluss des Balkonkraftwerks und Verbraucher mehr als 16 A durch die Leitung, wofür die Leitung nicht mehr spezifiziert ist.

Irgendwann heißt es, wie auf jedem Netzteil, dass PCs nur durch Fachpersonal geöffnet werden dürfen und der Weihnachtsmann jeden Verstoß auf seine Liste setzt. :D
 
Ich verstehe aktuell gar nicht dass es noch mutige gibt die sich eine RTX4090 kaufen mit dem Risiko dass ihre eine der teuersten-gaming GPU's die es gab einfach auf Grund schlechter Kabel irgendwann einfach durch Kurzschluss abraucht.
Was ist nur mit den Kunden los? So ein Produkt kann man doch einfach nicht anfassen bis es 100% verlässlich geklärt ist.
 
Es bleibt doch bisher alles beim alten, niemand weiß wo das Problem liegt, so lange kann ich das Problem nicht lösen und mir nicht sicher sein, dass selbst hochwertig verarbeitete Stecker das Problem nicht haben werden.
Das Problem ist schon lange bekannt und lässt sich auch schon lange lösen. Nur macht man aus dem Stecker-Hype eine riesen Welle, obwohl man mit simplen Mitteln selber was dagegen tun kann ohne die Garantie zu verlieren.;-)
 
Das Problem ist schon lange bekannt und lässt sich auch schon lange lösen. Nur macht man aus dem Stecker-Hype eine riesen Welle, obwohl man mit simplen Mitteln selber was dagegen tun kann ohne die Garantie zu verlieren.;-)
Also ich habe bisher nichts, außer wilden Vermutungen gelesen.

1.) Stecker bis zum Anschlag, gab auch schon Fälle wo dies (angeblich) der Fall war
2.) Kabel nicht biegen, gab auch schon Fälle wo dies (angeblich) nicht der Fall war

usw.

Ich meine wenn Netzteilexperten hier schon anraten, Steckerfett zu nutzen, weiß man doch, was die Stunde geschlagen hat. Nichts als Vermutungen und bisher keinerlei zuverlässige Lösungen. Selbst die Änderung des PCI-SIG Standards ist ja nicht sicher, dass es funktioniert. Problem könnte ja bspw. auch in den Buchsen liegen.
 
Ich verstehe aktuell gar nicht dass es noch mutige gibt die sich eine RTX4090 kaufen mit dem Risiko dass ihre eine der teuersten-gaming GPU's die es gab einfach auf Grund schlechter Kabel irgendwann einfach durch Kurzschluss abraucht.
Was ist nur mit den Kunden los? So ein Produkt kann man doch einfach nicht anfassen bis es 100% verlässlich geklärt ist.
Lt. Nvidia sind bisher 50(!!!) Fälle von zig tausend verkauften Karten bekannt. Das ist ein Promilleanteil, den es bei den normalen 6- bzw. 8-Pin Stecker auch schon gab. Man sollte das Thema daher nicht zu weit aufbauschen.

Ja, der aktuelle Stecker ist gewiss nicht optimal gelöst. Er gibt kaum Feedback und man muss schon manuell prüfen, ob dieser eingerastet ist oder nicht. Es gibt einfach kein "klick"!

Ich selbst besitze selbst eine 4090 und habe da schon mehrfach 600W durch den Stecker gejagt. Da schmort und brennt nichts. Das PCIe Standardisierungskonsortium arbeitet wohl gerade an einer neuen Revision des Steckers, und dann hat sich das Thema hoffentlich erledigt.
 
Also ich habe bisher nichts, außer wilden Vermutungen gelesen.
Hier das Statement von Nvidia:
We are actively investigating the reports. We are aware of about 50 cases globally.

Our findings to date suggest that a common issue is that connectors are not fully plugged into the graphics card. To help ensure the connector is secure we recommend plugging the power dongle into the graphics card first to ensure it's firmly and evenly plugged in, before plugging the graphics card into the motherboard. We are investigating additional ways to ensure that the connector is secure before powering on the graphics card.

Nvidia has been able to test the cables that were RMA'ed by affected customers. In all of the cases a wear line is clearly visible that indicates the cable wasn't fully inserted into the 16-pin power connector.

Nvidia gegenüber Gamers Nexus

Deutsche Übersetzung:
Wir gehen den Berichten aktiv nach. Uns sind weltweit etwa 50 Fälle bekannt.

Unsere bisherigen Ergebnisse deuten darauf hin, dass ein häufiges Problem darin besteht, dass Stecker nicht vollständig in die Grafikkarte eingesteckt sind. Um sicherzustellen, dass der Anschluss sicher ist, empfehlen wir, zuerst den Strom-Dongle in die Grafikkarte zu stecken, um sicherzustellen, dass er fest und gleichmäßig eingesteckt ist, bevor Sie die Grafikkarte in das Motherboard stecken. Wir untersuchen zusätzliche Möglichkeiten, um sicherzustellen, dass der Anschluss sicher ist, bevor die Grafikkarte eingeschaltet wird.

Nvidia konnte die Kabel testen, die von betroffenen Kunden mit einer RMA versehen wurden. In allen Fällen ist eine Verschleißlinie deutlich sichtbar, die darauf hinweist, dass das Kabel nicht vollständig in den 16-poligen Stromanschluss eingesteckt wurde.
 
Lt. Nvidia sind bisher 50(!!!) Fälle von zig tausend verkauften Karten bekannt. Das ist ein Promilleanteil, den es bei den normalen 6- bzw. 8-Pin Stecker auch schon gab. Man sollte das Thema daher nicht zu weit aufbauschen.

Ja, der aktuelle Stecker ist gewiss nicht optimal gelöst. Er gibt kaum Feedback und man muss schon manuell prüfen, ob dieser eingerastet ist oder nicht. Es gibt einfach kein "klick"!

Ich selbst besitze selbst eine 4090 und habe da schon mehrfach 600W durch den Stecker gejagt. Da schmort und brennt nichts. Das PCIe Standardisierungskonsortium arbeitet wohl gerade an einer neuen Revision des Steckers, und dann hat sich das Thema hoffentlich erledigt.
Je nach Blickwinkel.
Es gibt genug Videos im Netz die definitiv zeigen das eine 2000€ GPU mit einem super schlampig+ billig verarbeiteten 0,10€ Stecker versorgt wird. Siehe z.B. Igorslab.
In Folge dessen sind schon direkt nach dem Release 50gpu's abgeschmort. Wer weiß wie viele in den kommenden Monate folgen. Vielleicht raucht deine in 1 Jahr ab. Hatte privat im Auto/Wohnung/Haushalt schon viele Kurzschlüsse/Kabelbrände.
Im Elektro-Breich sind solch schlecht verarbeitete Kabel/Schrott ein totals No-Go = Kurzschluss mit Ansage.

Und ob die alle zu doof waren ihre 2000€ gpu einzubauen...naja.
Denke mal wer eine 2000€ gaming-gpu kauft + selber einbaut ich eher nicht der klassische Technik-fremde Depp.
Diese Kategorie geht eher zum Aldi und stürzt sich auf den 830€ High-End super duper Gaming-Rechner. ;-).

Ich bin dann mal gespannt ob die neuen Stecker+Kabel dem Abhilfe bringen. Bis dahin kann man jedem nur empfehlen erstmal ein paar Monate abwarten dann weiß man mehr. Aktuell sind die Käufer der 4090 erstmal "Produkt-Tester".
 
Also ich habe bisher nichts, außer wilden Vermutungen gelesen.

1.) Stecker bis zum Anschlag, gab auch schon Fälle wo dies (angeblich) der Fall war
2.) Kabel nicht biegen, gab auch schon Fälle wo dies (angeblich) nicht der Fall war

usw.

Ich meine wenn Netzteilexperten hier schon anraten, Steckerfett zu nutzen, weiß man doch, was die Stunde geschlagen hat. Nichts als Vermutungen und bisher keinerlei zuverlässige Lösungen. Selbst die Änderung des PCI-SIG Standards ist ja nicht sicher, dass es funktioniert. Problem könnte ja bspw. auch in den Buchsen liegen.
Ich habe vor Kurzem jemanden mit seiner RTX 4090 und seinem Kabelproblem geholfen. Mit einer Wärmebildkamera konnten wir gut erkennen, das bei hoher Last der Stecker über längerer Zeit kontinuierlich wärmer wurde. Aus diesem Grund bot ich an, den Stecker lastverträglicher zu machen, sprich: ihn auf 2 mm² Flexkabel mit Kupferhülsen umzubauen. Siehe da. die Verbindungsstelle wurde kein Stück warm und auch nicht bei OC.
Schaut man sich die originalen Kabelstecker genauer an, stellt man fest das diese nur 1 mm² dick sind. Sicher reichen die normalerweise noch aus, aber ich glaube die Qualität der Fertigung hat wohl gelitten und ich lege stets immer höhere Werte aus.
Heute bekam ich wieder einen Anruf, ich solle wieder Stecker für einen mir unbekannten 4090 Kartenbesitzer umbauen.:ugly:
Also spricht sich sowas doch schnell rum, nur habe ich immer so wenig Zeit für solche Sachen.
Aber gut, ich lasse niemanden im Regen stehen.:-)
 
Zurück