DirectX 12: Kommender Geforce-Treiber soll Asynchronous Compute verbessern

Der Sinn dahinter ist einfach:
Die beliebten Grafikkarten sind nicht Ref.-Designs @stock, sondern Karten mit Customkühler und Werks-OC. Und die bencht PCGH sowohl von AMD, als auch von NVIDIA. Dass es von der Fury X kein Custom Design gibt, ist nun mal leider so. Sinn machen diese Bemchmarks mit OC Modellen dennoch absolut. So lässt sich daran zum Beispiel ablesen, wie gut eine GPU mit mehr Takt skaliert und ob eine OC Karte überhaupt sinnvoll ist, was gerade für Kaufberatungen wichtig ist.

Ein Sinn dahinter existiert nicht. Es gibt bisher keine Custom Fury X Karten.
Da ist es recht unfair stark übertaktete GTX 980 Ti Modelle mit 1300mhz + gegenüber ner Stock Fury X zu testen. Als ob man die Fury X nicht auf 1250mhz übertakten könne.:rollen:
Auch ist es ziemlich albern, die Grafikkartenleistungsränge immer von Full HD zu übernehmen und dann meistens die AMD Karten in WHQD und 4K unterhalb der Nvidiakarten zu platzieren.
Es ist doch völlig naheliegend, die Karten nach der Leistungsfähigkeit einzuordnen.
 
So schnell wendet sich das Blatt. Bei DX12 werden Nvidia Karten mit erheblichen CPU Overhead zu kämpfen haben wegen async compute.
Dazu wird jetzt scheinbar noch Pascal verschoben wegen nicht vorhandener Gebühren für HBM2. Die faking Faker von Fakevidia haben ganze Arbeit geleistet. Und wie sich alles schön geredet wird ... echt unterhaltsam ... weiter so! :love:
 
Ein Sinn dahinter existiert nicht. Es gibt bisher keine Custom Fury X Karten.
Da ist es recht unfair stark übertaktete GTX 980 Ti Modelle mit 1300mhz + gegenüber ner Stock Fury X zu testen. Als ob man die Fury X nicht auf 1250mhz übertakten könne.:rollen:

Oh Gott ist das unfair, dass von NVIDIA UND von AMD verfügbare Custom Designs gebencht werden, obwohl von der AMD FuryX UND der TitanX keine Custom Designs existieren.
Das ist soooo unfair gegenüber...ja gegenüber wem eigentlich? Das weißt du wahrscheinlich selber nicht...
Sorry, aber manchmal ist es echt peinlich, was hier im Forum so verzapft wird.

Als ob man die Fury X nicht auf 1250mhz übertakten könne.:rollen:

Darum geht es überhaupt nicht, sondern darum, was man für sein Geld bekommt.
 
Angekündigt wurde sie uns als das ultimative Wunder, der Titan X Killer, auch logisch mit HBM.

Zeige mir bitte die Folien und Ankündigungen von AMD, bezüglich Titan X Killer.
Das ist nur wieder, wie üblich deiner Phantasie entsprungen um gegen AMD hetzen zu können.

Herausgekommen ist mit der Fury X eine Graka die so schnell wie eine GTX 980Ti/ Titan X ist, erheblich weniger Speicher hat

Bisher scheint der "erhebliche" Mehrspeicher aber noch nix zu bringen, selbst in 4K, außer Ausnahmen < 30 FPS.

dabei auch noch irre viel Strom frißt und sich nur mit Wasser kühlen läßt.

Ja, so irre viel dass man laut Toms Hardware in Full HD effizienztechnisch gleichauf und in 4K minimal zurückliegt.
AMD benötigt etwas mehr Strom ja, von irre viel Strom habe ich noch nie lesen dürfen. Scheint wieder so eine sinnfreie Übertreibung von dir zu sein.

Und dass sich der Chip nur mit Wasser kühlen lassen soll, ist Bullshit. Schaue dir doch mal die Fury Karten von Asus und vor allem Sapphire an.:rollen:

Ein weiterer Punkt war das Pumpengeräusch, das sie nach einiger Zeit glücklicherweise in den Griff bekommen haben, allerdings ruiniert soetwas den Ruf.

Ja, da gebe ich dir Stückweit recht. Allerdings alles weniger schlimm wie das Spulenfiepen der GTX 970, mMn.
Heute bekommt man soviel ich mitbekommen hab keine Fury X Karten mehr mit ausgeprägten Pumpengeräuschen.

Die Nano ist auf dem Niveau der GTX980, sowohl vom Stromverbrauch als auch von der Leistung

Es gibt zu der Karte bisher keine Tests, du Spezialist.
 
Laut NVIDIA, soll es mit dem aktuellen Treiber Probleme geben, bei dem die Funktion "Asynchronous Compute " zwar aktiviert ist, bei einer Abfrage dieser jedoch an die CPU weitergeleitet wird - dadurch soll es zum erheblichen Performance Einbruch kommen.
Mit einem neuen Grafiktreiber, an dem NVIDIA momentan arbeitet, soll es angeblich keinerlei Nachteil gegenüber AMD mehr geben und die Funktion genauso wie bei AMD, über die GPU zur Verfügung stehen.
So zumindest, laut neuestem Artikel bei Gulli.
 
Oh Gott ist das unfair, dass von NVIDIA UND von AMD verfügbare Custom Designs gebencht werden, obwohl von der AMD FuryX UND der TitanX keine Custom Designs existieren.
Das ist soooo unfair gegenüber...ja gegenüber wem eigentlich? Das weißt du wahrscheinlich selber nicht...
Sorry, aber manchmal ist es echt peinlich, was hier im Forum so verzapft wird..

Wieso verwendet man dann in der Leistungstabelle die Stockwerte und fügt da nicht auch die Custommodelle hinzu? Leistungsmäßig?
Wieso hat man es früher genau andersrum gemacht?
Scheint ja wohl auch Argumente dafür zu geben, es anders zu machen. Und Fury X Custommodelle werden sicherlich kommen.
Dann aber bitte auch das am stärksten übertaktete Modell nehmen, so wie bei der 980 Ti.
 
Einer aus der Traumwelt...
Hier 2 Artikel für dich...

Ist Korruption erst einmal verbreitet, hilft nur noch wenig - Welt - derStandard.at ? Wissenschaft

Youtuber packt aus: Bezahlte Spieltests und Deals mit Herstellern - GamePolitics - derStandard.at ? Web

Ich denke nicht, dass es noch irgendwo unabhängigen Journalismus gibt. Hats auch noch nie, denn jede Person, welche etwas erzählt, interpretiert hinein. Auch ohne Schmierung...

Ich hab auch nicht abgestritten, das Amd hier ebenso verfährt. Ich habe die Veränderung aufgezeigt. Oxide wird auf einmal freundlich zu Nvidia. Was bringt gesichter zum Lachen?

Auf wen hab ich eingeschlagen?

Ahja, Traumwelt. Wenn ich etwas nur vermute, werde ich es nicht als Tatsache darstellen. Und da kannst du dir deine Links auch sparen. Ich habe mitbekommen wie es in der Welt zugeht. Das war vor allem mal ein Hinweis zur hier im Forum häufig auftretenden Meinung: Läuft etwas auf einer nVidia-Karte so wurde geschmiert, bei AMD ist es natürlich harte Arbeit von AMD. Warum Oxide plötzlich freundlicher zu nVidia ist? Weißt du es? Nein? Dann unterstelle ihnen nix.
Und mir ging es nicht darum PCGH irgendwelche Bestechung oder sonstiges vorzuwerfen. Nur wenn man weiterhin so berichten will, wie man es in den letzten Monaten getan hat, werde ich die Seite weniger besuchen und auch kein Heft mehr kaufen. Man hat hier im Forum eine Pöpelkultur aufgezogen, die einem jeden Spaß im Forum nimmt.
 
Oxide hatte doch auch gesagt dass sie wenig asyc compute einsetzen und daher keine wahnsinnigen fps gewinne zu erwarten sind. Andere Spiele nutzen wohl mehr AC und da werden die Performance Unterschiede wahrscheinlich größer sein.
Der Zugewinn für AMD kommt zu 90% durch die bessere Draw Call Verarbeitung unter DX12 und geringerem Driver Overhead.
 
Laut NVIDIA, soll es mit dem aktuellen Treiber Probleme geben, bei dem die Funktion "Asynchronous Compute " zwar aktiviert ist, bei einer Abfrage dieser jedoch an die CPU weitergeleitet wird - dadurch soll es zum erheblichen Performance Einbruch kommen.
Mit einem neuen Grafiktreiber, an dem NVIDIA momentan arbeitet, soll es angeblich keinerlei Nachteil gegenüber AMD mehr geben und die Funktion genauso wie bei AMD, über die GPU zur Verfügung stehen.
So zumindest, laut neuestem Artikel bei Gulli.

Halte ich so für falsch. Nach dem PCGH-Artikel (und nach meinem Kenntnisstand) ist es schon in der Tat so, dass die Maxwell-GPUs keine asynchronen Shader unterstützen. Man wird es also immer auf der CPU emulieren müssen. Bisher war allerdings das Problem am Treiber, dass diese Emulation sehr schlecht war, so dass Code mit asynchronen Shadern wesentlich langsamer lief als ohne. Man wird die Emulation verbessern, so dass asynchrone Shader dann immerhin genau so schnell laufen wie der Code ohne dieses Feature. Ein Leistungszuwachs durch asynchrone Shader ist bei Maxwell jedoch sicher nicht zu erwarten, da diese Architektur wie gesagt nicht hardwaremäßig das ausführen kann.
 
Wieso verwendet man dann in der Leistungstabelle die Stockwerte und fügt da nicht auch die Custommodelle hinzu? Leistungsmäßig?
Wieso hat man es früher genau andersrum gemacht?
Scheint ja wohl auch Argumente dafür zu geben, es anders zu machen. Und Fury X Custommodelle werden sicherlich kommen.
Dann aber bitte auch das am stärksten übertaktete Modell nehmen, so wie bei der 980 Ti.

Die Fury X Custommodelle werden sicherlich kommen am Sankt Nimmerleins Tag oder wenn Ostern und Weihnachten zusammenfallen!!
Auf 8 Gb warte ich heute noch....4GB in der heutigen Zeit eine Zumutung und wer ist schuld wenn nicht A M D selber...die haben es selber
"V E R K A C K T"
 
Nachdem AMD den Leuten mit ihrem "nativen Quadcore" den Mund wässrig gemacht hatte kam eine recht große Enttäuschung. Das Ding war erheblich langsamer als das was Intel so ablieferte, brauchte teils erheblich mehr Strom und vom OC Potential war beinahe nichts zu spüren, bei Intel waren 50% gang und gäbe. Der TLB Bug brachte das Faß nur nochmehr zum überlaufen, auch wenn er in der Praxis für Zocker wenig bedeutung hatte. Viel Schlimmer war für AMD der Vertrauensverlust (vgl. Pentium Bug) und die Tatsache das durch den nun standardmäßig abgeschalteten L3 Cache die Teile in den ganzen Tests nochmal 10% langsamer waren. Erst der Phenom II konnte die Versprechen einlösen (geniale CPU).

Der Bulldozer wurde als ultimativer Intelkiller angekündigt. Die neue Modultechnologie sollte zwei Kerne zum Preis von einem erlauben, der Gegner war der angekündigte 8 Kern Sandybridge E, bei hohem Takt. Die Welt hielt den Atem an, auch wenn AMD vorher schon angekündigt hatte die sie nur in den Paradedisziplinen 50% schneller sind als der 980X (dennoch irres Ergebnis). Was dann kam war ein schlechter Witz, das Ding stank selbst gegen seinen Vorgänger, dem Phenom II X6 1100T BE, einfach nur ab. Im massiven Multithred konnte sich das Ding zwar gegen seinen Vorgänger behaupten und auch gegen den i7 2600K in einer Disziplin gewinnen, wenn es dann zu den bis heute wichtigen Einkernanwendungen kommt stinkt das Teil einfach nur brutal ab und braucht dabei noch Strom ohne Ende. Die AMD Kultisten versuchten das Teil noch gesundzubeten und hofften auf den Wunderpatch der alles ins Lot bringen sollte und als der nicht kam auf Vishera welcher wie einst der Phenom II die großen Versprechen einlösen sollte. Dazu kam es nie, die CPU war bestenfalls halb so schnell wie angekündigt, alles in allem ein Flop wie der Pentium 4, nur viel schlimmer und bisher ohne Happy End.

Was mich wirklich ankotzt ist die Tatsache das AMD seinen potentiellen Kunden bis zuletzt dreist ins Gesicht lügt, in der Hoffnung das sie ihren Kauf aufschieben und dann doch noch zu ihrem Produkt greifen (und sei es um sich nicht einzugestehen das sie auf AMD reingefallen sind.



Tatsache 1: Es gibt einige Funktionen die Nvidia hat und AMD nicht.
Tatsache 2: AMD unterstützt viel mehr Funktionen als Nvidia, wenn auch teils andere.
Tatsache 3: Mit Abstand am meisten Funktionen unterstützt Intel, aber eben auch nicht alle.
Tatsache 4: MS hat es geschafft absolut jeden zu verwirren, vermutlich wissen sie selbst nicht so genau was wie wichtig ist und wann eine DX 12 Karte auch wirklich eine DX 12 Karte ist (bzw. das was man darunter versteht).
Tatsache 5: Kein Mensch weiß heute genau ob und wie sich das jetzt genau auswirken wird, gut möglich das AMD Nutzer in Zukunft ordentliche Vorteile haben, auch möglich das dies auf Nvidianutzer zutrifft, möglich das die Nutzer der Skylake IGP zuletzt lachen wenn sie sich durch die Spiele ruckeln können die weder AMD noch Nvidia Jünger starten können.

Soviel zum Thema Halbwahrheiten.



Angekündigt wurde sie uns als das ultimative Wunder, der Titan X Killer, auch logisch mit HBM. Herausgekommen ist mit der Fury X eine Graka die so schnell wie eine GTX 980Ti/ Titan X ist, erheblich weniger Speicher hat und dabei auch noch irre viel Strom frißt und sich nur mit Wasser kühlen läßt. Ein weiterer Punkt war das Pumpengeräusch, das sie nach einiger Zeit glücklicherweise in den Griff bekommen haben, allerdings ruiniert soetwas den Ruf. Die Nano ist auf dem Niveau der GTX980, sowohl vom Stromverbrauch als auch von der Leistung, allerdings so teuer wie eine GTX 980Ti/Fury X (welcher Depp da die Preisgestaltung gemacht hat?). Die Fury Non X ist tatsächlich leistungsfähiger als eine GTX 980 und kostet etwa genausoviel, frißt dafür etwas mehr. Für die 8GB RAM Ente kann AMD nichts, dennoch wäre es fair gewesen es klar zustellen, anstatt zu hoffen das diejenigen die gewartet haben dann auch 4GB schlucken werden. Alles in allem keine Pleite, aber doch nicht der von AMD angekündigte und von vielen Jüngern erhoffte Messias.


ahaha bei Nvidia war es Marketingfehler mit der GTX970 und AMD hat halt gelogen.

Das mit dem Bulldozer stimmt auch nicht, dieser CPU wurde falsch beworben unter Linux ist der Bulli durchaus sehr Konkurrenzfähig bis auf dem Strom weil dort die Programme mehr auf Multithreading ausgelegt sind.
 
Wieso verwendet man dann in der Leistungstabelle die Stockwerte und fügt da nicht auch die Custommodelle hinzu?

Da Leute wie du ja schon meckern, wenn bei Spieletests Custom Modelle gebencht werden, mag ich mir nicht ausmalen was los wäre, wenn man OC Karten mit in den Index übernähme. Denn das wäre ja so unfair. :schief:
 
Das große Problem was ich hier sehe ist doch wie Fachzeitschriften teilweise selber keine Ahnung haben. Ich finde es sehr fatal, dass es sehr viele schwammige Informationen gibt und es fast keiner fehlerfrei beschreiben kann. Wären diese kompetenter wäre das 3,5gb Problem viel früher aufgeflogen. Das bestätigt doch nur Nvidia hier weiter krumme Dinger zu machen da es Jahre braucht bis solche Sachen ans Tageslicht geraten und sehr viele einfach behaupten können das stimmt einfach nicht, da 99% sowieso nicht argumentieren können wieso dieses Feature essentiell ist.
 
Quelle?
Laut Computerbase ist die Fury X in DX12 13-23% schneller als eine 980Ti in DX11@1080p. In 1440p&4k sinds immer noch ein paar Prozentpunkte, die die X vorne liegt.

Edit: ich sehe gerade, auf PCGH.de ist es anders herum. Sehr seltsam :ugly:
Aber auch nur bei PCGH. Im Rest der Welt schieben sich die AMD Karten im AotS Bench eine Klasse nach oben. Bspw. liegt die 390 (non X) auf GTX 980 Niveau und die 280X auf GTX 780 Niveau. Die Fury X müsste rein von der Rohleistung daher eigentlich noch viel besser performen. Da bremst wohl wieder mal der Treiber oder igendwas am Chipdesign.
 
Zuletzt bearbeitet:
Zeige mir bitte die Folien und Ankündigungen von AMD, bezüglich Titan X Killer.
Das ist nur wieder, wie üblich deiner Phantasie entsprungen um gegen AMD hetzen zu können.

Sie haben keine exaken Zahlen genannt, aber das Teil wie üblich in den Himmel gelobt. Wer die Prästentationen damals geshen hat wußte genau das der Gegner GTX 980Ti/ Titan X heißt und das ihr Eisen im Feuer erheblich besser sein wird. AMD hat wie gesagt auch nichts getan um die Sache klarzustellen oder mauch nur in realistischere Bahnen zu lenken.

Bisher scheint der "erhebliche" Mehrspeicher aber noch nix zu bringen, selbst in 4K, außer Ausnahmen < 30 FPS.

Mehr Speicher ist nunmal mehr Speicher und da ist die GTX 980 Ti/ Titan X nunmal besser, genau wie die R9-290X der GTX 970 in diesem Punkt überlegen war und die R9-390X sie nun völlig plattmacht.

Ja, so irre viel dass man laut Toms Hardware in Full HD effizienztechnisch gleichauf und in 4K minimal zurückliegt.
AMD benötigt etwas mehr Strom ja, von irre viel Strom habe ich noch nie lesen dürfen. Scheint wieder so eine sinnfreie Übertreibung von dir zu sein.

Laut PCGH waren es 330W und 380W beim FurMark, der Verbrauch hängt sehr stark von der Auflösung ab.

Und dass sich der Chip nur mit Wasser kühlen lassen soll, ist Bullshit. Schaue dir doch mal die Fury Karten von Asus und vor allem Sapphire an.:rollen:

Das ist aber dann keine Fury X, soweit ich weiß hat AMD da die Custom Designs gesperrt. Klar ist es der gleiche Chip, dann kann ich ja gleich behaupten die GTX 980 Ti ließe sioch passiv kühlen und braucht keinen PCIe Stecker, schlichlich die selbe Archtektur wie die GTX 750 Ti - höhö...

Es gibt zu der Karte bisher keine Tests, du Spezialist.

Aber die Ankündigungen von AMD und selbst da sieht es nicht so gut aus für die Nano, auch wenn man AMD beim Wort nimmt und annimt das sie lediglich dezent getrickst haben

ahaha bei Nvidia war es Marketingfehler mit der GTX970 und AMD hat halt gelogen.

Das mit dem Bulldozer stimmt auch nicht, dieser CPU wurde falsch beworben unter Linux ist der Bulli durchaus sehr Konkurrenzfähig bis auf dem Strom weil dort die Programme mehr auf Multithreading ausgelegt sind.

Hab ich hier jetzt die GTX 970 schöngeredet?

Ob Nvidia das jetzt wirklich übersehen hat, nachdem sich schon bei der GTX 660 (fast keine) keine Sau aufgeregt hat oder es in bösartiger Absicht verschwiegen hat sei dahingestellt, es gibt für beides Indizien.

Der Bulli leistet unter Linux 50% mehr als ein 980X, so wie AMD ihn angekündigt hat?

Bestenfalls kann er mit einem 2600K mithalten und schlimmstenfalls versagt er total. Das unter Linux fast nur Multithreadinganwendungen unterwegs sind stimmt so auch nicht. Wahr ist hingegen das die meisten der ultimativen Leistungsfresser ganz gut auf Multithreading optimiert sind, besser macht es den Bulldozer noch lange nicht da nach wie vor extrem viel Singlethreadanwendungen unterwegs sin (allen voran Spiele)
 
Zuletzt bearbeitet:
Auf gehts grüne Forumssoldaten verteidigt Nvidia es war bestimmt das letzte mal dass sie euch beschissen haben :hail: Wie kann man nur so verblendet sein. Unabhängig ob es sich performancetechnisch auswirkt oder nicht. Nvidia wirbt mit Async Compute ... und kann es nicht. Zumindets bis jetzt nicht denn Nvidia hält es nicht mal für nötig zu reagieren, deren Verhalten spricht wieder mal Bände und am Ende ist eh alles "awesome".

Und bevor wieder einer kommt und sagt, dass auch AMd nicht alles unterstützt. Ja das ist richtig aber sie werben auch nicht damit!

Bester Kommentar vom 3dcenter bisher:

Die Diskussion über die fehlenden Asynchronous Shader bei nVidia geht derzeit in diese Richtung, als daß nVidia hierbei wieder einmal seine Kunden hinters Licht geführt haben könnte. Dies ist eigentlich eine Frage, deren man sich aufgrund des Mißbrauchspotentials nur vorsichtig nähern sollte – und dennoch, die sich nun langsam entblätternden Details gehen schon verdächtig in diese Richtung: So ist inzwischen klar, daß "Async Compute" zwingender Teil von DirectX 12 ist – ohne dieses Feature kein Feature-Level 12_0 oder 12_1, sprich kein Hardware-Support von DirectX 12. Lustigerweise existiert sogar eine nVidia-Präsentationsfolie zur GeForce GTX 980 Ti, wo nVidia mit dem Support von "Asyc Compute" unter DirectX 12 angibt. Optional ist dann jedoch der direkte Hardware-Support, wie von AMDs GCN-Architektur her bekannt – nVidia löst das ganze hingegen über den Treiber und dann über die CPU. Das Feature ist damit nicht performant nutzbar, aber eben aus Sicht von DirectX 12 dennoch vorhanden, sprich notfalls abrufbar.

Ein echter Support des Features ist dies aber nicht, denn da der einzige Anwendungszweck von "Asyc Compute" in einer Performancebeschleunigung liegt, kann eine softwarebasierte Lösung Performancegewinn dem natürlich nicht entsprechen. Und auch wenn nVidia hiermit also die DirectX-Spezifikationen nicht wirklich verletzt, so fehlt doch die Hardware-Beschleunigung für ein wichtiges Teilfeature von DirectX 12, welches somit auf nVidia-Hardware rein praktisch unnutzbar wird. So ganz im Sinne der Spezifikation dürfte dies auch nicht sein – und wird nVidia-Hardware in jedem Fall behindern, wenn sich die Spieleentwickler eines Tages mehr auf DirectX 12 ausrichten werden. Die Frage ist natürlich, ob dann noch die Maxwell-2-Generation bei nVidia aktuell ist – oder ob man dann schon die Nachfolge-Generation "Pascal" im Markt stehen hat, mit wahrscheinlich einem Fix für dieses Problem. Daß es Maxwell-2-Beschleuniger mit einer gewissen Chance unter DirectX 12 schwerer haben werden als die AMD-Beschleuniger, daran würden aber auch neue nVidia-Grafikkarten dann nichts mehr ändern können.

http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-56-september-2015

 
Die Nvidia 3,5 GB Sauerei wurde hier schon ausgiebig diskutiert. Das es so lange gedauert hat bis es Entdeckt wurde
wundert mich auch und es würde mich Interessieren was diese Profis gemacht haben damit soetwas in Zukunft nicht mehr passieren kann
 
Hier merkt man mal wieder, wie leicht sich die Menge mit einem konstruierten Skandal beschäftigen lässt.

Wegen EINEM Spiel und EINEM Feature wird hier ein Theater gemacht, als könnten jetzt alle ihre Maxwell-Karten wegwerfen. Ganz am Rande, niemand weiß ob das Spiel überhaupt Bock macht.

Bis Spiele erscheinen, die vom kompletten DX12-Umfang profitieren, vergehen locker noch 2 Jahre. Bis dahin hat man min. schon 1 - 2x wieder die Grafikkarte gewechselt.

Ich behalte meine 980 Ti jedenfalls und freue mich, dass ich JETZT die bestmögliche DX11-Leistung erhalte.

Viel Spaß noch beim Aufregen.

Die Nvidia 3,5 GB Sauerei wurde hier schon ausgiebig diskutiert. Das es so lange gedauert hat bis es Entdeckt wurde
wundert mich auch und es würde mich Interessieren was diese Profis gemacht haben damit soetwas in Zukunft nicht mehr passieren kann

Skandal!
 
Zurück