Radeon RX 6000: AMD zeigt Benchmarks in zehn AAA-Spielen, Gleichstand mit RTX 3090

Schon mal was von Kausalzusammenhängen gehört?


So ist der Zusammenhang, irgendwie verdrehst du alles :D

du schreibst warum Sony in die Welt zog und sich einen neuen Lieferanten für ihre Konsole suchte mit dem sie inzwischen sehr lange zusammenarbeiten.

ich schreibe warum ein spezifisches Produkt von AMD in der Form existiert. Da geht es nicht darum Adam & Eva der 3D Berechnung zu bestimmen, sondern warum AMD im Jahr 2020 an dem Punkt stehen an dem sie stehen. Das mag bis in das Jahr 2010 zurückwirken, nicht jedoch bis ins Jahr 1995.

Als AMD den Schritt von Terascale zu GCN machte, ging damit auch ein Wandel einher welche Kräfte auf die Entwicklungsabteilung wirken und was die Chips konnten und nicht konnten (Stichwort Dual GPU Karten). Auch der Wechsel auf Navi und diese zweite (größere) Generation von Navi ist eine Auswirkung des Konsolengeschäfts.
 
Ich versuche mal für dich zu übersetzen, was AlphaMale meinte.

Also Schaffe war ein xtremer Nvidia-Fanatiker und hat sehr gegen AMD gebasht. Allerdings hatte Schaffe auch eine gewisse Intelligenz. Ich vermute mal, er meinte du bist auch so ein nvidia-Fanatiker.... nur er zweifelt ob die Intelligenz adäquat ist. So in der Art. Denke ich ;)
Nice translated... Du hast mich jedenfalls verstanden :-)
 
du schreibst warum Sony in die Welt zog und sich einen neuen Lieferanten für ihre Konsole suchte mit dem sie inzwischen sehr lange zusammenarbeiten.

ich schreibe warum ein spezifisches Produkt von AMD in der Form existiert. Da geht es nicht darum Adam & Eva der 3D Berechnung zu bestimmen, sondern warum AMD im Jahr 2020 an dem Punkt stehen an dem sie stehen. Das mag bis in das Jahr 2010 zurückwirken, nicht jedoch bis ins Jahr 1995.

Als AMD den Schritt von Terascale zu GCN machte, ging damit auch ein Wandel einher welche Kräfte auf die Entwicklungsabteilung wirken und was die Chips konnten und nicht konnten (Stichwort Dual GPU Karten). Auch der Wechsel auf Navi und diese zweite (größere) Generation von Navi ist eine Auswirkung des Konsolengeschäfts.
Warum dann Sony? Warum lags nicht an der xbox? Alles Blödsinn.

Sony und Microsoft wollten im Endeffekt das Programieren der Games günstiger machen. Es hat Vorher Unsummen gekostet, alles auf die Plattformen anzupassen. Grade PC Spiele auf nen IBM Prozesses für die PS zu übertragen war extrem aufwendig.

Also hat man sich AMD, weil die CPUS und GPUs herstellen konnten, an den Hals geworfen. Natürlich hat man dann gemeinsame Interessen, aber jetzt BigNavi als Sonyprodukt bezeichnen zu wollen, ist eher abenteuerlich. Sag doch einfach Bill Gates und M$ wars :D
 
Zuletzt bearbeitet:
Cuda Core:
ein Cuda Core hat eine bestimmte Rechengenauigkeit meist FP32. Das bedeutet, dass das Register eine bestimmte Länge hat (die man für die Berechnung benötigt) und das hat eine Auswirkung auf die Menge Transistoren aus denen es gebaut ist.

Tensor Core:
jetzt gibt es jedoch Rechenaufgaben, die erfordern gar nicht, dass die Rechengenauigkeit FP32 ist. Nvidia braucht dafür Kerne mit weniger Rechengenauigkeit. Das hat den Vorteil, dass man auch weniger Transistoren pro Register braucht, denn das Register ist ungenauer, also kürzer.

Milchmädchenbeispiel:
Ich baue einen Cuda Core auf meine GPU der verbraucht Platz X
Ich baue daneben einen Core mit "halber" Genauigkeit, der verbraucht dann 0,5X Platz.
Rechnung die ungenau bleiben dürfen kann ich so platzsparend erledigen.

DLSS könnte also bequem auf den Cuda Kernen laufen, aber es wäre halt Verschwendung, weil viel zu genau gerechnet wird und das verschwendet Platz. Die DLSS Berechnung braucht nur geringere Genauigkeit und das machen diese anderen Kerne die man in der Registerlänge beschnitten hat, damit man mehr Stückzahl bekommt.Nach der PR Begrifflichkeit ist das dann nicht mehr der Cuda Kern, man nennt es jetzt den Tensor Kern. Weil Tensor kommt als Begriff hier aus der KI Programmiersprache, dort gibt es auch von Google Tensor Processing Units, DLSS ist ja etwas das mit KI was zu tun hat und fertig.

Der Übertrag auf AMD wäre es die Frage zu stellen, ob die AMD Karte alles pauschal in FP32 rechnen MUSS, oder ob es für Berechnungen mit geringerer Genauigkeit Register gibt die weniger Platz benutzen und entsprechend mehr Stück sind.

Da muss man klar sagen, ja AMD hat solche Kerne, aber in welchem Verhältnis die aufgeteilt sind wird nicht so genau gesagt. Das AMD Marketing fasst das dann unter dem Begriff Variable Rate Shading zusammen. Bei AMD wird das aber nicht nur benutzt um wie bei DLSS das Bild zu rekonstruieren. Diese variable Genauigkeit kann immer auf den passenden Kern verteilt werden wenn schon der Shader-Effekt berechnet wird. Daher vermeidet AMD den direkten Bezug zu KI. Warum auch, ein Register ist ein Register und es hat halt eine Genauigkeit. Der Befehlssatz den der Chip fähig ist zu verarbeiten verändert sich ja dadurch nicht.

Wer sich jetzt fragt, ob das nicht Hölle ineffizient ist ständig seine Shader auf der Karte hin und herzuschieben, damit sie vom passenden Register mit der passenden Genauigkeit berechnet werden, der hat seine Antwort warum AMD da mit L3 Cache und Infinity Fabric operiert. Denn das hat AMD nötig um Effizienz zu realisieren. Nvidia macht das etwas statischer deswegen sind dort die Kerne nach Funktion in Reihe geschalten.

Was an Optik am Bildschirm rauskommt wird sich nicht groß unterscheiden. ABER. Nvidia hat das Fundament für einen Grafikchip, wohingegen AMD mit seinem Design das Fundament für einen CPU/GPU Hybrid Prozessor hat. Das ist ja auch was in der PS5 dann drinsteckt. Das ist auch das Produkt mit dem AMD den PC Gaming Sketor komplett auf den Kopf stellen kann. Man stelle sich nicht vor ein Ryzen-G mit 8 Core Vega oder Navi. Man stelle sich vor AMD geht auf dem PC mit einem Ryzen in Serie der wie die PS5 8 Kerne und 40 CUs hat.
Ziemlich lange Ausführungen - leider komme ich inhaltlich nicht ganz mit:
Grestorns Einwand war, dass sich hartnäckig die Info -oder von mir aus auch das Gerücht- hält, dass NVidias DLSS auch in Version2 die TCs GAR NICHT NUTZT. So übrigens letztlich auch hier die Aussage aus der PCGH-Redaktion. Für DLSS1.0 scheint das im Übrigen bestätigt, ist also jedenfalls für v2.0 erstmal sehr plausibel. Was sind jetzt nochmal genau Deine Argumente in dem Zusammenhang?
 
Ja, und dieses Zitat von Torwalds hat vorallem eines gemacht: Diesen Mann in einen Augen absolut diskreditiert. Und das nicht zum letzten Mal. Torwalds ist menschlich... wie sag ichs... schwierig.
Äh ja, das war einer seiner üblichen Scherze, aber wenn man ihn nicht kennt und irgendwie 30 sek aus nem 2 Stunden Q&A aus dem Zusammenhang reißt und nur dieses Teil auf YT stellt, wie soll man das wissen...

Kurz zum Hintergrund: Es ging um Tegra Treiber. Nvidia hatte damals Tegra rausgebracht und afair noch keinen offizellen Linuxtreiber, aber auch noch nichts bzw. nur eine kleinen Teil von der Firmware offengelegt, die zum Programmieren eines Treibers nun mal benötigt ist. Später kam dann der Linuxtreiber von Nvidia und die Firmware wurden für die Entwickler bis auf einen kleinen Teil offengelegt und das war nicht zuletzt das Verdienst dieser Aussage von Linus. Nvidia legt sehr zögerlich die Firmware und nie Alles offen, weil man um seine Geheimnisse fürchtet.
Ist zwar einerseits nachvollziehbar und auch legetim, aber andererseits halt für alle freien Entwickler ein echtes Problem und großes Ärgernis.
 
Warum dann Sony? Warum lags nicht an der xbox? Alles Blödsinn.

Es war Sony die mit der PS3 ihre lieben Probleme hatte und viele Beschwerden von Entwicklern. Daher ist Sony bei der Entwicklung der PS4 dann zu den Entwicklern gegangen und hat die gefragt wie das Produkt auszusehen hat. Damit ist Sony dann zu AMD und hat den Chip für die PS4 entwickeln lassen. Das Hauptergebnis waren unified RAM Management, also ein RAM für alles. Aber das Ergebnis war auch, wie GPU und CPU gegeneinander gewichtet werden sollen. Man sagt dem Jaguar gerne nach, dass er lahm ist, aber man wollte das so, weil man ja ein TDP Budget hat und je mehr dafür in die GPU fließt, umso besser sieht das Spiel aus. Warum nicht Xbox? Naja, Sony hatte halt den Leidensdruck.

Deswegen war es Sony die hier den Einfluss ausgeübt haben. Bei der PS5 ist es genauso. GPU mit Direct Memory Access auf die SSD ist so eine Sache auf die Sony mega stolz ist und die sie wollten. Wer jetzt rein eine PC-GPU entwickelt würde das nicht unbedingt einbauen, wozu hat man am PC massenweise RAM? Von dort kann man ja schon immer schnell genug in den Videospeicher kopieren. Aber es soll kein Nachteil sein, wenn der PC das dann auch bekommt.

Auch diese Struktur bei der eine CU wahlweise Raytracing machen kann, oder wenn sie das nicht tut kein totes Silikon produziert sondern die Schaltkreise für Variable Rate Shading hergenommen werden können ist absolut so ein Sony Overengineering Ding. Das würde AMD nicht von alleine machen unterstelle ich ihnen. Weil AMD vor der Zusammenarbeit mit Sony war anders, die waren mehr drauf wie 3DFX und hätten im Zweifelsfall einfach vier GPUs auf eine Karte gelötet um auf Leistung zu kommen. Nvidia macht auch nicht dieses Multi-Purpose Design. RT Cores für RT, nix anderes.
 
Ziemlich lange Ausführungen - leider komme ich inhaltlich nicht ganz mit:
Grestorns Einwand war, dass sich hartnäckig die Info -oder von mir aus auch das Gerücht- hält, dass NVidias DLSS auch in Version2 die TCs GAR NICHT NUTZT. So übrigens letztlich auch hier die Aussage aus der PCGH-Redaktion. Für DLSS1.0 scheint das im Übrigen bestätigt, ist also jedenfalls für v2.0 erstmal sehr plausibel. Was sind jetzt nochmal genau Deine Argumente in dem Zusammenhang?

Diese namentliche Trennung in Tesor und Cuda Core sollte man sich auf technischer Ebene ansehen. Beide Funktionseinheiten machen die gleiche Sache. Aber vereinfacht gesagt, rechnet der Cuda Core immer mit 30 Nachkommstellen und der Tensor Core mit 14.

Ich kenne den DLSS Code von Nvidia nicht. Aber es wird sicherlich in diesem Code Berechnungen geben die man vorher genau beziffern kann hinsichtlich der erforderlichen Genauigkeit. Muss man alles mit 30 Nachkommastellen berechnen? Vermutlich nicht. Wenn die erforderliche Genauigkeit die eines Cuda Cores ist, dann wird der Cuda Core das ausrechnen. Wenn weniger Genauigkeit gefragt ist, dann nimmt man den passenden Kern dafür, den Tensor Kern. So neu wie DLSS ist, kann ich mir vorstellen, dass hier die DInge noch nicht so ablaufen wie auf dem Reißbrett geplant.

Man darf nicht sagen hier ist diese Sache DLSS und diese Sache kann nur an dem speziellen Ort im Chip ausgeführt werden. Dazu ist DLSS zu 'normal'. Raytracing, wo man schon vorher weiß dass diese eine Berechnung wieder und wieder gemacht werden muss, dafür lohnt es sich hoch spezialisierte Bereiche zu kreieren, so wie man für Videodecoding spezielle Schaltkreise hat die mit der normalen 3D Berechnung nicht in Berührung kommen.
 
Nvidia macht auch nicht dieses Multi-Purpose Design. RT Cores für RT, nix anderes.
Ist wohl der Fehler dann. Zuviel sehr teure und rare Chipfläche dafür zu reservieren. Könnte man machen, wenn man bei 4k und 144 frames noch überschüssige Leistung hätte.... Hat man aber nicht.

So fällt RT für geschulte Augen in den langsamen Ruckelmodus zurück. Und für Games ohne RT fehlt die Leistung.

Fehlentscheidung von Huang. Kann man jetzt drüber philosophieren, ist aber für viele so.
 
War doch auch bei Konsolen alles andere als neu.
Die PS3 hatte 512MB Ram, davon konnte die CPU nur 256 adressieren, den Rest vom Speicher konnte die CPU nicht sehen. Dafür hatte die GPU der PS3 die anderen 256MB zum operieren.

Die PS2 hatte 32MB RAM und 4MB Video RAM, da war die Spaltung noch ungünstiger aus Sicht der GPU.

Die PS1 hatte einen Split von 2MB und 1MB. Wenn man da mit einem Caetla mitgelesen hatte stellte es sich noch wilder dar welcher Chip da welchen Bereich direkt beschreiben konnte.

Unter dem Aspekt war die PS4 eine kleine Sony Revolution. 8GB RAM, sowohl die CPU als auch die GPU konnten voll zugreifen auf den gesamten Speicher.
 
Es war Sony die mit der PS3 ihre lieben Probleme hatte und viele Beschwerden von Entwicklern. Daher ist Sony bei der Entwicklung der PS4 dann zu den Entwicklern gegangen und hat die gefragt wie das Produkt auszusehen hat. Damit ist Sony dann zu AMD und hat den Chip für die PS4 entwickeln lassen. Das Hauptergebnis waren unified RAM Management, also ein RAM für alles. Aber das Ergebnis war auch, wie GPU und CPU gegeneinander gewichtet werden sollen. Man sagt dem Jaguar gerne nach, dass er lahm ist, aber man wollte das so, weil man ja ein TDP Budget hat und je mehr dafür in die GPU fließt, umso besser sieht das Spiel aus. Warum nicht Xbox? Naja, Sony hatte halt den Leidensdruck.

Es ist genau umgekehrt. AMD hat schon länger APUs entwickelt, Sony hat sich dann auf die Suche nach einem Fertiger gemacht, der das ganze billiger hinbekam, eine getrennte CPU und GPU hat zwar Vorteile, kostet aber auch eben. Mit AMD hatten sie jemanden, der genau das konnte.

Somit gab es die neuen Konsolen, also auch die X-Box One, dank des PC Geschäfts von AMD, nicht umgekehrt. Auch die Permanente Weiterentwicklung ist dem PC Geschäft zu verdanken, für die Konsolen bräuchte man nur alle 7 Jahre eine neue Architektur.

Unter dem Aspekt war die PS4 eine kleine Sony Revolution. 8GB RAM, sowohl die CPU als auch die GPU konnten voll zugreifen auf den gesamten Speicher.

Aber auch eben nur für Sony, insgesamt war das kalter Kaffee. Wie gesagt: der N64 und die erste X-Box hatten es, genau wie die X-Box 360. Auf dem PC ist die RAM Nutzung der GPU seit dem AGP (also 1997) fest vorgesehen.

PS: der Cell konnte auch auf den VRAM zugrefen, allerdings nur mit 4GB/sec schreibend und 16MB/sec lesend (mehr war auch nicht nötig). Die GPU konnte auf den RAM ebenfalls zugreifen und das mit 20GB/sec lesend und 15GB/sec schreibend. Insgesamt war das ein eher geringes Problem. Das Hauptproblem war, dass der RAM und VRAM insgesamt zu klein waren (obwohl letzterer am Anfang wirklich üppig war), die andere Baustelle war der Cell Prozessor, diese irre teure Neuanschaffung (die ursprünglich die GPU ersetzen sollte) wurde nie wirklich gebraucht und war reine Geldverschwendung (auch wenn es schon toll war, eine CPU mit 200 GFLOP zu besitzen).
 
Ich bin kein Experte deshalb auch eine einfache Frage....sind denn die unterschiede der Massen so groß bei beiden oder merkt man beim gaming garnix von ?
nun, wenn die eine 1 Kilogramm wiegt und die andere 1 Kilotonne - merkt man es bestimmt. zum beispiel daran, dass auf einmal ein loch ist wo vorher der rechner stand.

('tschuldigung ;) )

Man wird das alles erst abwarten müssen und bei den tests dann auch auch ein auge auf den precentilen haben oder wie die dinger heißen. könnten echt so langsam aber sicher mal n paar leaks auftauchen. :D
 
Zuletzt bearbeitet von einem Moderator:
Es war so klar. Kaum tritt eine Situation ein, die für alle eigentlich gut ist beginnt das Hooligan Dasein. Jeder skandiert für "seine Firma" und möcht die Gegenseite ausradieren.

Hut ab
Ja, das ist schon schade am PCGH Forum. Ich mag die Zeitschrift, und auch die Online Berichterstattung der Redaktion. Bin aber immer wieder erstaunt, wie toxisch es hier zugeht. Bei z.b. Computerbase oder Gamestar herrscht unter den RX6000/RTX3000 Meldungen schon ein wesentlich freundlicher Ton als hier (erwähn die Seiten nur namentlich wegen der "typisch deutsch" Nebelkerze, die hier im Thread auch schon gezündet wurde).

Die aktuelle Lage am GPU Markt ist eigentlich das beste, was den Zockern passieren konnte.

Die jahrelange Dominanz von Nvidia hat sicher nichts gutes bewirkt. Statt darauf, die Produkte zu verbessern, hat man sich drauf konzentriert, irgendwelche proprietären Dinge durchzusetzen um seine Monopolstellung auf Jahre abzusichern, und das übrigens teilweise extrem erfolgreich (hust Cuda hust). AMD hätte es aber nicht anders gemacht, wenn die Verhältnisse andersrum gewesen wären.

Jetzt hat man endlich eine echte Wahl, und hier gehen sich alle an die Gurgel...
 
Denk mal an Xboxen oder N64.
bei der N64 hat RAMBUS viel versprochen und wenig geliefert was dazu geführt hat, dass Nintendo für den Gamecube wieder weg ist von unified memory.

Die Xbox hatte DDR Ram, das ist damals schon als schnelles GrafikRam durchgegangen, vgl. GeForce 256 DDR. Auch hier ging die Entwicklung mit der 360 weg davon.

Dann muss man auch ehrlich gestehen, dass in dieser Frühzeit besseres FastRAM für Graphikzwecke missbraucht wurde. Das war schon eine Ansage, als Sony dann spezialisierten GraphikRAM, der am PC in homöopathischen Dosen auf Grafikkarten verbaut wurde, in der PS4 für alles inklusive CPU Speicher nimmt. Auch die WiiU nimmt normales DDR RAM, nicht GDDR.

Die APUs die AMD sonst so macht sollte man nicht mit den Konsolenchips vergleichen. Das Zauberwort ist hier die Gewichtung bei der Gesamt-TDP.

So Chips wie der A4-3400 haben eine TDP von 65W und da entfallen gut und gerne 50W auf CPU Aufgaben und der Rest auf die Grafik. Da kommt an 3D Leistung nix bei rum. Das ist ein Split wie ihn Intel mit dem Core-i vorgemacht hat. Das war immer ein klassisches Office Produkt. Vorher hat man solche Basis Grafikchips auf dem Mainboard verbaut, aber wer Teile spart, spart Geld. Zum Zocken nimmt man den besser nicht, auch wenn die PR irgendein 6 Jahre oder älteres Spiel rauskramt und dann zeigt dass man eine alte Kamelle flüssig zocken kann. Da hat sich bis Ryzen-G nix geändert.

Mit dem Kunden Sony kam bei AMD plötzlich eine ganz andere APU und zwar eine die massiv zu Gunsten des GPU Teils gewichtet ist. Diese Kategorie Chip kann man bis heute nicht kaufen von AMD. Aber ich würde diesen Chip als einflussreicher bezeichnen als alle andere APUs.

Der Einfluss der Konsolenhersteller auf AMD ist ja kein schlechter. Wie bereits an anderer Stelle gesagt. Nvidia muss alle Register ziehen wenn sie DLSS und RTX in den Markt drücken wollen und dann ist die Unterstützung überschaubar. AMD muss sich keine Sorgen machen, die haben Sony und Microsoft die das bei den Entwicklern durchdrücken. Da sehe ich AMD viel tiefer in die Spieleindustrie integriert als Nvidia. AMD profitiert davon dass Sony meist keine Idee zu exzentrisch ist um sie nicht in Erwägung zu ziehen, allein das wird einen AMD Chip pushen wenn so ein Input von einem Kunden da ist. Microsoft ist auf Softwareseite aus der Spieleentwicklung nicht wegzudenken. Wenn die deine Hardware kaufen, dann wird deren Software darauf laufen und auch Microsoft wird aufpassen, dass das Produkt so kommt wie sie das wollen. Zwischen den dreien ist schon eine gewisse Symbiose.

Wenn weder Sony noch Microsoft bei AMD ihre Konsolenchip ordern würden, gäbe es wohl weder Ryzen, noch Navi in der Form wie heute. Das sind keine isolierten Prozesse in denen diese Chips entstehen und dann einfach an Sony vertickt werden, weil die gerade in Kauflaune für eine Konsole sind.

Das Problem für Nvidia auf lange Sicht ist nicht, ob ein Chip 5% schneller oder langsamer ist. Das Problem ist wenn Intel und AMD diese APUs nach Konsolenart (wenig CPU, viel GPU) anfangen als PCs zu verkaufen.
 
Diese namentliche Trennung in Tesor und Cuda Core sollte man sich auf technischer Ebene ansehen. Beide Funktionseinheiten machen die gleiche Sache. Aber vereinfacht gesagt, rechnet der Cuda Core immer mit 30 Nachkommstellen und der Tensor Core mit 14.

Ich kenne den DLSS Code von Nvidia nicht. Aber es wird sicherlich in diesem Code Berechnungen geben die man vorher genau beziffern kann hinsichtlich der erforderlichen Genauigkeit. Muss man alles mit 30 Nachkommastellen berechnen? Vermutlich nicht. Wenn die erforderliche Genauigkeit die eines Cuda Cores ist, dann wird der Cuda Core das ausrechnen. Wenn weniger Genauigkeit gefragt ist, dann nimmt man den passenden Kern dafür, den Tensor Kern. So neu wie DLSS ist, kann ich mir vorstellen, dass hier die DInge noch nicht so ablaufen wie auf dem Reißbrett geplant.

Man darf nicht sagen hier ist diese Sache DLSS und diese Sache kann nur an dem speziellen Ort im Chip ausgeführt werden. Dazu ist DLSS zu 'normal'. Raytracing, wo man schon vorher weiß dass diese eine Berechnung wieder und wieder gemacht werden muss, dafür lohnt es sich hoch spezialisierte Bereiche zu kreieren, so wie man für Videodecoding spezielle Schaltkreise hat die mit der normalen 3D Berechnung nicht in Berührung kommen.
Turing-Markteinführung war vor über zwei Jahren, Nvidia sollte also imho seit mindestens ca. 3-4 Jahren wissen, wie TCs funktionieren. Wenn DLSS immer noch nicht (zuverlässig) in Hardware läuft - wovon man imho wohl ausgehen muss- lässt das doch tief blicken und legt die Schlussfolgerung nahe, dass die Idee zumindest dieser dezidierten Rechenknechte im Gamingbereich schlicht ein Fail war und die Verwertung dieser zunächst ja mal HPC-Einheiten im Gaminhbereich als gescheitert angesehen werden muss.
Eine Überlegenheit von nVs Ansatz ist für mich jedenfalls nicht zu erkennen. Scheint soweit erkennbar doch über die Jahre eher waver- und damit kostenfressender Ballast geblieben zu sein, den der Kunde aber mitbezahlen muss. Mal sehen, ob's in Hopper noch mit weitergeschleift wird oder nV Gaming zukünftig auch mal wieder ernst nimmt. Das komfortable Polster der letzten Jahre ist für NVidia jedenfalls ja erstmal völlig weg. Sich nochmal zwei Jahre auf dem Markenruf auszuruhen, dürfte Jensen imho beruflich nicht mehr überleben.
 
Zuletzt bearbeitet:
Zurück