News Intel Panther Lake: Laut Pat Gelsinger mit doppelter KI-Leistung von Arrow Lake

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel Panther Lake: Laut Pat Gelsinger mit doppelter KI-Leistung von Arrow Lake

Laut Intel-CEO Pat Gelsinger steht mit Arrow Lake eine Verdreifachung und mit Panther Lake eine weitere Verdopplung der KI-Performance bevor. Außerdem hat er den bisherigen Zeitplan bestätigt und einen Einblick zur 18A-Fertigung gegeben.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Intel Panther Lake: Laut Pat Gelsinger mit doppelter KI-Leistung von Arrow Lake
 
Was genau ist denn diese "KI-Leistung" und wo wird die benutzt oder gar benötigt?

Könnte es eventuell sein, dass Pat hier die KI-Nebelbombe werfen muss weil die wesentlichen Eigenschaften der kommenden CPUs, nämlich die Performance und die dafür nötige Leistungsaufnahme, nicht so gut sind um damit werben zu können? Nur so ne Idee.
 
Was genau ist denn diese "KI-Leistung" und wo wird die benutzt oder gar benötigt?

Um diese ganzen KI-Fähigkeiten auch lokal nutzen zu können. Gibt genug Beispiele, was man damit tolles machen kann. Chat GPT ist so ein Schlagwort oder man schaue sich auch nur den ganzen KI generierten Bilder und Videos an.

Könnte es eventuell sein, dass Pat hier die KI-Nebelbombe werfen muss weil die wesentlichen Eigenschaften der kommenden CPUs, nämlich die Performance und die dafür nötige Leistungsaufnahme, nicht so gut sind um damit werben zu können? Nur so ne Idee.

Könnte es eventuell sein, dass man es manchen Leuten nie recht machen kann?

Da wird jahrelang gemeckert, dass sich Intel nichts neues einfallen läßt und nun kommt mal wirklich etwas neues, eine komplett andere Art der Berechnung und die Leute meckern herum, dass Intel sich doch lieber dem alten Krempel zuwenden sollte, statt irgendwas neues zu probieren.

Der alte Krempel wird wohl nicht vernachlässigt und außerdem würde ich mich freuen, dass wohl endlich wieder einer der Ableitungen des Mooreschen Gesetz wieder in Kraft gesetzt wurde: jedes Jahr einer Verdoppelung der Leistung. Wäre doch toll, wenn man da in einem Jahrzehnt mit dem tausendfachen unterwegs ist und auch lokal irgendwelches Zeug machen kann, das man heute nur auf irgendwelchen Servern hinbekommt, die Millionen kosten.

PS: den Vorwurf kannst du übrigens auch AMD machen.

Was ich am wenigsten bei einer neuen CPU brauche ist sogenannte "KI Leistung", was immer das auch sein mag.

Das haben damals auch viele über 3D Beschleuniger gesagt und 5 Jahre später gab es quasi keinen Zockerrechner, der keine 3D Karte drin hatte.
 
Um diese ganzen KI-Fähigkeiten auch lokal nutzen zu können. Gibt genug Beispiele, was man damit tolles machen kann. Chat GPT ist so ein Schlagwort oder man schaue sich auch nur den ganzen KI generierten Bilder und Videos an.

Also absolut nutzlos, das Kann jede Grafikkarte mit CUDA X-mal besser. Ist wie mit in CPUs integrierten Grafikchips.
 
Also absolut nutzlos, das Kann jede Grafikkarte mit CUDA X-mal besser. Ist wie mit in CPUs integrierten Grafikchips.

Cuda ist eine Nvidiaspezifische Lösung, es bleibt zu hoffen, dass sich diese Pest nicht durchsetzt, sonst wird es so richtig düster.

Btw: schön, dass du zumindest indirekt zugibst, dass ich dich widerlegt habe.
 
Um diese ganzen KI-Fähigkeiten auch lokal nutzen zu können.
Ich dachte "modern" wäre genau das Gegenteil? Alles in die Cloud und so?

Da wird jahrelang gemeckert, dass sich Intel nichts neues einfallen läßt und nun kommt mal wirklich etwas neues, eine komplett andere Art der Berechnung und die Leute meckern herum, dass Intel sich doch lieber dem alten Krempel zuwenden sollte, statt irgendwas neues zu probieren.
Sie können und sollen gerne neue Dinge machen. Ich habe wenn du genauer hinsiehst nicht kritisiert was Intel da macht und welchen Weg sie gehen wollen - ich habe kritisiert dass man offenbar versucht mit dem KI-Hype und entsprechendem Marketing-Buzzwording zu überstrahlen, dass man im traditionellen Bereich seit Jahren nicht aus dem Quark kommt. Ist auch grade gängig, man muss als Tech-Firma nur oft genug "AI, AI, AI, AI!!" sagen und schon steigt der Aktienkurs. :ka:

Wäre Arrow-/Lunalake im traditionellen Performancesegment in irgendeiner Form besonders gut würde man sich doch überschlagen mit Ankündigungen. Dass das nicht passiert legt zumindest nahe, dass da keine großen Sprünge zu erwarten sind.

Nebenbei: Die Frage was ich daheim mit nem irre schnellen KI-Tile anfangen kann ist noch offen. Welche programme haben davon denn nen Nutzen? Und jetzt sag mir nicht dass das nur dafür da ist, noch schneller KI-generierte Katzenbilder zu erstellen oder den OpenAI-Servern arbeit abzunehmen wenn ChatGPT lokal laufen kann.

den Vorwurf kannst du übrigens auch AMD machen.
Stimmt. Um die gehts hier aber nicht.
 
Was genau ist denn diese "KI-Leistung" und wo wird die benutzt oder gar benötigt?

Könnte es eventuell sein, dass Pat hier die KI-Nebelbombe werfen muss weil die wesentlichen Eigenschaften der kommenden CPUs, nämlich die Performance und die dafür nötige Leistungsaufnahme, nicht so gut sind um damit werben zu können? Nur so ne Idee.
Du hast den Nagel 100% auf den Kopf getroffen! :D Deine Idee ist in der Industrie tatsächlich Realität.
 
Ich dachte "modern" wäre genau das Gegenteil? Alles in die Cloud und so?

Kann man machen, wenn man allerdings lokal unterwegs sein will, dann ergibt es Sinn auch dort die Leistung vorzuhalten. Intel will die CPUs ja offenbar an Kunden verkaufen, die genau das vorhaben, sonst würde ein billiger Streamingclient, wie mein 9 Jahre alter 400€ Laptop (nur klein wenig moderner) reichen.

Sie können und sollen gerne neue Dinge machen. Ich habe wenn du genauer hinsiehst nicht kritisiert was Intel da macht und welchen Weg sie gehen wollen - ich habe kritisiert dass man offenbar versucht mit dem KI-Hype und entsprechendem Marketing-Buzzwording zu überstrahlen, dass man im traditionellen Bereich seit Jahren nicht aus dem Quark kommt.

Das stimmt einfach nicht. Bei den Zocker CPUs hieß der Gamingking vor einem Jahr noch 13900K. Auch ansonsten ist Intel recht innovativ, bei den Dingen, die man sieht, etwa AVX 512 oder Optane und auch bei den weniger bekannten Dingen, etwa das Glassubstrat oder andere Fertigungstechniken.

Intel hat halt eben das fürchterliche Pech, dass sie mit Nvidia einen recht kompetenten Konkurrenten in den neuen Feldern haben und AMD nach dem Bulldozer, keine Anstalten mehr macht und sich weigert ins Klo zu greifen. Das ist halt eben fürchterliches Pech, bedeutet aber nicht, dass Intel da irgendwie geschlampt hätte.

Ist auch grade gängig, man muss als Tech-Firma nur oft genug "AI, AI, AI, AI!!" sagen und schon steigt der Aktienkurs. :ka:

Bei Intel ist da aber etwas dran, das ist der Unterschied.

Und ja, Aktionäre schätzen ist, wenn ihre Firma auf die Zukunft gut vorbereitet ist und da am Ball bleibt.

Wäre Arrow-/Lunalake im traditionellen Performancesegment in irgendeiner Form besonders gut würde man sich doch überschlagen mit Ankündigungen. Dass das nicht passiert legt zumindest nahe, dass da keine großen Sprünge zu erwarten sind.


Das stimmt einfach nicht. Bei Raptorlake haben viele, soweit ich weiß auch du, im Vorfeld geunkt, dass es da keinen sonderlichen Fortschritt geben wird und da nur ein paar Prozent Leistungssteigerung drin sind. Was ist passiert? Der 13900K hat den 5800X3D in Spielen platt gemacht, einfach so (bis dann der 7950X3D kam).

Gab es im Vorfeld dazu irgendwelche großspurigen Ankündigungen?

Nein, da herrscht bei Intel Understatement.

Von daher kann man daran nichts ablesen, es kann genauso gut sein, dass du dich schon wieder irrst und Intel einen ordentlichen Satz nach vorne macht. (Auch wenn diese Sprünge heutzutage weniger spektakulär sind. Beim 5800X3D und 13900K waren es jeweils nur etwa 20% drüber)

Nebenbei: Die Frage was ich daheim mit nem irre schnellen KI-Tile anfangen kann ist noch offen. Welche programme haben davon denn nen Nutzen? Und jetzt sag mir nicht dass das nur dafür da ist, noch schneller KI-generierte Katzenbilder zu erstellen oder den OpenAI-Servern arbeit abzunehmen wenn ChatGPT lokal laufen kann.

Abwarten, möglich ist vieles. Ich persönlich fände es toll, wenn die KI in Zukunft einfach das Spiel weiterspinnt. Wenn ich dann in 10-15 Jahren mit meinem (16 oder 32K?) Monitor meine virtuelle Nase irgendwohin stecke und es genau sehen will, dann kann die KI einfach bessere Texturen und 3D Modelle erstellen und mir so ein Detaillevel vorgaukeln, das garnicht da ist. Jeder Grashalm könnte ein einer Qualität erstellt werden, bei der das Spiel im Petabytebereich unterwegs wäre, wenn man die Daten lokal speichern würde. Realistischere NPCs, die Dinge, wie aktuelles Geschehen aus der realen Welt usw. einweben.

Eventuell kann das Spiel auch einfach irgendwelche Spiele erzeugen. Z.B. sowas als volles Spiel, ich würde mich freuen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Möglichkeiten gibt es genug.
 
Jetzt fehlen halt noch die Anwendungen und Spiele die KI Leistung wirklich nutzen :D
Ojeee das wird bestimmt noch Jahre dauern bis Entwickler von Spielen KI Code benutzen, in 10 Jahren ist die Hardware dann im Mainstream angekommen :D
 
Das "in Spielen plattgemacht" wie dus nennst ist in der Form wie Intel es macht, nämlich über viele Generationen hinweg (Skylakederivate von 6000 bis 11000 und Alderlakederivate von 12000 bis 14000) immer nur ein paar MHz mehr rausquetschen mit aller (Strom-)Gewalt um dann am Ende doch 2% schneller zu sein als AMD, ist genau das was für mich "nicht aus dem Quark kommen" ist.
Arrowlake hätte jetzt als nächster tatsächlicher Technikschritt abseits von nur mehr Gewalt mal wieder die Gelegenheit wirklich eine nennenswerte Verbesserung zu zeigen, vor allem in der Effizienz wo intel mittlerweile meilenweit abgeschlagen ist. Ki ist toll und liest sich super in Prospekten, hilft an der Stelle aber (noch) nicht. Bis das nen nennenswerten Unterschied macht wird noch viel viel Zeit ins Land gehen. Deswegen ist damit jetzt schon so zu werben wo 99,99% aller Besitzer dieser neuen CPU Null Vorteil davon haben so befremdlich.
 
Also absolut nutzlos, das Kann jede Grafikkarte mit CUDA X-mal besser. Ist wie mit in CPUs integrierten Grafikchips.
Sollten die neune Intel CPUs tatsächlich schneller sein als aktuelle Nvida GPUs revidiere ich meine Behauptung. Ansonsten bleibt es dabei, das das wenigste was ich in einer CPU brauche, KI Leitung ist.
Du hast den Sachverhalt leider nicht verstanden, genaugenommen nicht einmal bzgl. der GPUs, also mal zur Aufklärung:

a) CUDA (und die ggf. damit zusammenhängenden Tensor Cores, wenn man eine RTX-GPU besitzt) sind für KI-Berechnungen nicht erforderlich. Du kannst diese Berechnungen selbst über die general purpose Register einer CPU durchführen lassen. Über die Shader einer GPU geht das aufgrund der um ein Vielfaches höheren Parallelisierung gar noch viel schneller. Beispielsweise die letzten beiden RDNA-Generationen sind sukzessive erweitert worden, besitzen zwar immer noch keine im eigentlichen Sinne dedizierte Hardware-Einheiten zur Verarbeitung von MMs, jedoch architektonische Optimierungen, die deren Durchsatz auch hier deutlich über den einfachen durch die Shader bereitgestellten Durchsatz hinaus anheben, sodass auch diese Architekturen einen vergleichsweise hohen ML-Durchsatz aufweisen ... und das ohne jedweden CUDA-Support. ;-)

Btw., bspw. Microsofts DirectML zielt genau darauf ab, indem man hier ein HighLevel-API bereitstellt, dass diverse heterogene Hardware zur Beschleunigung entsprechender Berechnungen ansteuern kann um Hersteller- und LowLevel-Unabhängig zu sein.

b) Die hier nun kürzlich in die CPU einziehende Funktionalität zielt auf maximale Effizienz und niedrige bis bestenfalls mittelschwere Workloads ab. Diese konkurriert schon von der grundlegenden Ausrichtung her nicht mit GPUs, erst recht nicht mit den HighEnd-Modellen mit Shadern im 5-stelligen Bereich.

c) Intel-CPUs konnten schon seit längerem ML-Operationen *) direkt prozessieren. Einerseits hätte man brute-force mit mauer Efizienz die bisherigen iGPUs heranziehen können, mittels VNNI, ein AVX-Subset, hat man jedoch schon seit langem eine dedizierte Hardwareunterstützung und zudem gibt es ebenso auch schon seit längerem eine kleine, ausschließlich für leichtgewichtige Workloads vorhandene Hardwareeinheit in den Intel-CPUs.
Mit Meteor Lake und folgenden CPUs neu hinzu kommt nun die Möglichkeit, die XMX-Einheiten der i/tGPU für schwergewichtigere Tasks zu nutzen, da man diese Einheiten nun aus den dedizierten GPU-Designs übernommen hat. Diese führen analog den Tensor Cores spezifische MM-Operationen aus.
Und zusätzlich hat man nun eine VPU oder NPU, je nachdem wen man fragt und wie man das Kind nennen will, zusätzlich hinzuimplementiert, deren primäres Ziel hier ebenso ein guter Durchsatz bei maximaler Effizienz ist.

Und hier ist es durchaus beachtlich, dass obwohl die SW-Industrie bisher kaum mit SW aufwarten kann, man nun schon verbindlich ankündigt, dass die Leistung dieser zusätzlichen HW-Einheit in der CPU in nur zwei Generationen einen vergleichsweise riesigen Sprung machen soll, denn bereits die VPU von ARL/LNL wird grob doppelt so schnell wie die von MTL sein und PTL soll den Durchsatz dann noch mal grob verdoppeln, d. h. das ist schon beträchtlich viel Leistung und deutlich mehr als nur für ein paar kleine Hintergrundtasks. Man darf gespannt sein, wohin hier Software- und Hardware-technisch die Reise geht, so bspw. was Microsofts CoPilot in Windows bringen wird und wie und zu was der sich in zukünftigen Iterationen hin entwickeln wird.

*) Hier allgemein von KI zu sprechen, schießt immer weit über das Ziel hinaus, jedoch die Presse simplifiziert gerne, denn wenn man das Stichwort "KI" hört, sind damit im Wesentlichen lediglich MatrixMultiplikationen gemeint und nicht mehr. ML für Machine Learning und die zugehörigen Algorithmen wäre hier angemessener.

[...] in 10 Jahren ist die Hardware dann im Mainstream angekommen :D
Typo? Diese neue Hardware kommt schon in diesem Jahr im Mainstream an! Sowohl Intel als auch AMD treiben das Thema voran, letzten Endes auch nicht verwunderlich, da Mobile-SoCs schon seit Jahren durchgehend mit einer NPU im Chip daherkommen.
 
Zuletzt bearbeitet:
Was genau ist denn diese "KI-Leistung" und wo wird die benutzt oder gar benötigt?

Könnte es eventuell sein, dass Pat hier die KI-Nebelbombe werfen muss weil die wesentlichen Eigenschaften der kommenden CPUs, nämlich die Performance und die dafür nötige Leistungsaufnahme, nicht so gut sind um damit werben zu können? Nur so ne Idee.
vor 12 Jahren war ich richtig angetan, dass Intel eigentlich gute iGPUs hatte mit ordentlich OpenCL Leistung. Was hätte man daraus machen können. KI in Spielen. Physik in Spielen usw usf.
Genutzt hat mans nicht.
Mal sehen ob die integrieret KI Leistung in einer CPU relevant wird, wenn man daneben auch eine GPU einbauen kann die wahrscheinlich die 10-Fache Leistung mit sich bringt.

Abgesehen davon: ich will höhere Pro Core und Gesamtleistung, also neue Architektur. Ob ich KI so bald brauche sehe ich erst, wenn es dafür praxisnahe Anwendungen gibt.
 
Ojeee das wird bestimmt noch Jahre dauern bis Entwickler von Spielen KI Code benutzen, in 10 Jahren ist die Hardware dann im Mainstream angekommen :D

Und wenn man nicht damit anfängt, das Zeug überall zu integrieren, dann wird das eben nie etwas. Von daher sollte man froh sein, dass das Zeug heute integriert wird, in ein paar Jahren hat es dann fast jeder und dann kann man es auch zur Pflicht machen.

Das "in Spielen plattgemacht" wie dus nennst ist in der Form wie Intel es macht, nämlich über viele Generationen hinweg (Skylakederivate von 6000 bis 11000 und Alderlakederivate von 12000 bis 14000) immer nur ein paar MHz mehr rausquetschen mit aller (Strom-)Gewalt um dann am Ende doch 2% schneller zu sein als AMD, ist genau das was für mich "nicht aus dem Quark kommen" ist.

Du kannst es drehen und wenden, wie du willst: Intel war bis zum Erscheinen des 7950X3D in Spielen stärker.

Wenn man so miesepetrig an die Sache rangeht, dann hat AMD seit Ryzen auch nichts mehr wirklich neues zu Stande gebracht. Ein IO Die, um zwei Dies verwenden zu können? Das war es bei Zen 2. Zen 3 war ja mal die Einfallslosigkeit überhaupt. Zen3D war nichts weiter als zusätzlicher Cache auf einem weiterem Die - an sich eine uralte Idee. Bei Zen 4 haben sie dann AVX 512 übernommen und mal auch den normalen CPUs eine IGP spendiert, das hat Intel seit Sandy Bridge und Skylake X getan. Du siehst: es gibt also auch bei AMD keinen Fortschritt.

Arrowlake hätte jetzt als nächster tatsächlicher Technikschritt abseits von nur mehr Gewalt mal wieder die Gelegenheit wirklich eine nennenswerte Verbesserung zu zeigen, vor allem in der Effizienz wo intel mittlerweile meilenweit abgeschlagen ist.

1: kann man auch bei Intel CPUs einstellen, dass sie sich an die normale TDP halten sollen. Die Nutzer kaufen nach dem größten Balken, das wissen die Boardhersteller und drehen auf, was geht, auch wenn sich der Strombrauch für die letzten 5-10% verdoppelt. Mit 125W sieht die Welt wieder anders aus.
2: auch AMD kann Strom zum Fenster rausheizen. Bei dem aktuellen Sockel sind es maximal (7900X, 7950X) 170/230W, da ist der Unterschied zu Intels 125/253W nicht so groß.
3: Abwarten, eventuell wird es ja noch etwas. Keiner weiß irgendwas genaues. Eventuell irsst du dich ja nochmal und die Sache wird garnich mal so schlecht. Wir reden hier auch nicht von irgendwelchen Unmöglichkeiten. Intel hat ja auch die T CPUs im Programm, die zeigen schon seit über 10 Jahren, dass man mit 35W viel machen kann. Bei AMD sind es jetzt auch zwangsweise ein paar hundert MHz weniger, die die X3D CPUs zu Effizienzmonstern wider willen machen (AMD hätte wohl gerne noch die letzten 10-20% rausgequetscht).
4: Wie gesagt: das mit der KI ist doch etwas neues abseits von mehr Gewalt. Genau das, was du forderst. Von daher solltestest du dich doch freuen.

Ki ist toll und liest sich super in Prospekten, hilft an der Stelle aber (noch) nicht. Bis das nen nennenswerten Unterschied macht wird noch viel viel Zeit ins Land gehen.

Microsoft hat doch schon angekündigt, dass man bei ihrem neuen Windows einen KI Chip, mit ordentlich Leistung benötigt, um das volle Potential des Assistenten abrufen zu können. Von daher ist die Zeit wohl bereits abgelaufen.

Deswegen ist damit jetzt schon so zu werben wo 99,99% aller Besitzer dieser neuen CPU Null Vorteil davon haben so befremdlich.

Tut mir leid, aber die Aussage ist Käse. Demnach hätte man CPUs mit 2,4,6,8 und 16 Kernen erst bewerben dürfen, wenn man Normalos auch tatsächlich einen größeren Vorteil davon haben? Das wäre bei den 12 und 16 Kern CPUs bis heute nicht der Fall. Auch größeren VRAM dürfte man erst bewerben, wenn er So richtig genutzt wird (das wären heute etwa 12GB).

Ich hab mir einen 7950X3D gekauft (irgendwann mußte die neue Kiste mal angeschafft werden. Ich habe leider keinen KI Chip und kann nur hoffen, dass die GPU das irgendwie übernehmen kann. Aber ich freue mich, dass es da endlich mal voran geht und wenn ich mir schon nach 5 statt 10 Jahren eine neue Kiste kaufen muß? Das ist der Preis des Fortschritts.
 
Du kannst es drehen und wenden, wie du willst
Ich drehe da nichts - der einzige der AMD überhaupt erst in die Diskussion gebracht hat warst du. Mir persönlich es es furzegal ob der eine oder der andere ne handvoll Prozent schneller Spiele darstellt wenn man mit Gewalt ins CPU Limit prügelt. Stell dir vor - mir ist durchaus bekannt dass man Powerlimits einstellen kann (und dass diese Limits in Spielelastszenarien sowieso praktisch keine Rolle spielen). Verrückt, oder? Daran, dass ein aktueller Intel in Spielen trotzdem nicht selten das doppelte und mehr verbraucht für die ähnliche Leistung ändert aber auch das nichts. Das weißt du aber ja genau wie ich. Passt nur grade nicht in deine Argumentationslinie.

Demnach hätte man CPUs mit 2,4,6,8 und 16 Kernen erst bewerben dürfen, wenn man Normalos auch tatsächlich einen größeren Vorteil davon haben? Das wäre bei den 12 und 16 Kern CPUs bis heute nicht der Fall.
Ich habe nicht "Normalos" gesagt sondern "99,99%".
Von 12 und 16-Kernern haben von Anfang an die User einen direkten und hohen Vorteil gehabt die Multithreadanwendungen nutzen. Natürlich ist das die Minderheit aber es sind ein paar wenige Prozent - und (fast) nur die sind es auch die solche CPUs kaufen. Von dem KI-Zeug haben erstmal nur die gefühlten 5 Leute was, die genau an diesem Thema dran sind und ganz spezielle Codes für die KI-Chips haben. Also 5 Leute, nicht 5%.
Bis sich das ändert, also es auch in Windows integriert und in der breiten Masse angekommen Funktionen gibt die einen echten Mehrwert bieten (damit meine ich nicht ne beknackte ChatGPT-like-Suchfunktion CortanaGPT) und solche KI-Tiles ausnutzen sind wir eher im Jahre 2030 denn 2025.
 
Zuletzt bearbeitet:
Zurück