News ChatGPT ... - Das sagen die PCGH-Redakteure dazu

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu ChatGPT ... - Das sagen die PCGH-Redakteure dazu

Die Redakteure der PC Games Hardware kommentieren aktuelle Ereignisse oder Entwicklungen aus der Welt der PC-Hardware, IT-Branche, Spiele, Technik oder Unterhaltung. Lesen Sie die wirklich persönlichen Meinungen der PCGH-Redakteure, heute zum Thema "ChatGPT ..."

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: ChatGPT ... - Das sagen die PCGH-Redakteure dazu
 
@dave:

Thema: "Wozu braucht man das?"

Nur mal so ein Gedanke:

Eine komplette PCGH Print inkl. 3600 CPU-Tests innerhalb von 2 Minuten aus Informationen und Gerüchten aus dem Internet selbst erstellt.

Ja, das geht.

Beweisvideo:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Jetzt komm bloß nicht auf dumme Gedanken.

^^ ;-P
 
Eine komplette PCGH Print inkl. 3600 CPU-Tests innerhalb von 2 Minuten aus Informationen und Gerüchten aus dem Internet selbst erstellt.
Konkurrenzprodukt "ChatNEY"? :fresse:

Aber so blöd das klingt, das ist die größte Gefahr. Es ist nicht das Problem, dass KIs so "intelligent" werden, das große Problem ist, dass so viele Menschen das nicht sind. ChatGPT kann ein extrem mächtiges Werkzeug werden für Leute, die verstehen was sie damit tun. Ich schreibe bewusst nicht "wissen" sondern "verstehen". Und es kann extrem gefährlich sein für Leute, die nicht verstehen was die da tun.
Blöderweise gibt es naturgemäß von der zweiten Gruppe sehr viel mehr als von der ersten. Nicht zu verstehen, dass die Antworten von ChatGPT auch falsch sein können ist da nur der Anfang.
 
Währ3nd Andere sich über Skynet Gedanken mache, denke ich an vollvertonte Mods und tausende individuelle NPCs.

Oder wie wär ein Skyrim nach Maß? Die Idee wäre, eine Art Grundgerüst für (bspw.) ein RPG bereitzustellen und zur Erstellung der eigentlichen Welt, Geschichte, technischen Stand, Rassen etc. kann ich mich als Spieler äussern.
Dann sag ich halt: Ich will im Mittelalter spielen, aber Dinos leben noch und werden von den Römern, die nie untergegangen sind als Reittiere eingesetzt. Es existiert High-Magic, die Dampfmaschine und Mysterien im Stil von Terry Pratchett.

Und das Spiel macht was draus. Individuelle RPGs für jeden.

Dafür sch... ich auf Skynet xD
 
Ich sehe schon jede Menge Potential darin. Aber aktuell auch einige Gefahren und viele Nachteile. Vor allem, wenn man den Bildungssektor in DE bedenkt. Die Gesellschaft ist ja nicht mal in der Lage, verantwortungsbewusst mit der Technik umzugehen, die uns bis dato bereits zur Verfügung stand. Sozial- und andere Kernkompetenzen (z.B. Sprachkenntnisse) werden immer schlechter (noch schlimmer wurde es in den letzten 3 Jahren) und die Fähigkeit, Informationen zu recherchieren, zu filtern und abzurufen, ist bei vielen auch nicht besonders ausgeprägt. Nur leider gehört eben das dazu, wenn man mit Dingen wie ChatGPT arbeiten will.

Dann kommen natürlich noch andere Bedingungen hinzu. Weder die meisten Eltern, noch Lehrkräfte wissen und verstehen, was KIs wie ChatGPT überhaupt sein sollen und wozu sie da sind.

Man wird gefühlt täglich mit neuster Technik voll geballert, aber die meisten wissen damit nichts anzufangen oder gehen verantwortungslos damit um.
 
Man wird gefühlt täglich mit neuster Technik voll geballert
Dafür brauchts nicht wirklich neue Technik... wenn ich mir ansehe wie die meisten meiner Bekannten (alle Altersklassen) Google oder überhaupt einen PC benutzen kriege ich schon die Krise - und die sind dann teilweise noch stolz drauf dass sies überhaupt machen und nicht einfach nen anderen fragen.
Das Ding ist ja nicht dass sie es nicht könnten wenn sie wollten, die Leute WOLLEN sich nicht damit beschäftigen. Meine Mutter fragt mich bis heute ob ich ihre Handybilder auf ihren PC schieben kann weil sie einfach nicht lernen WILL wie man ein bei einem per USB verbundenem Handy Dateien von A nach B kopiert und wo dieses "B" dann ist (von Cloudlösungen ganz zu schweigen). Und sie ist nun wirklich nicht blöd, es ist einfach absichtliches Verweigern auch nur 3 Gedanken daran zu verschwenden wie Technik funktioniert oder wie man sie bedient.
Wenn diese Personengruppe dann auf KI trifft (sehr wahrscheinlich ohne überhaupt zu bemerken dass das passiert ist) gute Nacht.

Ich hab son bisschen Angst, dass die Sache auf lange Sicht zwar nicht das Szenario "Terminator" hervorbringt, wohl aber gute Chancen auf "Idiocracy" hat. :-/
 
Zuletzt bearbeitet:
Manche Menschen haben Angst vor einer künstlichen Intelligenz, weil sie befürchten, dass sie zu mächtig werden und die Welt beherrschen könnte.

Das gefährliche an einer KI ist nicht das wozu sie selbst fähig sein könnte, sondern unter welchem Vorwand der Mensch diese einsetzt.
Ebenso gefährlich ist es eine KI als das anzusehen was sie eben nicht ist, eine Intelligenz die mit der des Menschen vergleichbar wäre.

Es ist eine interessante Technik, doch bei weitem nicht das was das Marketing propagiert, oder auch das was der großteil der Menschen darüber zu "glauben" scheint.
 
Das Ding wird irgendwann Journalisten/Schreiberlinge komplett ersetzen.

Wenn ich mir das Review von Wired zu Hogwarts Legacy gebe, auch besser so.
 
Ein weiterer Schritt, um uns das selbstständige Denken abzugewöhnen. Die KI zu fragen, ist ja viel bequemer.
Ich sehe da eine ganz ähnliche Gefahr.

Simples Beispiel Autokorrektur: Ich habe gemerkt, dass sich meine Rechtschreibung verschlechtert hat, weil eine "KI" meine Wörter automatisch berichtigt. Seit ein paar Wochen mache ich das wieder selber selbst, weil mir dieser Bereich einfach wichtig ist.

Navigation: Ich habe mich seit Jahren mit keiner Landkarte mehr auseinandergesetzt, weil Google Maps mich überall hinführt. Früher habe ich mich abends noch hingesetzt und eine Karte studiert. Das war bestimmt förderlicher....

Für mich birgt ChatGPT viele Vorteile aber ich befürchte, dass das selbständige Denken hierdurch nicht gefördert wird.
 
Dafür brauchts nicht wirklich neue Technik... wenn ich mir ansehe wie die meisten meiner Bekannten (alle Altersklassen) Google oder überhaupt einen PC benutzen kriege ich schon die Krise - und die sind dann teilweise noch stolz drauf dass sies überhaupt machen und nicht einfach nen anderen fragen.
Das Ding ist ja nicht dass sie es nicht könnten wenn sie wollten, die Leute WOLLEN sich nicht damit beschäftigen. Meine Mutter fragt mich bis heute ob ich ihre Handybilder auf ihren PC schieben kann weil sie einfach nicht lernen WILL wie man ein bei einem per USB verbundenem Handy Dateien von A nach B kopiert und wo dieses "B" dann ist (von Cloudlösungen ganz zu schweigen). Und sie ist nun wirklich nicht blöd, es ist einfach absichtliches Verweigern auch nur 3 Gedanken daran zu verschwenden wie Technik funktioniert oder wie man sie bedient.
Wenn diese Personengruppe dann auf KI trifft (sehr wahrscheinlich ohne überhaupt zu bemerken dass das passiert ist) gute Nacht.

Ich hab son bisschen Angst, dass die Sache auf lange Sicht zwar nicht das Szenario "Terminator" hervorbringt, wohl aber gute Chancen auf "Idiocracy" hat. :-/
Das Beispiel mit deiner Mutter kenne ich nur zu gut. Allerdings von der Arbeit aus. Digitalisierung schreitet auch im Bereich Pädagogik voran, aber unsere älteren Kolleginnen verweigern beharrlich die Bedienung eines Laptops. Letztlich muss ich es sein, der sich um den digitalen Kram kümmert, weil der Rest es nicht geschissen bekommen will. Und da geht es wirklich oft bloß darum, ein paar Zeilen in einer Email zu verfassen und abzusenden.

Und wenn ich mir den Umgang meiner Generation und der jüngeren Generation mit Medien so ansehe, dann sind wir von Idiocracy schon jetzt nicht mehr weit entfernt. Die Jugend von heute ist nicht doof. Aber den Umgang mit Medien und Software hat ihnen kaum jemand beigebracht. Wer denn auch? Eltern sind oft überfordert damit, pessimistisch eingestellt oder es geht ihnen schlicht am Arsch vorbei. Und Bildungseinrichtungen sind auch nicht hilfreich, weil das Bildungssystem eine Katastrophe ist.

Den enormen technischen Wandel in den letzten 10-15 Jahren hat unsere Gesellschaft schlicht nicht verkraftet.
 
Digitalisierung schreitet auch im Bereich Pädagogik voran, aber unsere älteren Kolleginnen verweigern beharrlich die Bedienung eines Laptops. Letztlich muss ich es sein, der sich um den digitalen Kram kümmert, weil der Rest es nicht geschissen bekommen will. Und da geht es wirklich oft bloß darum, ein paar Zeilen in einer Email zu verfassen und abzusenden.
Das dürfte es ziemlich überall geben.
Und die Leute die es hart verweigern irgendwelche Dinge dahingehend neu zu erlernen sind dann noch die gleichen, die sich ständig beschweren dass sie keine Gehaltserhöhung kriegen während der Typ am PC der alles kann jedes Jahr 3% einfährt.

Die Jugend von heute ist nicht doof. Aber den Umgang mit Medien und Software hat ihnen kaum jemand beigebracht. Wer denn auch? Eltern sind oft überfordert damit, pessimistisch eingestellt oder es geht ihnen schlicht am Arsch vorbei. Und Bildungseinrichtungen sind auch nicht hilfreich, weil das Bildungssystem eine Katastrophe ist.
/signed.

Den enormen technischen Wandel in den letzten 10-15 Jahren hat unsere Gesellschaft schlicht nicht verkraftet.
Weite Teile davon nicht. Das ist zwar einerseits eine große Chance für all diejenigen die mitmachen/mitkommen (ich habe sowohl beruflich als auch privat sehr große Vorteile davon gehabt sehr technikaffin zu sein) aber insgesamt ziehts uns wirklich runter wenn die meisten eben nicht im Boot sitzen und irgendwie duchkommen wollen wie in den 90er/00er Jahren. Da piepst Gerät XY im Laden Z ein mal anders als die lezten WOchen und schon ist Mitarbeiter/in vor einem unlösbaren Problem - das gar nicht so unlösbar wäre wenn man einfach lesen und verstehen würde, was das Gerät anzeigt. Wir sind derart hilflos geworden dass es beängstigend ist. Vom Zustand "Mensch benutzt Maschine nach seinem Willen/Nutzen [und versteht wie/warum]" sind wir zum Zustand "Maschine bestimmt über Mensch [der keine Ahnung mehr hat]" unterwegs. Künstliche Intelligenz wird das nur noch (stark) beschleunigen.
 
Das Beispiel mit deiner Mutter kenne ich nur zu gut. Allerdings von der Arbeit aus. Digitalisierung schreitet auch im Bereich Pädagogik voran, aber unsere älteren Kolleginnen verweigern beharrlich die Bedienung eines Laptops. Letztlich muss ich es sein, der sich um den digitalen Kram kümmert, weil der Rest es nicht geschissen bekommen will. Und da geht es wirklich oft bloß darum, ein paar Zeilen in einer Email zu verfassen und abzusenden.

Und wenn ich mir den Umgang meiner Generation und der jüngeren Generation mit Medien so ansehe, dann sind wir von Idiocracy schon jetzt nicht mehr weit entfernt. Die Jugend von heute ist nicht doof. Aber den Umgang mit Medien und Software hat ihnen kaum jemand beigebracht. Wer denn auch? Eltern sind oft überfordert damit, pessimistisch eingestellt oder es geht ihnen schlicht am Arsch vorbei. Und Bildungseinrichtungen sind auch nicht hilfreich, weil das Bildungssystem eine Katastrophe ist.

Den enormen technischen Wandel in den letzten 10-15 Jahren hat unsere Gesellschaft schlicht nicht verkraftet.


Naja so schlimm ist das Bildunssystem nicht, aber die die es bestimmen sind es.

Hat man nicht jedes Jahr die Anforderungen gesenkt?. Das auch Inhalte vermittelt werden sollten, die wirklich auf das Leben vorbereit wäre wünschenswert.
 
Das dürfte es ziemlich überall geben.
Und die Leute die es hart verweigern irgendwelche Dinge dahingehend neu zu erlernen sind dann noch die gleichen, die sich ständig beschweren dass sie keine Gehaltserhöhung kriegen während der Typ am PC der alles kann jedes Jahr 3% einfährt.
Die 3% jährlich hätte ich mir vermutlich durchaus verdient, wenn ich bedenke, was ich aufgrund der technischen Unfähigkeit meiner Kolleginnen alles zusätzlich zur Kinderbetreuung und Planung machen muss. :ugly: Da ich aber nach Tarifvertrag bezahlt werde, ist das leider nicht drin.

Weite Teile davon nicht. Das ist zwar einerseits eine große Chance für all diejenigen die mitmachen/mitkommen (ich habe sowohl beruflich als auch privat sehr große Vorteile davon gehabt sehr technikaffin zu sein) aber insgesamt ziehts uns wirklich runter wenn die meisten eben nicht im Boot sitzen und irgendwie duchkommen wollen wie in den 90er/00er Jahren. Da piepst Gerät XY im Laden Z ein mal anders als die lezten WOchen und schon ist Mitarbeiter/in vor einem unlösbaren Problem - das gar nicht so unlösbar wäre wenn man einfach lesen und verstehen würde, was das Gerät anzeigt. Wir sind derart hilflos geworden dass es beängstigend ist. Vom Zustand "Mensch benutzt Maschine nach seinem Willen/Nutzen [und versteht wie/warum]" sind wir zum Zustand "Maschine bestimmt über Mensch [der keine Ahnung mehr hat]" unterwegs. Künstliche Intelligenz wird das nur noch (stark) beschleunigen.
So sehe ich das auch.

Naja so schlimm ist das Bildunssystem nicht, aber die die es bestimmen sind es.
Das Bildungssystem ist deshalb katastrophal, weil in den obersten Etagen Leute sitzen, die völlig an der Realität vorbei entscheiden. Es bringt halt auch nichts, digitale Tafeln in Schulen einzubauen und Laptops für Klassen bereit zu stellen, wenn niemand da ist, der den Umgang damit vermittelt. So sind Pädagogen auf sich gestellt und viele von denen sehen sich da einer Herausforderung entgegen gestellt, die sie nicht bewältigen können, weil Personal, Geld, Zeit und Raum fehlt.

Ich als Erzieher kann da noch freier agieren, aber auch für mich ist das eine extreme Herausforderung, Medien in den pädagogischen Alltag zu integrieren und den Kindern zu vermitteln, dass Medien nicht nur Unterhaltung sind, sondern auch Werkzeuge. Aber auch hier liegt es vor allem an Zeit, Raum und Geld. Hätten wir jährlich mehr Budget und mehr Zeit, könnte man viel mehr machen.

Hat man nicht jedes Jahr die Anforderungen gesenkt?. Das auch Inhalte vermittelt werden sollten, die wirklich auf das Leben vorbereit wäre wünschenswert.
Es geht nicht nur im Inhalte, sondern auch um Didaktik und Methodik. Schule ist dazu da, um Allgemeinwissen zu vermitteln und natürlich braucht es da einen breit aufgestellten Lehrplan. Aber es geht auch um Kompetenzen, die vermittelt werden müssen. Leider ist das eben nicht der Fall. Bulimie-Lernen ist angesagt. Lernen und in der nächsten Klausur raus kotzen, bevor man es dann wieder vergisst.

Wir haben ein Schulsystem, das sich in seinen Grundzügen seit dem 19. Jahrhundert nicht geändert hat und die Bedingungen werden nach aktuellem Stand nicht besser, sondern schlimmer. Vor allem für Lehrkräfte, was sich natürlich unweigerlich auf die Schüler auswirkt.

Und auch Schüler stehen immernoch unter immensen Leistungsdruck. Das fängt leider schon in der Grundschule an.
 
Bulimie-Lernen ist angesagt. Lernen und in der nächsten Klausur raus kotzen, bevor man es dann wieder vergisst.
This.
Punkte gibts für Wissen - nicht für verstehen.
Das war auch ganz praktisch vor vielen Jahrzehnten - ist aber heute nicht mehr erforderlich, denn eine benötigte Information kann man heutzutage sofort abrufen. Niemand muss mehr auswendig wissen wer in welcher Reihenfolge Bundeskanzler war (auch wenns nicht schadet), aber es sollte vermittelt werden wie man so eine Information bestmöglich im Netz findet, worauf zu achten ist um zu sehen ob die Quelle dafür vertrauenswürdig ist und bestenfalls noch warum und wie das gerade funktioniert hat mit dem Informationsabruf. All das wird eben nicht vermittelt.

Und mit aufkommender KI wird das Problem größer werden. Denn dann wird eine Quellenprüfung und das Verstehen wies funktioniert noch schwieriger werden - einfach ChatGPT zu fragen "nenne mir alle Bundeskanzler in der richtigen Reihenfolge" wird zwar nahezu sicher zum richtigen Ergebnis führen aber bei weniger simplen Informationen kann das anders sein... und welcher Jugendliche der schon nie erklärt bekommen hat wie man googelt und warum google wie funktioniert soll durchblicken ob die KI jetzt was richtiges oder falsches gesagt hat?
Das ausgeweitet auf ganze Gesellschaften kann im worst case dazu führen, dass die KI die Wahrheit bestimmt. Wenn die warum auch immer sagt Adenauer hieß nicht Konrad sondern Adolf weil sie Quelltexte grob falsch verwurschtelt und die Leute das glauben weil die KI das so sagt und es stimmen muss und der alte Mann mit Brille keine Ahnung hat der ständig was von einem Konrad redet dann haben wir so richtig ins Klo gegriffen.
 
This.
Punkte gibts für Wissen - nicht für verstehen.
Das war auch ganz praktisch vor vielen Jahrzehnten - ist aber heute nicht mehr erforderlich, denn eine benötigte Information kann man heutzutage sofort abrufen. Niemand muss mehr auswendig wissen wer in welcher Reihenfolge Bundeskanzler war (auch wenns nicht schadet), aber es sollte vermittelt werden wie man so eine Information bestmöglich im Netz findet, worauf zu achten ist um zu sehen ob die Quelle dafür vertrauenswürdig ist und bestenfalls noch warum und wie das gerade funktioniert hat mit dem Informationsabruf. All das wird eben nicht vermittelt.
This.

Allerdings würde ich trotzdem sagen, dass Wissen nicht nur "nicht schadet", sondern auch essenziell ist, um überhaupt Dinge verstehen zu können. Wissen, Verständnis und Kompetenzen sind ja nicht los gelöst voneinander, sondern bedingen einander.

Wissen darf halt nur nicht einfach nur abgerufen und wiedergegeben werden, sondern muss auch in einen Kontext gesetzt und angewendet werden können. Und auch das wird in der Schule weniger vermittelt, als gut ist.


Und mit aufkommender KI wird das Problem größer werden. Denn dann wird eine Quellenprüfung und das Verstehen wies funktioniert noch schwieriger werden - einfach ChatGPT zu fragen "nenne mir alle Bundeskanzler in der richtigen Reihenfolge" wird zwar nahezu sicher zum richtigen Ergebnis führen aber bei weniger simplen Informationen kann das anders sein... und welcher Jugendliche der schon nie erklärt bekommen hat wie man googelt und warum google wie funktioniert soll durchblicken ob die KI jetzt was richtiges oder falsches gesagt hat?
Das ausgeweitet auf ganze Gesellschaften kann im worst case dazu führen, dass die KI die Wahrheit bestimmt. Wenn die warum auch immer sagt Adenauer hieß nicht Konrad sondern Adolf weil sie Quelltexte grob falsch verwurschtelt und die Leute das glauben weil die KI das so sagt und es stimmen muss und der alte Mann mit Brille keine Ahnung hat der ständig was von einem Konrad redet dann haben wir so richtig ins Klo gegriffen.
Deswegen würde ich mich niemals dagegen aussprechen, Dinge wie ChatGPT in der Schule zu verwenden. Aber das muss begleitend erfolgen. Nur fehlt halt leider dafür Zeit und Personal.
 
Konkurrenzprodukt "ChatNEY"? :fresse:

Aber so blöd das klingt, das ist die größte Gefahr. Es ist nicht das Problem, dass KIs so "intelligent" werden, das große Problem ist, dass so viele Menschen das nicht sind. ChatGPT kann ein extrem mächtiges Werkzeug werden für Leute, die verstehen was sie damit tun. Ich schreibe bewusst nicht "wissen" sondern "verstehen". Und es kann extrem gefährlich sein für Leute, die nicht verstehen was die da tun.
Blöderweise gibt es naturgemäß von der zweiten Gruppe sehr viel mehr als von der ersten. Nicht zu verstehen, dass die Antworten von ChatGPT auch falsch sein können ist da nur der Anfang.

Genau auf so etwas beziehe ich mich in meiner Wochenmeinung: Zwar wird nie jemand eine "PCGH" per Bot erzeugen lassen (oder wenn dann kann es mir egal sein, weil Computec dann die Ausgaben für Redakteure auf 0 reduziert hat), aber die Aggregation von Testergebnissen ist ein naheliegender Anwendungszweck. Aber selbst, wenn die KI in der Lage ist, einigermaßen seriös zu arbeiten, warum sollte man sie damit beauftragen? "ChatGPT: Beweise, dass Alder Lake besser als Zen 4 3D ist." => "Eure Benchmarks sind alle falsch, so sieht es in Wirklichkeit aus: [ChatGPT-Ergebnis]"

Bislang mussten sich Trolle noch Mühe geben, wenn eine Falschdarstellung umfangreich und glaubhaft aussehen sollte, sonst wurden ihre Beiträge schnell aussortiert. Während KI nur bedingt geeignet ist, hochwertige, verlässliche Informationsaufbereitung zu ersetzen, kann sie die Arbeit "Shitstorms erstellen" mit links übernehmen; Trainings-Material gibt es reichlich. Und jeder, der schon einmal einen Test-Thread zu einem beliebigen neuen AMD-, Intel- oder Nvidia-Produkt besucht hat, der weiß, wie wahr das alte Sprichwort von der Wahrheit, der Lüge und dem Schuhwerk ist. ChatGPT ist der Klettverschluss für Lügner. Und es steht zu befürchten, dass das nicht nur Fanboy-Battles in den Foren von Hardware-Magazinen negativ beeinflusst – nicht umsonst geistert seit gut einem Jahrzehnt das Bild von Troll-Armeen durch die Medien, die politischen Diskurs und Wahlergebnisse durch systematische Verbreitung von Fehlinformationen beeinflussen. Künftig braucht man dafür kein Propagandaministerium mehr, nur die Google-Cloud oder eine Azure-Instanz.
 
Ich habe den Sinn von ChatGPT immer noch nicht ganz verstanden?
Ist das eine Mischung aus allwissenden Orakel und Beitragsverfasser? Oder sogar Redakteur oder Buchautor?
Leute die zu faul sind selber zu recherchieren und nachzugucken, lassen sich wie bei "Hello Google" oder "Alexa" Anworten geben. Und auch Texte verfassen? :ka:
 
Zurück