Geforce RTX 2080: Vorstellung im Livestream und PCGH-Liveticker ab 18 Uhr

Ray Technik ist auf Konsolen garnicht machbar oder? Dazu sind die doch viel zu schwach, was wiederum für ein Exklusiv für ein pc mit 2080ti bedeutet oder? Irgendwie hab ich das Gefühl das NVIDIA mit Ray Technik nicht so viel Anklang finden wird, sprich das Feature muss auf Konsolen ja deaktiviert werden, da entwickelt der Entwickler lieber kostengünstig weiter ohne Ray Technik, es muss ja überall laufen, und wenn das auf Konsolen nicht tut bedeutet das keine Kohle obwohl man schon damals gerne die Regeln gebrochen hat, Zb Riesen3 für die PS3 grafisch total fatal, Optimierung gleich null, Spielspaß wegen ruckeler beeinträchtigt, und es war nicht das einzigste spiel welch die Regel brach, warum denken alle gleich das mit einer neuen Generation gleich alles neu erfunden wird? Spiele gleich mit Ray Technik kommen und das gleich die ganze Palette? Einer der noch eine ältere r9-290 oder 970gtx oder 1050ti kann heute noch sein Spaß haben, wozu also eine 2080ti? Kein hbm kein 7nm, also ich weis ja nicht.
 
gestehen wir mal beiden karten (1080 vs v64) zu das sie auf einem relativ ähnlichen level sind. dann ist die AMD karte EIN JAHR später erschienen, teurer und kaum erhältlich. da ist NIX relativ. das ist objektiv schlechter. selbst wenn man die ähnlichen leistungsdaten außer acht lässt.

und die 580 hat trotz 2 vram mehr in der überwältigenden anzahl der benches schechtere frametimes (das was ein flüssiges spielgefühl verleiht) als die 1060. aber auch hier, ok, gestehe ich gerne zu: sie bewegen sich auf einem ähnlichen level. das reicht halt aber nicht. da muss amd mehr liefern. ein ähnliches level wird niemanden dazu bringen von einer karte zu wechseln die er kennt und mit der gute erfahrungen gesammelt hat.

1. Der Preis von Vega war weder vom Hersteller teuer angesetzt, noch angebracht. Kein Preis für irgendeine GPU zu der Zeit war angebracht. Der Release-Preis für die erste Charge war sogar sehr human. Für den Mining-Boom konnte keiner was und die Situation macht die Karte nicht schlecht.

2. Das Vega "nur" auf die 1080 passt macht die Karte ja nicht schlecht. Die Karte hatte aber immerhin ziemlich genau ein Jahr Lebenszeit jetzt in der sie mit der 1080 mitgehalten hat. Abgesehen davon das der spätere Release die Karte nicht schlecht im Vergleich zur 1080 macht. Ja, ein früherer Release wäre schön gewesen und ja hätte man besser machen können aber das eine Jahr ändert nichts daran das Vega nach Release eine Konkurrenz zur 1080 war. Nur weil die 1080 vorher da war ist die Karte nicht besser (oder schlechter). Vega ist wenn man Pro und Contras gegeneinander Stellt einfach weder besser noch schlechter als eine 1080. Der spätere Release hat einfach keinen Einfluss auf die Leistung oder auf Käufer die sich die Karte dieses Jahr z.B. kaufen. Es ist nicht jeder Early-Adopter. Die Leute die sich dieses Jahr eine Vega kaufen haben damit genauso Spaß. Dieses Argument "Ein Jahr später" hat halt 0 Aussagekraft. Die 980ti kam auch ein Jahr vor der 1070 raus und ist in manchen Fällen schneller. Ist die 1070 deshalb schlecht? Eher nicht oder? Der Releasezeitpunkt ist an der Stelle nicht wirklich wichtig.

3. Von einer 1060 wechselt niemand auf eine 580. Warum auch? Selbe Preis/Perfomance-Region. Das mit den Frametimes ist übrigens auch von Fall zu Fall unterschiedlich. Manchmal hat die RX 580 bessere Frametimes, manchmal die 1060. Genau wie mit den FPS. Manchmal gewinnt sie, manchmal eben nicht. Sorry, aber die Debatte ist so alt wie de GPU selbst. Jeder mein "ABER WAS ICH KAUF IST BESSER WEIL:". Die beiden Karten schenken sich einfach nichts. Ist übrigens auch mit Vega und der 1080 so. Abgesehen davon haben viele Leute nicht mal ne Ahnung was in ihrem PC drinnen ist. Ein Großteil der Leute kauft fertig. Und da ist eben oft Nvidia drinnen weil die Karten in den Fertig-PCs stärker vertreten sind.

Wenn man sich ne Karte neu kauft hat man mit der übrigens noch gar keine Erfahrungen gesammelt. Und alte Generationen sagen nicht zwingend was über die neuen aus. Du weißt das Nvidia schon ein paar mal richtig ins Klo gegriffen hat? (genau wie AMD eben). Ich erinnere z.B. einfach mal an den Bluescreen Bug mit den Nvidia-Treibern unter Vista/7. Oder bei AMD an durchbrennende 280x Karten bei AMD. Ich hatte z.B. ne gtx 9800 die bei Crysis durchgebrannt ist und mir wurde die Garantie verweigert. Daraus schließ ich jetzt nicht gerade auf die neuen Karten. (Zum Glück für meine alte 970 die jetzt im PC meiner Verlobten ist)

Mir wird schon wieder schlecht wenn ich diesen ganzen Hate hier lese, deshalb habe ich vieles übersprungen.

So ich bin einer der Verrückten, welcher eine Ti vorbestellt hat um meine Vega-Enttäuschung zu ersetzten. Ich erwarte mir jetzt nicht, dass sie die noch aktuelle 1080ti vernichtet, einen Schub um die 20% bei aktuellen Spielen erhoffe ich mich dennoch. Der Unterschied wird die Zukunft machen und ich glaube schon, dass Nvidia die Mittel hat, mit ihrer Marktposition RT zu pushen. Dann wird es nicht so lange dauern bis Turing ihre Vorteile ausspielen kann.

Was jetzt die Eigentlichen Effekte angeht, so ist es schon richtig, dass man sehr stark darauf achten muss. Allerdings kann ich mich daran erinnern als Nvidia AO angefangen hat zu pushen und auch hier niemand eine wirkliche Zukunft gesehen hat. Heute möchte ich kein Spiel mehr Spielen welches auf AO verzichtet, leider ist das ein Effekt, welcher bei Switch Portierungen z.b. sehr schnell geopfert wird.

Wie bei allen Effekten hängt es auch davon ab, wie sie eingesetzt werden. Wenn ich an PhysX zurück denke, da waren die Effekte bei Batman AA und AC einen echten Mehrwert in anderen Spielen wirkten sie nur übertrieben Künstlich und die Implentierung (Leistungsverlust) lies auch zu wünschen übrig.

Die Geschichte wiederholt sich halt immer wieder, jetzt schon zu wissen ob es sich durchsetzt oder nicht, ist schlicht und einfach unmöglich.

Mag sein, dass ich 400Euro zuviel gezahlt habe und eine GTX1080ti es auch gemacht hätte, es kann aber auch sein, dass ich in einem Jahr noch immer Spass an der Karte habe, während 1080ti Besitzer deutliche Abspriche in kauf nehmen müssen, aber das wissen wir erst in der Zukunft.

Weißt du, wenn du das Geld und den Anspruch hast mach nur. "Zu hoher Preis" ist eben subjektiv. Aber viel von dem Gehate geht ja nicht gegen dich (oder 2xxx Käufer). Wer's braucht, der soll zugreifen. Aber viel von dem Gehate geht halt gegen die Leute die z.B. dann immer behaupten die 580 wäre nicht tragbar bzw. keine Konkurrenz, dann ne 1060 kaufen und sich wundern das Nvidia seine Marktmacht missbraucht. Ich denke die wenigsten haben was gegen Nvidia-Käufer. (Wäre jedenfalls dämlich wenn xD) Ich denke die Leute haben aber Maximal was gegen die Leute die immer rumrennen alles andere schlecht reden und den anderen auf den Geist gehen. Zu sagen AMD ist schuld das Nvidia die Preise anzieht ist z.B. quatsch. Im Kehrschluss ist es auch dumm Nvidia anzufacken weil die die Preise anziehen wenn sie's können. Ist ja jedem selbst überlassen. Aber über die Preise muss man sich halt nicht wundern (warum jetzt auch immer), das zeichnet sich schon länger ab. Die Leute relativieren das nur eben immer wieder. Aber die Aussage, dass man RT nicht zwingend braucht ist halt auch valide. Andere Leute, anderer Fokus.

Das Vega für dich ne Enttäuschung war ist deine Sache. Bist du mit sicher (auch zurecht) nicht alleine. Aber viele sind auch damit zufrieden. Leben und leben lassen. Man muss Raytracing nicht feiern. Gute Rasterization und gut gemachte Spiegelungseffekte gibt's auch so. Das heißt ja nicht das RT mist ist. Es fehlt halt für viele der WOW-Faktor (z.B. mich). Heißt ja nicht dass du es nicht genießen darfst. Es ist aber auch nachvollziehbar dass manche Leute nicht glücklich darüber sind, dass Nvidia ein Feature pushed nachdem das früher halt für Nvidia ok und für den Rest eher unschön war. Vielen Leuten (z.B. mir) ist 64-Fach Tesselation wie z.B. bei Hairworks einfach die Performance-Einbußen nicht wert, vor allem weil der optische Unterschied zu 16-Fach oft einfach nicht gegeben ist. Und sowas kann Nvidia potentiell auch mit RT machen. Wenn das deaktivierbar ist, ist das ja alles ok. Die Frage ist ob es das ist. Aber aus der warte kann ich die Leute auch verstehen das die von RT nicht begeistert sind. Oder eben einfach weil sie es Optisch jetzt nicht so bahnbrechend finden. (ist ne valide Meinung.)

Tesselation hat übrigens auch etwas gebraucht bis es ankam. Genau wie Vulkan oder andere Features. Kann sein das RT ankommt. Kann sein das es verhungert. Wir werden sehen.

Sprich dir viel Spaß mit deiner Karte, aber lass uns in ruhe Nvidia für die Preise haten wenn wir es für angebracht halten. Weil ERNSTAHFT xD Ich finde 900€+ für ne 2080ti und 600€ für ne 2070 zu viel.

Ray Technik ist auf Konsolen garnicht machbar oder? Dazu sind die doch viel zu schwach, was wiederum für ein Exklusiv für ein pc mit 2080ti bedeutet oder? Irgendwie hab ich das Gefühl das NVIDIA mit Ray Technik nicht so viel Anklang finden wird, sprich das Feature muss auf Konsolen ja deaktiviert werden, da entwickelt der Entwickler lieber kostengünstig weiter ohne Ray Technik, es muss ja überall laufen, und wenn das auf Konsolen nicht tut bedeutet das keine Kohle obwohl man schon damals gerne die Regeln gebrochen hat, Zb Riesen3 für die PS3 grafisch total fatal, Optimierung gleich null, Spielspaß wegen ruckeler beeinträchtigt, und es war nicht das einzigste spiel welch die Regel brach, warum denken alle gleich das mit einer neuen Generation gleich alles neu erfunden wird? Spiele gleich mit Ray Technik kommen und das gleich die ganze Palette? Einer der noch eine ältere r9-290 oder 970gtx oder 1050ti kann heute noch sein Spaß haben, wozu also eine 2080ti? Kein hbm kein 7nm, also ich weis ja nicht.

Das kommt drauf an wie sich AMD-Karten mit AMDs Implementierung in RT schlagen. Vielleicht ist die 580 bzw. der PS4 Polarischip ja ein echtes RT-Wunder xD
 
Zuletzt bearbeitet von einem Moderator:
Richtig und die wird dann auch gekauft u die nächste u die nächste weil der andere Versagerverein nix auf die Kette bekommt:top:

Fakt ist NVIDIA hat es geschafft Raytracing in Echtzeit zu realisieren.

Was soll Navi nochmal können???

Die alte Pascal Midrange Riege aufmischen im Rastergrafiksektor:lol:

Und hier machen die roten minimi , weil NVIDIA mit Full Size Raytracing "nur“ 30 Fps erreicht :lol:

Klärt doch erstmal eure großen Baustellen , bevor ihr hier über Techniken heult , die ihr nicht mal ansatzweise auch nur ausführen könnt , mit der genialen roten Technik
Hier schreiben eine Menge Leute, die sich eine Geforce kaufen wollen, aber von dem was Nvidia vorsetzt, nicht überzeugt sind. Sei es die generelle Preisentwicklung, sei es die Raytracing Peformance, die 60 fps Gaming unmöglich macht, sei es der zu erwartende sehr geringe generelle Performanceanstieg klassischer Rastergrafik gemessen am sehr hohen Preis.

Warum kommst du so vehement mit Strohmann Argumenten (du stellst auf penetrante Weise in jedem Posting einen Bezug zu AMD her) daher? Lies doch mal was die Leute schreiben!
 
Richtig und die wird dann auch gekauft u die nächste u die nächste weil der andere Versagerverein nix auf die Kette bekommt:top:

Fakt ist NVIDIA hat es geschafft Raytracing in Echtzeit zu realisieren.

Was soll Navi nochmal können???

Die alte Pascal Midrange Riege aufmischen im Rastergrafiksektor:lol:

Und hier machen die roten minimi , weil NVIDIA mit Full Size Raytracing "nur“ 30 Fps erreicht :lol:

Klärt doch erstmal eure großen Baustellen , bevor ihr hier über Techniken heult , die ihr nicht mal ansatzweise auch nur ausführen könnt , mit der genialen roten Technik

Ist dir eigentlich aufgefallen das die "roten" eigentlich recht wenig rumheulen? Du bist einer dert Kandidaten die hier rumrennen und über AMD rumheulen. Du hast keine AMD-Karte und findest die 2xxx Preise offensichtlich ok. Also isses wohl einfach nicht deine Baustelle. Sprich warum hörst du nicht auf zu meckern und erfreust dich an deinen Raytracing wenn du so viel wert darauf legst. Es ist eben nicht jeder geflashed. Wow. Was ein Aufhänger.

Ob AMD Raytracing packen wird kann nur die Zukunft zeigen. Wir haben noch kein Game mit AMDs RT Implementierung gesehen. Damit kann man dazu auch keine Aussage treffen. Ich erinnere dich auch daran wie oft die Leute hier Rummeckern das 30 FPS ja nicht genug sind. Deshalb "braucht" man für 4K angeblich auch eine 1080ti und eine Vega/1080 reicht nicht. Daher ist Raytracing mit 30FPS in FullHD für viele offensichtlich wenig beeindruckend. Dazu kommt das halt viele von den Leuten die hier von RT eher weniger begeistert sind ne Nvidia-Karte haben. Man was für AMD-Fanboys. Bekomm du erstmal deine Beiträge auf die Reihe und hör auf hier Leute anzumachen und Stress zu schieben. Ist schön für dich wenn du gerne FullHD in 30 FPS zockst. Offensichtlich sehen das viele Leute einfach anders.

Ich weiß ja nicht wie's dir geht, aber ich zock lieber in 4K 40-50FPS oder QHD 40-60FPS als in FullHD +-30.
 
Zuletzt bearbeitet von einem Moderator:
Hmm ich stell mir RT bei amd Karten schwer vor, nicht umsonst haut NVIDIA so viel kraft unter die Haube und das hat die 2080ti nun mal, da kann einer sagen was der will, ob was Programmier mäßig bei amd Karten geht wird sich zeigen, vielleicht wird das am Ende erst garnicht ins Programm aufgenommen? Und kommt erst mit der ps5 oder Xbox Two? Weil mehr power? Weil wenn RT so einfach wäre hätte man es doch schon viel früher raus gehauen? Mich würde mal interessieren ob RT auf die Vorgänger Karten überhaupt funktioniert und in wie weit die älteren Karten in die Knie durch RT gehen.
 
Hmm ich stell mir RT bei amd Karten schwer vor, nicht umsonst haut NVIDIA so viel kraft unter die Haube und das hat die 2080ti nun mal, da kann einer sagen was der will, ob was Programmier mäßig bei amd Karten geht wird sich zeigen, vielleicht wird das am Ende erst garnicht ins Programm aufgenommen? Und kommt erst mit der ps5 oder Xbox Two? Weil mehr power? Weil wenn RT so einfach wäre hätte man es doch schon viel früher raus gehauen? Mich würde mal interessieren ob RT auf die Vorgänger Karten überhaupt funktioniert und in wie weit die älteren Karten in die Knie durch RT gehen.

Sag ja, kann nur die Zukunft zeigen.^^ Genau deshalb treff ich da auch keine absolute Aussage. Aber persé zu Sagen AMD kann das nicht ist halt genauso unsinnig wie persé zu sagen Vega und Navi können das. Sorry, meine Glaskugel gibt dazu leider nix genaues her. Aber irgendwie hab ich das Gefühl das sich was findet. Anders verbreitet sich das Feature schwer nachdem viele RX580/1060-1080/Vega besitzer sicher nicht wechseln wollen...^^ Und wenn die ein Game nicht spielen können kaufen sie's halt nicht.^^ Sprich es MUSS sich wohl was finden. Und wenn's deaktivierbar wird und nicht in den Ultra-Settings sondern in Custom-Ultra landet^^

Vielleicht war's bis jetzt nicht im Programm weil Rasterization gereicht hat. Raytracing ist halt wenig effizient. Ja die Ergebnisse können toll sein. Können sie Mit Rasterization aber eben auch sein. Meine Meinung: Gute Rasterization > Mittelmäßiges Raytracing.
 
Sprich dir viel Spaß mit deiner Karte, aber lass uns in ruhe Nvidia für die Preise haten wenn wir es für angebracht halten. Weil ERNSTAHFT xD Ich finde 900€+ für ne 2080ti und 600€ für ne 2070 zu viel.

Wenn es mal so wäre. Die 2080Ti kostet keine 900€. Die 2080 mit 8GB VRAM kostet 900€. Die 2080Ti kostet 1300€. Ich würde vielleicht sogar 900€ für eine 2080Ti ausgeben, wenn der Mehrwert gegeben ist. Raytracing in meinen Spielen, nochmal ordentlich Rohleistung drauf und Performance für CUDA Processing... aber 1300€? Ich kauf doch nicht für 1300€ nur eine Grafikkarte! Da sind selbst die Enthusiasten abgeschreckt.... weil man kauft ja nicht nur eine, sondern gleich zwei :D
 
Wenn es mal so wäre. Die 2080Ti kostet keine 900€. Die 2080 mit 8GB VRAM kostet 900€. Die 2080Ti kostet 1300€. Ich würde vielleicht sogar 900€ für eine 2080Ti ausgeben, wenn der Mehrwert gegeben ist. Raytracing in meinen Spielen, nochmal ordentlich Rohleistung drauf und Performance für CUDA Processing... aber 1300€? Ich kauf doch nicht für 1300€ nur eine Grafikkarte! Da sind selbst die Enthusiasten abgeschreckt.... weil man kauft ja nicht nur eine, sondern gleich zwei :D

Ok, ich korrigiere xD ERNSTAHFT xD Ich finde 1300€+ für ne 2080ti und 600€ für ne 2070 zu viel.

Zufrieden?
 
Spannend bleibt was amd die Wochen pumpt, es muss ja irgendwo was dagegen unternommen werden, bin Spannd->Gespannt.
 
Spannend bleibt was amd die Wochen pumpt, es muss ja irgendwo was dagegen unternommen werden, bin Spannd->Gespannt.

Vielleicht freuen die sich das Nvidia GPUs in Zukunft auf Ultra in 1080p evtl. nur noch 30 FPS können. Ok Spaß beiseite, ich denk nicht, dass die AMD-API so schnell fertig wird...^^ Aber bei den Preisen hat man denk ich auch erstmal keine Eile.
 
Ich seh da jetzt eigentlich genau soviel Handlungsbedarf bei AMD wie vor der Präsentation. Sie müssen immer noch die 1080 Ti einholen, solche "Spezialkarten" wie die RTX-Reihe brauchen sie vorerst eigentlich gar nicht beachten finde ich.
 
Ich finde schon, es ist doch geiler mit einer fliegen klatsche beide fliegen zu treffen oder? Ich wiederhole HBM2 16gb und 7nm das ganze dann auf 2ghz oder 2,5ghz core Takt und ab geht’s.
 
Klar, wenn AMD sowohl Rohleistung verbessert als auch Raytracing Support einbaut hab ich absolut nichts dagegen. Aber nach dem Vega-Release wäre ich schon froh wenn sie einfach zur 1080 Ti aufschließen würden und am besten noch die Effizienz verbessern würden :D
 
Ich finde schon, es ist doch geiler mit einer fliegen klatsche beide fliegen zu treffen oder? Ich wiederhole HBM2 16gb und 7nm das ganze dann auf 2ghz oder 2,5ghz core Takt und ab geht’s.

Du glaubst aber jetzt nicht ernsthaft, dass Nvidia da mitspielt? Die holen dann einfach den 7nm R(G)TX Vorschlaghammer raus und die Sache mit Navi hat sich erledigt. Ich vermute ja, dass sich Nvidia zur Zeit einfach das RTX - Gedöns (damit meine ich den vermutlich geringen Leistungssprung verglichen mit Pascal) von der Konkurrenz her erlauben kann.
 
Fassen wir kurz zusammen: nVidia bläst seine Chips künstlich mit Einheiten auf, die zum heutigen Stand des Machbaren 30 fps in 1080 auf den Bildschirm ruckeln und da der Preis bei den nicht ganz so hellen Leuten ja bekanntlich mit der Chipgröße korreliert, kann man dabei gleichzeitig weiter kräftig an der Preisschraube drehen. Somit fast eine Verdoppelung bei Größe und Preis, dem ein Mehrwert gegenübersteht, der (im Moment und naher Zukunft) gegen Null tendiert. Einhergehend damit steigt die Verlustleistung und somit die Abwärme. Damit müsste sich ja nVidia in das eigene Knie geschossen haben, da den nVidia-Käufern eine hohe Leistungsaufnahme ja stets zuwider war und als Argument herhalten musste, sich keine AMD-Karte zu kaufen. Solange nun aber ein wenig mehr FPS dabei raus kommen, machen diese höheren Temperaturen plötzlich gar nichts mehr aus und plötzlich ist es gar kein Problem mehr, beim Zocken im eigenen Saft zu schmoren, Hauptsache RT in 1080 und 30 fps...

Viel interessanter als das, was die Lederjacke so alles an Verbalinkontinenz abgesondert hat, ist doch, was er alles NICHT gesagt hat: Kein Vergleich zu non-RT-Szenarios, keine Angaben zur Übertaktbarkeit, spätestens da sollten doch bei jedem einigermaßen vernunftbegabten Wesen die Alarmglocken angegangen sein... Die 2080Ti wird bei bestenfalls 15-20% Mehrleistung im Vergleich zur 1080Ti in non-RT-Szenarien landen, wohlgemerkt bei ca. 80% Preisaufschlag inkl. saftigem Aufpreis für das völlig verblödete deutsche Konsumvieh, welches ungetestet blindlings brav und unmittelbar seine Bestellung aufgibt. Die Übertaktbarkeit des VRAM's wird nVidia-typisch recht ordentlich sein, die GPU allerdings ist durch seine Größe und damit verbunden mit der gestiegenen "Komplexität" des Chips wesentlich übertaktungsunfreundlicher werden, da die Chance nun wesentlich höher ist, dass ein Bereich der GPU die erhöhten Taktraten eben nicht ohne Weiteres mitmacht.

Versteht mich nicht falsch: Auch ich begrüße jedweden Fortschritt bzw. neue Technologien, allerdings ist die 2000er-Serie für mich nichts weiter, als ein Testballon für RT, welcher über kurz oder lang das Rasterizing ablösen wird, allerdings hätte man dies erst einführen sollen, wenn zumindest in 1080 flüssige 60 fps zu realisieren worden wären, davor läuft das eher als Experiment, welches sich nVidia fürstlich entlohnen lässt. Witzig sind auch die User, welche sich über nVidia ob der gesalzenen Preise für die 2000er aufregen und dann trotzdem zur 1080Ti greifen, als würden diese nicht von Nvidia stammen, ebenfalls macht das Erscheinen der neuen Karten die alten auch nicht günstiger, aber man muss ja nicht alles verstehen, was bei manchen Leuten da so im Oberstübchen in der Abteilung "Logisches Denken" abläuft...

Erschreckend sind auch die Argumente, welche den Preis mit mangelnder Konkurrenz rechtfertigen. Das muss man sich mal auf der Zunge zergehen lassen: Anstatt zuerst an das eigene, sprich (Kunden-)Interesse und den eigenen Geldbeutel zu denken, verteidigen diese Leute lieber bis auf's Blut ein aktienorientiertes und kundenunfreundliches Unternehmen, welches einzig und allein um das Wohlergehen der Aktionäre besorgt ist, und dabei völlig unkritisch jeden Betrag zu zahlen bereit ist, anstatt an der Kasse mit dem eigenen Geldbeutel über das ausgeartete Preisgefüge abzustimmen. Die Unternehmen sind Nichts ohne unsere Scheinchen, wir haben viel mehr Macht als ihr euch denkt, also nutzt diese Macht doch mal endlich zum Wohle aller und fahrt nicht einfach nur stur euer egomanes Ding weiter! Man sollte sich auch stets selbst hinterfragen, ob PC-Gaming noch "Hobby" oder schon "Sucht" darstellt, aber ein Süchtiger würde (ohne professionelle Hilfe) natürlich niemals zu der Erkenntnis gelangen, dass er süchtig ist und völlig unverhältnismäßig und irrational handelt...

Ach ja: Lederjacken sind ja sowas von 1980er...
 
Zurück