• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Palit Geforce RTX 2080 Gamerock oder GTX 1080 Ti? Neue Features oder 11 GiByte Speicher?

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung zu Palit Geforce RTX 2080 Gamerock oder GTX 1080 Ti? Neue Features oder 11 GiByte Speicher? gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Palit Geforce RTX 2080 Gamerock oder GTX 1080 Ti? Neue Features oder 11 GiByte Speicher?
 

FanboyOfMySelf

PCGH-Community-Veteran(in)
Würde die 2080 nehmen, sobald spiele mehr als 8gb nutzen ist es mit einer 1080ti auch unspielbar. ( siehe tomb raider im video )
ob nun 20 oder 21 FPS macht halt kein unterschied, auf beiden Karten hat es mies rein geruckelt.


Die 2080 hat mehr verteile, um einige zu nennen

Bessere speicher Kompression
Besserer encoder ( für streaming interessant )
Keine Performanceeinbußen mit HDR
Ray tracing
DLSS

Turing bleibt zudem insgesamt kühler ( leisere Lüfter, ist aber subjektiv )

Und die Chance auf künftige Treiber updates welche die Performance mit turing verbessern ist zudem auch viel höher.


Die 1080 ti kann man daher nicht mehr empfehlen, die 2080 bekommt man mittlerweile schon für 700€.
 
Zuletzt bearbeitet:

Sir Demencia

Freizeitschrauber(in)
... Die 1080 ti kann man daher nicht mehr empfehlen, die 2080 bekommt man mittlerweile schon für 700€.
Ähm Hallo! Geht's noch? :ugly: Bekommt man schon für 700,-€?!?
Genau da liegt doch das Problem. Ich finde 700,- Öcken sind viel zu viel für diese Karte. Und ich steh da nicht allein da mit dieser Meinung.
Aber Nvidia hat ganz recht diese Preise zu nehmen. Die Leute kaufen es ja und finden es sogar noch preiswert. Oder wie kommt man sonst zu dem Ausdruck "...schon für 700,-€" ?
 

FanboyOfMySelf

PCGH-Community-Veteran(in)
Eine 1080ti kostet derzeit zwischen 800 und 1000€ ( lagernd )

Sobald die 2080 ausreichend verfügbar ist, wird der preis bei 550€ und 650€ liegen

Die 1080 ti wird immer teurer werden(EOL) und gebraucht für 600€ kaufen lohnt sich auch nicht weil keine Garantie.
 

DBB

Komplett-PC-Aufrüster(in)
RTX 2080, was sonst? Nicht unbedingt, weil sie neu ist, sondern weil die 1080 Ti nur noch zu Wucherpreisen veräußert wird. Witz des Tages: Hab heute ne gebrauchte 1080 Ti STRIX für 2100 Euro gesehen. Wusste nicht, ob ich lachen oder weinen soll.
 

LastManStanding

PCGH-Community-Veteran(in)
1080Ti
Was soll ich mit Futures wie Ray Tracing die Aktuell überhaupt nicht nutzbar sind, und das Ewigkeiten nach bekanntgabe und Endwicklung für den Mainstream.
Wenn Ray Tracing auch nur einigermaßen Sinvoll(überhaupt) nutzbar wird ist 2080(Ti) so alt das die Karten keinen Hering mehr aus der Pfanne ziehen. Da muss in Spielen die noch gar keine Verfügbarkeit für RT haben schon das Reflektion Level massiv heruntergedreht werden nur damit der Aktuelle Bolide überhaupt flüssige Bildraten in FHD schaffen "wird"...
Der Stromverbrauch ist lächerlich geringer/Der Chip ist sowiso mal Doppelt so groß/ Der Speicher wird nicht gekühlt sondern Aufgeheitzt/ + User Zitat: 2080; geringe Verfügbarkeit hält den Preis Hoch..../8GiB vs 11GiB

Klingt alles extrem Sinvoll/ Natürlich kann man die Karte kaufen aber höchstens Neuanschaffende. bzw endscheidet hier wohl der Preis-Sprich: es gibt einfach kein PRO Turing Argument.
Ich bin PRO Endwicklung und war sehr gespannt. Auch Ray Tracing find ich eine richtig geile Sache richtig geil. Aber als Zahlendes Versuchskaninchen und am Ende kann ichs gar nicht nutzen. Nein Danke
 

Bogo36

Freizeitschrauber(in)
RTX 2080, was sonst? Nicht unbedingt, weil sie neu ist, sondern weil die 1080 Ti nur noch zu Wucherpreisen veräußert wird. Witz des Tages: Hab heute ne gebrauchte 1080 Ti STRIX für 2100 Euro gesehen. Wusste nicht, ob ich lachen oder weinen soll.

Keine ahnung wo ihr immer rumschaut. Hab mir vor 1 Monat ne Palit Jetstream 1080ti für 550€ gekauft.
Für solche Preise gehen die auch jetzt noch weg.
 
Zuletzt bearbeitet:

enux

Komplett-PC-Aufrüster(in)
die 1080 hat in der gleichen zeitspanne nach release auch über 700 gekostet

Genau das hatte ich in einem anderen Thread auch schon erwähnt. Die Preise für die RTX 2080 fallen auch schon seit Release wieder ständig.
Bei einem Onlineshop habe ich bereits RTX 2080 im Angebot für unter 700 Euro gesehen. Ich bin mir sicher, da geht bis Weihnachten noch was.

Bezüglich Preise für die GTX 1080ti: Da muss man schon richtig Glück haben. Überwiegend werden Mondpreise selbst für gebrauchte Karten aufgerufen.
 

Krolgosh

Software-Overclocker(in)
die 1080 hat in der gleichen zeitspanne nach release auch über 700 gekostet

GTX 1080 Release UVP: 613 Euro
RTX 2080 Release UVP: 849 Euro

Das da ein krasser Unterschied zur Vorgänger Generation besteht kann man wohl nicht bestreiten? Und das man sich das schön reden will versteh ich auch nicht.
Das sich die Preise danach weiter entwickeln ist auch absolut normal.. aber hier von kaum einem Unterschied zu reden... jap, das lass ich einfach mal so stehen.
 

FanboyOfMySelf

PCGH-Community-Veteran(in)
Das wusste ich nicht, das ein voller Kartenspeicher ein Indiz für Artefakte ist.:huh:

Artefakte war im Video eher ungünstig gewählt, man meinte wohl eher es kommt zu nachlade Effekte seitens der Texturen weil sie erst im System RAM ausgelagert werden müssen, sobald der vram überläuft.
Früher hat man dies aber auch Artefakte genannt, mittlerweile würde ich das aber auch nicht mehr als "Artefakte" bezeichnen.
 

LastManStanding

PCGH-Community-Veteran(in)
Teuerer ist die 1080Ti jetzt auch nicht habe gerade eine Gainward Phonix für 724€ gefunden (vom großen bekannten DE Händler.) da muss man einfach mal gucken.
Gestern war dort ne Gigabyte Gaming für 686€ o.ä zu haben. günstig ist das alles nicht ... aber vom preis nehmen die beiden sich gar nix
Es ist wahrscheinlich das die 2080 günstiger wird. Aber selbst für 150€ weniger als jetzt wäre der Preis durch die Aktualität zu Rechtfertigen. Vielleicht noch weil der Chip viel größer ist, das wars.
 

Wanderer1980

Freizeitschrauber(in)
GTX 1080 Release UVP: 613 Euro
RTX 2080 Release UVP: 849 Euro

Das da ein krasser Unterschied zur Vorgänger Generation besteht kann man wohl nicht bestreiten? Und das man sich das schön reden will versteh ich auch nicht.
Das sich die Preise danach weiter entwickeln ist auch absolut normal.. aber hier von kaum einem Unterschied zu reden... jap, das lass ich einfach mal so stehen.

ich spreche von echte marktpreisen:

Palit 1080 Super Jetstream 740 Euro laut geizhals nach kurz nach Einführung
Palit 2080 Super Jetsream 789 Euro Stand heute Mindfactory zb

ein Freund hat damals 719 Euro für die Zodac bezahlt (nicht das nonplusultra modell)


Ja die 2080 ist teurer aber wir sehen hier die Preise kurz nach dem fast paperlauch. die preise fallen aber schon täglich um ein paar euro. aber natürlich - nvidia ist böse daher wollen manche nicht so genau vergleichen... sonst könnte man sich ja nicht aufregen.

die 2080 zu teuer? wo iat das problem?? einfach ne 2070 oder 1060 oder 580 kaufen. ich fahre auch keinen audi. warum? mir zu teuer. muss man immer das beste haben? nein. aber die neue generaltion wird ja schon mit werbespots wie Smava Kredit und der gleichen aufgezogen. Jeder muss alles haben...
 
Zuletzt bearbeitet:

INU.ID

Moderator
Teammitglied
Würde die 2080 nehmen, sobald spiele mehr als 8gb nutzen ist es mit einer 1080ti auch unspielbar. ( siehe tomb raider im video ) ob nun 20 oder 21 FPS macht halt kein unterschied, auf beiden Karten hat es mies rein geruckelt.
Also ich persönlich finde, dass die Frage nicht so leicht beantwortet werden kann. Wie viele Spiele wurden denn im Video getestet? Und wie hat man den RAM gefüllt? Es macht ja einen Unterschied, ob mit Daten durch/für rechenintensive Aufgaben (zb. AA/DSR), oder nicht (zb. Texturen).

Tatsache ist, wenn der VRAM ausgeht geht die Performance in der Regel deutlich runter, bzw. es kommt zu Rucklern. Und fehlende Features bedeuten sehr oft sogar eine bessere Performance - siehe zb. GTX vs RTX, wo die Raytracing-Leistung (da festes Energiebudget) eine Reduzierung der klassischen Renderleistung bedeutet. Ausnahmen wie eine bessere Kompression natürlich außen vor.

Daher bin ich der Meinung, hier muß man wirklich individuell entscheiden. Ich zb. spiele mittlerweile weniger die brandaktuellen AAA-Titel, und wenn dann brauche ich nicht alle verfügbaren Features. Auf der anderen Seite spiele ich häufiger ältere Games, und hübsche diese mit allerlei optischen Modifikationen auf, und greife dann auch noch auf DSR zurück (da ich nur einen 1080p-Bildschirm habe, aber in 4K aufnehmen möchte), was gerade bei älteren Spielen zu einer super Optik führt (siehe zb. HL² mit dem letzten CM und mit DSR in 4K^^).

Ich würde daher eher auf die 11GB und damit die 1080Ti setzen. Problem hierbei, die Preise für die letzten Modelle sind total geisteskrank. Die 599€ die die Custom Gigabyte 1080Ti kürzlich bei Alternate kostete hätte ich mit hängen und würgen noch durchgewunken, die aktuell mindestens fälligen 800€ auf keinen Fall. Die 2080 wäre, eben wegen des zu geringen Speichers für das Geld, allerdings auch keine Option für mich.

Daher würde ich im Moment - wegen des mMn besseren P/L-Verhältnis - auf eine 1070Ti für ~420€ setzen, deren theoretische Rechenleistung leicht über einer 2070 liegt, oder wenn der "minimale" Aufpreis noch ins Budget passt, zur 2070 greifen. Die 2080 hat dagegen ein noch schlechteres P/L-Verhältnis, und würde schon wegen dem zu geringen Speicher fürs Geld für mich wegfallen. Für >700€ müssen es mMn einfach mehr als 8GB sein.

Und zu den aktuell ~1200€ für eine 2080Ti sag zumindest ich besser gar nichts mehr... :rollen:
 

e_r_n_i_e

PC-Selbstbauer(in)
Keine ahnung wo ihr immer rumschaut. Hab mir vor 1 Monat ne Palit Jetstream 1080ti für 550€ gekauft.
Für solche Preise gehen die auch jetzt noch weg.
Na das würde mich aber auch sehr interessieren. Die 1080Ti (z.B. genannte Palit Jetstream) ist doch fast nirgendwo mehr im Sortiment zu finden. Und erst recht nicht für 550€. Vor einem Monat sah das eventuell noch anders aus. Aber jetzt?
 

Gurdi

Kokü-Junkie (m/w)
Also ich persönlich finde, dass die Frage nicht so leicht beantwortet werden kann. Wie viele Spiele wurden denn im Video getestet? Und wie hat man den RAM gefüllt? Es macht ja einen Unterschied, ob mit Daten durch/für rechenintensive Aufgaben (zb. AA/DSR), oder nicht (zb. Texturen).

Tatsache ist, wenn der VRAM ausgeht geht die Performance in der Regel deutlich runter, bzw. es kommt zu Rucklern. Und fehlende Features bedeuten sehr oft sogar eine bessere Performance - siehe zb. GTX vs RTX, wo die Raytracing-Leistung (da festes Energiebudget) eine Reduzierung der klassischen Renderleistung bedeutet. Ausnahmen wie eine bessere Kompression natürlich außen vor.

Daher bin ich der Meinung, hier muß man wirklich individuell entscheiden. Ich zb. spiele mittlerweile weniger die brandaktuellen AAA-Titel, und wenn dann brauche ich nicht alle verfügbaren Features. Auf der anderen Seite spiele ich häufiger ältere Games, und hübsche diese mit allerlei optischen Modifikationen auf, und greife dann auch noch auf DSR zurück (da ich nur einen 1080p-Bildschirm habe, aber in 4K aufnehmen möchte), was gerade bei älteren Spielen zu einer super Optik führt (siehe zb. HL² mit dem letzten CM und mit DSR in 4K^^).

Ich würde daher eher auf die 11GB und damit die 1080Ti setzen. Problem hierbei, die Preise für die letzten Modelle sind total geisteskrank. Die 599€ die die Custom Gigabyte 1080Ti kürzlich bei Alternate kostete hätte ich mit hängen und würgen noch durchgewunken, die aktuell mindestens fälligen 800€ auf keinen Fall. Die 2080 wäre, eben wegen des zu geringen Speichers für das Geld, allerdings auch keine Option für mich.

Daher würde ich im Moment - wegen des mMn besseren P/L-Verhältnis - auf eine 1070Ti für ~420€ setzen, deren theoretische Rechenleistung leicht über einer 2070 liegt, oder wenn der "minimale" Aufpreis noch ins Budget passt, zur 2070 greifen. Die 2080 hat dagegen ein noch schlechteres P/L-Verhältnis, und würde schon wegen dem zu geringen Speicher fürs Geld für mich wegfallen. Für >700€ müssen es mMn einfach mehr als 8GB sein.

Und zu den aktuell ~1200€ für eine 2080Ti sag zumindest ich besser gar nichts mehr... :rollen:

Was man nicht unterschätzen darf ist der Umstand das mehr Speicher oft erst dann genutzt wird wenn er auch da ist! Man erspart sich dann oft LOD reduzierungen sowie Streaming im Spiel. Außerdem laden Abschnitte deutlich flotter in einer Open World wenn mehr Speicher da ist. 4k Texturen sind mit 8GB auch flott weg und können nicht genutzt werden, siehe z.B. FFXV oder Shadow of War.
 

Cruach

Freizeitschrauber(in)
Ich werde vermutlich als Übergangslösung auf die 7nm Generation von Nvidia auf die 2080 FTW3 von EVGA (wegen 5 Jahre Garantieverlängerung und Wiederverkauf) setzen. Warte aber noch auf Verfügbarkeit. Als Monitor nutze ich nen 27 Zoll WQHD Gsync Monitor. Den werd ich dann erst mit der 7nm Generation austauschen.
 

ChrisMK72

PCGH-Community-Veteran(in)
Was war jetzt eigentlich mit so Sachen, wie Raytracing, oder DLLSSLSD oder so ähnlich ? ;)
Gerät schon langsam in Vergessenheit.
Spricht man einfach nicht mehr drüber.
Ist jetzt Tabu.

Naja. Ich lass die andern erst mal die Beta machen. Wenn dann mit 7, oder 8nm die Early Access Phase(Turing) beendet ist, schau ich mal, was es so Neues gibt und was mit dieser Technik bis dahin überhaupt ist, wenn überhaupt etwas damit sein sollte.
Nach den Bombastischen Ankündigungen bei der Vorstellung von Nvidia, wer alles mitmacht, beim Release von Turing, mit den ganzen neuen Techniken, ist es dahingehend erstaunlich still geworden.

Haben alle mittlerweile Tombraider durch, ohne Raytracing ? ;)
 

RtZk

Lötkolbengott/-göttin
Mittlerweile finde ich sind selbst 11 GB zu wenig, es wird wirklich mal Zeit für 20 GB + VRAM.

Hol dir ne Sapphire Vega 64 Nito+ mit HBCC haste genug Speicher. :)

Ja, er hat lahmen RAM, HBCC kann keinen VRAM ersetzen, nur VRAM kann VRAM ersetzen, mag ja besser sein als es auf normale Weise in den RAM zu laden, von gut ist es aber weit entfernt.
 

Krolgosh

Software-Overclocker(in)
Selbstverständlich hat man auf dem speziellen DICE-Event mit ner GTX2080Ti nur auf Low Details in 720p ohne AA und AF gespielt.



Mein Tip an dich... pack am besten immer nen Link dazu was du irgendwie oder irgendwo "zitierst". Da hätte man sich den Test selbt durchlesen können. So bin ich rein auf die Info angewiesen die du in diesem netten kleinen Text verpackt hast. Und ja.. da geht genau rein gar keine Information daraus hervor.
 

wolflux

Lötkolbengott/-göttin
Man sollte nicht "Fake News" brüllen, wenn man offensichtlich nicht mal breitgefächert liest.

Aus dem Golem Battlefield V Test:


Der Zug RTX fährt gerade los :daumen:

Man kann daran glauben aber geändert hat sich bisher überhaupt nichts, ausser den Treiber zu verbessern.
Der Zug hat aber gewaltig Verspätung. :wall:
Na ja, fairerweise ist das wohl dem Umstand der neuen Technik geschuldet.
Mittlerweile finde ich sind selbst 11 GB zu wenig, es wird wirklich mal Zeit für 20 GB + VRAM.



Ja, er hat lahmen RAM, HBCC kann keinen VRAM ersetzen, nur VRAM kann VRAM ersetzen, mag ja besser sein als es auf normale Weise in den RAM zu laden, von gut ist es aber weit entfernt.

Finde ich auch, 12 GiB. sollten der neue Standard werden. :D
 
Zuletzt bearbeitet:

ChrisMK72

PCGH-Community-Veteran(in)
Der Zug RTX fährt gerade los :daumen:

Und was haben die Schatten und Lichter, die Texturen und Effekte im Spiel, mit Raytracing(RTX) zu tun ?
In diesem Fall(Battlefield V) sollten doch angeblich lediglich Reflektionen eingesetzt werden, aus den "RTX" Funktionen, wenn es denn schon eingebaut ist !?

Oder haben die etwa global illumination, Schatten, Lichteffekte und Reflektionen reingepackt, über Raytracing, das Ganze noch in 1440p und auch noch gut aussehend und sehr flüssig(Shooter) ?
Wenn das stimmen sollte, Hut ab !

Wenn nicht, hat das jeder genauso, mit einer GTX(Pascal).
+AMD natürlich ebenfalls.


edit: Hab den Golem Bericht gerade überflogen.

Null komma null Information, dass es sich bei den benannten Effekten um Raytracing Effekte handelt.

Tolle Licht-, Schatten- und Wettereffekte + Tesselation usw. habe ich übrigens auch in Miscreated, was ich aktuell teste. Natürlich völlig ohne RTX/Raytracing(braucht man da auch nicht für).


Finde ich auch, 12 GiB. sollten der neue Standard werden.
biggrin1.gif

Plädiere für 16. :D



edit2:

Hab noch mal nachgeforscht:
Raytracing-Effekte gibt es bisher nicht, sie sollen aber um den 15.11. herum nachgeliefert werden.
So viel zu den tollen Lichteffekten. ;) War wohl nix, mit RTX ! :D

Und die Quelle auch noch dazu:
http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/News/Raytracing-fehlt-1268919/
 
Zuletzt bearbeitet:

ChrisMK72

PCGH-Community-Veteran(in)
Liest sich schon anders, was du jetzt schreibst. ;)

Zuerst hattest du das Golem Zitat, wie toll das Spiel aussieht(von wegen Lichteffekte), mit RTX in Verbindung gebracht, indem du schreibst:"Der Zug RTX fährt gerade los.".
edit: Zitat, was ich meinte:
Aus dem Golem Battlefield V Test:
Die meiste Zeit haben wir auf einem Rechner gespielt, bei dem wir in der Auflösung 1440p mit einer Geforce RTX 2080 Ti spielen konnten. Das Spiel sieht erstklassig aus: Schatten und Lichter wirken extrem glaubwürdig, Exturen sind sehr fein aufgelöst, Effekte sind stimmig - sehr viel besser geht es im Grunde derzeit nicht.

( RTX = off ! )

Natürlich hatte das tolle Aussehen absolut rein gar nichts mit RTX zu tun, sondern sieht bei allen anderen genau so toll aus, auch bei AMD(und älteren Nvidia GPUs). :daumen:


edit2:
Die raytracing Effekte werden ja erst noch nachgeliefert und sind aktuell noch nicht mit drin.
Quelle:

http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/News/Raytracing-fehlt-1268919/

Ein Reddit-Nutzer hat das Spiel bereits gespielt und berichtet, dass in Battlefield 5 momentan noch keine Raytracing-Effekte enthalten sind. Nvidia bestätigt diese Angaben in einem Blogeintrag. RTX in Battlefield 5 soll "um den Release-Termin für die Deluxe-Ausgabe" herum erscheinen, das wäre dann der 15.11.
 
Zuletzt bearbeitet:

ChrisMK72

PCGH-Community-Veteran(in)
Du hast es selbst zitiert "Lichter".

Wenn du nicht weißt, was RTX genau tut und dass es bei der Darstellung von Lichtern extrem realistische Effekte liefert, warum diskutierst du dann hier?


omg. :wall:


Troll, or not Troll ? That's the question.

edit:

Ok, noch ein ernst gemeinter Versuch:

Lies mal, was Nvidia bestätigt hat(derzeit keine RTX Funktion in BF V = Kein raytracing). Vielleicht glaubst du ja den Verkäufern von RTX Karten wenigstens. ;)
 

ChrisMK72

PCGH-Community-Veteran(in)
Die haben doch bereits zurückgerudert.

Jedenfalls habe ich das anderswo hier im Forum schon gelesen, wo ich gefragt habe, wo das steht, dass RTX on war. Hatte nichts dazu gefunden.
Ich hatte nach links gefragt, zu der Information und dort kam raus, dass der Artikel wohl geändert wurde.


Hatte Stash schon dazu gefragt, woher er denn weiß, dass eine Raytracing version getestet wurde.
Anscheinend hatten die zuerst falsche Informationen geschrieben und das geändert.

So weit jedenfalls mein Wissensstand.

Aus dem anderen Forum:

Offensichtlich stand heute morgen noch im Artikel, dass im RT Modus gespielt wurde. Das hat die Redaktion wohl rausgenommen. Wusste ich doch das ich das gelesen hatte.^^ Hätten die ja mal ruhig ein Vermerk machen können.

MfG


Mag sein, dass die Infos zu einer "RTX On Version" daraus geschlussfolgert wurden(auch im Forum).


btw: Nicht jeder "Lichteffekt" den es in Spielen gibt, ist automatisch RTX-raytracing. ;)



Und nochmal dazu:

Dann solltest du vielleicht erstmal anfangen zu lesen, bevor du hier sinnlos Leute beleidigst und dich selbst als Idioten blamierst

Ich habe bereits versucht, konkrete Information direkt aus einem Artikel dazu zu finden.
War aber nicht möglich.

Es schwirrten nur Foruminformationen herum, die wohl nach einem Artikel entstanden sind, der nachträglich geändert wurde.


und btw: Ich wollte niemanden beleidigen. Ich fühlte mich tatsächlich "getrollt" (nenn es meinetwegen auch provoziert, wenn du möchtest), denn ich konnte mir nicht vorstellen, wie jemand tatsächlich einfach "Lichter", automatisch als "RTX on", bzw. raytracing ansieht.

Falls du da ebenfalls Falschinformationen von Golem aufgesessen bist, kannst du natürlich nichts dazu.

Es liegt mir fern, dich beleidigen zu wollen.
 
Zuletzt bearbeitet:
Oben Unten