Nvidia Geforce RTX 2080 Founders Edition: Unboxing und Ersteindruck im Video

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Nvidia Geforce RTX 2080 Founders Edition: Unboxing und Ersteindruck im Video gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Nvidia Geforce RTX 2080 Founders Edition: Unboxing und Ersteindruck im Video
 
@ RAFF:

1. Aluminium kostet bei so wenig Materialeinsatz bei einer Karte wie dieser so gut wie nichts.
Plastik kann halt leichter und kostengünstiger für filigrane und leichte Plastikabdeckungen hergestellt werden.
Es geht also eher oft nur um die Machbarkeit und die dafür nötigen Produktionskosten.
Die Backplates (oder wie nennst du die) sind allerdings billig zu fertigen, und weil Sie ein hohes Maß an Wertigkeit, Stabilität und Kühlvermögen ausstrahlen, werden diese halt verbaut, damit der Gamer und Overclocker dieses Produkt kauft.

2. Ja, ich bin "Old-School"-Gamer mit Dual-DVI.
Ich bin stolzer Besitzer eines BenQ-120hz-Monitors.
Nur Dual-DVI kann 120hz, der Displayport kann nur bis ca. maximal 86 hz, ehe das Signal weg geht.
Steht natürlich nirgendwo in den Specs drin, das wird vom Hersteller verschwiegen.
Ich glaube, das stand bei euch im Testbereicht auch nicht drin, oder?
Nach ein paar Wochen Frust wegen Fehlersuche und Rumgefummel mit mehreren Kabeln habe ich das dann irgendwann aus der Nase des Kundensuppport herausgezogen, dass ich mir die Mühe umsonst gemacht habe.
Also habe ich einen vielleicht 4-5 Jahren alten Monitor hier stehen und kaufte mir letztes Jahr im Deal eine 1080 mit Dual-DVI-Anschluss, damit ich zocken kann.
Daher ist so ein Adapter Gold Wert, wenn viele Karten nur noch mit bis zu 4 DP und vielleicht 1HDMI rauskommen. :-))
Außerdem haben wir in der Firma massiv Probleme mit DP über NVidia Quadro Karten bei Dual-Monitorbetrieb.
Der IT-Fuzzi, der vorher woanders war, hat mir auch die gleichen Probleme bei denen berichtet.
Also wer sagte nochmal hier im Forum, das AMD nur Kacke macht und NVidia die geilsten Säcke in der Welt sind?
Du nicht, das weiß ich, aber die anderen NFB's hier dürfen jetzt gerne den Mund dichthalten, bevor wieder Liebeshymnen von denen abgespielt werden. ;-P

3. Schöne Videoreihe zu den Karten. Auch zu den sonstigen Karten. Gefällt mir gut.
Nach Möglichkeit immer auch auf die Details eingehen, was z.B. Kühlung vom Speicher, Lautheit, max. Powerlimit etc. angeht (sofern denn möglich), was man als Käufer gerne wissen möchte.
Danke.

4. und ob das drin bleibt im Video, hühähähähä ;-) fands auch lustig :-)
 
Zuletzt bearbeitet:
süßes Kärtchen :)

sind die 30W für den VirtualLink eig in den 225W mit drin und die karte zieht an sich nur 195W?

Werden die 30% Mehrleistung ohne Raytracing jetzt auch mit 30% mehr Stromaufnahme erkauft?
Das müssen sich die Nvidia-Fanboys auf jeden Fall als dicken Minuspunkt schon jetzt gefallen lassen. ;-P
Bei 60hz ist die alte Generation ja gerade nochmal gleichauf mit AMD Vega.
Also nix besser, sobald VSync an ist.
Auch so konnte man Vega aufs gleiche Niveau bringen bei Vollast.
Aber das ganze Hatebashing (oder wie nennt sich das) hat durch diese Leute einfach alles kaputtgeredet und Fehlinformationen ins Netz gestreut.
Das hat AMD absolut nicht verdient, vor allem jetzt, wo wir alle sehen können, wozu das führt, wenn NVidia dadurch machen kann was es will.
Man könnte jetzte eine Vega 56 für 399 Euro kaufen.
Richtig eingestellt haut die alles weg, was 1070 heißt.
Natrülich war das Marketinggerede von AMD "poor Volta" nicht gerade förderlich, aber der Hauptverantwortliche dafür ist ja zum Glück jetzt bei Intel.
Übrigens bekomtm man die Karte umsonst dabei, wenn man sich einen neuen 144hz 4K Bildschirm mit F-Sync kauft udn hat noch 100 Euro für 2 Spiele über :-))
 
Werden die 30% Mehrleistung ohne Raytracing jetzt auch mit 30% mehr Stromaufnahme erkauft?
Das müssen sich die Nvidia-Fanboys auf jeden Fall als dicken Minuspunkt schon jetzt gefallen lassen. ;-P
Bei 60hz ist die alte Generation ja gerade nochmal gleichauf mit AMD Vega.
Also nix besser, sobald VSync an ist.

beziehst du dich da auf den PCGH Test?

der war nämlich nicht wirklich aussagekräftig

Wolfestein 2 -> absoluter Bestcase für AMD

FHD mit 60 FpS Lock -> Settings wieder pro AMD gewählt

in dem Artikel hat man auf Biegen und Brechen versucht AMD auch mal gut aussehen zu lassen xD
 
Zuletzt bearbeitet:
Zurück