News RTX 4070 Ti: Erste Bilder vom Gigabyte-Modell, 12VHPWR-Adapter mit zwei Achtpolbuchsen

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu RTX 4070 Ti: Erste Bilder vom Gigabyte-Modell, 12VHPWR-Adapter mit zwei Achtpolbuchsen

Erste Bilder zur RTX 4070 Ti Aero von Gigabyte wurden geleakt. Dazu kommt der neue 12VHPWR-Adapter, der für die RTX 4070 Ti anscheinend nur auf zwei herkömmliche Achtpolbuchsen setzt. Lesen Sie daher im Folgenden mehr zur Geforce RTX 4070 Ti, wann sie vorgestellt werden und im Handel erscheinen soll.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: RTX 4070 Ti: Erste Bilder vom Gigabyte-Modell, 12VHPWR-Adapter mit zwei Achtpolbuchsen
 
naja der Adapter mit nur 2 8 Pin Anschlüssen is jetzt nix besonderes, denn die Netzteil Hersteller haben alle solche Adapter und die funktionieren scheinbar ja auch an der 4090
 
naja der Adapter mit nur 2 8 Pin Anschlüssen is jetzt nix besonderes, denn die Netzteil Hersteller haben alle solche Adapter und die funktionieren scheinbar ja auch an der 4090
Richtig installiert sollte ein solcher Adapter mal so gar keine Probleme verursachen.
Sollte man hoffen, das stimmt. Ich habe mir aber die XTX gekauft, denn auf eine 4060 Lutscher Karte, hätte ich kein Bock gehabt.
Verständlich, klar. Die richtige 4060 bzw. das, was Nvidia dafür hält, lässt vermutlich noch ein wenig länger auf sich warten. Ich nehme natürlich auch eine Lutscher Karte, wenn Kosten und Nutzen einfach mal ja sagen.
 
Sollte man hoffen, das stimmt. Ich habe mir aber die XTX gekauft, denn auf eine 4060 Lutscher Karte, hätte ich kein Bock gehabt.

Aber aber, wenn es so kommt, wie es aussieht, dann bekommt man da 20% mehr Leistung , als die RTX 3060 (also endlich leicht mehr als die GTX 1080Ti) und 4GB weniger VRAM, für um die 500€. Wenn das mal kein Schnäppchen ist. Dafür gibt es DLSS 3, das den Karren aus dem Dreck ziehen muß.

Einige unverbesserliche glauben zwar noch an etwas unter der RTX 3080 (das ist wohl die Leistung mit DLSS 3), aber da kann man dann gleich von 500€ für die RTX 5090 träumen, wie in der guten alten Zeit (12 Jahre ist das jetzt schon her, das haben hier einige nicht [bewußt] erlebt).
 
Mich interessiert nur wie sie im Vergleich zu meiner 3080TI OC abschneidet...
Wenn sie 5-10% besser abschneidet (aber nie unter der alten Karte wäre) dann würde ich mirs überlegen.
Mir ist vorallem die RTX / DLSS Leistung wichtig.
 
Ach nein, hat ja keinen DP2.1.
Ist doch egal. Gibt eh kein Display in naher Zukunft, dass einen DP2.1 ausnutzen würde. Und selbst für die Datenraten die DP1.4 kann hat die 4090 zu wenig Power. 4k 120hz packt die doch eh kaum ohne DLSS. Abgesehen davon schafft AMD die hohen Bildwiederholraten auch nur mit Display Stream Compression (DSC). Verstehe denAufreger nicht.
 
12Gb und ~5-10% schneller als ne 3090ti bei weniger Verbrauch. Für vermutlich über 1000€.
Das klingt alles nicht nach guten Deal außer sie kostet 799€

Von einer 3080ti aufzurüsten macht gar keinen Sinn, mind. 50% mehr zur alten muss da kommen.
 
Ist doch egal. Gibt eh kein Display in naher Zukunft, dass einen DP2.1 ausnutzen würde.

4K240 und 8K60, beides gibt es schon.

Und selbst für die Datenraten die DP1.4 kann hat die 4090 zu wenig Power. 4k 120hz packt die doch eh kaum ohne DLSS.

Die RTX 4090 packt über weite Strecken 8K60 nativ.

Abgesehen davon schafft AMD die hohen Bildwiederholraten auch nur mit Display Stream Compression (DSC). Verstehe denAufreger nicht.

Ich weiß nicht, warum man sich den Mist zwanghaft schon reden muß. Nvidia hat leistungsmäßig die wesentlich bessere Karte und dann fehlt sowas. Es war jedenfalls genug Zeit, zumal Nvidia das ganze mitentwickelt hat.

Von einer 3080ti aufzurüsten macht gar keinen Sinn, mind. 50% mehr zur alten muss da kommen.

Und ich halte es für Blödsinn unter 100% Mehrleistung aufzurüsten, da das dann nichtmal eine Auflösungsstufe ist.
 
Das kann man so oder so sehen.

Ihr habt in sofern recht, dass es einen Leistungssprung mit mindestens XX Prozent geben sollte.
Ob ich von einer 3080TI auf eine 4070TI wechseln werde, weiß ich nicht.
Dick wäre der Sprung eher nicht.

Mir wäre es nur erstmal wichtig zu sehen, dass die 4070TI mindestens so gut wie die 3080TI wäre.
(bsp. die 3070 war nicht immer besser wie eine 2080TI - da hat mir das Ganze nicht gefallen).

Wenn es dann dazu käme, dass die 70er in einigen Spielen langsamer wäre wie die 80ti , dann würde ich sie schon nicht mehr angucken und eher auf ne 4080 sparen...
 
Zuletzt bearbeitet:
Zurück