Geforce GTX 1660 Ti vor Release: Neue Fotos zeigen Asus-Designs

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce GTX 1660 Ti vor Release: Neue Fotos zeigen Asus-Designs

Glaubt man den Gerüchten, geht es für die Geforce GTX 1660 Ti so langsam auf die Zielgeraden. Dafür spricht auch, dass Videocardz nun auch Fotos von einigen Asus-Designs zeigt. Auch wenn mehr Varianten von Asus erwartet werden, sieht man nun immerhin das Triple-Fan-Design der ROG Strix Gaming OC und die kompakte Phoenix.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Geforce GTX 1660 Ti vor Release: Neue Fotos zeigen Asus-Designs
 
Wer Asus kauft, kauft zweimal

Bzw. Rate ich keinem eine Karte mehr mit nur 6GB in der Preis und Leistungsklasse zu kaufen.

Ich versteh einfach nicht warum die RTX 2060 nicht einfach weggelassen wurde und die GTX 1060Ti 8GB bekommen hat

Die GTX 1660Ti und die RX56 hätten sich um die Kunden geprügelt mit guten Vorteil für NVIDIA mit 150 Watt Verbaruch.

Die Karte wäre doch so garantier mit den Verkäufen durch die Decke gegangen für 300€-350€ und wurde der RTX 2070 durch Leistungsabstand und fehlenden RTX Funktionen nicht gefährlich werden.

Gerade auf Hinsicht der aktuellsten Fails von Raytracing und DLSS, wäre die Karte jetzt die eierlegende Wollmilchsau für NVIDIA gewesen.
 
Zuletzt bearbeitet:
Puhh, ich bin mega gespannt auf die Karte, habe aber das Gefühl für FHD ist sie etwas Overkill und zu teuer und für WQHD hat sie zu wenig VRAM - wenn einer gutes günstiges FHD anstrebt ist man mit der RX580 doch ganz gut beraten , meinetwegen auch die 1050TI. Aber wer WQHD anstrebt als Leistungsziel ist mit der 1660 TI zwar Preislich da wo man sein muss, aber der VRAM würde mich abschrecken.

Klar gib´s immer Leute die nicht so hart darüber nachdenken oder die dann WQHD spielen und dann die Regler nach links stellen, aber irgendwie werd ich mit der Karte trotzdem nicht warm.


Die Zielgruppe erschließt sich mir nicht, vlt bin ich auch falsch weil ich nur in FHD, WQHD und 4k bei 50+FPS denke.
 
Wer Asus kauft, kauft zweimal

Bzw. Rate ich keinem eine Karte mehr mit nur 6GB in der Preis und Leistungsklasse zu kaufen.

Ich versteh einfach nicht warum die RTX 2060 nicht einfach weggelassen wurde und die GTX 1060Ti 8GB bekommen hat

Die GTX 1660Ti und die RX56 hätten sich um die Kunden geprügelt mit guten Vorteil für NVIDIA mit 150 Watt Verbaruch.

Die Karte wäre doch so garantier mit den Verkäufen durch die Decke gegangen für 300€-350€ und wurde der RTX 2070 durch Leistungsabstand und fehlenden RTX Funktionen nicht gefährlich werden.

Gerade auf Hinsicht der aktuellsten Fails von Raytracing und DLSS, wäre die Karte jetzt die eierlegende Wollmilchsau für NVIDIA gewesen.

Ahem. Diese Karte mit "nur" 150W Verbrauch aber mit 8GB VideoRAM gibt es doch schon länger ... die GTX 1070 (ohne OC) hat genau diesen Verbrauchswert.
Wer die 1070 hatte, hat insofern sehr weit in die Zukunft geschaut, ist die Karte doch immer noch in Sachen Leistung und Verbrauch Spitze (nicht zu verwechseln mit der Vega 56... die braucht schon erheblich mehr Strom).
 
Ach so - noch was @pcgameshardware Redaktion:

Wenn Ihr die GTX 1660 Ti testet, schaut Euch doch bitte auch die Texturdetails an. Denn wenn die Karte wirklich bei kleineren Texturen durch einen Trick Rechenleistung zu Ungunsten der Bildqualität spart, ist das echte Verarsche.
 
Bin auch gespannt!

Die GTX1070 ist in der Tat immer noch eine tolle und vernünftige Grafikkarte mit ihren 8GB und der Leistung. Nun gibt es die RTX2060 mit 6GB und etwas mehr Leistung und die GTX 1660ti mit 6GB mit etwa gleichviel Leistung. Eigentlich hätte man mindestens eine der Grafikkarten mit 8GB ausstatten müssen. Letztendlich muss dann der Preis entscheiden, sonst ist die GTX1070 immer noch vorne.

Übrigens soll die GTX1660ti angeblich nur 120Watt verbrauchen. Das wäre immerhin ein Alleinstellungsmerkmal für die Leistung und wäre auch wegen der Lautstärke ein Argument gegen AMD. Stromverbrauch, größeres Netzteil und Lautstärke sollte man nicht unterschätzen und mit einrechnen. Wenn die AMD ca. 100 Watt mehr verbraucht für die gleiche Leistung und man nur pro Tag 1 Stunde spielt, dann sind das pro Jahr schon 10€. Bei 4Std täglich und einer Lebensdauer von 5 Jahren hat man dann schon wieder 200€ gespart für die nächste Grafikkarte.

GTX 1660ti 6GB = ??? -> In meinen Augen wäre ein Startpreis von 280€ wirklich das Maximum!
GTX 1070 8GB = ~300€ -> Angebote zwischen 250 und 300€ finde ich interessant
GTX 2060 6GB = ~350-400€ -> mit 8GB würde es einigermaßen passen, so ist sie einfach zu teuer in diesem Vergleich

Denke mit den 3 Grafikkarten kann man noch lange gute Settings in FullHD fahren und das wird auch die Zielgruppe sein. Eventuell auch interessant im Moment für Monitore mit 144hz.
 
Wilkommen auf der Turing Resterampe! Hier wird nun der Silizium-Müll abverkauft und über den Preis was wertiges suggeriert. Da ist man mit den alten Pascal erheblich besser bedient.
Das hier ist vom Prinzip her OEM-Ware für Fertigschnitten wie Dell oder HP, weil die aber gescheiterweise kaum Geld dafür geben wollen, sollt ihr nun den 150€ Quatsch für 300€ kaufen.
Die Dinger werden in einem Jahr beim Saturn im Wühlkorb liegen wie derzeit die GTX1060.
Zum Vergleich: Die 1660 wird kaum schneller sein als eine 5 Jahre alte 980GTX.
 
GTX 1660ti 6GB = ??? -> In meinen Augen wäre ein Startpreis von 280€ wirklich das Maximum!
GTX 1070 8GB = ~300€ -> Angebote zwischen 250 und 300€ finde ich interessant
GTX 2060 6GB = ~350-400€ -> mit 8GB würde es einigermaßen passen, so ist sie einfach zu teuer in diesem Vergleich

Denke mit den 3 Grafikkarten kann man noch lange gute Settings in FullHD fahren und das wird auch die Zielgruppe sein. Eventuell auch interessant im Moment für Monitore mit 144hz.

ich denke das ist viel zu teuer für nur "FullHD" . Ich denke für FullHD reicht ne RX580 für 150€. Wer "nur" FullHD anstrebt muss ich doch kein 300€ Brett in den PC schrauben. Wer WQHD anstrebt liegt da preislich schon ganz gut, aber dann sind 6gb VRAM zu wenig.


PS: deine Rechnung da oben mit 5 Jahre Lebensdauer ist nett - denkst du echt das jemand 5 Jahre an der Grafikkarte Spass hat?
 
ich denke das ist viel zu teuer für nur "FullHD" . Ich denke für FullHD reicht ne RX580 für 150€. Wer "nur" FullHD anstrebt muss ich doch kein 300€ Brett in den PC schrauben. Wer WQHD anstrebt liegt da preislich schon ganz gut, aber dann sind 6gb VRAM zu wenig.


PS: deine Rechnung da oben mit 5 Jahre Lebensdauer ist nett - denkst du echt das jemand 5 Jahre an der Grafikkarte Spass hat?

Warum sollte man nicht davon ausgehen. Es gibt doch heute noch viele die mit HD7000er oder GTX700er spielen. Die Leute die sich hier rumtreiben, sind doch in der Minderheit, wenn es darum geht alle 1 - 2 Jahre umzurüsten. Muss man ja nur bei Steam schauen mit welchen "Gurken" die Mehrheit heute spielt.
 
Warum sollte man nicht davon ausgehen. Es gibt doch heute noch viele die mit HD7000er oder GTX700er spielen. Die Leute die sich hier rumtreiben, sind doch in der Minderheit, wenn es darum geht alle 1 - 2 Jahre umzurüsten. Muss man ja nur bei Steam schauen mit welchen "Gurken" die Mehrheit heute spielt.

ja auf jeden Fall, aber das sind doch meinst HighendKarten a la x70 / 80 . Wir reden hier aber von einer Karte die von vornherein im low-Segment Zuhause ist.
 
ja auf jeden Fall, aber das sind doch meinst HighendKarten a la x70 / 80 . Wir reden hier aber von einer Karte die von vornherein im low-Segment Zuhause ist.

Auch im Low-End trifft das zu. Kenne selbst Leute die heut noch mit HD7770 oder 7850 "rumgurken", dabei aber völlig zufrieden sind. So hat halt jeder seine Ansprüche. Daher wird vielen auch eine 1660Ti über viele Jahre reichen.
 
Denn wenn die Karte wirklich bei kleineren Texturen durch einen Trick Rechenleistung zu Ungunsten der Bildqualität spart, ist das echte Verarsche.

Junge junge junge bei AMD waren die primitiven Shader die zudem immer noch kaputt sind noch ein Feature, bringt Nvidia was dahingehendes das zudem auch noch funktioniert ist es plötzlich Verarsche


Und welcher rote Fred da gleich wieder sein like drunter gesetzt hat unter den Post, der bei primitiven Shadern noch den Jubelperser gemacht hat ist urkomisch, und mit Gold nicht zu bezahlen diese Doppelmoral

Da wird das Feature plötzlich zu was bösen, was bei AMD noch so geil war, obwohl dort nie wirklich funktionstüchtig

Aber falls es dich interessiert es gibt schon längst einen Test

Adaptive Shading auf GeForce RTX im Test - ComputerBase
 
Zuletzt bearbeitet:
  • Like
Reaktionen: AyC
ich denke das ist viel zu teuer für nur "FullHD" . Ich denke für FullHD reicht ne RX580 für 150€. Wer "nur" FullHD anstrebt muss ich doch kein 300€ Brett in den PC schrauben. Wer WQHD anstrebt liegt da preislich schon ganz gut, aber dann sind 6gb VRAM zu wenig.


PS: deine Rechnung da oben mit 5 Jahre Lebensdauer ist nett - denkst du echt das jemand 5 Jahre an der Grafikkarte Spass hat?


Auf der einen Seite schreibst du das niemand 5 Jahre die Karte benutzt und auf der anderen Seite, dass man mit Kanonen auf Spatzen schießt. Vielleicht hält sie ja gerade deswegen 5 Jahre, weil man eben jetzt ein paar Euro mehr für FullHD ausgibt und nicht nur aktuell auf dieses Jahr schaut und was da FullHD an Leistung braucht.

Ich habe im Moment noch eine GTX670 mit 2GB drin und war bis zuletzt zufrieden, wenn man auch einige Abstriche machen musste. Jetzt sind dann Karten wie die GTX1070, GTX1660ti und GTX2060 als Upgrade interessant für mich und ich denke, dass da wieder 5 Jahre+ FullHD drin ist. Am Anfang mit allen Detail und möglichst vielen Frames (144hz Bildschirm). Später gehts dann natürlich wieder etwas runter. Aber trotz Freesync (AOC G2590PX von Nvidia freigegeben) kann man vielleicht sogar noch ein bisschen länger vernünftig spielen.

Wenn man übrigens 2x in 5 Jahren eine AMD-Karte kauft, dann ist der Stromverbrauch sehr wahrscheinlich trotzdem deutlich höher und man kommt auf die selbe Rechnung.
 
Verstehe einfach nicht wieso man so eine Karte auf den Markt bringt :/

Die GTX1000er Reihe wird nicht mehr produziert und entsprechend bietet man auf der aktuellen Architektur nun auch Grafikkarten für den mittleren Geldbeutel an. Ist doch recht logisch und es bleibt ja nicht bei der GTX1660ti. Da kommen ja noch günstigere Karten.
 
Wenn man übrigens 2x in 5 Jahren eine AMD-Karte kauft, dann ist der Stromverbrauch sehr wahrscheinlich trotzdem deutlich höher und man kommt auf die selbe Rechnung.

mmm nein.
Lasse aber gerne mich vom Gegenteil überzeugen.

@ 6GB vs 8GB (bei "Mainstream-Karten")
Schaut mal diverse Benchmarks an kommt man mit 6GB noch sehr gut klar.
z.B. FullHD & UltraHD Performance-UEberblick 2012 bis 2019 | 3DCenter.org
4K Performance Index RTX 2060 = 124% zu einer Vega56 mit 117%; bei FullHD kommt die sogar an einer Vega64.
Ich habe auch ne RX480 mit 8GB und die in den meisten Spielen kriege ich den Speicher nicht voll
da die Karte jezt schon zu schwach ist (für die 8GB zu füllen!) => (z.B. Wilderlands, Farcry, Division).
Da heist es überall Details runter.
Zocke aber mehr am "Rechner 1" da schneller.
==========>>>
Kommt eben darauf an was man will / erwartet. Ist man mit 30 FPS glücklich oder eher 130?
Will man die Karte 2 Jahre oder länger nutzen.

Finde aber den Preis aller RTX Karten einfach viel zu hoch => hier hätten es gerne deutlich mehr Ram sein können.
 
mmm nein.
Lasse aber gerne mich vom Gegenteil überzeugen.

Mmm DOCH!!! Lasse mich aber gerne vom Gegenteil überzeugen... tolle Argumenatation!


Warum sollte es einen Unterschied machen in Sachen Stromverbrauch, wenn man:

a) 1x eine Grafikkarte mit 120Watt anstelle von 220Watt in 5 Jahren kauft
b) 2x eine Grafikkarte mit 120Watt anstelle von 220Watt in 5 Jahren kauf

In beiden Fällen hat man gleichviel Strom gespart in den 5 Jahren.
 
Zurück