News RTX 4060 Ti 8 GB kaufen: Hier sind die Chancen auf die neue Mittelklasse-Geforce am größten

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu RTX 4060 Ti 8 GB kaufen: Hier sind die Chancen auf die neue Mittelklasse-Geforce am größten

Nvidia erweitert sein Sortiment an New-Gen-Grafikkarten um die Mittelklasse-Geforce RTX 4060 Ti. Mit einem Preis von 439 Euro ist sie deutlich günstiger als RTX 4090, RTX 4080 und auch als RTX 4070, aber natürlich weniger leistungsfähig. Ob es sich lohnt eine RTX 4060 Ti 8 GB zu kaufen und wo man die größten Chancen hat, eine Karte mit der neuen GPU bestellen zu können, erfahren Sie hier.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: RTX 4060 Ti 8 GB kaufen: Hier sind die Chancen auf die neue Mittelklasse-Geforce am größten
 
Wer jedoch eine preisgünstige Grafikkarte mit allen modernen Funktionen für Games oder zum Arbeiten und Streamen sucht, der muss laut Nvidia nicht weiter Ausschau halten.
Auf welchen Planten Lebt Nvidia oder die PR abteilung?

Der witz ist dass das interface mager ist der übertünchende cash und der vram inklusive preis.

Die karte kann ich so nur für gelgenheits spieler entfehlen und wer in nächsten 3 jahren kein tripl A game zu zocken wollen. Aber man ändert die meinung das heist wenn die nachfolge generation von RTX40 raus kommt wird wieder eine xy60ziger gekauft und Nvidia bekommt den halts nicht genügent voll. Dass ist einfach gerade erbärmlich.

AMD ist warscheinlich laut gerüchten auch nicht besser mit der RX7.000er karte. Vor allem unter halb der 7800 oder 7700. (da bin ich mir net sicher)

Fakt ist dass die anbindungen einfach ne krampf ist und ne absleuter rohrkrepierer ist und man doppelt kauft. Nvidia freut es. Amd auch aber ich entfehle diesen elektro schrott nur eingeschränkt in direkt eigentlich keinen.

Nvidia kann wehn anderes Ver*******en. Uns nicht.
 
also ja geschenkt würde ich die durchaus nehmen.Wobei lieber nicht die Stromrechnung wird es mir danken.Wenn die GPU wenigstens sparsam wäre und nicht 160 Watt fressen,dann wäre sie ja ne ALternative,weil sie dann doch einen Kundenkreis anspricht aber so ja garnix.
Ich bevorzuge halt 75 Watt und weniger,davon ist diese ja meilen Weit entfernt.Und so viel Geld kann ich echt nicht für ne GPU alleine ausgeben.Von der Summe bekomme ich ja nen halb fetten Pc zu kaufen.Mit fett meinen ich so 16 Kerne und so.Ist wirklich nicht teuer,aber diese ist nicht nur Stromhungig sondern auch noch noch teuer.Ich weis noch die xx60 damals waren mit 200€ günstig und nicht stromhringig-Wäre somit nen gutes Produkt gewesen.Waren aber dummerweise die Vorgänger gewesen undn icht die aktuellsten.Vielleicht werden ja die 5 tausender ja was oder die untere Klasse davon,wer weis.
 
Auf dem mit mehr als genug Schafen, wie auch die PCGH Foren-Signaturen immer wieder beweisen. :devil:
tja sagen wir so. Wenn es die 4090 für 800-900 gäbe wäre ich fast nicht abgeneigt. Aber die 4080 müßte in umkehr schluss knapp an die 700 liegen. Dass wären preise wo ich sagen würde auch wenn es overkill wäre beim rendern würde es was bringen.

Aber manche brauchen die ja andere einfach ohne zu nahe treten zu wollen um den ganzen elent zu entkommen. Egal wie die bewegründe sind, sollten die sie haben mit kritik ein wenig zurückhalten damit es nicht falsch rüber kommt.

Bin von der Grafikarten markt entwicklung seit RTX20 auf nvidias seite entäuscht. Amd macht es mit der RX6.000er generation ein tick besser aber unheil ist auch in anmarsch. (wenn man den gerüchteküche glauben schenken mag)
 
@Ellina also das mit dem rendern besser wird es bei gpu Seite irgendwie nicht mehr. Es werden zwar neue Codecs unterstützt aber nicht die alten Codecs verbessert. Wie halt x264, da könnte man doch mehr Einstellungen anbieten wie bei der CPU. So das die bildqulität mit niedrigeren Datei größe erhalten bleibt. Wenn dies der Fall wäre, wäre ich schon längst von cpu auf gpu gewechselt aber da tut sich halt so garnix mehr. Nur noch doppel codec usw. Also schneller werden die gpus auch nicht mehr. Also das ist echt nen schlechtes Argument für gpu Seite die man so bringen kann. Ich bin halt auf das angewiesen wie kleine Aufnahme aber halbwegs gute bildqulität. Bei gpu ist es noch immer so entweder gute bildqulität aber dafür große Aufnahmen oder niedrige Aufnahmen mit massiv bildqulitäts Verlust gegenüber der CPU.

Wenn man also keine aktuellen games hat dann ist das Argument neue gpu halt dahin. Ich setze also klare Trennung wie games sind für gpu und Arbeitsanwendung für cpu gut.

Sowas macht wohl kaum einer aber ist halt wirklich so bei mir.
 
@Ellina also das mit dem rendern besser wird es bei gpu Seite irgendwie nicht mehr. Es werden zwar neue Codecs unterstützt aber nicht die alten Codecs verbessert. Wie halt x264, da könnte man doch mehr Einstellungen anbieten wie bei der CPU. So das die bildqulität mit niedrigeren Datei größe erhalten bleibt. Wenn dies der Fall wäre, wäre ich schon längst von cpu auf gpu gewechselt aber da tut sich halt so garnix mehr. Nur noch doppel codec usw. Also schneller werden die gpus auch nicht mehr. Also das ist echt nen schlechtes Argument für gpu Seite die man so bringen kann. Ich bin halt auf das angewiesen wie kleine Aufnahme aber halbwegs gute bildqulität. Bei gpu ist es noch immer so entweder gute bildqulität aber dafür große Aufnahmen oder niedrige Aufnahmen mit massiv bildqulitäts Verlust gegenüber der CPU.

Wenn man also keine aktuellen games hat dann ist das Argument neue gpu halt dahin. Ich setze also klare Trennung wie games sind für gpu und Arbeitsanwendung für cpu gut.

Sowas macht wohl kaum einer aber ist halt wirklich so bei mir.

Was heißt für dich kleine Aufnahmen ? ? 60MB Größe und 3 Stunden abspieltest in 2160p für einen 65 Zoll TV ?
 
@Ellina also das mit dem rendern besser wird es bei gpu Seite irgendwie nicht mehr. Es werden zwar neue Codecs unterstützt aber nicht die alten Codecs verbessert. Wie halt x264, da könnte man doch mehr Einstellungen anbieten wie bei der CPU. So das die bildqulität mit niedrigeren Datei größe erhalten bleibt. Wenn dies der Fall wäre, wäre ich schon längst von cpu auf gpu gewechselt aber da tut sich halt so garnix mehr. Nur noch doppel codec usw. Also schneller werden die gpus auch nicht mehr. Also das ist echt nen schlechtes Argument für gpu Seite die man so bringen kann. Ich bin halt auf das angewiesen wie kleine Aufnahme aber halbwegs gute bildqulität. Bei gpu ist es noch immer so entweder gute bildqulität aber dafür große Aufnahmen oder niedrige Aufnahmen mit massiv bildqulitäts Verlust gegenüber der CPU.

Wenn man also keine aktuellen games hat dann ist das Argument neue gpu halt dahin. Ich setze also klare Trennung wie games sind für gpu und Arbeitsanwendung für cpu gut.

Sowas macht wohl kaum einer aber ist halt wirklich so bei mir.
Ja und nein.

Vielleicht hat man mich missverstanden. Das wahr das was mir als erstes eingefallen ist. Wenn man klar das ist luxus und übertrieben in paar jahren oder so auf 4k wechselt oder diese grafikarte halt in 4k rendering macht und dann auf wqhd (1440p) aus spuckt ist das wieder was anderes.

Wenn der Preis sagen wir mal hypotetisch Theoretisch so günstig wäre dann wäre ich nicht abgeneigt zu kaufen einfach weil ich in den nächsten jahren länger ruhe hätte als wenn ich eine 12GB karte (achtung leicht übertrieben) kaufen würde und in nächsten jahr wieder. (so der möchtegern wunsch von nvidia)

Soll nicht heisen dass ich das eine oder andere gut finde aber zu viele karten kaufen in kürzeren zeit abständen ist halt net so toll alleine schon den Umwelt aspekt gedacht.

Daher preislich wird es ehe nicht so schnell sein dass wir in der Region sind.

Und das mit der Aufnahme ja hab halt kein plan mach so bisschen ja wie soll man sagen "hobby" mässig video schnitt von denen was man so als "privat" mensch darf. (um es vorsichtig zu formulieren)
 
Was heißt für dich kleine Aufnahmen ? ? 60MB Größe und 3 Stunden abspieltest in 2160p für einen 65 Zoll TV ?
Ne das nicht, meinte die datei f
Größe. Bei CPU ist eine Serie z. B. So 250-300 MB groß. Bei gpu aber sowas wie 500-600 MB bei gleicher bildqulität. Nun habe ich die Option gleiche Größe bei um einiges schlechtere bildqulität oder gleiche bildqulität aber doppelte Größe. Das da bei gpu es zur CPU näher kommt. Aber das tut es selbst mit modernen Technik nichts. Und 2 Decoder helfen dem leider auch nix weil damit kann man mir mehr Aufnahmen mit der gleichen Geschwindigkeit umwandeln wobei ich das ja jetzt schon kann ohne ne rtx 4090 zu haben. Aber es hilft mir eben leider nix weil damit habe ich noch immer das selbe Problem. Würde solche Technik wie raytracing oder sowas hier helfen aber nein ich kann es leider nicht nutzen. So bleiben eben diese Einheiten eben brach ohne Vorteile zu haben. Würde das nehmlich gehen, könnte man die gpu optimaler ausnutzen. Da dies jedoch nicht geschieht bleibe ich halt dabei. Es bringt mir leider nix. Und der Rest ist ja eh ein Teil von der CPU abhängig. Oder wäre sowas wie bei Intel möglich wo man einzelne Effekte auf die gpu übertragen könnte ohne die bildqulitäts verluste oder das Aufnahme wieder größer wird. Dann würde ich diesen hybrid nutzen. Intels Lösung ist aber schlecht weil zu langsam und auch sonst mit der bildqulität nicht zufrieden. Das ewige unflexible und so. Darum nutze ich ja auch gpu umwandeln nicht. Ich will es nicht auf Youtube übertragen sondern archivieren das ich es immer wieder anschauen kann. Gpus sind damit egal wie ich es drehe eben nicht dazu geignet. An ner CPU werden sie egal wie gut diese optimiert werden niemals ran reichen. Aber nvidia und Co können mich in Zukunft gerne eines besseren belehren aber bitte dann x264 weiter für gpu optimieren. Nicht so diese Einschränkung. Das ist Käse für mich. Und nen anderen codec interessiert mich nicht. Der codec ist eben der schnellste und flexiblste was zum abspielen zu halt eben gibt.

Leider puscht eben nvidia h265 und die anderen codec. Anstatt weiter an das alte zu optimieren. Für nvidia ist das Kapitel wohl abgeschlossen. Für mich geht es erst so richtig los. Ich warte nur auf noch bessere cpu. Dann geht es ab. Cpu und gpu nähern sich immer weiter. Für mich wird es gewiss bis spätestens Zen 6 keinen Unterschied mehr zwischen cpu und gpu machen. Bis dahin hat also nvidia noch Zeit dafür.
Wer will schon ne verkappte 4050 (4060 TI) für den Preis bei

der Witzaustattung :-)
Ich wenn der Stromverbauch bei 75 Watt und der Preis gut ist, wäre es für mich ne Option. Aber erst nur dann wenn ich spiele habe die diese gpu wirklich ausnutzen. Fürs erst tut es ja noch die Gtx 1650. Die kann diablo 4 gut abspielen. Achja bei mir ist das die 4050 der Fall wenn es passt. Ich will nicht allzu viel Geld für gpu ausgeben. Bei CPU sieht es aber dann schon wieder anderst aus. Mein Argument ist also nur spiele auf der gpu. Also recht wenig Forderung. Achja das ist gut das ich nicht so viel ausgeben brauche. Wie gesagt habe full hd 120/144 fps bzw Hz die Treue geschworen. Darum sind auch alle meine videos bei full hd. Sollte ich mal mehr als full hd haben dann wird diese nen upscralling nach unten bekommen. Ich bin so drauf. Spare mir damit Geld.
 
Zurück