News Geforce RTX 4060 Ti: Colorful bestätigt Takt und Speicher

Die "Fake" Bilder in 1080p sollte man nicht nutzen um überhaupt eine akzeptable Performance hier zu bekommen.
Die Rohleistung dieser GPU reicht auch aus das ohne DLSS3 zu berechnen.

Heißt deine GPU langweilt sich bei der Bearbeitung und schiebt auf nicht mal 50% Auslastung Zwischenbilder in die Berechnung während der Lüfter bei 0 RPM chillen und ein Upscaling von 720p genommen wird?
Der VRAM dabei zum Brechen voll nur damit man bei 60 FPS landet da man durch die VRAM Auslastung sonst nur 20 FPS hätte?
Ist das der Sinn von DLSS 3 und ein wirklich erstrebenswertes flüssiges Gameplay?
Oder dreht man dann doch einfach die Textur Details auf Low in 1080p damit man DLSS3 überhaupt nicht braucht?


Also Spaß bei Seite DLSS3 ist für Auflösungen und oder Raytracing entwickelt worden bei denen eine 4090 Schlichtweg auch nicht reicht und nicht um im Low Budget flüssige FPS zu erzeugen...
Sorry, aber das stimmt einfach nicht. DLSS 3 liefert eine tadellose Bildqualität bei doppelten FPS, siehe bspw. CB 2077 oder Witcher 3 next Gen.
AMD sollte hier schnellstens nachlegen (FSR 3).
Wer soll die Zielgruppe dieser Karte sein? 8Gb Vram richtet sich an Gelegenheitsspieler, die noch einen Full HD Monitor haben. Die geben aber keine 500$ plus Steuern für eine Grafikkarte aus. Alle Andern winken bei 8GB ab. An wen will Nvidia diese Karte also verkaufen?
Warum empfehlen bswp. PCGH und Gamestar 8 GB für Full HD im Jahr 2023?

Ist auch egal, ich klink mich hier aus! Das Nvidia Gehate nimmt schon etwas kuriose Züge an ?

Fakt ist leider, dass AMD derzeit keine vernünftige Alternative zu DLSS 3 hat und deswegen senken sie auch fleißig die Preise.

Ich hoffe sehr, dass FSR 3 hier Abhilfe schafft, denn Konkurrenz ist wichtig für den Endverbraucher.
 
Zuletzt bearbeitet:
Ich weiß nicht, ob wir da wirklich weiter diskutieren müssen. Eine RTX 3070 8GB liegt um circa 65 Prozent vor einer RTX 3060 8GB. Das ist zweifellos eine ganz andere Liga.
Ne, bei dem Thema hat sich echt jede weitere Diskussion erledigt. Du hast Recht. Ich hatte echt nicht auf dem Schirm, dass die 3070 ganze 67% schneller ist. Bei Turing war der Unterschied zwischen der 60er und 70er noch echt gering. Hätte ich einfach mal vorher checken sollen.

Mit Ampere hab ich mich nie im Detail beschäftigt, weil der Markt da komplett kaputt war und ich nie vorhatte eine zu kaufen. Bei Ada wollte ich eigentlich zuschlagen, aber naja.. Ich kann weiter warten.
 
Ja, wer soll den Schrott bitteschön kaufen? Da würde doch Jeder, der bei klarem Verstand ist, zumindest die 100 Dollar mehr für die wesentlich zukunftssicherere 4070 drauf legen. 8GB gehen einfach garnicht mehr, außer im Low End Segment. Und dann ist es auch noch der billige GDDR6 und kein GDDR6X wie bei der 4070. Absolut nicht zu empfehlen die Karte, auch dann nicht, wenn sie doch günstiger wird.
außer man hat nicht so viel Geld und einen sehr geringe Anforderung.Wobei solche Käufer warten dann doch lieber auf die rtx 4050,die dann hoffentlich noch um einiges sparsamer beim Stromverbrauch ist und auch etwas preiswerter ist.
Und lass mich raten die RTX 4050 wird dann 6 gb GDDR6 haben. Mit dann 64 Bit anstelle von 128 Bit.Damit man noch mehr den Nutzer Gängeln kann.Dann am besten noch die Taktraten halbieren damit die ja wirklich uninteressant ist.Ist dann nur noch für die gtx 750 ti/gtx 1050 ti User noch interessant.
Ich habe eine gtx 750 ti und eine gtx 1650.Ich warte noch immer auf eine 75/85 Watt GPU.Wird noch dauern aber sie kommt bestimmt.Wobei ich im moment kein Bedarf danach habe,aber falls die gtx 750 ti abrauchen sollte,wird es aber schon langsam eng mit der Auswahl.Eine 50 Watt GPU bekommen ich eine neue Jedenfalls leider nicht mehr zum kaufen.
Achja beim Kino mit Popcorn verhält es sich genauso.Die Mittlere ist pro 100 G Popcorn auch günstiger als die kleinere.Die große ist auch noch mal bei pro 100 g Preis günstiger.Nivida will genau dieses Schema damit bezwecken.Für den Unsicheren Käufer ist genau dieses Schema Ideal.Nvidia gewinnt damit so oder so,also können die sich das wohl echt leisten.
 
Die 3070 kann schneller sein, alles richtig, bis zu dem Punkt wo ihr der Speicher ausgeht.
Dann kommt der ach so tolle Nvidia Treiber und macht einen auf 970er Style und das Bild wird so
Unsauber und matschig wie auf der Switch. Alles um mehr FPS zu haben.
Da kann man sich auch eine XB360 kaufen.
Oder die Spiele stürzen andauernd ab oder ruckeln so hart das es unspielbar wird.
Und das auf einer Grafikkarte die teilweise mal 1000 Euro gekostet hat.
Ja gege, da kommt Freude auf.
 
(= vermutlich 500€+ , damit also deutlich teuerer als ne 3060Ti, damals 399€)

btw.
Damit ist Jensen´s Einsteigergraka teurer als ne PS5 oder Xbox X!
Das ging aber schnell, ... Hauptsache die Marge stimmt, für die nächsten 30 Jahre!


alternativ:
Am Interessantesten finde ich die Speku zur 7700nonXT, die evtl. mit 10GB kommt.
Das würde dann für FG + "ohne" RT reichen, ... sollte auch deutlich preiswerter sein als ne A770-16GB.
(wie genau der ARC+ Refresh in Q3/4 auschauen wird, weiss man leider net, könnte auch interessant sein)

Alle neuen 8GB-Modelle würde ich nur noch als Notebookgrakas sehen, die "irrtümlich" auch für Desktop-PC´s
angeboten werden.

Ne Ausnahme wären ältere 8GB-Modelle ala 3060Ti oder 6650 oder A750, die dann halt evtl. net genug Vram für FG haben.
(aber da gibts bestimmt genügend Games , wo man net zwingend FG+RT braucht, sondern eher in seine
Bibliothek schaut und auf den Preis, ... oder wenn man eeh alle 2 Jahre wechselt)


btw.
FG macht für mich nur Sinn an nem schnellen TN oder OLED:
(4k gibts eigentlich kaum als schnelle Gamer-Moni´s, das sind eher zu große OLED-TV´s, ... soll erst ab Q4 besser werden mit 27+32")
 

Anhänge

  • INTEL-ARC-2023-2024-ALCHEMIST-BATTLEMAGE-ROADMAP-1200x601.jpg
    INTEL-ARC-2023-2024-ALCHEMIST-BATTLEMAGE-ROADMAP-1200x601.jpg
    98,2 KB · Aufrufe: 2
Zuletzt bearbeitet:
Machen gute Arbeit. Wenn die Verkäufe dann nachlassen oder nicht zünden, wird eine 16GB Variante aufgelegt und schon verfallen die Käufer in Huldigungsextase.
500 US Dollar für den 8GB Wadlbeißer halte ich für völlig falsch. Schmeiße maximal 449 Dollar, eher 429 in die Spekulatiusdose.

Angesichts der eher seichten Konkurrenz der Intel A770 und A750 wird es für Nvidia keinen großen Sinn machen auf Margen zu verzichten. Vielleicht werden die Karten ja mit einem V-ram Sparmodus released. :-D
Was interessieren mich als Kunde/Verbraucher bitte die Margenvorstellungen von irgendeinem Unternehmen?

Ich werde auch nie verstehen, wie man permanent Unternehmen verteidigt und schön redet, die in regelmäßigen Abständen klar zeigen, was sie von Kundenfreundlichkeit und Nachhaltigkeit halten. Unternehmen sind niemals unsere Freunde, die wollen uns nur etwas verkaufen!

500€ für die 4060ti, die wiederum RTX 3070 Leistung mit denselben mickrigen 8GB VRAM anbietet?
Für die Fanbois, wird das wahrscheinlich das DLSS 3 Feature sein, mit der sich die aktuelle RTX Serie dann vom künstlich beschnittenen Vorgänger abhebt.

Ich jedenfalls habe aus dem damaligen Kauf der RTX 3070 gelernt und habe vor Kurzem -nach vielen Jahren Team Grün- wieder das Lager gewechselt. Bereue ich kein bisschen bislang.
 
Zuletzt bearbeitet:
Im Endeffekt ist es alles relativ. Wer zu wenig VRAM hat muss mit den Settings runter, genauso wie wenn die Rechenpower fehlt oder wenn man Raytracing nutzen möchte und die Leistung in dem Bereich fehlt.

Immerhin scheint AD106 auch noch 16x PCIe zu haben,
 
500 Euro für 128mbit...
Sollte wohl eher 150 Euro heißen.
hähäähähähä
ich komme aus dem Lachen nicht mehr raus
diese Preisvorstellungen....
NVidia zieht seine Namensaufwertungen konsequent durch.
Alle Karten sind mindestens um eien Stufe hochgezogen worden.
Neben der normalen Kostenanhebung wird die dopplete Anhebung so wirksam vor den Kunden verborgen.
Lediglich bei den beiden Zop-Karten, die jeweils auch über einen eigenen Chip verfügen, hat man das sein lassen müssen (geht ja nicht viel höher ^^).
Aber genau da sieht man auch die extreme Preistreiberei.
Das zieht sich bis unten komplett durch.
Nur wegen der Umbenennung der Karten fällt das nicht mehr so extrem ins Gewicht.
Aber mal ehrlich: wenn ihr nur stellenweise 20% mehr Leistung gegenüber den direkten Vorgängern bekommt, werdet ihr verarscht. Wacht auf!
Wenn ich schon über 20% Preisaufschlag bezahlen muss (bei den teuren Karten waren es ja bis zu 110%), dann will ich aber umso mehr an Leistung obendrauf haben, nicht weniger als üblich.
Also bis jetzt kann man die gesamte 4000er Riege so ins Klo stecken und einfach runterspülen, da keine Karte ein auch nur ansatzweise angemessenes Preis- oder Leistungsniveau anzubieten hat.
Es kann udn darf einfach nicht sein, das ziemlich alterende Vorgängerkarten kaum im Preis gesenkt werden (müssen) und dann trotzdem noch vom PL Faktor "sehr gut" dastehen.
Sehr frustrierend so etwas.
 
Warum sollte man sich das antun wollen, wenn man im Jahre 2023 für 500 Dollar + Steuern eine neue GPU kauft? Dann lieber ein RX6000er Modell (und das sage ich als NVidia Fan) oder wie gesagt für 100 Dollar mehr die wesentlich bessere 4070 kaufen.

Die 4060Ti ist für den Preis ein absoluter Witz.

Ja gut dann muss diese halt mit der Zeit den Preis senken. Aber was rarest du zu denen die nicht so viel Geld für eine gpu ausgeben können. Die wo von einer rtx 3050 ti kommen. Was ist mit denen. Womöglich lohnt sich da das aufrüsten auf eine rtx 4060 dann nicht mehr weil zu wenig mehr Leistung. Oder was ist die rtx 3050 ti aus deiner Sicht, etwa auch ungünstig gewesen?
 
Ja gut dann muss diese halt mit der Zeit den Preis senken. Aber was rarest du zu denen die nicht so viel Geld für eine gpu ausgeben können. Die wo von einer rtx 3050 ti kommen. Was ist mit denen. Womöglich lohnt sich da das aufrüsten auf eine rtx 4060 dann nicht mehr weil zu wenig mehr Leistung. Oder was ist die rtx 3050 ti aus deiner Sicht, etwa auch ungünstig gewesen?
Wer wenig Geld hat sollte auf gar keinen Fall jede Generation aufrüsten. In dem Falle immer aufrüsten wenn die bezahlbare Karte 100+% Mehrleistung bringt.
 
Wer wenig Geld hat sollte auf gar keinen Fall jede Generation aufrüsten. In dem Falle immer aufrüsten wenn die bezahlbare Karte 100+% Mehrleistung bringt.
...das ist genau genommen auch kompletter Wahnsinn jede Gen aufzurüsten da der Leistungszuwachs in Relation zum Preis mehr als unterdurchschnittlich ist.
Ich mache es auch so das ich erst aufrüste wenn +100% Mehrleistung in einen bezahlbaren Rahmen bleibt und lasse dafür auch gern 1-2 Gen aus. Alternativ kaufe ich auch gebraucht.
 
Für Full HD mit unter Umständen in einigen Spielen leicht reduzierten (Textur-) Details und DLSS 3 inkl. Frame Generation sicherlich eine valide Option, je nachdem wo sich der Straßenpreis letztendlich einpendelt.
Muss ich dir teilweise recht geben. Wenn das Ding wirklich für 429 Dollar kommt, dann kann der Preis die maue Speichermenge zumindest kaschieren.
Was interessieren mich als Kunde/Verbraucher bitte die Margenvorstellungen von irgendeinem Unternehmen?
Nvidia wird angesichts der kaum vorhandenen Konkurrenz kaum Margen herschenken und auf einen Knallerpreis verzichten.
Natürlich ist das nicht im Interesse des Kunden, der hätte immer gerne einen niedrigeren Preis.
Ich werde auch nie verstehen, wie man permanent Unternehmen verteidigt und schön redet, die in regelmäßigen Abständen klar zeigen, was sie von Kundenfreundlichkeit und Nachhaltigkeit halten.
Ich sehe niemanden der Unternehmen verteidigt. Haste da mal ein Beispiel?
 
Zuletzt bearbeitet:
Nvidia wird angesichts der kaum vorhandenen Konkurrenz kaum Margen herschenken und auf einen Knallerpreis verzichten.
Natürlich ist das nicht im Interesse des Kunden, der hätte immer gerne einen niedrigeren Preis.
Genau. Und weil wir nunmal alle Kunden sind, sollte uns doch eher der niedrigere Preis und weniger die Produktmarge interessieren. Da Du recht häufig dieses Thema anschneidest, scheinst Du dir hierzu viele Gedanken zu machen.
Ich sehe niemanden der Unternehmen verteidigt. Haste da mal ein Beispiel?
Naja, Du wärst hier ein solches Beispiel. Immerhin wirst Du nicht müde die Preissetzung (vorzugsweise wegen vermeintlich gestiegener Produktionskosten, oder weil die Konkurrenz fehlen würde) eines bestimmten Herstellers permanent zu rechtfertigen. Ich finde keinen (!) einzigen Post bezogen auf GPU-Themen in Deiner Beitragshistorie, der nicht entweder klar Pro-Nividia oder alternativ einseitig kritisch ggü. AMD formuliert wurde.

Kann man machen, ist legitim,
Aber dann doch bitte nicht so tun, als ob es anders wäre :hmm:

Aber die Frage war eher rhetorischer Natur, richtig?
 
Zuletzt bearbeitet:
Genau. Und weil wir nunmal alle Kunden sind, sollte uns doch eher der niedrigere Preis und weniger die Produktmarge interessieren.
Prinzipiell sehe ich das genauso.
Da Du recht häufig dieses Thema anschneidest, scheinst Du dir hierzu viele Gedanken zu machen.
Durchaus. Der Preis ist eben ein Resultat aus den Interessen des Unternehmens und der Verbraucher und je nach Marktlage wird er sich gemäß Angebot und Nachfrage in der Mitte treffen. Und diese Gesetzmäßigkeit wird sich auch nicht ändern, ganz egal ob in irgendeinem Forum Preise weit unterhalb einer RTX 2070 gefordert werden.
Naja, Du wärst hier ein solches Beispiel.
Ganz im Gegenteil, ich wäre gerne für einen niedrigeren Preis aller sich am Markt befindlicher Karten.
Immerhin wirst Du nicht müde die Preissetzung (vorzugsweise wegen vermeintlich gestiegener Produktionskosten, oder weil die Konkurrenz fehlen würde) eines bestimmten Herstellers permanent zu rechtfertigen.
Ich verteidige da gar nichts, ich sage nur, dass ein niedrigerer Preis wie etwa 350 Euro für eine RTX 4070 nicht realistisch sind. Natürlich wäre es möglich den Preis um 100 Dollar zu senken und dennoch genügend Gewinne zu realisieren.
Und das werden wir hoffentlich irgendwann auch sehen, wenn AMD/Intel mal aus dem Quark kommen und die neue Generation vorstellen.

Und ja ich glaube nicht! an Gewinne, sondern an Verluste, sollte AMD ihre 6800/6900XT für400 Euro verschleudern müssen.
Ich finde keinen (!) einzigen Post bezogen auf GPU-Themen in Deiner Beitragshistorie, der nicht entweder klar Pro-Nividia oder alternativ einseitig kritisch ggü. AMD formuliert wurde.
Und dennoch hast du kein Beispiel finden können, das erstaunt mich dann.
 
Zurück