News Geforce RTX 4070 und 4060: 12 und 8 GiByte Grafikspeicher sind bestätigt

Och wenn die 4070 dann faire 499€ kostet und in etwa 30-35% mehr leistet bei weniger Stromkonsum als meine aktuelle Karte nehme ich gerne eine :fresse: :lol:
Dämlich ist der falsche Ausdruck. Die allermeisten Kunden sind nun mal uninformiert, weil es sie schlicht nicht interessiert. Wir hier in solchen Foren schütteln über diese Art und Weise den Kopf, aber der Großteil der Kunden beliest sich halt nicht, sondern schluckt einfach so alles.
Ja und genau das ist selten dämlich, vor allen zu solchen Kursen die bei Grafikkarten seit ~4 Jahren anliegen :stupid:
 
Zuletzt bearbeitet:
Nach dem es von NV schon die 2060 und 3060 mit 12 GB und die 2070 sowie die 3070 mit 8 GB gab, könnt ich es mir ebenso bei den 40´ern vorstellen.
Die RTX 2060 12 GiB gab es erst sehr spät, auch bedingt durch Mining-Boom und Chip-Knappheit. Die GPU bot durch ihr breiteres Speicherinterface auch mehr Möglichkeiten bei der Anbindung und Menge der Speicherchips. Das wird mit dem AD107 der 4060 schwierig.

Eine RTX 4060 Ti könnte ich mir aber mehr VRAM gut vertragen.
 
Zuletzt bearbeitet:
Das ist Blödsinn :rolleyes: . Ich habe CP 2077 mit RT und DLSS auf Qualität problemlos zocken können.
Kommt immer auf die Auflösung an. In 4k mag ich das nämlich zu bezweifeln in WQHD und Full HD sollte es aber gehen.
Je nach dem wie Schmerzbefreit man ist.
Denn DLSS Balanced und Performance sind schon arg hässlich meist.
 
Wird Zeit das Intel mit ihrer ARC Reihe auf Augenhöhe der 40XX Generation kommt damit bei Nvidia wieder das rationale Kundenfreundliche Denken einsetzt.
 
Eine RTX 4060 Ti "Super" könnte ich mir aber mit 12 GiB vorstellen, die GPU gibt das her.
Das SI aber nicht :P . Aber 16GB :lol: .
Kann ich bestätigen, Grafiksettings leicht angepasst und RT auf Anschlag in FHD kein Thema wenn man mit 60fps zufrieden ist.
Ab WQHD aufwärts wird es denke ich schon eng und muss ggf RT reduzieren.
Ich habe in wqhd gezockt ;-). Allerdings reichen mir bei dem Game auch die 40-50 FPS die dabei rumkamen.
 
Zuletzt bearbeitet:
Wird Zeit das Intel mit ihrer ARC Reihe auf Augenhöhe der 40XX Generation kommt damit bei Nvidia wieder das rationale Kundenfreundliche Denken einsetzt.
Weil Intel ja auch bekannt für seine Kundenfreundlichkeit und fairen Preise ist :haha:
Die tausend hauchdünnen Salamischeiben vergessen?
Wenn AMD Ryzen nicht gebracht hätte, würde uns Intel immer noch 4 Kerner für 500€ verkaufen.

Aber ja, mehr Konkurrenzkampf ist immer gut.
 
Das ist Blödsinn :rolleyes: . Ich habe CP 2077 mit RT und DLSS auf Qualität problemlos zocken können.
Ich hab ja auch von nativ geredet. Steht da auch das man Upscaler sonst noch zusätzlich benötigt.
Man kann den Maßstab ja nicht mit Upscaler nehmen, das verwischt das native Ergebnis.

Klar kannst du noch DLSS und FSR oder XeSS an machen und es problemlos zocken aber das war wie gesagt nicht von mir ausgesagt!
 
Das ist (mit Verlaub) Unsinn. Selbst Nvidia betitelt die 4070Ti als WQHD-Karte...

Gruß
Ja wegen dem VRAM. ob man nun eine 850€ karte als WQHD karte definiert muss man selber wissen.
Ich bin der Meinung das man für 850€ durchaus auch in 4K im jahr 2023 in betracht ziehen kann.
Die Olle 1080ti wurde damals auch als 4k beworben und nun sollen 3 Gens Später für ähnliche Preise nur noch WQHD drinsein ?
 
Das ist (mit Verlaub) Unsinn. Selbst Nvidia betitelt die 4070Ti als WQHD-Karte...

Gruß
Was die betiteln mag NV Thema sein. Ich hab eine Rtx3060ti und zocke alles in 5120x1440. Natürlich nicht auf ultra settings aber auf mittleren. Das packt die sehr gut. Eine rtx4070ti ist definitiv obere Mittelklasse, die brauch ich nicht für wqhd. Ein Karte für 900€ mit so wenig Speicher auszuliefern und dies zu rechtfertigen "sie sei nur wqhd" ist eine Frecheit. Ist dann eine rxt4070 dann gerade für fhd geeignet?
Viel Spaß bei Nvidia. In meinem PC landet die aktuelle Gen definitiv nicht. Schon meine rtx1070 hatte 8 gb. Damals hieß es bei der Karte nicht dass die 8gb vollkommen übertrieben seien. Und jetzt 3 Gen später gibt es eine rtx4070 mit 8gb...
 
Ein Karte für 900€ mit so wenig Speicher auszuliefern und dies zu rechtfertigen "sie sei nur wqhd" ist eine Frecheit
Der Preis ist eine Frechheit...ist zwar wahr...ist aber so.
Bring mir eine Karte die in 1440p mehr Raytracing Leistung hat, weniger verbraucht und weniger kostet.
Das ist der Punkt den sich Nvidia bezahlen lässt.

4K mit Raytracing weder ist da die Leistung da noch der Vram....ergo WQHD. Angepasst geht wie bei jeder anderen Karte auch mehr.
 
Vor 20 Jahren hat Strom auch 1/3-1/4 vom aktuellen Preis gekostet, das ist auch kacke und trotzdem nehme ich es hin. Preise ändern sich halt, in den vergangenen Jahren mal wieder ein wenig schneller als früher. Gegenüber den 90ern ist Computer-Hardware immer noch billig und viele jammern hier einfach gerne auf einem hohen Niveau. Eine Grafikkarte von 500€ auf eine Nutzungszeit von 2 Jahren gerechnet sind keine 25€ im Monat (4 Jahre <11€, 6 Jahre <7€, da bezahlen einige mehr für ihren Handyvertrag mit <5GB (Hallo Telekom). Wenn man nicht bereit ist das zu zahlen sollte man überlegen, ob es das richtige Hobby für jemanden ist und ob man sich nicht lieber eine Konsole zum daddeln holen sollte.


Naja, ganz so einfach ist es dann doch nicht. Nvidia hatte gute Preise bei den 3000ern (bis auf die 3090) und die Scalper und Miner haben die Preise nach oben getrieben. Die 4000er haben jetzt die Auswirkungen von Corona, den verknappten Lieferketten, Preiserhöhungen bei den Zulieferern, der Inflation und nicht zuletzt unserer Mehrwertsteuer inkludiert. Erhöhte Energiepreise kommen in der nächsten Generation noch oben drauf inkl. bis dahin gestiegenen Allgemeinkosten. Mit ein wenig Glück greifen dann die Corona-Auswirkungen nicht mehr so rein, aber Trend ist klar, dass die nächste Generation nochmals (geschätzt) 25+% teurer wird.
Selten so einen Unsinn gehört. Was Strompreise angeht, sind wir in Deutschland ein Exot, weil unsere korrupten Politiker uns von russischem Gas und anderen fossilen Energieträgern abhängig gemacht haben. Außerdem werden GPUs nicht in Deutschland produziert, sondern in China. Die haben zwar auch gewisse Probleme mit ihrer Bevölkerung, aber sicherlich gehören "hohe Produktionskosten" nicht dazu.

Die RTX 4000 Serie hat vor Allem hohe Preise aufgrund menschlicher Gier. Nvidia rechnet immerhin mit 25% Nettomarge (= Reingewinn) mit RTX 4000 GPUs trotz hoher Lagerkosten und trotz der sich abzeichnenden Finanzkrise.
die Kurzversion wird sein, dass sich Nvidia zu 100% in DLSSS3 reinlehnt, weil das "die fps verdoppelt". Da macht es dann nix, wenn die 4060 ohne DLSS nicht schneller ist wie eine 3060.

Ansonsten dreht man halt an der Preisschraube so hart man kann, während die Chips immer kleiner und billiger werden. Wir kennen die TSMC Preise, wenn wir das fertige Produkt kennen, lässt sich auch ausrechnen wieviel Chips auf einen Wafer passen und welche Stückkosten Nvidia hat. Klar, TSMC hat die Preise verdoppelt, aber wenn der Chip nur 55% so groß ist wie der direkte Vorgänger, dann verdoppelt das eben nicht die Herstellungskosten.
Mit 8 GB VRAM kannst du DLSS 3 - oder eher: Frame Generation - vergessen. FG selbst frisst nicht wenig VRAM. Bei nur 8 GB VRAM hat die GPU gar keine Reserven mehr für FG übrig und kann FG effektiv gar nicht nutzen.
 
Zurück