GTX 1070 hat ausgedient, wer wird der Nachfolger? (Update)

Status
Für weitere Antworten geschlossen.
Also die Karte habe ich am Samstag eingebaut und das verlief schonmal ohne Probleme.
Ich habe die Karte etwas undervolted (-30mV) und das Powertarget auf -10% gesetzt und den Maximalen GPU takt auf 2500MhZ gesetzt. Hatte damit bis jetzt keine Abstürze oder Ähnliches. Bei The Last of us sind manchmal Texturfehler wahrnehmbar, aber das kann durchaus auch am Spiel liegen. Ansonsten bin ich nich viel zum zocken/testen gekommen. Aber die Benches von Cyberpunk und RDR2 liefen stabil mit avg 120FPS auf ultra.

Spulenfiepen habe ich bis jetzt keins bemerken können. Nur der Stromverbrauch im Idle ist noch etwas hoch und schwankt immer wieder zwisschen 15 und 50 Watt, ich hoffe da kommt AMD noch mit Verbesserungen um die Ecke.

Ja ich bin ziemlich zufrieden, auch wenn die Karte im Moment noch ziemlicher Overkill für meine Zwecke ist, aber wir werden sehen wie das in ein paar Jahren aussieht.

Cheers!
 
Nur der Stromverbrauch im Idle ist noch etwas hoch und schwankt immer wieder zwisschen 15 und 50 Watt, ich hoffe da kommt AMD noch mit Verbesserungen um die Ecke.
Kommt auch drauf an was dran hängt.

Mit meinem Monitor Setup hab ich auch 29W im IDLE.
Sobald ich meinen 4K TV mit HDR10+ dranhänge sind es direkt 80W im IDLE alleine.
 
ich hänge mich mal dran hier. im moment ryzen 5 2600 mit einer inzwischen extrem lauten 2070 am laufen.bin mir halt nicht sicher, weil ich schon paar Jahre aus dem thema hw raus bin.4070 oder 6800 ist hier meine frage.fahre seit jahren auf nvida.mein letzter ati/amd ausflug war eine 5700 xt pulse welche nach einem tag wegen blackscreen zurück ging. scheinbar hat amd drei jahre später immernoch den selben krampf mit spulenfieben und treibermurks. gezockt wird auf wqhd aber meist älters zeug wie squad oder warthunder.
 
Zuletzt bearbeitet:
ich hänge mich mal dran hier. im moment ryzen 5 2600 mit einer inzwischen extrem lauten 2070 am laufen.bin mir halt nicht sicher, weil ich schon paar Jahre aus dem thema hw raus bin.4070 oder 6800 ist hier meine frage.fahre seit jahren auf nvida.mein letzter ati/amd ausflug war eine 5700 xt pulse welche nach einem tag wegen blackscreen zurück ging. scheinbar hat amd drei jahre später immernoch den selben krampf mit spulenfieben und treibermurks. gezockt wird auf wqhd aber meist älters zeug wie squad oder warthunder.
Mit der 6000er Generation sind mir keine Probleme aus meinem Freundeskreis bekannt . Ich würde allerdings die Finger von den billigen Karten lassen und von den hochgezüchteten . Meine Rx 6700 XT Red Devil hatte nämlich Treiber TimeOuts , mein Cousin hatte mit der gleichen Karte die selben Probleme , erst ein runtertakten der Karte konnte das Problem beheben!

Ich würde diese nehmen


oder wenn Du auf RayTracing verzichten kannst diese :


MfG
 
Mit der 6000er Generation sind mir keine Probleme aus meinem Freundeskreis bekannt . Ich würde allerdings die Finger von den billigen Karten lassen und von den hochgezüchteten . Meine Rx 6700 XT Red Devil hatte nämlich Treiber TimeOuts , mein Cousin hatte mit der gleichen Karte die selben Probleme , erst ein runtertakten der Karte konnte das Problem beheben!

Ich würde diese nehmen


oder wenn Du auf RayTracing verzichten kannst diese :


MfG
hab mir jetzt bisschen zeit genommen und in igors lab vorbeigeschaut. die

KFA2 GeForce RTX 4070 EX Gamer​

scheint eine gute wahl bzgl. lautstärke,kühlung usw zu sein.wenn der preis passt soll es diese karte werden.von amd lasse ich erstmal die finger.
 
Wer Spiele nicht in den höchsten Einstellungen und auf auf maximal WQHD zocken will, der kann auch KArten mit 8GB nehmen. und wird in 5 Jahren auch seinen Spaß haben.

Nein ganz sicher nicht. In 5 Jahren wirst Du mit einer 8GB Karte unter Garantie kein Land mehr sehen. Die 8GB Modelle haben jetzt schon ihren Zenit überschritten und es gibt heute schon einige Titel, bei denen man selbst in Full HD bei 8GB VRam die Details deutlich reduzieren muss. Sicher ist das so noch anständig spielbar, aber das wird mit der Zeit immer schlimmer werden.

Wer heute eine Karte kaufen will, die die nächsten 5 Jahre fürs Gaming genutzt werden soll, muss schon zu einem 16GB Modell greifen, selbst für Full HD. Und selbst damit ist natürlich nicht garantiert, dass der Plan aufgehen wird.
Kann man machen.
Die KFA Karten sind solide Karten und mit immer die günstigsten Preise.

Nein sind Mist die Dinger, KFA2 spart an Allem was geht, auch an Kondensatoren, Stromversorgung usw. Die Dinger gehen gut und gerne mal kurz nach der Garantie kaputt, habe ein mal den Fehler gemacht von denen eine GPU zu kaufen - Nie wieder... Nach 2 Jahren war die Karte Schrott ohne jegliches OC und bei weniger als 1 Stunde Gaming am Tag im Durchschnitt.
 
hab mir jetzt bisschen zeit genommen und in igors lab vorbeigeschaut. die

KFA2 GeForce RTX 4070 EX Gamer​

scheint eine gute wahl bzgl. lautstärke,kühlung usw zu sein.wenn der preis passt soll es diese karte werden.von amd lasse ich erstmal die finger.
Die ist wohl ganz solide , habe ich auch schon gehört .


Hier ist sie gerade im Angebot ! Da ist sogar Diablo 4 dabei :-) , habe ich gerade gesehen
 
Nein sind Mist die Dinger, KFA2 spart an Allem was geht, auch an Kondensatoren, Stromversorgung usw. Die Dinger gehen gut und gerne mal kurz nach der Garantie kaputt, habe ein mal den Fehler gemacht von denen eine GPU zu kaufen - Nie wieder... Nach 2 Jahren war die Karte Schrott ohne jegliches OC und bei weniger als 1 Stunde Gaming am Tag im Durchschnitt.
Joa passiert.
 
warte jetzt erstmal auf mein thermal patty.wenn ich die 2070 damit von ihren hitzewallungen befreien konnte bleibt sie drin.120fps auf wqhd bei warthunder reichen vorerst:D
 
Nein ganz sicher nicht. In 5 Jahren wirst Du mit einer 8GB Karte unter Garantie kein Land mehr sehen. ...
Woher willst du das wissen, es kann allein durch neue entwickelte Techniken wie DLSS das ganze noch sich stark weiterentwickeln. Die Effizienz der GK hat sich auch sehr heftig zum positiven entwickelt. Hätte man vor 3 Jahren nicht geglaubt.

Es spielen selbst heute Leute mit einer 1060 und wären froh über eine GTX 1080/Ti.

Nicht immer die eigenen Ansprüche (oder das was man aus den Medien übernommen hat) bei anderen ansetzen.

VRAM ist nur ein Punkt der die Performance beinflusst, aber diesen kann man anpassen.
Jemand der mit nem 4K 120Hz Display die neusten Spiele in max Details spielen wird sich keine 8GB Karte kaufen.

Eher Leute die Preisbewusste Entscheidungen treffen, sei es wegen: Nvidia Fan/1080P Monitor/Budget/Spiele mit wenig HW Anforderungen....

Gerade nach dem Mining Boom würde ich vom kauf gebrauchter rtx2xxx / rtx 3xxx Karten abraten und da bleiben nur die neusten Modelle übrig. Dazu kommt das viele rtx2xxx Karten wegen Problemen bei den Speichermodulen abrauchen.

AMD hat ja nicht ohne Grund in letzter Sekunde noch Preise nach unten angepasst (leider bei der Effizienz versagt).
 
Woher willst du das wissen, es kann allein durch neue entwickelte Techniken wie DLSS das ganze noch sich stark weiterentwickeln. Die Effizienz der GK hat sich auch sehr heftig zum positiven entwickelt. Hätte man vor 3 Jahren nicht geglaubt.

Weil es nunmal einen technologischen Fortschritt gibt. Hardware wird leistungsstärker und Spiele werden aufwändiger, das ist eben so. In 5 Jahren befindet man sich im Zeitbereich der nächsten Konsolengeneration. Diese wird nochmal einen guten Batzen mehr RAM besitzen als die Aktuelle. 8GB Karten haben ja heute schon Probleme Konsolenportierungen sauber abzuspielen, weil die Konsolen teilweise mehr als 8GB VRam nutzen können bzw. effizienter Texturen Streamen können.

DLSS 2 spart übrigens v.A. GPU-Leistung und VRam nur so am Rande ein wenig nebenbei, weil die gerenderte Auflösung geringer ist. DLSS 3 erhöht den VRam Bedarf sogar.

Es spielen selbst heute Leute mit einer 1060 und wären froh über eine GTX 1080/Ti.

Eine 1060 hatte für eine Mittelklasse GPU ihrer Zeit (2016) in der 6GB Variante auch eine sehr üppige VRam Ausstattug. Wäre locker zu vergleichen mit 12GB heute. Trotzdem kackt eine 1060 6GB in modernen Spielen selbst auf Low Details ab, mehr als 40-60 FPS mit Nachladerucklern kann man da in vielen Fällen nicht erwarten.


Nicht immer die eigenen Ansprüche (oder das was man aus den Medien übernommen hat) bei anderen ansetzen.

VRAM ist nur ein Punkt der die Performance beinflusst, aber diesen kann man anpassen.
Jemand der mit nem 4K 120Hz Display die neusten Spiele in max Details spielen wird sich keine 8GB Karte kaufen.

Ne, es zeigt sich jetzt schon, dass viele moderne Titel selbst auf Low/Medium Details mit FSR / DLSS 2 nah an die 8GB VRam Nutzung kommen. Da gibt es nicht mehr viel Spielraum was "anzupassen".
 
Ne, es zeigt sich jetzt schon, dass viele moderne Titel selbst auf Low/Medium Details mit FSR / DLSS 2 nah an die 8GB VRam Nutzung kommen. Da gibt es nicht mehr viel Spielraum was "anzupassen".
Welche viele Spiele sind das denn?
Oder meinst Du eventuell die gleich bei Release getesteten völlig unoptimiertem Games zur Zeit.
Manche warten halt ein/zwei/drei Monate und Patches. bevor sie einen haufen Geld ausgeben und dem Rat folgen den Rotz doch einfach mit Hardware zu erschlagen und damit Spieleentwickler für schlechte arbeit belohnen.
 
Zuletzt bearbeitet:
Ne, es zeigt sich jetzt schon, dass viele moderne Titel selbst auf Low/Medium Details mit FSR / DLSS 2 nah an die 8GB VRam Nutzung kommen. Da gibt es nicht mehr viel Spielraum was "anzupassen".

Ok sind wir uns einige das Hogwarts Legacy ein aktueller Titel ist?
Ja ok dann bitteschön:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Ok sind wir uns einige das Hogwarts Legacy ein aktueller Titel ist?
Ja ok dann bitteschön:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Zeigt sehr schön, dass die 8GB in 1440p "High" bereits voll laufen. Dabei testet er auch noch ohne Raytracing, damit wäre dann auf jeden Fall Ende. Wenn das Spiel DLSS3 unterstützen würde, wäre auch damit Ende, denn das drückt den VRam Bedarf ja nochmal ein gutes Stück nach oben.

Sehr schade, denn gerade DLSS 3 könnte das Spiel in der Einstellung spielbar machen. Das Feature ist also auf einer 8GB kaum sinnvoll nutzbar, wird aber eifrig beworben.

Selbes gilt für Raytracing, die Karte ist zwar in der Theorie schnell genug dafür, bietet aber nicht die nötigen Reserven beim VRam um es sinnvoll nutzen zu können abseits älterer Spiele. Und das ist nur der Zustand Stand heute. In 1-2 Jahren wird man mit so einer Karte noch größere Kompromisse eingehen müssen.

Und Hogwarts läuft auch erst seit einem der letzten Patches mit 8GB halbwegs passabel. Zuvor gabs Nachladeruckler en Masse, jetzt sinds hier und da fehlende hochauflösende Texturen, die nicht mehr in den VRam passten. Ob das ein gewünschter Zustand für eine neue GPU über 400 Euro ist muss ja jeder für sich selbst entscheiden.
 
Wieso redest du von 1440P, es geht um 1080P was Nvidia genau so kommuniziert.
Es zeigt ein aktuelles Spiel das Anfangs selbst eine 3080 ruckeln lies, nun selbst auf einer 8GB 1080 einwanfrei läuft.

RTX schaltet man ab wenn man Budget Gaming macht, RT verändert nicht spürbar den Spielspaß.

Ich sag ja die Medien und Reviewer (die immer das neuste haben) haben den Leuten eingeredet das man High End HW braucht um ein Spiel wirklich im vollen Umfang genißen zu können.

Natürlich wird bei Spielen mit UE5 einiges mehr an HW Anforderung aufkommen wo vielleicht eine 1080 von der Rechenleistung an die grenzen kommt, aber leider macht es UE5 möglich das selbst miserable Spiele auf den ersten Blick toll aussehen.

Ich bin echt gespannt wie Erfolgreich z.B. "IMMORTALS OF AVEUM" von EA am Ende ist, weil aktuell kann man nur die UE5 Grafik etwas bewundern.
 
Zuletzt bearbeitet:
Wieso redest du von 1440P, es geht um 1080P was Nvidia genau so kommuniziert.
Es zeigt ein aktuelles Spiel das Anfangs selbst eine 3080 ruckeln lies, nun selbst auf einer 8GB 1080 einwanfrei läuft.

RTX schaltet man ab wenn man Budget Gaming macht, RT verändert nicht spürbar den Spielspaß.

Ich sag ja die Medien und Reviewer (die immer das neuste haben) haben den Leuten eingeredet das man High End HW braucht um ein Spiel wirklich im vollen Umfang genißen zu können.

Natürlich wird bei Spielen mit UE5 einiges mehr an HW Anforderung aufkommen wo vielleicht eine 1080 von der Rechenleistung an die grenzen kommt, aber leider macht es UE5 möglich das selbst miserable Spiele auf den ersten Blick toll aussehen.

Ich bin echt gespannt wie Erfolgreich z.B. "IMMORTALS OF AVEUM" von EA am Ende ist, weil aktuell kann man nur die UE5 Grafik etwas bewundern.
Mit den passenden Einstellungen und in FHD reichen 8 GB bei diesen Karten auch . Ich gehe mal davon aus , das solche Karten gerade für MMORPG Spieler interessant sind und für WOW oder FF werden die super sein !
 
Ich will ja nicht abstreiten, das bestimmte Games in bestimmten Settings vielleicht nicht reichen können.

Nur gehört zur Wahrheit auch dazu, das man immer schon bestimmte Games - vor allem auch Tripple A Games - mit weitaus "kleinerer" Hardware spielen konnte.

Mein Bruder hat CP2077 als es rauskam auf einer RX 470 in 1080p mit mittleren bis lowen Details gespielt bei 40-50 FPS.
Schön ? Sicher nicht.
Nur geht es eben.
Was viele sicher abstreiten würden.

Das ist für richtige Hardware Nerds unvorstellbar die seit Monaten von allen Seiten tagtäglich eingetrichtert bekommen, das Hardware X nun nicht mehr reicht.
Weil ihre 53 Reviewer die ihnen das jeden Tag auf´s neue erzählen und die Message muss so nun auch in sämtliche Foren weitergetragen werden.

Wenn man die Message dann nur leicht verdreht und sagen würde:" Ja aber in Zukunft reicht die 8GB auf gar keinen Fall mehr"
Sicher technischer Fortschritt ist ja auch richtig.
So lief das zum Glück immer. (Sonst hätten wir ja auch nichts mehr irgendwann worüber wir uns austauschen können)

Aber die Entwicklung in Spielen ist sicher noch nicht da, wo die Aussage auf JEDEN Gamer zutrifft, das eine 8GB Karte für niemanden mehr ausreichend ist.
Mit den passenden Einstellungen und in FHD reichen 8 GB bei diesen Karten auch . Ich gehe mal davon aus , das solche Karten gerade für MMORPG Spieler interessant sind und für WOW oder FF werden die super sein !
Richtig.

Gibt genug Karten die Leistungstechnisch schnell sind, v.a. die 3070Ti ist denke so die schnellste 8GB Karte.
So eine Karte ist der Knaller für WoW, FFXIV, PUBG, CS:GO etc. etc.

Weil die Games nun mal nicht viel vom VRam beanspruchen.
Aber eine 3070Ti oder 3070 enorm hohe Framerates auf den Bildschirm bringen.

FF geht auf einer 3070Ti im mit so anspruchsvollsten Gebiet mit ~80 FPS in 4K.
Leistung haben halt einige 8GB Karten genug.
 
Zuletzt bearbeitet:
Es geht nicht darum das Spiele nicht mehr starten das tun sie aber zu welchen preis
Ist die gpu etwa 4-6 Jahre alt kann man das akzeptieren aber nicht bei einer neuen gpu.
Und genug Leistung haben die neuen gpu ja
Es mangelt nur an genügend Vram.
Und gerade vram sorgt für schöne games den nix am Pc wird extra dafür Entwickelt, Konsole Zuerst .
Einzig indie Titel können am Pc designt werden und diese sind auf deutlich geringere Anforderungen aus.
Dafür braucht man aber keine neue GPu kaufen.
 
Status
Für weitere Antworten geschlossen.
Zurück