News Geforce RTX 4070 Ti: Leak mit 3DMark-Performance und Bild der GPU

Habe meine RX 6700 XT verkauft und spiele aktuell mit einer GTX 1070 auf WQHD.
Ich warte noch bis zum 12 Januar, dann endscheide ich mich für einer dieser Karten :

7900XTX,7900XT,4080 RTX ,4070Ti.

Mal sehen ,welche am Ende es sein wird. Ich hätte schon Lust auf RT und davon hält mich der kauf der neuen Radeon noch ab.

In Raster sind die schnellgenug aber mit RT sieht es schlecht aus.
Dann lieber 1300 Euro in eine 4080 investieren und Mann es bedient.

Möchte einfach bei der Karte die 1000 Euro aufwärts kostet keine Nachteile in Sachen Bildqualität.
 
Zuletzt bearbeitet von einem Moderator:
Die USD-MSRP ist idR ohne Umsatzsteuer, weil es in den USA keine einheitliche Umsatzsteuer gibt. Mit Umsatzsteuer und Scheinargumenten wie Logistik, Wechselkurs pp. werden aus 800 USD ganz schnell über 1k EUR.
Bitte Beiträge nicht nur selektiv lesen. Noch mal: Ein Blick auf die aktuellen MSRPs und UVPs der neuen AMDs und Nvidias - für die das, was du oben schreibst, ja in genau derselben Weise gilt wie für die kommende 4070Ti - zeigt dir, dass 1000+ Euro einfach Quatsch sind.

Der generelle und ziemlich einheitliche UVP-Aufschlag gegenüber der MSPR liegt - bei AMD und Nvidia - aktuell bei etwa 15% und läuft bei $800 MSRP auf €930 UVP raus. Warum sollte es da denn jetzt ausgerechnet bei der 4070Ti einen krassen Ausreißer auf 25% oder mehr geben? Für deine Preispanik gibt es weder Argumente noch Hinweise. Und Wechselkurse als Scheinargumente zu bezeichnen, macht dich als Diskussionspartner auch nicht gerade ernstzunehmender.
 
Habe meine RX 6700 XT verkauft und spiele aktuell mit einer RTX 1070 auf WQHD.
Ich warte noch bis zum 12 Januar, dann endscheide ich mich für einer dieser Karten :

7900XTX,7900XT,4080 RTX ,4070Ti.

Mal sehen ,welche am Ende es sein wird. Ich hätte schon Lust auf RT und davon hält mich der kauf der neuen Radeon noch ab.

In Raster sind die schnellgenug aber mit RT sieht es schlecht aus.
Dann lieber 1300 Euro in eine 4080 investieren und Mann es bedient.

Möchte einfach bei der Karte die 1000 Euro aufwärts kostet keine Nachteile in Sachen Bildqualität.
Von Radeon würde ich dir derzeit stark abraten.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Falls die wirklich einen Rückruf starten müssen, sind ist die 7900 XT(X) vorerst aus dem Rennen. Nvidia wird's freuen.
 
Von Radeon würde ich dir derzeit stark abraten.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Falls die wirklich einen Rückruf starten müssen, sind ist die 7900 XT(X) vorerst aus dem Rennen. Nvidia wird's freuen.
Ist gut möglich, dass das die besseren Custom Modelle der 7900XTX nicht in dem Maße betrifft,
aber das wird wan dann sehen...
Ich gehe davon aus, dass AMD das vermutlich über ein FW-Update löst.
 
Bitte Beiträge nicht nur selektiv lesen. Noch mal: Ein Blick auf die aktuellen MSRPs und UVPs der neuen AMDs und Nvidias - für die das, was du oben schreibst, ja in genau derselben Weise gilt wie für die kommende 4070Ti - zeigt dir, dass 1000+ Euro einfach Quatsch sind.

Der generelle und ziemlich einheitliche UVP-Aufschlag gegenüber der MSPR liegt - bei AMD und Nvidia - aktuell bei etwa 15% und läuft bei $800 MSRP auf €930 UVP raus. Warum sollte es da denn jetzt ausgerechnet bei der 4070Ti einen krassen Ausreißer auf 25% oder mehr geben? Für deine Preispanik gibt es weder Argumente noch Hinweise. Und Wechselkurse als Scheinargumente zu bezeichnen, macht dich als Diskussionspartner auch nicht gerade ernstzunehmender.
Es wird von der 4070Ti aber keine FE geben, also musst du ohnehin noch einen Preisaufschlag veranschlagen für die Custom Modelle der AiBs. Die wollen immerhin auch noch etwas verdienen. Ich lasse mich zwar gern positiv überraschen, aber realistischerweise sieht es zumindest derzeit so aus, als ob die 4070Ti zumindest um die 1k EUR - eher aufsteigend - kosten wird.

Wechselkurse sind im Übrigen ein Scheinargument - zumindest für Monopolisten wie Nvidia. Der EUR ist mittlerweile wieder deutlich stärker als der USD. An den Preisen hat das trotzdem nichts geändert.
 
Von Radeon würde ich dir derzeit stark abraten.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Falls die wirklich einen Rückruf starten müssen, sind ist die 7900 XT(X) vorerst aus dem Rennen. Nvidia wird's freuen.
Danke, dir für das Video.
 
Es wird von der 4070Ti aber keine FE geben, also musst du ohnehin noch einen Preisaufschlag veranschlagen für die Custom Modelle der AiBs. Die wollen immerhin auch noch etwas verdienen. Ich lasse mich zwar gern positiv überraschen, aber realistischerweise sieht es zumindest derzeit so aus, als ob die 4070Ti zumindest um die 1k EUR - eher aufsteigend - kosten wird.
Wenn es eine offizielle MSRP gibt, dann wird es auch eine offizielle UVP geben, auch wenn Nvidia selber keine FEs anbieten wird, und nur um genau die ging es hier, also fang jetzt nicht plötzlich mit irgendwelchen Customs an. (Abgesehen davon ist die UVP die Grundlage für alle anderen Preise, ob Custom-UVPs oder Ladenpreise.)
Wechselkurse sind im Übrigen ein Scheinargument - zumindest für Monopolisten wie Nvidia.
Wechselkurse sind eine ökonomische Realität, kein Scheinargument. Ob man Monopolist, Duopolist oder sonstwas ist, spielt dabei überhaupt keine Rolle. Das wäre dir auch klar, wenn du mal zwei Minuten darüber nachdenken würdest, wie du selbst deine Preise gestalten würdest, wenn du Dinge produzieren und ins Ausland verkaufen würdest.
Der EUR ist mittlerweile wieder deutlich stärker als der USD. An den Preisen hat das trotzdem nichts geändert.
Informier dich mal 'ne Runde. Nvidia hat aus genau dem Grund vor Kurzem erst die UVPs von 4080 und 4090 gesenkt.
 
Es wird von der 4070Ti aber keine FE geben, also musst du ohnehin noch einen Preisaufschlag veranschlagen für die Custom Modelle der AiBs. Die wollen immerhin auch noch etwas verdienen. Ich lasse mich zwar gern positiv überraschen, aber realistischerweise sieht es zumindest derzeit so aus, als ob die 4070Ti zumindest um die 1k EUR - eher aufsteigend - kosten wird.

Wechselkurse sind im Übrigen ein Scheinargument - zumindest für Monopolisten wie Nvidia. Der EUR ist mittlerweile wieder deutlich stärker als der USD. An den Preisen hat das trotzdem nichts geändert.
Man kriegt dann also eine 4070ti mit annähernd 3090(ti) Leistung und halben Speicher zum fast gleichen Preis.
Also quasi eine Economy 3090 :D
Juhu. na wer da nicht begeistert vom Hocker gerissen wird dem ist auch nicht mehr zu helfen ;)
 
Der AMD Wunschdenker der die fehlerhafte Vaperchamber mittels Firmwareupdate zur Funktion bringt :klatsch:.
Der "AMD Wunschdenker" von dem du redest, ist vermutlich länger Nvidia-Kunde als du Windelfrei bist... :hmm:

Davon mal ab, habe ich noch kein offizielles Statement von AMD oder deren Partnern gehört, was
letzten Endes die Quelle des Ganzen ist.
Dass bei einigen, isb. den Refernzkühlern der Anpressdruck oder generell der Kontakt zur GPU nicht optimal ist,
ist ja nun schon öfter behandelt worden, aber ob das der einzige Grund ist muss sich erst einmal noch herausstellen.

War ja bei Nvidias vermeintlichem Problem mit den CAPS auch nicht anders... Am Ende wars schlicht
n' schlechtes Balancing der Stromversorgung die über die FW angepasst wurde.
Trotzdem gabs von selbst erwählten "Foren-Gurus" und Möchtegern's, gleich n' riesen Shitstorm.
Und das selbe zuletzt beim 12VHPWR connector, den Nvidia nicht mal entwickelt hat.

Einfach mal Cool bleiben und abwarten was die richtigen Experten denn so herausfinden...
 
Zuletzt bearbeitet:
Bei Amd hat es wohl einen Fehler bei dem Zulieferer der vapor chamber gegeben.
Bis jetzt sind ja nur bei den Referenz Modellen von amd die Probleme aufgetreten, Konstruktion Fehler schließe ich fast aus da sonst ja alle karten betroffen wären.
Entweder Produktions Fehler oder der Praktikant hat bei der Fühlung der Vapor Chamber die falschen werte eingestellt oder etwas ähnliches.
Ein Software update wird da nichts helfen, nur ein tausch des Vapor chambers.
Für die betroffenen Kunden natürlich ärgerlich, stellt sich halt nur die frage wie viele betroffen sind ein paar hunderte ärgerlich , mehrere tausende super Gau für Amd.
 
GTX 970 4GB = 399€
GTX 1070 8GB = 449€
RTX 2070 8GB = 599€
RTX 3070 8GB = 599€
RTX 3070Ti 8GB = 699€
RTX 4070 12GB = 849€
RTX 4070Ti 12GB = 949€ ... wäre in der Line

RX7800 12GB = 799€ ?
RX 7800 XT(X) 12GB = 849(899)€ ?
RX 7900 XT 20GB = 999€ ... theoretisch ohne MPT nur PL=-10%=283W möglich
... ist natürlich blöd für User<UWQHD@144Hz, die net soviel Bums brauchen, bzw. mit FSR3 eh net erf.
... bleibt abzuwarten, ob AMD die Sparmodi@Fps-Limit noch besser in den Griff bekommt, weils nur dann <<283W sind
Das UVen per WM geht aber nach wie vor.(sollte dann schon<283W sein, je nach maxTakt)


btw.
Es ist natürlich noch sehr früh, um UVen abschließend beurteilen zu können, weil beide Colours evtl.noch zu restriktiv
bei den minV sind, ... mal schauen, ob die 4070Ti auch bei ca. 887mV dicht macht und wo ne 7800XT(X) sein wird

Anhang= gemessene Volt@stockCurve
 

Anhänge

  • 7900xt Volts@MHz.png
    7900xt Volts@MHz.png
    79,3 KB · Aufrufe: 22
Zuletzt bearbeitet:
Der "AMD Wunschdenker" von dem du redest, ist vermutlich länger Nvidia-Kunde als du Windelfrei bist... :hmm:

Davon mal ab, habe ich noch kein offizielles Statement von AMD oder deren Partnern gehört, was
letzten Endes die Quelle des Ganzen ist.
Dass bei einigen, isb. den Refernzkühlern der Anpressdruck oder generell der Kontakt zur GPU nicht optimal ist,
ist ja nun schon öfter behandelt worden, aber ob das der einzige Grund ist muss sich erst einmal noch herausstellen.

War ja bei Nvidias vermeintlichem Problem mit den CAPS auch nicht anders... Am Ende wars schlicht
n' schlechtes Balancing der Stromversorgung die über die FW angepasst wurde.
Trotzdem gabs von selbst erwählten "Foren-Gurus" und Möchtegern's, gleich n' riesen Shitstorm.
Und das selbe zuletzt beim 12VHPWR connector, den Nvidia nicht mal entwickelt hat.

Einfach mal Cool bleiben und abwarten was die richtigen Experten denn so herausfinden...
Nur Polemik und wirre Nvidia Strohmänner. Fehlerhafte Verdampfungskammern kann man nicht mittels Firmwareupdate fitmachen, hast du Lack gesoffen ?
 
Who knows, ob mit 25W-weniger per Treiberrestriktion das Throtteln weg wäre und die Chamber/Heatpipes gerade noch gehen.
aber
Bei dem Preis wird der User sicher die volle versprochene Leistung haben wollen und auch mal PL+15 benutzen.(x)
Von daher bleibt nur ein Umtausch/kostenloses Nachbessern. (wie seinerzeit mit der RX 5700XT Ultra von XFX)

(x) mit Lüfterprofil "laut" und Headset
 
Zuletzt bearbeitet:
Ist dein Beitrag ironisch? Spulenfiepen? DLSS 3.0 Feature für 200€ mehr als die RTX 3080?

Ich finde das unverschämt und nicht clever?

Ich finde man kann sich auch alles irgendwie schön reden...
Ich versuche gar nicht erst, ein Schnäppchen zu schlagen bei einer 3000'er Grafikkarte, die mich gar nicht interessiert. Du bist nicht der typische Aufrüstkandidat von einer 3080 12GB kommend, aber die bereits erwähnten Argumente verschwinden ja nicht, man sollte die Vorteile der RTX 4070 Ti nicht auf Spulenfiepen ja nein und DLSS 3.0 beschränken. Soll ich mich wiederholen? Das ist hier keine Beschäftigungstherapie. Was soll Jensen denn machen bei so vielen mit wenig Mühe programmierten Top Titeln? Große wie kleine Chips herstellen lassen muss wirtschaftlich vertretbar sein. Sie können nur angepasst werden an das, was TSMC und Samsung herstellen können. Lediglich die Software kann verbessert werden wenn Zeit da ist ohne Verbesserungen bei der Fertigung, wenn man vom eigenen Chipdesign überzeugt ist. Sind die Ansprüche zu abgehoben und "weltfremd" wie DragonX1979 geschrieben hat, kommt es zu solchen Situationen mit falscher Kaufberatung, verbratenen Watt und Unverständnis statt Bescheidenheit und Zufriedenheit.

Nur wenn du mehr Leistung pro Watt brauchst und langsam aber sicher die Leistungsaufnahme deines Rechners senken möchtest, könntest du umrüsten. 278 Watt mit Undervolting alleine für die GPU ist es nicht wert, die großen Ampere GPUs waren nicht der für mich beste Aufrüstpfad. Wenn du wirklich dein Sparschwein füllen wolltest, wäre auch ein kleineres Modell für dich passend ab sagen wir RTX 4050. Lies bitte vorherige Beiträge durch, das würde Schreibarbeit ersparen. Alles ab Intel HD Spieler werden hier angesprochen, jene die sowieso so lange knausern wollten oder mussten.

Den Großteil meiner Argumente kann ich jetzt nochmal raushauen, umso kürzer wird dann mein Kommentar beim Testbericht: Da muss die Krawatte sitzen.

1. Tolle Multimediafähigkeiten ohen Einbußen bei Quality of Life.

Diese ganzen Bilder pro Sekunde malen in Spielen ist eine schöne Sache und kann Leute mitnehmen, aber nur wenn die Maschine auch gute Manieren hat und dieser Hochleistungsanspruch sich in etwas Alltagstaugliches verwandelt. Das kann eine 3080 12GB nicht leisten, das Stück Silizium ist zu schlecht dafür, war aber früher am Markt erhältlich dafür.

2. Je nach Titel mal hinten mal vorne, das übliche Hin und Her

Wir werden ja sehen, was alles geleistet werden kann von der kleinsten Enthusiasten Grafikkarte, gerade am Limit bei Raster, VRAM und der Speicherbandbreite. Diese Karte ist in ihrer Ausstattung recht ausgeglichen.

3. Verfügbarkeit und Geld zusammengespart für das Tech Schwein hatte man ja Zeit für.

Ich kann auch bei Intel HD und RTX 3050 Mobile bleiben, nur was ist mit allen, die schon wieder nicht zum Zuge kommen? Da empfehle ich lieber eine 4070 Ti, auch wenn kleinere Modelle es auch tun würden. Wir alle haben ja einstecken müssen im kaputten GPU Markt, aber die Zeit auch genutzt als Vorbereitung für bessere Zeiten.

4. Meta: Die Karte kann mehr und hat alle Nachteile von Ampere nicht.

Naja bis auf VRAM und Preis, aber ich kann dir gar nicht sagen was von beiden mehr WAYNE ist. :D
Ich finde man kann sich auch alles irgendwie schön reden...
Ja, du musst nur für dich entscheiden, ob du selbst davon Gebrauch machst und ob du das bei anderen tolerierst. Würden die Grafikkarten nicht tatsächlich besser, würde das kaum noch jemand kaufen. Dann hätten wir noch viel weniger Umsatz im Grafikkartenmarkt. Darauf muss man sich als Käufer verlassen können, dass die Tester das Ausmaß der Verbesserungen betont.

12GB ist viel ganz ehrlich, in 30 Jahren vielleicht nicht mehr. Was sind wir doch bescheidene Leute. Jetzt ist Rasterleistung pro Watt wichtig. Wenn du dir noch mehr erhofft hast von dieser AD104 Grafikkarte, dann lasse sie links liegen. Ich jedenfalls spreche eine Kaufempfehlung aus.

Einfach mal den ganzen Dschungel, den Trouble und das Labyrinth selbst umgehen, den ganzen Tech Tree skippen und sofort zum Ziel gelangen. Wir helfen uns gemeinsam durch diese schwierige Zeit, gerne auch mit einem starken Hirten, der die Dinge rein mit Mathematik und Logik einordnet, bevor die Habgier die Leute verschlingt. Da hat die 4070 Ti das Zeug zum Star.
Für 700€ nehm ich gleich 2 Stück ^^ ......bei den Preisen fühlt man sich wie am Basar, die nicht verhandel zahlen das 3fache wie der, der Verhandelt.
Gegenangebot: 30€ für eine GT 710 oder 110€ für eine GTX 1630. Erst einmal schön Strom sparen. Es gibt ja auch andere Kunden, die auch nett sind. :D

Vor allem kicken sich doch AMD und Nvidia nicht gegenseitig aus dem Grafikkartenmarkt. Ihnen hat es gar nicht gut gefallen, ihre Grafikkarte zum 2 1/2 fachen Preis auf dem Parkplatz gehandelt zu sehen. Die meisten Leute würden sich eher standrechtlich erschießen lassen als wegen WoW oder was weiß ich eine neue Grafikkarte kaufen zu müssen, nur damit man mitspielen kann. Gruppenzwang spielt gar keine Rolle, wenn man gute Systeme zusammenbauen möchte.

@DragonX1979 : 4K und höher ist eher bei älteren und weniger speicherhungrigen Spielen leicht zu stemmen. 30 FPS in 13K bei Genshin Impact bei 400 Watt mit einer 4090 sind für Budget Spieler ebenfalls uninteressant. Ich stimme deiner Argumentation da vollends zu: Sehr viel auf einmal wollen kostet zu viel; der Anstieg an Rechenleistung ist bezahlbarer wenn halbwegs linear. PC Gaming wird weiter bestehen, wenn wir uns alle clever genug verhalten und mäßig genug aufrüsten.
Was für den Endkunden einzig und allein zählt ist Performance pro Euro/Dollar.
Wenn dann aber nur mit der Rasterleistung argumentiert wird und alles andere drumherum ignoriert wird, sprich die Grafikkarte total unbrauchbar ist, dann ist es eine schlechte Kaufberatung. Die 3080 könnte auch günstiger sein, ich will sie immer noch nicht haben. Ansonsten würde fast nur unpassender Müll gekauft. Deswegen:

"Was für den Endkunden einzig und allein zählt ist es kein einziges Kriterium auszulassen bei der Beleuchtung ob ein Produkt gut genug ist mit allen Stärken und Schwächen, denn das Gesamtpaket zählt." >> So geht das. :-X
Dementsprechend befinden wir uns weiterhin mehr oder weniger in Stagnation.
weniger, zumindest wenn ich mir das Gesamtpaket anschaue und es mit meinen Vorlieben und Wünschen abgleiche. Passt schon. Wer jetzt mit seiner schon großen Grafikkarte unzufrieden ist, hat natürlich Pech gehabt: Behalten ist nervig und aufrüsten ist teuer.
Denn eine leicht langsamere 3080 konnte ich die letzten paar Monate für einen leicht niedrigeren Preis von 800€ kaufen.
Wie war das mit Stagnation? xD Deswegen wollen ja viele eine neue Architektur und nicht ewig die großen Ampere, weil nicht mehr State of the art. Die Leute wollen im Top Bereich besseres Silizium oder echte Preisnachlässe. 800€ für eine 3080 klingt hart nach Sackgasse, weil sidegraden oder downgraden will man ja auch nicht. Bei Marktstart 700€ für die 3080 Founders Edition okay, aber die kleinen Ada Lovelace GPUs bieten das bessere Gesamtpaket. Ob auch sicher genug vor Scalpern wird sich noch zeigen.
Ganz ehrlich. Ich habe die RTX 3080 12GB und da ist aus preislicher und performanter Sicht die 4070ti völlig uninteressant. Die 12GB Variante der 3080 ist nochmal 4% schneller als die 10GB Version aber auch das merkt nicht wirklich jemand.

Der einzige Sprung der sich für Besitzer einer RTX3080 (10 o. 12GB) lohnt ist die 4080 16GB. Das werden aber viele nicht machen, wegen des zu hohen Preises. Und wer kauft heute noch eine Grafikkarte mit 12GB für 1000€ (4070ti)? Da ist der Wiederverkaufswert in 2 Jahren völlig im Eimer. Anders ausgedrückt: Wer interessiert sich heute noch für die 3070 mit 8GB VRAM?

4070ti??? Komplettes Desinteresse! Zukunft mies! Preis mies!
Jo pass auf, ich dachte folgendermaßen: Die 4080 16GB ist zu groß und zu teuer, der kleine AD104 Chip im Vollausbau bei der 4080 12GB dagegen günstiger und super sexy. Und auf diese 15-30% Leistung zur 4080 16GB kann ich locker verzichten. Die Kleine ist doch immer noch mega schnell, auch im Vergleich zu einer recht modernen 3050 Mobile. Alles durchgerechnet, Grafiken gelesen, analysiert, dann 1.100€ als Schmerzgrenze festgelegt und gut ist. Wenn du mehr Material kaufen möchtest in Form von VRAM, kannst du das auch tun und weniger als 1.000€ dafür bezahlen. Niemand hält dich auf. Ich dagegen würde auch 1.000€ bezahlen für eine 12GB Grafikkarte. Wenn die super ist, warum nicht? Wenn einfach alles stimmt was mir wichtig ist, kann sie 500€ kosten oder 1.100€ maximal, das spielt gar keine Rolle.

Die 3070 mit 8GB zum vernünftigen Preis finde ich besser als deine 3080. Aber auch sie wurde ausgelassen, weil für 499€ nicht verfügbar als Founders Edition zum Marktstart. 4080 16GB? Komplettes Desinteresse! 4090? Komplettes Desinteresse! 3080 heute noch? Komplettes Desinteresse! Vergangenheit mies! Preis mies! 278 W UV mies!

Wir achten schon darauf, keinen Schrott zu kaufen. Da gibt es Unterschiede in der Wahrnehmung und im Aufrüstpfad, obwohl das PC Sparschwein vielleicht ähnlich viele Euro pro Monat erhielt. Wir sind beide Spieler und unterscheiden uns da kaum, nur die Startpunkte waren andere und dann kam 2020 "höhere Gewalt" dazu. Wollen wir gemeinsam für dich einen Aufrüstpfad erstellen, ist das ein wenig komplizierter, aber machbar.

4070 Ti für mich? Oh yeah <3

Möchte einfach bei der Karte die 1000 Euro aufwärts kostet keine Nachteile in Sachen Bildqualität.
Je nach Energieversorgung bei dir profitierst du mehr von den gesparten Watt und hat so bei der RTX 6000er Reihe oder AMD 9000 schon die pefekte Karte verfügbar, vielleicht auch schon früher. Willst du unbedingt jetzt die maximale Leistung haben, musst halt an Netzteil, Gehäuse und den Preisen der größeren Karten denken. Mir reicht die 4070 Ti locker aus, das wäre schon das Endziel, das höchste der Gefühle. Viel Glück dabei, klare Gedanken zu finden hin zur Kaufentscheidung evtl. am 12. Januar.

Das Video von Roman "der8auer" Hartung zusammengefasst: AMD tut gut daran, in Zukunft sich nicht abfällig gegenüber Nvidia zu äußern und auch Nvidia lässt AMD am besten in Ruhe und macht sein Ding. Schöne Ansage von Roman.

Im Volksmund heißt das: Einfach mal die Fr***e halten. xDD

Das Steckerproblem betraf nur wenige Nvidia Karten, wobei man den Stecker einfach vorsichtig aber ganz reinstecken soll. Bei AMD sind alle Custom Kühlervarianten nicht betroffen, wenn du gerne eine XT oder XTX kaufen möchtest. Die MBA Modelle hat es erwischt, also das AMD Referenzdesign, welches auch bei Partnerherstellern wie ASRock, Sapphire und PowerColor vorzufinden ist.

Die Kühllösung in Form der Vapor Chamber hat ein Problem und Roman empfiehlt AMD trotz des finanziellen Schadens eine Rückrufaktion zu starten und nicht abzuwarten, bis Käufer einen RMA Fall anzeigen. Im englischen Video von Roman zu dem Thema sagte jemand im Kommentar Gamers Nexus meinte die Vapor Chamber trocknet aus. Natürlich würde ich mich freuen wenn dir eine 4070 Ti auch gut gefällt, aber da muss der Marktstart auch erst einmal reibunslos über die Bühne gehen. Natürlich zweifle ich keine Sekunde daran, dass das auch gelingt. :daumen:

Bezüglich der allgemeinen Performance Nvidia gegenüber meint Tom das Problem sei nicht das Chiplet Design, sondern AMD hätte bei RDNA3 eine etwas weniger radikale Änderung in der Architektur vornehmen können, nachdem ein Zuschauer meinte, man hätte sich weitere 3 bis 6 Monate Zeit nehmen können mit dem Marktstart und das, was RDNA3 ist, könnte RDNA4 sein, wobei erst dann weggegangen wird vom monolithischen Design hin zum vom Chip ausgelagerten Cache. Quelle: Broken Silicon 186.

Die Ursache für dieses RDNA3 Original Kühler Design wurde von "Moore's Law Is Dead" Tom und seinem Bruder Dan erklärt. Es geht um "Tarife", die zu zahlen sind, womit der späteste Launch Termin für RDNA3 der 15. Dezember war, auch mit unfertigen Treibern. Gemeint ist die hohe amerikanische Einfuhrsteuer für chinesische Waren in die USA hin: Das hat Nvidia mit seiner Lobbyarbeit um 9 weitere Monate hinauszögern können. Auch diese zusätzliche Belastung muss wohl in der Zukunft durch noch besseres Silizium, also eine bessere Fertigung, ausgeglichen werden.

Interessant wie dann nicht nur in den USA verfrüht, sondern weltweit der RDNA3 Marktstart gleichzeitig stattfand. Aber hehe, AMD arbeitet sich da durch und mit den kleineren Chips auf Basis von Navi32 und Navi33 wird das Problem schon behoben sein. Wenn AMD ab 12. Januar kaufen, dann alles was nicht Original aussieht, bis Entwarnung gegeben wird weil das Problem behoben wurde. Alternativ wenn es unbedingt Navi31 RDNA3 sein soll, kaufe trotzdem ganz bewusst eine Referenz MBA Karte als Ghetto-Lösung und dann siehe zu, wie du damit zurecht kommst mit Anleitung im der8auer Video, sofern der Kaufpreis stimmt. So verschlage wäre ich jedenfalls, das zu versuchen. Weil mehr VRAM Effizienz kostet, weil der Speichercontroller mehr zu tun hat, interessieren mich 20GB oder 24GB aber noch nicht. Perfektion ist mir da wichtiger statt alles auf Masse "getrimmt"

Von Radeon würde ich dir derzeit stark abraten.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Falls die wirklich einen Rückruf starten müssen, sind ist die 7900 XT(X) vorerst aus dem Rennen. Nvidia wird's freuen.
Dass Temperaturunterschiede in Kelvin statt in °C angegeben werden, habe ich in der Schule gelernt. :devil:

Wie Roman das einfach mal heraussucht und recherchiert ist Weltklasse. Und ich habe die letzten Wochen nichts gespielt, sondern mich vermehrt mit den neuen Grafikkarten beschäftigt. Da können wir in nächster Zeit ganz viele Dinge richtig machen und Vorbild sein.
Nicht? Also ich finde es schon schlimm, wenn ein Monopolist so schamlos sein Monopol ausnutzt. Nur traurig, dass AMD das mit der Bepreisung der 7900 XT(X) auch noch unterstützt, obwohl deren Fertigungsprozess deutlich günstiger sein soll. Der Gewinn wird in Zukunft voraussichtlich auch nicht mehr in Hardwareentwicklung fließen, da die Zeiten von Moore's Law vorbei sind. Sehr viel kleiner werden die Chips nicht werden können. Nvidia regelt mittlerweile ohnehin schon einen erheblichen Anteil über Software.
Die kommenden Prozesse bei TSMC lassen maximal 440mm² Chipfläche zu, womit ich mir gar keine Sorgen mache, dass kleine bis mittelgroße Chips auch monolithisch eine fantastische Performance bieten werden und dass wenn es größer sein muss, ohnehin mit Chiplets gearbeitet wird, Alles kein Problem. Von daher wird Nvidia die Gewinnmarge schon noch teils einsetzen für Forschung und Entwicklung, denn Cache lässt sich weniger gut verkleinern aus die Schaltlogik an sich, die "Kerne".
Wie hart beschnitten soll eine 4030 denn sein? Die 4070Ti ist nicht einmal mehr eine halbe 4090. Das sind 3 Stufen. Wenn man das weiterspinnt, wäre deine 4030 maximal 1/4 einer 4070Ti. Was willst du damit noch spielen können?
So etwas reicht für Millionen von Spielen locker aus an Performance, während 4070 Ti High End ist, so sehe ich die Einstellung. Mit einer 4030 und ihren Mulitmedia Fähigkeiten gelänge mir schon die Weltherrschaft, auch 3x. Wir reden hier ungefähr über die Leistung einer RTX 2060. Damit kann man doch so gut wie alles spielen, wenn auch mit mit 4K Ultra.

Wie stark teildeaktiviert eine 4030 wäre oder ob es ein noch kleinerer Chip tut, weiß ich noch nicht. Nur da der Abstand zu den in den Prozessoren integrierten Grafikeinheiten immer noch groß genug wäre, lohnt auch die Bedienung der Preisklasse unter 200€ bzw. 300€, so wie das früher selbstverständlich war. Sind es nur 6GB VRAM oder 8GB, fällt ein 11-12 GB Far Cry 6 mit Texturmod natürlich aus.

Ich hoffe das Beste.
 

Anhänge

  • So geht das.jpg
    So geht das.jpg
    31,6 KB · Aufrufe: 11
Habe meine RX 6700 XT verkauft und spiele aktuell mit einer GTX 1070 auf WQHD.
Ich warte noch bis zum 12 Januar, dann endscheide ich mich für einer dieser Karten :

7900XTX,7900XT,4080 RTX ,4070Ti.

Mal sehen ,welche am Ende es sein wird. Ich hätte schon Lust auf RT und davon hält mich der kauf der neuen Radeon noch ab.

In Raster sind die schnellgenug aber mit RT sieht es schlecht aus.
Dann lieber 1300 Euro in eine 4080 investieren und Mann es bedient.

Möchte einfach bei der Karte die 1000 Euro aufwärts kostet keine Nachteile in Sachen Bildqualität.
Sofern Du kein VR nutzt, würde ich zu einer 7900 greifen, da hast Du wenigstens eine zukunftssichere Menge VRAM.
Und wenn man Raytracing mal probieren möchte, dann sollte die Leistung auf dem Niveau einer Geforce 3090, die beide AMD Karten liefern, auch ausreichen um das Gimmick mal zu testen.
 
Keine Ahnung was ihr immer mit euerm VRam habt, scheinbar zockt hier jeder in 4K und alles auf Ultra!! Ich hatte hatte von 2020-2021 ne 3080ig am laufen, spiele in 5120x1440 und stand vielleicht ein oder zweimal vor dem Problem (was eigentlich kein wirkliches Problem ist) das der Speicher gen Maximum lief. Allerdings fehlen zu diesem Zeitpunkt auch schon die nötigen FPS, sodass man automatisch die Grafikeinstellungen zurückschraubt und dann auch der VRam kein Problem mehr darstellt. Und ne 6900XTX hatte zwar mehr VRam, konnte aber auch nicht wirklich besser performen. Also in meinen Augen ist diese "Zu wenig VRam " Diskusion ganz schönes Geschwätz und für viele AMD Jünger noch der einzige Grund auf Nvidia rumzumeckern.
Das ist meine persönliche Meinung und es muss sich keiner angegriffen fühlen. Guten Morgen ☕
Und ja, alle aktuellen Karten sind zu teuer...
 
@Blackman2106 : Guten Morgen

Ja, bei Texturmods eignen sich Grafikkarten mit viel VRAM aber wenig Rasterleistung noch am ehesten. Mit ist Leistung pro Watt und Euro wichtiger, also für den Fall dass man nur eines von beidem haben kann, ohne irgendwo anders zu federn.
 
Zurück