Bin echt am überlegen ob ich mir noch ne 7900 GRE hole, RDNA 4 soll ja nicht so gewaltig besser werden. Liegt mit 244 W noch relativ gut für die Leistung, oder?
Das kann dir keiner sagen, da man das ganze nicht weiß. Auch wenn hier einige 95% der Leistung eine RTX 4080 als gesetzt stehen, so ist das nicht sicher. Kann auch sein, dass da einfach jemand ein Gerücht in die Welt gesetzt hat und sich nun daran aufgeilt, dass die Leute es nachplappern.
Was man weiß, bzw. vermutet:
- Raytracingeinheiten der dritten Generation sind quasi gesetzt, damit würden sie zu Nvidia aufschließen.
. vom Preis hat keiner eine Ahnung. Eine sind der Überzeugung, dass sie die Leistung der RTX 4080 für unter 600€ bekommen werden. Kann aber auch sein, dass es nur die Leistung einer RTX 4070Ti Super wird und der Spaß 800€ kostet.
- Leistung: siehe Punkt oben, alles ist möglich.
- Wie sich FSR4 auf den alten Karten machen wird ist auch fraglich. Gut möglich, dass die neuen Karten da einen ordentlichen Vorsprung haben werden.
- ein vollwertiger DP 2.1 gilt als gesetzt. Das ist wichtig, wenn du dir in Zukunft einen neuen 4K240 Monitor kaufen willst.
Von daher: mach was du willst.
Wenn du jetzt Bock auf eine neue Karte hast, dann hol sie dir. Beschwer dich aber nicht, wenn sie im Raytracing nicht so viel besser, als deine RTX 3060 ist und du in einem halben Jahr viel mehr für dein Geld bekommst. Wenn du warten willst, dann warte. Ich persönlich würde mit deiner Karte wohl noch 4 Jahre auskommen, da drückt der Schuh nicht wirklich, dank DLSS und FSR. Beschwer dich dann aber nicht, wenn du in einem halben Jahr nur etwas mehr Leistung bekommst und dafür deutlich mehr blechen mußt. Außerdem kann ein Mining-/KI Boom kommen.
Ich persönlich hab mir eine RTX 4080 Super geholt und den Sack zugemacht, statt zu warten. (btw: neues System in die Signatur eintragen)
Bei über 300 Watt gehe ich davon aus, dass die Leistung mind. der 7900xt übertroffen wird. Macht doch sonst keinen Sinn.
Natürlich ergibt das Sinn und zwar, wenn AMD einen kleinen Chip per Brechstange sehr hochprügelt. Wenn AMD die Leistung einer RTX 4070Ti erreicht und wesentlich effizienter ist, dann ist das ganz nett. Wenn sie jedoch die Leistung einer RTX 4080 erreicht, dann ist das wesentlich besser und kaum einer interessiert sich dafür, dass die Karte nur so effizient ist, wie eine zwei Jahre alte RTX 4080.
Gerüchten zufolge sieht es bei Nvidia wohl unterhalb der RTX 5090 ähnlich aus.
Immer noch witzig das der neue Stecker als Fehlkonstruktion bezeichnet wird. Nur weil ein paar, sorry, deppen die Teile nicht richtig anschließen können.
Du bist natürlich das Supergenie, das in die Zukunft blicken kann. Mal zu den Fakten: vor der Problematik hat kein Hardwaretutorial dazu geraten, die Stromanschlüsse der Graka einzustöpseln, bevor man sie in den Slot einbaut, danach schon. Von daher waren alle, außer dir natürlich, Deppen.
Btw: kannst du auch die Lottozahlen für nächste Woche Samstags vorhersehen?
Entgegen der Meinungsäußerung im Bericht gehe ich davon aus, dass die Anschlussart der Karte definitiv ihren Einfluss auf die Käuferschaft haben wird. Wir reden nicht von 10% PC-Nerds, sondern vom Rest der Spieler.
Für die meisten ist es relativ egal, da den Netzteilen noch beide Stecker beiliegen. Man nimmt einfach, was dabei ist. Kann sein, dass es den einen oder anderen gibt, für den Kabelmanagement alles ist und der dann zu einer RTX 5070Ti von Nvidia greift.
Ich kaufe jedenfalls keine Karte mit 300 Watt oder eine mit neuem Stromstecker, wenn ich dafür dann gleich ein neues Netzteil benötige.
Es sind Adapter dabei, damit kannst du auch ein über 15 Jahre altes Netzteil nutzen. Ob man das sollte, steht auf einem anderen Blatt, aber man kann eine RTX 4090 an einem uralten Netzteil zum laufen bekommen.
Zudem finde ich die Gerüchte mit 300 Watt und mehr als äußerst befremdlich und irgendwie nicht plausibel.
Wenn man einen kleinen Chip mit der Taktbrechstange bearbeitet, dann kann das sehr wohl stimmen.
Jedenfalls aber ein gutes Stück besser als die Vorgängerserie, nicht identisch, dann kann man ja gleich einfach umlabeln, gell?
Nein, wenn der Chip kleiner ist, dann spart das Unternehmen Geld.
Man muß auch berücksichtigen, dass AMD den großen Chip eingestellt hat. Von daher ergibt es Sinn, da soviel Leistung, wie nur möglich herauszuquetschen, da es sonst nichts gibt, das gegen die schnelleren Nvidiakarten antritt.
Ich gebe nichts mehr auf diese Balken, nachdem ich auf meiner 7900XTX AlanWake 2 mit RT gespielt habe Diashow.
Wie, das ist gar kein rundenbasierendes Strategiespiel aus der 3 Person perspektive?
Ich würde auch definitiv zur neuen Revision raten, wenn man schon ein neues Netzteil kaufen muss. ATX 3.0 ist einfach ein Chinaböller.
Tut mir leid, aber die Aussage ist einfach nur Blödsinn.
Gegen den Lärm kann man was tun. Und ob Dein Rechner nun 600 oder 500W insgesamt verbraucht wirst Du in der Temperatur so schnell nicht merken. Nach einem Tag zocken hast Du dann vielleicht nen Grad Unterschied im Zimmer. Wenn Du nie lüftest.
20% mehr Abwärme ist ein großer Unterschied, wenn man es kühlen will. Nebenbei: 24h x 100W macht 2,4kWh. Das ist dann so, als würdest du einen 2,4kW Heizlüfter eine Stunde laufen lassen und danach ist deine Bude schon wärmer, als nur das eine Grad Differenz.