Im August 2021 wird meine R9 290 junge 7 Jahre.Nein weil Greta Thunberg dann einschreitet. Ehrlich 5 Jahre, nach der Zeit denkt keiner von Uns mehr an eine 3080TI .
Die ist immerhin von 2014.
Im August 2021 wird meine R9 290 junge 7 Jahre.Nein weil Greta Thunberg dann einschreitet. Ehrlich 5 Jahre, nach der Zeit denkt keiner von Uns mehr an eine 3080TI .
Ich wollte nicht Kommilitone schreiben. Er wollte damit Videos rendern aber irgendwie hat er es nicht geschafft die Plugins mit Adobe zum Laufen zu bringen. Dafür spielt er nicht wir sollten tauschen, mit meiner 3060 bekommt er bestimmt die Plugins zum Laufen und die 6900 ist beim Spielen viel schneller. Denke sogar beim Raytracing gleich auf.Dein Kumpel (oder besser guter Bekannter, denn wenn er wirklich Dein "Kumpel" wäre, würde er KEINE Karte von AMD kaufen) ist mir auf Anhieb sympathisch ...
MfG Föhn.
Wenn ich mir die iGPU Treiber bei meinem Arbeitslaptop ansehe.. die sind eher Meh...Da sie eine gute Treiberbasis (für die iGPUs) haben, kann man hier nicht von 10 Jahren Rückstand sprechen.
Meine R9 290X wurde 2015 durch eine 390X getauscht und verrichtet heute noch im 2. Rechner ihr Tagewerk ...Im August 2021 wird meine R9 290 junge 7 Jahre.
Die ist immerhin von 2014.
Die 290 meiner Frau werkelt aktuell in meinem Rechner im Bastelraum, den ich für Vorbereitung von 3D Druck nutze.Meine R9 290X wurde 2015 durch eine 390X getauscht und verrichtet heute noch im 2. Rechner ihr Tagewerk ...
MfG Föhn.
Dich als Technikfreund, der viel selbst testet, dürfte aber der Raytracing-Aufriss interessieren. Viel Bühne bekam das noch nicht (Zeitmangel), aber da lohnt sich auf jeden Fall ein genauer Blick - ist mein liebster Teil in diesem Monster von Artikel, quasi das Filetstück: https://www.pcgameshardware.de/Gefo...chmarks-Vergleich-mit-RTX-3090-1372951/2/#a26Nichts gegen dein super Review Raff, aber ich habs kaum gelesen. Ich habe noch kein einziges Review über diesen Mist gelesen.
Ich würde mir ehrlich wünschen, dass du in Zukunft mehr und aufmerksamer bei uns liest (das hatten wir recht prominent auf der Main) und dass auch nicht immer irgendwelche wilden Benchmarks zitierst, wo doch das Gute so nah ist. Beim aktuellen GPU-Geschehen auf dem aktuellen Stand zu bleiben ist schwierig, aber ich garantiere dir, dass ich genau dafür sehr viel Zeit und Herzblut investiere. Dazu zählt übrigens auch, das ganze Geschehen mit so viel Abstand wie möglich zu betrachten und somit objektive Artikel zu schreiben.Seit Wann ist denn die 3080FE >699€ ?
oder war Das nur mit weniger MwSt
Und damit kannst du in Full HD immer noch gut spielen.Im August 2021 wird meine R9 290 junge 7 Jahre.
Die ist immerhin von 2014.
Ich werde mich bessern. Schaue jetzt wieder häufiger bei Euch rein.Ich würde mir ehrlich wünschen, dass du in Zukunft mehr und aufmerksamer bei uns liest
... net schön wie Du über die Ergebnisse von "Kollegen" denkstund dass auch nicht immer irgendwelche wilden Benchmarks zitierst, ...
Was soll denn der Wattman Fehler sein?Ich möchte die Karte wechseln, weil mir der Wattman Fehler von AMD hart auf die Eier geht. Im Alltag kein Problem, doch starte mal Far Cry 4. Abstürze am laufenden Band. Bei mir kommt kein AMD mehr rein, selbst wenn sie in der nächsten Generation schneller sind als Nvidia. Sollen sie erstmal schauen, das sie das Problem gelöst bekommen
Ja, allerdings mach ich mir dann doch so langsam Sorgen um die Lebensdauer der Karte bzw. Karten.Und damit kannst du in Full HD immer noch gut spielen.
Ehrlich gesagt, keine Ahnung. Ich habe schon hier im Forum um Hilfe gebeten und sie auch bekommen. Aber der Fehler tritt immer und immer wieder auf. Hauptsächlich unter Last. Dann kommt es zu Abstürzen und der PC muss neu hochgefahren werden. LG
kann ich so jetzt nicht bestätigen raff.Die läuft wohl auch mit 500 Watt noch ins Powerlimit (in Ultra HD+). Das ist ein gewolltes Verhalten, der Chip reizt sich selbst so weit aus, wie man es ihm gestattet. Ließe man alle Transistoren mit offenen Limits schalten, würde es wohl nur kurz *peng* machen und die Lichter wären aus. Damit die Effizienz steigt, muss man mit der Spannung und dem Takt runter.
MfG
Raff
die 3090 finde ich jetzt nicht überteuert mit 1500...Stören nicht, ist mir nur aufgefallen.
Die 3090 ist auch überteuert, wie die ganze Generation halt.
Mehr als 12GB wären jedenfalls möglich gewesen, mit Anpassung am Speicherinterface.
Grad gelesen, die getestete Asus da hat eine UVP von 2014€.
Pure Gier!
Damit kann man die regler auch nicht full aufdehen ,hat ja a bisl mehr als die 3080 also mich haut es jetzt nicht von den socken.Ja wenn man eine sucht wie in deinem fall wechsel von 1080 ok denn ja aber sicher nicht für 3000 euroGroßes Lob an den Test - super umfangreich und ich muss einfach nochmal meine Freude über die neuen Benchmark-Grafikkarten-Anklick-Möglichkeiten zum Ausdruck bringen - grandios!
Wenn das Ding wirklich zur UVP zur Verfügung stünde, dann juckt es mich schon extrem unter den Fingernägeln
Die 980Ti meiner Frau fünde dann einen neuen Besitzer - sie bekäme meine 1080Ti für Ihr FHD Setup und ich kann unter 4K/UHD endlich auch in aktuellen Titeln mal wieder die Regler nach rechts drehen
Getrübt wird das Gesamtbild jedoch vom Speicher und vom Verbrauch - hier hätte ich auch 16GiB super gefunden.
das hat aber was mit den langsameren speicherinterface zu tun bei amdWelche wären das? In den Benchmarks sehe ich davon nix, da schlägt in 4K sogar die 3080 mit 10 GB die 6900XT in mehreren Titeln.
naja ich hab bisher kein problem alles auf 4k ultra@60 zu zocken auf einer 3090Damit kann man die regler auch nicht full aufdehen ,hat ja a bisl mehr als die 3080 also mich haut es jetzt nicht von den socken.Ja wenn man eine sucht wie in deinem fall wechsel von 1080 ok denn ja aber sicher nicht für 3000 euro
Effiziente, leise GPU für 4K? Gibt es doch – allerdings muss man das "ab Werk" tatsächlich einschränken und über die Preisschilder hülle man auch lieber den Mantel des schweigens.Ich mein, wir sind Ende der 60er aufm Mond gelandet (sind wir doch... ). Warum bekommt es eine Firma dann 2021 nicht gebacken eine effiziente, leise Graka "ab Werk" für 4K zu basteln. Noch dazu ein Unternehmen, welches auf jahrelange Erfahrung mit den Pixelludern zurückgreifen kann...
Können die oder wollen die nicht? Nachtigall, ick hör dir trapsen
Gruß
Ich geh jetzt einfach mal davon aus, dass Du mit 500 € die Differenz der beiden UVP´s (3080 mit 699 € vs. 3080 Ti mit 1199 €) meinst. Allerdings wären/sind es bei den Beiden Karten lediglich 2 GB VRAM (10 vs. 12 GB).yaj da sondse ja... 4 gb vram für 500euro.... viel spaß beim kaufen ?