bynemesis
Software-Overclocker(in)
Taschengeld vom Arbeitgeber. Ist das auch ok?Du bekommst noch Taschengeld oder? Jemand der sein Geld mit ehrlicher Arbeit verdient würde wohl kaum eine solche Aussage treffen.
Taschengeld vom Arbeitgeber. Ist das auch ok?Du bekommst noch Taschengeld oder? Jemand der sein Geld mit ehrlicher Arbeit verdient würde wohl kaum eine solche Aussage treffen.
Würde mich auch seehr stark interessieren ob eine 6900XT schneller / besser sein soll als eine 7900XT.Wünschte PCGH würde da mehr testen! Gerne auch mit Wunschliste, welche Spiele für die User hier von Bedeutung wären.
wenn ich mich recht erinnere war der strom bei hetzner colocation bei ~25ct, nun guck jetzt mal. das doppelte. naja strom ist auch deren hauptaufgabe neben internet/peering.Wo gabs bitte eine 100% Inflation? Nichtmal Strom ist so viel teurer geworden.
Bei Technik sind die Preise im letzen jahr auch eher gefallen. Je nach Produkt 25-50%
Falsch. Der Verbrauch ist ein Faktor, mit dessen Hilfe man die Effizienz bestimmen kann.Der Verbrauch ist doch bloß ein Ergebnis der Effizienz und der ausgegebenen Leistung.
Nein, nicht unbedingt und diese "Bildfehler", die immer alle als Argument angeben, musst du idR. mit der Lupe in Standbildern suchen, also hört doch endlich auf mit dem Mist.Ja aber darunter sieht man auch eher Bildfehler da das eben nicht perfekte KI-Bild länger angezeigt wird.
Oha man...Die Latenz wird übrings schlechter, Reflex lässt sich schließlich auch ohne DLSS 3 aktivieren.
Wo hast du denn bitte den Unfug her? Das stimmt absolut nicht, sorry.Ja und Nvidia grillt gerne mal deine Karten bei hohen FPS, hat kaum Relevanz da es eben nicht die Regel sondern eine absolute Aufnahme ist aber scheinbar geht es hier ja nur noch um Sonderfälle .
Sag bloß? Deshalb waren es ja im 3D Mark auch über 15%. In Spielen waren es im Durschnitt 15%. In Ray Tracing waren es -30%.Du nimmst ernsthaft 3DMark als Grundlage für deine Zahlen und Behauptungen? Ganz großes aua. Im 3DMark war RDNA2 schon immer stark, im realen Gaming Betrieb sieht es dann aber oft anders aus. Welche Spannung und welcher Takt lag beim UV an?
Ich habe alles versucht und wenig später eine 3080 von einem Scalper für 1000 Euro gekauft.Es gab anfangs massig RTX 3080er für 700-800€, für den Preis habe ich meine auch bekommen. Später nicht mehr, nichtsdestotrotz war die UVP auch später noch bei unter 800€.
Weil AMD sehr nahe an der 3090 dran war.Eine 3090 hatte eine UVP von 1500€ und war nicht weit weg von der 3080.
Diese Generation benötigt Nvidia keinen Preisbrecher.Eine 4090 kostet ca. 1700€ (also 200€ mehr als die 3090), setzt sich aber ein gutes Stück von der 4080 ab.
Aber da der Markt mit FHD und WQHD überfüllt ist und kaum jemand auf 4K spielt wundern mich es nicht das AMD mit den guten Preisen so Punktet. Für 4K Spieler wie mich sind diese Karten völlig uninteressant.
AMD ist eben für gut informierte Spieler*innen die Nummer 1 und uneingeschränkte Empfehlung wenn es um Leistungsstarke Produkte geht.
Da hat Nvidia schlichtweg das Nachsehen, da sie nicht mehr mit guten Produkten, sondern mit Skandalen wie katastrophalen Treiberproblemen, Brandproblematik, usw. auffallen.
Es hat ja einen Grund warum immer mehr Gamer*innen zu AMD Produkten wechseln und anschließend nicht mehr zu Nvidia zurück möchten.
AMD bleibt somit bis auf weiteres in Fachkreisen die Nr. 1 wenn es um CPU oder GPU Empfehlungen geht.
Ich warte immer noch auf Takt und Spannung, die beim UV der 3090 genutzt wurden.Sag bloß? Deshalb waren es ja im 3D Mark auch über 15%. In Spielen waren es im Durschnitt 15%. In Ray Tracing waren es -30%.
Nein, lieber Chatstar, das ist falsch. Nvidias Marktanteil ist > 80%.Es hat ja einen Grund warum immer mehr Gamer*innen zu AMD Produkten wechseln und anschließend nicht mehr zu Nvidia zurück möchten.
AMD bleibt somit bis auf weiteres in Fachkreisen die Nr. 1 wenn es um CPU oder GPU Empfehlungen geht.
AMD ist eben für gut informierte Spieler*innen die Nummer 1 und uneingeschränkte Empfehlung wenn es um Leistungsstarke Produkte geht.
Da hat Nvidia schlichtweg das Nachsehen, da sie nicht mehr mit guten Produkten, sondern mit Skandalen wie katastrophalen Treiberproblemen, Brandproblematik, usw. auffallen.
Es hat ja einen Grund warum immer mehr Gamer*innen zu AMD Produkten wechseln und anschließend nicht mehr zu Nvidia zurück möchten.
AMD bleibt somit bis auf weiteres in Fachkreisen die Nr. 1 wenn es um CPU oder GPU Empfehlungen geht.
Ich warte immer noch auf Takt und Spannung, die beim UV der 3090 genutzt wurden.
Nimm es mir nicht übel, aber Frame Generation versteht hier kaum einer, weil niemand bereit ist sich damit zu beschäftigen und am Ende die Fehlannahmen, die meist von AMD Usern gestreut werden um das Feature schlecht zu reden, übernehmen.Frame Generation verstehe ich überhaupt nicht, was soll ich mit zusätzliche Frames die die Reaktion nicht verbessern und eigentlich auch nur gut funktionieren wenn ich bereits 60-80 FPS habe.
Warum wohl ?Wieso eigentlich ein neuer Account?
Ah ja, wenn man sich an prozentuale Werte erinnert, sollte das auch bei Taktraten und Spannungen möglich sein. Oder man hält das irgendwo bildlich/schriftlich fest. 3DMark lädt auch jedes Ergebnis hoch, damit Online-Vergleiche möglich sind.Sorry ich weiß es nicht mehr, ich habe die Karte seit einem halben Jahr nicht mehr.
Du machst überhaupt nichts falsch deine Aussage ist völlig richtig.Komisch, ich zock mit meiner XTX gerade das auf Radeons eher kaputte Forza Horizons 5 mit RT Ultra in 5760x3240p + FSR Q (=UHD) durchgängig im gesetzten 60Fps-Limit mit um die 280-320W Verbrauch... (und ballere damit 16 GB VRAM zu)
Was mach ich falsch, dass diese Karte für mich nicht völlig uninteressant wird?
Du liest andere Test wie ichNein, ganz bestimmt nicht. FSR neigt nach wie vor selbst unter Qualität zu höherer Flimmerneigung, erst in The Witcher 3 kurz angemacht und danach wieder abgeschaltet. Bei Balanced oder Performance ist DLSS immer schwächer.
Hier nicht, da nicht, in Forspoken auch nicht, hier auch nicht, Hogwarts auch nicht, Witcher auch nicht.
In den ganzen kürzlichen Tests von Computerbase habe ich nicht ein Beispiel gefunden wo FSR 2 ein besseres Ergebnis oder ein gleichwertiges attestiert wurde.
19 aktuelle Spiele unterstützen DLSS 3.0. Das sind schon einige.
Ich würde das ehr mit anderen Hobby vergleichen, es gibt genug Leute die für anderes Sachen Summen ausgeben wo ich Zahnschmerzen kriegeIst wie bei Autos mit viel PS.
Hat man das Geld und es tut einem nicht weh kauft man es wenn nicht dann lässt man es.
Unötig aber es macht mich glücklich ?
Wenn der Anteil von Intel in einem Monat um knapp 10% steigt ..Warum? Weil sie nicht das gewünschte Ergebnis anzeigt?
Es gibt dort einen ungewöhnlichen Sprung an Nvidias Karten der alten Generation, da stimmt wohl etwas nicht, jedoch sind die Zahlen der letzten Monate stabil, passt ergo schon.
https://store.steampowered.com/hwsurvey/videocard/
Wenn AMD sich jetzt ein wenig mühe gibt bzw. sich nicht ganz dämlich anstellt, kann diese "Markentreue" auch ganz schnell zu Gunsten von AMD kippen.
Du bist NVs (PR Abteilung) ihr Lieblingskunde !
Nachdem meine 3090 zum wiederholten male (3x) in Diablo 3 gestorben ist, bin ich ein gebrandmarktes Kind.
Hmm komisch, meine 4080 zaubert mir seit ein paar Tagen ein sehr fettes Grinsen aufs Gesicht. Allerdings stehe ich auf Raytracing wo AMD halt eine Generation zurückhängt.
Die schnellste Karte war schon immer die teuerste und somit nur für Randgruppen. Zähle ich also nicht als Argument.
4. Treiber, schwachsinn
Es gab anfangs massig RTX 3080er für 700-800€, für den Preis habe ich meine auch bekommen. Später nicht mehr, nichtsdestotrotz war die UVP auch später noch bei unter 800€..
Wo hast du denn bitte den Unfug her? Das stimmt absolut nicht, sorry.
Es hat ja einen Grund warum immer mehr Gamer*innen zu AMD Produkten wechseln und anschließend nicht mehr zu Nvidia zurück möchten.