Selbe Leistung bei deutlich weniger Verbrauch, mehr VRAM, günstiger und bessere Software, dazu bessere Linuxunterstützung
Sehe in Tests nur mehr VRam und Linux.
Naja, was hat NV mit den Karten geschafft? Den bestehenden Vorsprung haben sie komplett eingebüßt und sind ähnlich wie beim Fön damals in die thermischen bzw. lasttechnischen Vollen gegangen und haben den Verbrauch der Karten einfach soweit erhöht, bis man irgendwie auf Augenhöhe war. Dazu hat man mit Marketinggetrolle erzählt wie toll das alles war.
Ich denke, hier läuft parallel schon deine eigene nicht objektive Wertung mit.
Die Karte setzte sich rund 30% von der 2080Ti ab, bei einer um 23% höheren Leistungsaufnahme (lt. PCGH Release Artikel)
Wieso RTX 2000? Reden wir gerade nicht von RX6000. Da war die größte zeitliche Überschneidung mit RTX3000.
Selbe Leistung bei deutlich weniger Verbrauch, mehr VRAM, günstiger und bessere Software, dazu bessere Linuxunterstützung
Naja, was hat NV mit den Karten geschafft? Den bestehenden Vorsprung haben sie komplett eingebüßt und sind ähnlich wie beim Fön damals in die thermischen bzw. lasttechnischen Vollen gegangen und haben den Verbrauch der Karten einfach soweit erhöht, bis man irgendwie auf Augenhöhe war. Dazu hat man mit Marketinggetrolle erzählt wie toll das alles war.
Die Karte setzte sich rund 30% von der 2080Ti ab, bei einer um 23% höheren Leistungsaufnahme (lt. PCGH Release Artikel)
Man hat also quasi nix wirklich gewonnen, sondern nur am Verbrauch gedreht und selbiges werden wir mit Blackwell erfahren!
Später ist etwas anderes und habe ich genauso geschrieben
Ja, je nachdem welche Farbe er mochte!
Mal ernsthaft, es gab zum Release ungefähr 1 Spiel was RT in ansehnlicher Optik auf den Schirm brachte, ansonsten waren es so "Techdemos". Bereits damals hat dieses Spiel aber soviel Performance gefressen, dass man auch mit NV aktiv die Auflösung reduzieren musste. Effektiv beinhalten die Releaseartikel nicht mal einen einzigen RT Benchmark und wenn man sich heute Spiele anschaut, schafft die 10GB Variante eigentlich keines mehr ohne interne Renderauflösungen aus den 80ern!
Rot war mit der 6er Serie einfach die deutlich stimmigere Karte zum Release, man bot eine gute Leistung bei moderartem Verbrauch mit hohem VRAM und ohne Spielerei. Ich hab ne 6900XT geschossen für UVP von 999 EUR und das war eine Karte die nicht weit weg war von einer 3090, die aber eben die Hälfte gesoffen hat! DLSS war später ein Grund eine der späteren RTX3er zu kaufen, auch wenn ich eigentlich immer davon abgeraten habe, da der VRAM abseits der 3090 einfach nicht deren Ernst sein kann. Heuer sehen wir, dass 10GB zu wenig sind und die Karten in den ersten Spielen schon richtig abkacken (gerade Percentile sehen oftmals richtig beschissen aus), 12GB kommen an die Grenze und 16GB? Richtig, die haben noch zwei Jahre vor sich.
P.S.
Aber, das sollte man dann eben auch in den Kontext setzen, die RTX4er Serie ist eben dann auch wie seinerzeit die GeForce 6er Serie, ein krachender Gegenschlag geworden.
Auf der zweiten Seite unseres Tests der Radeon RX 6800 (XT) gibt's die Benchmark-Ergebnisse und den GPU-Leistungsindex.
www.pcgameshardware.de
Man hat also quasi nix wirklich gewonnen, sondern nur am Verbrauch gedreht und selbiges werden wir mit Blackwell erfahren!
WEn zitierst du gerade... Kam das von mir.
Später ist etwas anderes und habe ich genauso geschrieben
hmmm
Ja, je nachdem welche Farbe er mochte!
Das mag für deine Wahrnehmung so gewesen sein. Halte ich aber für sehr wenig objektiv.
Mal ernsthaft, es gab zum Release
Welchen meinst du jetzt. Weil wenn du RX6000 meinst, dann wäre der Vergleich zur RTX3000 richtig.
Genau das meinte ich und da kann AMD nur bei VRam und Linux eindeutig punkten.
ungefähr 1 Spiel was RT in ansehnlicher Optik auf den Schirm brachte, ansonsten waren es so "Techdemos".
Vermutlich auch nur deine Wahrnehmung. Aber vorher sollten wir einmal klären welchen Zeitpunkt du meinst.
RX6000 Release, oder früher?
Bereits damals hat dieses Spiel aber soviel Performance gefressen, dass man auch mit NV aktiv die Auflösung reduzieren musste.
Naja, bei meiner RTX3060ti war ich auch schon froh, das die RT Performance so war, wie die war. Weniger hätte ich nicht haben wollen.
Effektiv beinhalten die Releaseartikel nicht mal einen einzigen RT Benchmark und wenn man sich heute Spiele anschaut, schafft die 10GB Variante eigentlich keines mehr ohne interne Renderauflösungen aus den 80ern!
Wann meinst du?
Weil in dem Release artikel den ich verlinkt habe, war die 3080 schon im Raster schneller, als die ähnlich teure RX6800XT.
Rot war mit der 6er Serie einfach die deutlich stimmigere Karte zum Release, man bot eine gute Leistung bei moderartem Verbrauch mit hohem VRAM und ohne Spielerei.
Nein, nicht pauschal. Aber dem wirst du warum widersprechen, weil grün nicht rot ist, oder wie?
Ich hab ne 6900XT geschossen für UVP von 999 EUR und das war eine Karte die nicht weit weg war von einer 3090, die aber eben die Hälfte gesoffen hat!
Auf der zweiten Seite unseres Tests der Radeon RX 6900 XT gibt's die Benchmark-Ergebnisse und den GPU-Leistungsindex.
www.pcgameshardware.de
Nochmal, ich glaube du verwechselst da etwas. Hier schneidet die 6900XT nicht so ab, wie du sagst. Auch der Verbrauch...
Die 3090 leistet mehr und verbraucht dabei fast nur proportional mehr und absolut sind das 55W. Nichts hälfte, nichts 6900XT pauschal schneller als 3090.
DLSS war später ein Grund eine der späteren RTX3er zu kaufen, auch wenn ich eigentlich immer davon abgeraten habe, da der VRAM abseits der 3090 einfach nicht deren Ernst sein kann.
Nicht, späteren RTX3000.
RTX3090 war September 2020. RX6900 XT war Dezember 2020.
Bezüglich VRam, das ist deine Meinung aber praktisch gab es mehr Spiele bis heute die auf der 3080 besser liefen, als auf der 6800XT.
Klar zuletzt gibt es sicher öfter Spiele bei denen man an den Einstellungen bezogen auf VRam mehr justieren muss. Auf der anderen Seite gibt es auch öfter den Fall das bei AMD mehr justiert werden muss, weil zum Beispiel die RT Leistung noch geringer ist.
Das muss jeder für sich bewerten.
Ich selbst finde, das man die Kirche im Dorf lassen muss, da das auch schon vier Jahre her ist. Das ist alte Hardware und die längste Zeit, der Gebrauchsdauer konnte man mit der RTX3080 als Beispiel besser fahren, als mit der RX6800XT.
Heuer sehen wir, dass 10GB zu wenig sind und die Karten in den ersten Spielen schon richtig abkacken (gerade Percentile sehen oftmals richtig beschissen aus), 12GB kommen an die Grenze und 16GB? Richtig, die haben noch zwei Jahre vor sich.
Soll ich dir jetzt Beispiele aufzeigen, die aus anderen Gründen wie RT auf der RX6000 abkacken. D as muss jeder für sich bewerten was wichtiger ist und was auch öfter vorkommt.
P.S.
Aber, das sollte man dann eben auch in den Kontext setzen, die RTX4er Serie ist eben dann auch wie seinerzeit die GeForce 6er Serie, ein krachender Gegenschlag geworden.
Findest du, bzw. meinst du das jetzt eher positiv, oder negativ? Ich persönlich sehe in RTX4000 eine mittlere Entwicklung abseits der 4090 nichts besonders tolles.
Ooh,
da muss man differenzieren zw.5070 und 5070Ti, weil die Ti den größeren teuren Chip + mehr Vram hat.
Man wird abwarten müssen, was wirklich kommt.
Nach m.E. wird die Ti dann wesentlich teurer als die 8800xt.
Warum, wenn die ähnliches leisten, werden die auch ähnlich kosten.
Schlimmstenfalls ist die Ti nur kurz verfügbar, weil NV mit der 5080 natürlich mehr Gewinn macht!
Ganz wilde Spekulation. Da die 5080 am markt aber normal weniger gekauft wird, als die 5070ti dürfte der Gewinn eher ähnlich sein.
Wie sich späääter im Frühjahr dann ne 12GB-5070 vs. 16GB-8800nonXT schlägt, mal schauen.
(evtl. gibts da nen Preiskampf und G31 käme vermutlich auch dazu)
Eine 5070 12GB wäre mir da ehrlich völlig egal.
Ich denke bei der 8800XT das es eher 5070 Leistung mit etwas mehr VRam ist und dementsprechend die Preise eher um 600-700€ liegen.
Eine 5070ti sehe ich dann mit 16GB eher um 900-1000€