• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Radeon RX 6600 XT offiziell: RTX-3060-Leistung mit 8 GiByte und 160 Watt, Start am 11. August

onkel-foehn

Software-Overclocker(in)
Wenn aber einige der Gerüchte recht haben sollten und AMD deutlich schneller ist, dann wäre ich nicht erstaunt wenn die das entsprechend fürstlich bezahlen lassen.
Gerüchte ?!? :D

MfG Föhn.
 

Anhänge

  • Bench 1920x1080.jpg
    Bench 1920x1080.jpg
    364,3 KB · Aufrufe: 32
  • Bench 2560x1440.jpg
    Bench 2560x1440.jpg
    358,7 KB · Aufrufe: 32
  • Bench 3840x2160.jpg
    Bench 3840x2160.jpg
    325,6 KB · Aufrufe: 29

XXTREME

Lötkolbengott/-göttin
Für ne popelige 60er Radeon mit seeeehr schmalem 128 Bit SI sollen wir jetzt UVP 379$ auf´n Tisch knallen :what:....sach mal AMD gehts noch oder hat Frau Su zulange in Huangs Küche "geschmort" :ugly: ?
 

deady1000

Volt-Modder(in)
Und mir geht auf den Sack, dass die "grünen Lemminge" immer der Meinung sind, dass AMD immer günstiger sein muss
Ich bin nicht der Meinung, dass AMD grundsätzlich günstiger sein muss, sondern ich versuche zu erklären warum es aktuell so ist. Versetze dich doch mal unbefangen in einen potenziellen Kunden, der ne Grafikkarte kaufen will und die performen in Spielebenchmarks etwa gleich und dann hat die eine Firma noch die Option von DLSS und brauchbarer Raytracingleistung und die andere Firma hat den nicht. Warum sollte man dann das gleiche Geld für die Non-DLSS-Karte bezahlen? Erkläre es mir. Es macht einfach keinen Sinn und deshalb sind die Nvidia-Karten auch begehrter und damit teurer.

Ich bin auch kein grüner Lemming auf Lebenszeit. Wenn AMD ne Karte hätte, die ne RTX3090 alt aussehen lassen würde, dann hätte ich mir die wahrscheinlich geholt. Haben sie aber nicht - zumindest nicht in den Maßstäben, die für mich relevant sind, denn ich nutze DLSS und Raytracing mittlerweile regelmäßig. Ich habe mir zum Beispiel RDR2 erst kürzlich gekauft und freue mich sehr über den DLSS-Support und die Extraleistung. In Cyberpunk das gleiche und zusätzlich noch mit Raytracing auf voller Eskalation. Da würde es mich einfach übelst nerven, wenn ich ne Karte hätte, die das nicht unterstützt. Da kann die noch so viel Rasterization-Performance haben.

Und was die Benchmarks angeht, das ist mir alles sowas von Latte, was die Leute sich immer irgendwo herziehen. Es interessiert auch einfach bei den aktuellen GPU-Serien nicht. Die Dinger sind bei der Rasterization alle etwa gleich schnell bzw sowieso oft schneller als die CPUs oder schnell genug, um ausreichende Bildraten auf maximalen Details zu erreichen.

Alles was ich auf meine RTX3090 geworfen habe, läuft butterweich. Die Zusatzfeatures hat man in der Hinterhand und den Speicher natürlich auch. Das gleiche wird auch für ne RTX3080Ti und RTX3080 gelten, selbst wenn die weniger Speicher haben, ist das doch in der Realität kein großes Problem.

1627773314311.png


Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Ja zu spät und bei mehr Verbrauch. Juckt just aber auf einmal KEINEN NV Jünger mehr
Ich betreibe das Ding überwiegend untervoltet und da zieht die deutlich unter 280-300W. Das Übertaktungspotential ist jedoch vorhanden und kann bis 400W ausgereizt werden. Letztendlich ist es ein Wermutstropfen und es wird auf's ganze Jahr gerechnet ein paar Euro teurer sein, als mit einer AMD-Karte, aber in Relation zu anderen Haushaltsgeräten sind das, auf die paar Stunden, die man in der Woche zockt, auch vernachlässigbare Summen.
RX 580/90 vs. 1060, Vega 56 vs. 1070,
Vega 64 vs. 1080, VII vs. 1080 Ti ...
Jau...

GTX1080Ti - 9. März 2017
Radeon VII - 9. Januar 2019 (+ 672 Tage)

GeForce GTX 1080 - 6. Mai 2016
Vega 56/64 - 14. Aug. 2017 (+ 465 Tage)

Auch sehr fragwürdige Gegenüberstellungen. Man musste bei Vega schon hart reinoptimieren, um die effizient und konkurrenzfähig zu bekommen. Man konnte Pascal aber ebenso optimieren. Letztendlich war das Featureset bei Pascal aber auch wieder besser und von dem Vega-Treiberchaos wollen wir jetzt mal gar nicht erst anfangen.

Habe übrigens nVidia Aktien (sowie AMD, TSMC, ASML, INTEL etc. etc. ...)

MfG Föhn.
Ich habe AMD und TSMC und trotzdem ist das meine Meinung. Übrigens gehen die beide in den letzten Tagen echt gut und das freut mich auch. Trotzdem sind die Grafikkarten einfach noch nicht auf dem Level von Nvidia. Die haben zwar in einigen Feldern echt aufgeholt und teils leicht überholt, aber das Gesamtpaket ist noch nicht rund. Das sage ich nicht als Aktionär, sondern als Realist und Gamer.

Mittlerweile dominiert Nvidia in bestimmten Features recht deutlich und da muss AMD zeigen dass sie alternativen haben und auch als solche wahrgenommen werden. Andernfalls sehe ich keine Chance dass man einen höheren Preis wirklich rechtfertigen kann.
Genau das.
Das günstiger [von AMD] wird wohl eher am Image liegen.
Selbstverständlich auch. Wenn die nächsten zwei Generationen gut werden und auch die Features Nvidia ordentlich in Bedrängnis bringen, könnten wir vielleicht den Ryzen-Effekt sehen. Aber mal sehen. Nvidia ist hoffentlich nicht so dämlich wie Intel und legt jetzt die Füße hoch. Wir profitieren alle von diesem gesunden Konkurrenzkampf - nicht so wie bei dem CPU-Trauerspiel seit Ryzen5000.

Lustigerweise macht Nvidia aktuell doch teilweise den Intel-Move und geht mit der TGP immer höher. Angeblich soll die nächste Generation ja über 400W im Werkszustand ziehen. Hoffentlich ist deren Taktik jetzt nicht, mit jeder Generation immer mehr Strom in die Karte zu kloppen. Das kann's irgendwie auch nicht sein.
 
Zuletzt bearbeitet:

belle

PCGH-Community-Veteran(in)
Für ne popelige 60er Radeon mit seeeehr schmalem 128 Bit SI sollen wir jetzt UVP 379$ auf´n Tisch knallen
Eigentlich gibt es dafür ja den "Unendlichkeitspuffer", wie er hier im Thread schon schön übersetzt wurde.
:D:kaffee:
Man hätte bei einer angestrebten UVP von über 300€ dem Chip zum Ausgleich des Speicherinterface schon 48 bis 64 MB Infinity Cache spendieren können. Das wäre ein schöner Puffer für Ausflüge in WQHD.

Neben meinem weiteren Kritikpunkt von PCIe 3.0 8x bei Nutzung entsprechender Prozessoren ist AMDs Raytracing-Performance für einen ersten Versuch sehr gut gelungen, allerdings weit unterhalb von Nvidias Lösung.
Daher dürfte die Grafikkarte eigentlich garnicht so teuer sein, zumal 8 GB Speicher im Kontext einer Karte von 250 bis 350€ in der unteren Mittelklasse wieder in Ordnung wären. Ich muss allerdings auch etwas loben: Endlich gibt es in der Klasse 64 ROPs bei AMD.

Ich wünsche euch einen entspannten Sonntag
 

geist4711

Software-Overclocker(in)
kein DLSS = Jogginghose
da ich nicht ein spiel habe das DLSS oder auch RT unterstützt spiele ich also nur jogginghose.....

macht nix, spielt sich prima und ich brauche keine dieser überteuerten neuen grafikkarten.

wenn es dann mal diese sachen für mindestens die hälfte meiner spiele gibt, kauf ich mir gerne eine dazu passende garfikkarte, so in 3-5jahren evtl?

allerdings werden viele meiner spiele nichtmehr weiter supportet also dürfte der zeitraum ehr noch länger werden und ein anständiger ersatz für diese spiele,
in form von neuen spielen, gibt es nicht weil es kommt nichts auf den markt weil es sind ja keine ballerspiele, MMO's, etc.
 

Optiki

Freizeitschrauber(in)
Nimm es mir nicht übel, aber das ist einfach nur Quatsch. AMD hat das genaue Gegenteil bewiesen. Vor 5 Jahren kamen die RX 480 mit 8GB für damals unter 200€ raus. Die Karten sind, dank ihres üppigem VRAM, sehr gut gealtert. Nun, 5 Jahre später, sollen also bei einer erheblich stärkeren Karte nochmal 8GB in Ordnung sein?

Die Karte könnte auch 16GB vertragen. Der Grund, warum die Karte nur mit 8GB erscheint, ist, dass sie sonst der RX 6700XT zuviel Konkurrenz machen würde.
Dein Preis stimmt aber nicht so ganz, die RX480 mit 8GB lag bei über 250 Euro zum Release.

Meine Nitro + war im September 2016 im Mindstar für 264,90 Euro.

 

Gurdi

Kokü-Junkie (m/w)
da ich nicht ein spiel habe das DLSS oder auch RT unterstützt spiele ich also nur jogginghose.....

macht nix, spielt sich prima und ich brauche keine dieser überteuerten neuen grafikkarten.

wenn es dann mal diese sachen für mindestens die hälfte meiner spiele gibt, kauf ich mir gerne eine dazu passende garfikkarte, so in 3-5jahren evtl?

allerdings werden viele meiner spiele nichtmehr weiter supportet also dürfte der zeitraum ehr noch länger werden und ein anständiger ersatz für diese spiele,
in form von neuen spielen, gibt es nicht weil es kommt nichts auf den markt weil es sind ja keine ballerspiele, MMO's, etc.
Was spielst du denn?
 

geist4711

Software-Overclocker(in)
meist alte sachen :-)

die alten anno's,
manchmal siedler2/3
stellaris
X4
Noman sky
cities skylines
homeworld
und selten sacred2

leider werden viele der spiele nichtmehr in der art weitergeführt, zb siedler-serie.
andere spiele macht man mit anderen dingen kaputt, wie zb man das mit dem neuen anno gemacht hat, oder mit dem sacred-nachfolger.

was ich gerne spiele ist leider immer weniger vertreten im markt oder wurde eingestellt bzw kaputt-fortgesetzt.
 

Gurdi

Kokü-Junkie (m/w)
meist alte sachen :-)

die alten anno's,
manchmal siedler2/3
stellaris
X4
Noman sky
cities skylines
homeworld
und selten sacred2

leider werden viele der spiele nichtmehr in der art weitergeführt, zb siedler-serie.
andere spiele macht man mit anderen dingen kaputt, wie zb man das mit dem neuen anno gemacht hat, oder mit dem sacred-nachfolger.

was ich gerne spiele ist leider immer weniger vertreten im markt oder wurde eingestellt bzw kaputt-fortgesetzt.
Ja das Problem kenne ich. Hast du dir mal Endless Space angeschaut? Iron Harvest hat auch ne tolle Kampagne.
Auf das neue Siedler bin ich gespannt.
 

Bl4ckR4v3n

Software-Overclocker(in)
Deine Liste @geist4711 könnte auch fast genau so von mir kommen :daumen:
Und, oh Wunder, das schafft auch meine RX580 sogar in WQHD :ugly:
DLSS, RTX? Brauch ich nicht :P
Das ist doch das schöne. Man muss nicht immer nur auf: Was ist das beste bzw. hat den längsten Balken? schauen. Eigene Bedürfnisse prüfen und entsprechend einkaufen. Genauso schaue ich bei den Benches auf meine Spiele und prüfe was besser läuft. Lieber jetzt spaß, als zu hoffen über die Laufzeit den "besseren" Deal gemacht zu haben. Andere sehen das wieder anders.
Bei den genannten Spielen ist die CPU sowieso oft wichtiger. Vor allem Stellaris mit der einzigen echten Endgame Krise des Endgame Lags. (Gottseidank besser geworden)
Es braucht auch gottseidank nicht immer hammer geile Grafik um spaß zu machen. Meiste Spielzeit habe ich bspw. in Factorio und das läuft vermutlich auch auf einer alten iGPU super :D
 

belle

PCGH-Community-Veteran(in)
Stimmt, ich zocke auch noch an Division 2 und CP2077, Borderlands 3 liegt auf Halde. :)
 
Zuletzt bearbeitet:

Schinken

Software-Overclocker(in)
meist alte sachen :-)

die alten anno's,
manchmal siedler2/3
stellaris
X4
Noman sky
cities skylines
homeworld
und selten sacred2

leider werden viele der spiele nichtmehr in der art weitergeführt, zb siedler-serie.
andere spiele macht man mit anderen dingen kaputt, wie zb man das mit dem neuen anno gemacht hat, oder mit dem sacred-nachfolger.

was ich gerne spiele ist leider immer weniger vertreten im markt oder wurde eingestellt bzw kaputt-fortgesetzt.
Ich bin fast sicher, dass du auch Freelancer magst.
Dazu möchte ich mal Everspace 2 als geistigen Nachfolger anmerken. Nachdem ich jahrelang gesucht hab, Freelancer mit Mods auch komplett durchgelutscht hab und mit Elite Dangerous, der X Serie und was es nicht alles heisst nicht warm wurde (alles keine schlechten Spiele, auf ihre Art) bin ich recht begeistert von ES 2. Der Umfang ist leider nicht so, wie ich mir ein Freelancer in 2020 gewünscht hätte (ist noch EA, aber auch zu Release wirds das nicht sein) aber: Das Gefühl ist da. Das Erkunden, die Aufträge, es fühlt sich richtig an.
Kann ich ganz stark empfehlen :D.

Anno 1800 kann ich übrigens auch stark empfehlen. Seit 1402 meiner Meinung nach der beste Teil. Vor allem Komfortfunktionen, Statistiken und Wuselfaktor (plus First Person Easter Quests als Easter Egg) wissen mir zu gefallen. Ausserdem kommt auch wieder Atmosphäre auf. Ich mag zwar Sci Fi, aber in der Zukunft bin ich mit Anno auch nicht warm geworden.

Edit: Ähm Alibi @Topic: Wie willst du denn Siedler 2 unter 10 GB VRAM zum laufen kriegen? Und der RT Patch kommt ja auch bald :D.
 
Zuletzt bearbeitet:

belle

PCGH-Community-Veteran(in)
Die Daten scheinen sich zu bestätigen:
Die RX 6600 XT wird "nur" 32 ROPs und 32 MB Unendlichkeitspuffer bieten.
Das ist in Anbetracht des kleinen Chips zwar nicht schlecht und er bietet hohe Taktraten, aber dennoch hatte ich auf 48 - 64 MB und vielleicht 64 ROPs gehofft.

Zusammen mit der geringen Raytracing-Leistung, die sich mit FSR erst noch im Test beweisen muss, wäre die RTX 3060 zur UVP (!) insgesamt die bessere Wahl. Eine 3060 braucht in Cyberpunk 2077 mit DLSS, aber ohne RT in 1080p ca. 75 Watt.
:kaffee:
Insgesamt scheint es eine gute Karte für bis zu 300€ zu werden.
(Ja, genau) =)
 
Zuletzt bearbeitet:

Prozessorarchitektur

Lötkolbengott/-göttin
So heute gibs Test
meine vermutung +-10% zur rtx3060 abhängig wie gut der inf cache Trifft
trifft es schlecht sind es 15% unter der rtx3060 tifft es gut sind es 15% über der rtx3060
wie kome ich drauf
Nun 100fps als 100%
100/9,6/360*256*10,24*1,58=119%
Dabei spielt die Hitrate des inf ache eine bedeutende rolle
Diese hat nur 32mb in zufolge könnt es nur ein viertel sein vs einer rx6700xt mit 128mb =58/4=14,5
100/9,6/360*256*10,24*1,145=86,9%
Die 58% des inf cache kommt vom amd Folie beim launch von rdna2
ich tendiere dazu ds die hitrate bei 24% liegt (halb so hohe hitrate als mit 128mb)
100/9,6/360*256*10,24*1,24=94%
eventuell schafft man 35-40% hitrate abhängig vom game
Die Spannweite wo den die rx6600xt landet ist damit breit
zumal ich nur von eine takt von 2,6ghz ausgehe
vermutlich wird man aber 2,8-3,0ghz erreichen
dann wäre es
100/9,6/360*256*(2048*2*3/1000)*1,24=112%
 

belle

PCGH-Community-Veteran(in)
Die Vermutung könnte stimmen, da bin ich auch gespannt.
Allerdings bleiben RT-Leistung und PCIe 3.0 8x bei entsprechenden Systemen als Faktoren stehen, hoffentlich geht man darauf auch schon im ersten Test kurz ein.
 
Oben Unten