• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Radeon RX 6600 (XT): Powercolor listet bereits erste Modelle

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Radeon RX 6600 (XT): Powercolor listet bereits erste Modelle

Der Custom-Hersteller Powercolor hat bereits erste Modelle der noch unangekündigten Radeon RX 6600 im eigenen Shop gelistet. Experten erwarten, dass AMD die neuen GPUs auf Navi-23-Basis bald der Öffentlichkeit vorstellt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Radeon RX 6600 (XT): Powercolor listet bereits erste Modelle
 

Huck_Foes

Schraubenverwechsler(in)
Sieht aus wie ein Zyklop :ugly:
Hoffentlich kann AMD wenigstens hier in ausreichender Stückzahl liefern :D
 

Pu244

Lötkolbengott/-göttin
Hoffentlich sind die Preise bald wieder im Normalbereich. Immerhin kostet die RX 6800XT jetzt unter 1050€, also nur noch 200-250€ bis in normale Gefilde.
 

Bevier

Volt-Modder(in)
Bin schon seit der 6600M kein Freund dieser GPU, liegt sie doch zu nah an der 2560 Shader RX 6700. Für diesen winzigen Unterschied mit einem weiteren Modell die zu geringen Produktionskapazitätennoch zu verkleinern, halte ich für eine eher schlechte Entscheidung...
 

Pu244

Lötkolbengott/-göttin
???
Eher das Doppelte bei 650€ UVP
Wenn man dann noch bedenkt, dass die Karte schon wieder 7 Monate alt ist eher mehr um wieder als "normal" zu gelten.

1: Die UVP liegt bei 679€ (wenn ich mich nicht irre)
2: Das Doppelte wären 1358€
3: Die 1044€ sind "nur" 54% drüber.

250€ und man kommt in Regionen, die ein gutes Herstellermodell langsam rechtfertigen. Bis zur UVP der normalen Version sind es natürlich noch etwas über 350€.

Immer noch Welten von den abgedrehten Zeiten entfernt.
 

4thVariety

Software-Overclocker(in)
Vega56/64 Leistungen für 350 Euro.
Also 350 unter normalen Verhältnissen.
Nicht unbedingt ein Fortschritt.
Vor allem wenn man bedenkt, dass die Vega56 für 200€-250€ abverkauft wurde an ihrem Lebensende.

Ich hab das Gefühl der GPU-Berg auf dem die Hersteller sitzen bevor die Preise nochmal so tief sinken wird gewaltig sein müssen.
 

Bevier

Volt-Modder(in)
Okay also ca. da wo die RTX3060 rum wildert. Dann müsste der Vollausbau bei unter 300€ sein (UVP^^).

Ich mag solche kleinen Karten. Wird interessant wenn die Tests draußen sind. Schade, das sie nur 8GB Ram besitzen werden.
Für eine 2000 Shader GPU reichen 8 GB doch massig aus. Für höhere Auflösungen würde einfach die Leistung fehlen. Sinnvoller ausgestattet als die Karten von nVidia, die bei ähnlicher Leistung teure 12 GB bieten, ohne die dafür nötige Leistung zu haben oder auch nur 8 GB bei bedeutend höherer Leistung...
Als FullHD-Karte ideal.
 

Blackout27

Volt-Modder(in)
Für eine 2000 Shader GPU reichen 8 GB doch massig aus. Für höhere Auflösungen würde einfach die Leistung fehlen. Sinnvoller ausgestattet als die Karten von nVidia, die bei ähnlicher Leistung teure 12 GB bieten, ohne die dafür nötige Leistung zu haben oder auch nur 8 GB bei bedeutend höherer Leistung...
Als FullHD-Karte ideal.

Die genannten Karten sind alle grob auf meiner GTX1080TI Leistung und damit ist WQHD meist ohne Probleme möglich. Dir 11GB schätze ich auch sehr. Finde die 12GB der RTX3060 genau richtig zumal Dank DLSS hier und da etwas mehr der Regler auf rechts gedreht werden kann.

8GB reichen sicher auch noch aus keine Frage aber 12GB Schaden auch niemanden.
 

Prozessorarchitektur

Lötkolbengott/-göttin
Die uvp bei amd store liegen bei
rx6700xt 479€
rx6800 579€
rx6800xt 649€
rx6900xt 1000€
das sollten die gpu auch nur kosten + aib Aufschlag wegen anderer Kühlung von max 100€
Die Realität ist aber durchschnitt 300-500€ extra

Die rx6600xt max 379 die rx6600 299€
von der Leistung ist die rx6600xt der rtx3060 (uvp 329€) überlegen
Und der rtx3060ti etwas unterlegen
2048*2,5*2=10,24tf
Die rtx3060ti
4868*2/2*1,4*1,9=12,9tf
Allerdings ist ampere leicht in front wegen den 256bit und 14gbits=448gb/s
so Mathe
100% als Referenz
100/10,24/360*12,9*448=156%
Somit sollte die rtx3060ti um die 56% schneller sein.

beide mit gddr6 14gbits chips wenn aber 16gb chips sind dann ist es weniger
dabei ist nicht sicher ob doch die 2,8ghz möglich sind.

Es fehlt im portfolio bei amd eine rx6700 mit 2304 shader
mal zum spaß 2,8*2*2048=11,48tf und 384gb/s
vs rtx3060ti
100/11,48/384*12,9*448=139%
nvidia wins
rx660xt vs rtx3060
100%/11,48/384*9,5*360=75%
amd Wins

Allerdings habe ich meine Zweifel das dies so kommen wird
Gründe der chip ist nur 120mm² groß siehe mobile variante
Diese Takten mit 2,3-2,5ghz bei etwa 45-65w
Und haben einen wärme von etwa 80°c
Nimmt man die kleinere Kühlung in Bezug wird das nix mit 2,8ghz
eher sind das max bei 2,3ghz zu suchen.
Da hier aber kein dual Lüfter vorgesehen sind und zudem das max von 75w nicht übersteigen soll ist da schnell Schluss, ein 6pin für max 120w wäre möglich.
Somit rechne ich max bei 2,6ghz
2,6*2*2048=10,6tf 120w
Das wäre das niveau einer rtx3060
diese hat 3584*1,8*2/2*1,4=9,5tf
Bissel schneller als nvidia rtx3060 somit dürfte die 379€ als uvp hinkommen.
Die rx6600 wäre bei 1792*2*2,5=9,8tf und nur 75w
Hartes argument rtx3060 Leistung ohne pcie 6 pol Stecker.
Somit dürfte die uvp bei 299€ sein

Das problem bei nvidia ist das deren ampere Architektur nicht wirklich alle shader auslasten kann da deren Natur so ist
1792 fp32 alu und 1792 fp16 alu
Wo die 1792 fp16 auch 896 fp32 rechnen können wäre da nicht ein cpu limit,
im optimum sind das 2688 shader und somit Faktor 1,5 im idealfall oft kommt es aber zu 1,3 oder 1,4 fachen.
Was primär an der Latenz von der cpu liegt je mehr shader und kleiner die Auflösung desto weniger wirds ausgelastet
Bei der rtx3060 sind es etwa 40% von den 1792 shader die angesprochen werden können (mit einer high end cpu mit max ipc aktuell zen3 mit 3,0 cb11,5 points)
Bei der rtx3060ti sind es nur noch 30%
Das liegt primär am cpu limit.
Die klare marketing aussage von 12tf für die rtx3060 sind quasi gelogen.

So gesehen ist die rx6600xt die perfekte Einsteiger klasse bis 200€ wenn wir einen normalen markt hätten.
etwa 10tf mit max 75w
Das werden wir bei nvidia erst bei lovelace also rtx4000 sehen 2023 (samsung 5nm euv)
Die ganzen Rechnungen offenbaren das die gpu leistungsabstände zu groß sind
rtx3060 100%
rtx3060ti 164%
man merkt wirklich das nvidia ursprünglich mit tsmc gerechnet hatte
Der ga106 ist einfach zu klein konstruiert worden.
amd dagegen hat nen guten n23 chip abgeliefert der min 2,4gfhz taktet und max 120w bei 2,6ghz verbraucht
Mit nur 2,3ghz ist man bei 65w
Eigentlich spricht alles für die rx6600 wär da nicht de treiber der zwar ok für neue spiele ist aber altes oft ein krampf. insbesondere opengl und directx unterhalb von 9
Sehr problematisch sind dx8 und älter opengl generell unter version 3
Wer kein retro game ist kann das egal sein, dem rest sage ich nur das sollte eine bewusst sein.
Erfahrungen mit gcn gen2 (mobile r5 240m)
Ob das bei rdna2 besser ist?
 

Ghostshield

PC-Selbstbauer(in)
Die uvp bei amd store liegen bei
rx6700xt 479€
rx6800 579€
rx6800xt 649€
rx6900xt 1000€
das sollten die gpu auch nur kosten + aib Aufschlag wegen anderer Kühlung von max 100€
Die Realität ist aber durchschnitt 300-500€ extra

Die rx6600xt max 379 die rx6600 299€
von der Leistung ist die rx6600xt der rtx3060 (uvp 329€) überlegen
Und der rtx3060ti etwas unterlegen
2048*2,5*2=10,24tf
Die rtx3060ti
4868*2/2*1,4*1,9=12,9tf
Allerdings ist ampere leicht in front wegen den 256bit und 14gbits=448gb/s
so Mathe
100% als Referenz
100/10,24/360*12,9*448=156%
Somit sollte die rtx3060ti um die 56% schneller sein.

beide mit gddr6 14gbits chips wenn aber 16gb chips sind dann ist es weniger
dabei ist nicht sicher ob doch die 2,8ghz möglich sind.

Es fehlt im portfolio bei amd eine rx6700 mit 2304 shader
mal zum spaß 2,8*2*2048=11,48tf und 384gb/s
vs rtx3060ti
100/11,48/384*12,9*448=139%
nvidia wins
rx660xt vs rtx3060
100%/11,48/384*9,5*360=75%
amd Wins
4868*2/2*1,4*1,9=12,9tf ist falsch

16.78 TFLOPS hat die 3060 TI

Die Formel ist auch bei Nvidia
Shader x Chiptakt x 2 = FP32 Tflops.
 

Pu244

Lötkolbengott/-göttin
Für eine 2000 Shader GPU reichen 8 GB doch massig aus. Für höhere Auflösungen würde einfach die Leistung fehlen. Sinnvoller ausgestattet als die Karten von nVidia, die bei ähnlicher Leistung teure 12 GB bieten, ohne die dafür nötige Leistung zu haben oder auch nur 8 GB bei bedeutend höherer Leistung...
Als FullHD-Karte ideal.

Bei GTX 670 würden sogar noch 6GB Sinn ergeben, von daher würde diese Karte wohl auch von 16GB oder sogar noch mehr, profitieren. Nvidia bietet mit seiner RTX 3060 sogar 12GB, von daher ist Nvidia zumindest da wohl besser aufgestellt.

Wenn das Ding ähnlich schnell ist, wie eine GTX 1080Ti, dann kann man die Karte auch oft in 4K nutzen. Die Auflösung ist für den Speicher auch eher zweitrangig, wichtiger sind die Details.
 

Nuklon

Freizeitschrauber(in)
Da kommt die Salami wieder in Scheibenform um die Ecke. Bestimmt sitzen mal wieder alle auf dem NDA.
Ich bin gespannt ob AMD Nvidia die Rücklichter zeigen kann.
 

Prozessorarchitektur

Lötkolbengott/-göttin
Nur blöd das dies nicht möglich ist
Es sind nativ 2434 fp32 alu/shader
Und 2434 fp16 alu/shader
Die fp16 können fp32 50% Operationen oder fp16 100% Operationen ausführen lediglich die zeit also Latenz entscheidet wie gut diese ausgelastet werden derzeitige test gehen von max 40% aus
allerdings nur mit einer high end cpu idem fall den r9 5900x bzw massiv oc ci9 11900k (ab 5,2ghz) 1080p
ideal sind machbar 50% somit ist die Rechnung so
4868shader *2 Operationen*1,9ghz/2/1000*1,4fach (40%)=12,94tf
Was etwa einer gtx1080ti FE entspricht 3584*2*1,8=12,9tf oder rtx2080s
3072*2*2=12,2tf

Zu release also dez waren es max 20-30%
genauer ermittele ich bei meinen test mit hoffentlich bald kommende bezahlbaren rtx 3060 unter 400€
Hab heute wieder den Zeitpunkt bei media markt verpasst. (asus 379€)
Die bisherigen werte sind grobe vergleiche aus techpowerup
vs meiner gpu das sind max. 88% zur FE edition der gtx1060 meine ist gut 11% schneller
somit dürfte um die 77% bis 83% schneller sein da bei den test die grundtaktrate von nur 1,77ghz zählt da aber alle bis zu 1,85ghz laufen
ist da mehr drin.
Sinnvoller wäre die rtx3060ti fe wenn diese den auch kaufbar wäre.
Einzig eins treibt mich zur rx3060 die 12GB vram
Das könnte sich durchaus in 2 Jahren als vorteilhaft erweisen.
Die große unbekannte ist direct storage und fsr
beides könnte den vram verkleinern und Leistung steigern.
offen ist nur eins wird dlss dxr auf rtx3060 retten. Bisher sieht das schlecht aus.
Amd Gegenpart ist da nicht besser

Generell ist die fp32 Leistung relativ zu sehen den die ipc ist seit 2006 am sinken
Allerdings sind es mehr shader die höher Takten
Wren anfänglich die unified shader deutlich in der ipc gestigen vs der alten getrennten shader technik von vertex und pixel
Somit wurden die beiden rechenwege kombiniert so das diese eine hohe ipc hatten.
Infolgedessen wurde das sehr warm. merke die fermi architektur gtx480 mit deren 32 alu pro sm 15sm
und dessen shader takt bei 1,4ghz und 700mhz coreclock
ipc etwa 0,41fps pro shader
kepler also gtx780ti liegt die shader ipc bei 0,034fps
somit sind es
0,41/0,034=1/12 dessen an ipc pro shader aber eben mehr
struktur 192alu pro sm vs 32 alu pro sm
Sin dahinter wärme ruktion da auch der takt von 1,4ghz auf 900mhz gesenkt wurde.
Dadurch wurden die gpu sparsamer und kühler.
diese techni ist bis heute so geblieben einzig die fp16 einheiten können zusärzlioch fp32 ausführen. un die shader struktur ist bei 96 fp32 einheiten effektiv
Nvidia rechnet aber 64 fp32 und 64shader fp16 Einheiten mit zu 32shader fp32 operationen möglich sind
ipc derzeit
100/7872=0,012fps pro shader sofern auch 50% fp16 funktionieren eher sind es weniger.
siehe 0,034/0,012=1/3 der ipc seit 2013
also insgesamt seit fermi 0,41/0,012=1/34
aber eben mehr shader mit mehr takt.
das ist ein parade bsp für Parallelisierung.
natürlich nehme ich 100% als fps an den ein so altes spiel mit festen fps würde sofort in ein cpu limit rennen und die alte gpu könnte es nicht mal starten. daher die Annahme von 100fps als bsp relativ zu gpu Leistung.
Einzig metro 2033 könnte nicht in eine cpu limit rennen in 4k
meine gtx1060 erreicht da nur 17,4fps
relativ wäre dann 17,4/1280*7872=107fps mit eine kleines Risiko von einen cpu limit.
zur rtx3060 wären es 35fps
 

sterreich

Software-Overclocker(in)
1: Die UVP liegt bei 679€ (wenn ich mich nicht irre)
2: Das Doppelte wären 1358€
3: Die 1044€ sind "nur" 54% drüber.

250€ und man kommt in Regionen, die ein gutes Herstellermodell langsam rechtfertigen. Bis zur UVP der normalen Version sind es natürlich noch etwas über 350€.

Immer noch Welten von den abgedrehten Zeiten entfernt.
1. Preis auf AMD.com ist 650.86€, also $ UVP entsprechend umgerechnet.
2. Das Doppelte war auf deine "Reduktion" von 200-250€ bezogen
3. Eben, 54% Überzahlung für 7 Monate alte Hardware ist fernab von normal.

150€ Aufpreis muss schon ein verdammt gutes Boarddesign im Vergleich zum Ausgangsmodell sein. Die meisten sind keine 50€ wert
Vega56/64 Leistungen für 350 Euro.
Also 350 unter normalen Verhältnissen.
Nicht unbedingt ein Fortschritt.
Meine Pulse Vega 56 hat neu 239€ gekostet, vor 2 Jahren. Also ja. Fortschritt schaut anders aus.
 
Zuletzt bearbeitet:

0ldN3rd

Software-Overclocker(in)
Was passiert wohl mit den Preisen, wenn man Geld druckt wie blöde?
Hier mal die Geldmenge im Umlauf in US-Dollar...
Die Info zum Euro liegt soweit ich es sehen konnte hinter einer Paywall... hat aber wohl einen ähnlichen Verlauf.


Also auf genau welcher wirtschaftlichen Mechanik sollen jetzt doch gleich die Preise für irgendwas fallen?
Zumal der ganze Klumbatsch in $ gehandelt wird... Rohmaterialien... usw...

Nur mal so als Frage für die, die erst wieder ne Mittelklasse GPU kaufen wenn es die für 200...300€ gibt... wie früher(TM)
 

Sidewinder

Komplett-PC-Käufer(in)
Nur mal so als Frage für die, die erst wieder ne Mittelklasse GPU kaufen wenn es die für 200...300€ gibt... wie früher(TM)
So ist es! Wir neigen dazu alte Preise im Kopf zu haben und dabei die Inflation außer acht zu lassen. Wenn man im Jahre 2001 für eine Mittelklasse Grafikkarte 200€ ausgegeben hat, müsste man heute etwa 265€ ausgeben um auf die gleiche Kaufkraft zu kommen.
 

0ldN3rd

Software-Overclocker(in)
@Sidewinder ja so in etwa, aber dies lässt die Geldschwemme von 2020 noch völlig außer acht......

Aktuell bin ich tatsächlich verwundert, dass der Laib Brot nicht schon 40,-€ kostet....
 

Sidewinder

Komplett-PC-Käufer(in)
Theoretisch macht es seitens AMD keinen Sinn Ressourcen für eine neue Grafikkarte unterhalb der 6700er zu verschwenden, die im 300+ € Bereich angesiedelt ist.
Normalerweise würde die 5700er diese Lücke füllen, leistungstechnisch sowie preislich - wenn man die unglückliche Situation am Grafikkarten Markt ausklammert wäre die lineare Preisabnahme in diesem Bereich.
 

Registrierzwang

PC-Selbstbauer(in)
So ist es! Wir neigen dazu alte Preise im Kopf zu haben und dabei die Inflation außer acht zu lassen. Wenn man im Jahre 2001 für eine Mittelklasse Grafikkarte 200€ ausgegeben hat, müsste man heute etwa 265€ ausgeben um auf die gleiche Kaufkraft zu kommen.
? Die Inflationsrate ist zwar auf ca. 2% inzwischen gestiegen, aber hauptsächlich wegen den gestiegenen Energiepreisen.
Ich glaube bei Dir nennt sich das Realitätsverlust wenn Du der Meinung bist, die Grafikkartenpreise müssten um 25% steigen und das wäre noch "normal "...
 

Rollora

Kokü-Junkie (m/w)
die x600er Modelle waren bei AMD wie Nvidia mal interessant, was P/L betrifft, aber momentsn warte ich lieber ab
 

belle

PCGH-Community-Veteran(in)
Ich glaube bei Dir nennt sich das Realitätsverlust wenn Du der Meinung bist, die Grafikkartenpreise müssten um 25% steigen und das wäre noch "normal "...
Natürlich ist es zum Teil Abzocke, aber es gibt scheinbar genügend Nutzer, die mitmachen. Ich habe 25% Aufpreis als Schmerzgrenze in Kauf genommen.

Interessant wäre Navi 23 in Form der RX 6600 XT für mich mit der Möglichkeit auf PCIe 3.0 16x und mit 64 MiB Infinity Cache wegen zukünftig WQHD gewesen, aber das wird nun wohl beides nicht geboten.
 
Zuletzt bearbeitet:

JackA

Volt-Modder(in)
So ist es! Wir neigen dazu alte Preise im Kopf zu haben und dabei die Inflation außer acht zu lassen. Wenn man im Jahre 2001 für eine Mittelklasse Grafikkarte 200€ ausgegeben hat, müsste man heute etwa 265€ ausgeben um auf die gleiche Kaufkraft zu kommen.
Kann man so nicht vergleichen. Es kommt immer drauf an, wie viel Leistung man in der aktuellen High-Class mehr bekommt.
Damalige untere Mittelklasse z.B: 8800 GTS kostete 330€ und die höhere Mittelklasse 8800 GTX 430€ und die High-Class 8800 ULTRA kostete 650€. Also in der Mittelklasse hat sich nicht viel getan bei den Preisen. Die High-Class ist nur teurer geworden, wo man aber eben abwägen muss, wie viel mehr Leistung ich heute von der High-Class bekomme im Vergleich zur damaligen High-Class.
 

XXTREME

Lötkolbengott/-göttin
Wo reicht sich denn die Leistung ca. ein im Vergleich zu den Nvidia Karten?
2070 non S bzw. 2060S vermutlich.
Kann man so nicht vergleichen. Es kommt immer drauf an, wie viel Leistung man in der aktuellen High-Class mehr bekommt.
Damalige untere Mittelklasse z.B: 8800 GTS kostete 330€ und die höhere Mittelklasse 8800 GTX 430€ und die High-Class 8800 ULTRA kostete 650€. Also in der Mittelklasse hat sich nicht viel getan bei den Preisen. Die High-Class ist nur teurer geworden, wo man aber eben abwägen muss, wie viel mehr Leistung ich heute von der High-Class bekomme im Vergleich zur damaligen High-Class.
Die 8800 G80 Karten waren durchweg High End und nicht Mittelklasse Karten :wall:. Mittelklasse waren seinerzeit die 8600GTS und GT. Selbst der später erschienene G92 Chip war niemals "Mittelklasse" sondern gehörte der Performance bzw. Oberklasse an.
 
Zuletzt bearbeitet:

sterreich

Software-Overclocker(in)
Vega56/64 Leistungen für 350 Euro.
Also 350 unter normalen Verhältnissen.
Nicht unbedingt ein Fortschritt.

So ist es! Wir neigen dazu alte Preise im Kopf zu haben und dabei die Inflation außer acht zu lassen. Wenn man im Jahre 2001 für eine Mittelklasse Grafikkarte 200€ ausgegeben hat, müsste man heute etwa 265€ ausgeben um auf die gleiche Kaufkraft zu kommen.
200€ waren damals aber nicht Mittelklasse, sondern schon High End.
Die HD Radeon 4850 hat mich 2008 um die 150€ gekostet (Release MSRP 200$), die 4870 (Release MSRP 300$) gab es ab 230€, darüber kamen nur mehr Dualkarten.
Das Pendant war damals das immer etwas teurere Nvidia mit den 8800er Karten (Release MSRP 350$). Ausgenommen die GTX, die ist aber das Pendant zur 3090 heute und wurde um 599$ released und ist meiner Erinnerung nach schnell im Preis gefallen.

Der Dollar war damals auch recht schwach im Vergleich. 300$ waren an die 200€, plus Steuer also 240-250€


Und das Argument vom Kaufkraftverlust zieht sowieso nicht über einen Zeitraum von 2 Jahren 45% mehr für ungefähr die selbe Leistung zu zahlen. So stark war die Inflation nicht.
 

Blackout27

Volt-Modder(in)
2070 non S bzw. 2060S vermutlich.

Die 8800 G80 Karten waren durchweg High End und nicht Mittelklasse Karten :wall:. Mittelklasse waren seinerzeit die 8600GTS und GT. Selbst der später erschienene G92 Chip war niemals "Mittelklasse" sondern gehörte der Performance bzw. Oberklasse an.

"Blackout streichelt liebevoll seine 8800 Ultra als er dieses Kommentar liest" ^^

Die Preise sind schon arg hochgeschlossen in den letzten Jahren. Gerade in der Mittelklasse stört es doch sehr. Unter 250€ bekommt man nicht mehr so viel geboten wie vor ein paar Jahren noch.

Mich würde mal interessieren wie hoch die Margen bei Nvidia und AMD heute sind (UVP).
 

belle

PCGH-Community-Veteran(in)
2070 non S bzw. 2060S vermutlich.
Mittelklasse waren seinerzeit die 8600GTS und GT. Selbst der später erschienene G92 Chip war niemals "Mittelklasse" sondern gehörte der Performance bzw. Oberklasse an.
Die Karte sind noch immer viel zu teuer, das steht außer Frage und da muss man dir auch zustimmen.
Ich hoffe nur, dass die Preise von Mittelklassekarten nicht bei 300 bis 450€ verharren und man irgendwann wieder brauchbare Karten um 250 - 300€ sieht. Die Oberklasse wird wohl teuer bleiben, was Verbreitung von 4K-Monitoren nicht gerade antreiben dürfte.
Aktuell bin ich tatsächlich verwundert, dass der Laib Brot nicht schon 40,-€ kostet....
Eine Grafikkarte kaufen viele aller paar Jahre und wenn schon nach einem Jahr gewechselt wird, wird die alte Karte meist verkauft. Das mag ein Grund sein, warum viele ~25% noch hinnehmen.

Die billigen Preise vor allem von Vega56 teils unter 250€ sehe ich allerdings eher als einzigartigen Abverkauf einer insgesamt unbeliebten Generation - auch wenn das zu dem Preis ein Geheimtipp war.
 

0ldN3rd

Software-Overclocker(in)
@belle... ja, das waren wenn ich mich recht erinnere nicht die UVP zum Release... kann mich aber täuschen. Im Abverkauf haben wir diese Preise aber gesehen, dass wiederum weiß ich noch als ob es gerade 2..3 Jahre her wäre.
 

sterreich

Software-Overclocker(in)
Die billigen Preise vor allem von Vega56 teils unter 250€ sehe ich allerdings eher als einzigartigen Abverkauf einer insgesamt unbeliebten Generation - auch wenn das zu dem Preis ein Geheimtipp war.
War bei den Nvidia 900ern ja nicht anders, und die waren durchaus beliebt.

Den Preisverfall gibt es derzeit einfach nicht.
 

deady1000

Volt-Modder(in)
Wie schnell soll denn die Karte werden? Finde dazu nix.
Ist die schneller als eine GTX1080? :ugly:
Falls nein, dann wäre mir die Karte keine 300€ wert.

Vom Design her ganz süß, aber die Specs und der Single-Fan deuten schon an, dass es sich um das Low-Budget handelt.

Kennt ihr diese Leute, die noch alles in DM umrechnen? Man könnte jetzt sagen, dass man vor ca 6-7J noch für 329€ eine GTX 970 bekommen konnte. Heute bekommt man für die Kohle nur noch das Billigste vom Billigen.

EDIT:
Wo reicht sich denn die Leistung ca. ein im Vergleich zu den Nvidia Karten?
Ups, jetzt erst gesehen.
Dann wäre die ja tatsächlich ziemlich exakt auf dem Niveau einer GTX1080.

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 
Zuletzt bearbeitet:
Oben Unten